Một nghiên cứu mới từ Đại học Ben Gurion (Israel) cho thấy các chatbot AI hàng đầu hiện nay có thể dễ dàng bị lừa để vượt qua rào cản an toàn, cung cấp thông tin độc hại hoặc thực hiện hành vi phạm pháp. Các nhà nghiên cứu cũng cảnh báo về sự trỗi dậy của "Dark LLMs".
Lỗ hổng "Jailbreak"...
Nghiên cứu đăng trên PLOS One đã phỏng vấn 28 người tham gia “LLM red teaming” – quá trình thử thách giới hạn AI tạo sinh như ChatGPT bằng cách cố tình khiến AI trả lời ngoài dự kiến hoặc vượt rào bảo mật.
Red teamer đến từ nhiều ngành nghề: kỹ sư phần mềm, nhà nghiên cứu, nghệ sĩ, thậm chí...
bảo mật ai
chatgpt
chiến lược thao tác ngôn ngữ
cộng đồng red teamer
kỹthuậtjailbreakaikỹthuật xã hội
llm red teaming
nghiên cứu plos one
phương pháp định tính
thử thách chatgpt