Nghiên cứu đăng trên PLOS One đã phỏng vấn 28 người tham gia “LLM red teaming” – quá trình thử thách giới hạn AI tạo sinh như ChatGPT bằng cách cố tình khiến AI trả lời ngoài dự kiến hoặc vượt rào bảo mật.
Red teamer đến từ nhiều ngành nghề: kỹ sư phần mềm, nhà nghiên cứu, nghệ sĩ, thậm chí...
bảo mật ai
chatgpt
chiến lược thao tác ngôn ngữ
cộng đồng red teamer
kỹ thuật jailbreak ai
kỹ thuật xã hội
llm red teaming
nghiên cứu plos one
phươngphápđịnhtính
thử thách chatgpt