kỹ thuật jailbreak ai

  1. Khánh Vân

    "Bẻ khóa" ChatGPT, Gemini dễ như ăn kẹo? Nghiên cứu mới hé lộ lỗ hổng AI đáng sợ

    Một nghiên cứu mới từ Đại học Ben Gurion (Israel) cho thấy các chatbot AI hàng đầu hiện nay có thể dễ dàng bị lừa để vượt qua rào cản an toàn, cung cấp thông tin độc hại hoặc thực hiện hành vi phạm pháp. Các nhà nghiên cứu cũng cảnh báo về sự trỗi dậy của "Dark LLMs". Lỗ hổng "Jailbreak"...
  2. Nguyễn Hoàng

    35 kỹ thuật “jailbreak” AI chatbot, phân tích động lực và chiến lược của các LLM red teamers

    Nghiên cứu đăng trên PLOS One đã phỏng vấn 28 người tham gia “LLM red teaming” – quá trình thử thách giới hạn AI tạo sinh như ChatGPT bằng cách cố tình khiến AI trả lời ngoài dự kiến hoặc vượt rào bảo mật. Red teamer đến từ nhiều ngành nghề: kỹ sư phần mềm, nhà nghiên cứu, nghệ sĩ, thậm chí...
Back