jailbreak ai

  1. Code Nguyen

    Chỉ kể chuyện, AI của Snapchat vô tình hướng dẫn cách làm bom xăng

    Bạn có tin một chatbot “thân thiện” có thể vô tình dạy người ta cách làm bom chỉ bằng một… câu chuyện không? Thí nghiệm mới của nhóm Cybernews cho thấy hệ thống AI của Snapchat – vốn đang phục vụ hơn 900 triệu người dùng mỗi tháng – có thể bị điều khiển để tiết lộ nội dung bị hạn chế một cách...
  2. Duy Linh

    Lỗ hổng gây sốc trong Guardrails: Cơ chế bảo mật của OpenAI bị qua mặt bởi chính mô hình mà nó giám sát

    Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
Back