an ninh trí tuệ nhân tạo

  1. Duy Linh

    Lỗ hổng gây sốc trong Guardrails: Cơ chế bảo mật của OpenAI bị qua mặt bởi chính mô hình mà nó giám sát

    Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
  2. Code Nguyen

    Chỉ 250 tài liệu độc hại cũng đủ “đầu độc” ChatGPT và Gemini?

    Bạn có từng nghĩ chỉ vài trăm tài liệu độc hại trên internet cũng đủ "bẻ lái" một mô hình AI khổng lồ như ChatGPT hay Gemini? Khi AI học nhầm chỉ vì 250 tài liệu Một nhóm nghiên cứu từ Viện An ninh AI của Anh, Viện Alan Turing và công ty Anthropic đã phát hiện một điều đáng lo: chỉ cần khoảng...
Back