bypass ai safety

  1. Duy Linh

    ChatGPT, Claude và Gemini nằm trong số 11 mô hình AI dễ bị tấn công bằng một dòng lệnh duy nhất.

    Một kỹ thuật tấn công mới có tên sockpuppeting đang khiến giới an ninh mạng chú ý khi có thể buộc 11 mô hình AI hàng đầu như ChatGPT, Claude và Gemini vượt qua các cơ chế bảo vệ an toàn. Điểm đáng lo ngại là kẻ tấn công chỉ cần khai thác một tính năng API tiêu chuẩn với một dòng mã duy nhất...
Back