tấn công prompt injection

  1. Duy Linh

    Vì sao hộp thoại phê duyệt AI trở thành điểm yếu nghiêm trọng?

    Các nhà nghiên cứu bảo mật tại Checkmarx đã phát hiện một lỗ hổng nghiêm trọng trong cơ chế Human-in-the-Loop (HITL) của các tác nhân AI vốn được thiết kế để tăng cường an ninh bằng cách yêu cầu người dùng phê duyệt trước khi thực thi hành động. Thay vì đóng vai trò là tuyến phòng thủ cuối cùng...
  2. Duy Linh

    Lỗ hổng gây sốc trong Guardrails: Cơ chế bảo mật của OpenAI bị qua mặt bởi chính mô hình mà nó giám sát

    Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
  3. Nguyễn Tiến Đạt

    Đây là bằng chứng AI có thể bị lợi dụng để phát triển ransomware

    Công ty an ninh mạng ESET vừa phát hiện một biến thể ransomware mới có tên mã PromptLock, được hỗ trợ bởi trí tuệ nhân tạo (AI). Chủng mã độc này được viết bằng Golang và sử dụng mô hình gpt-oss:20b của OpenAI thông qua API Ollama để tạo ra các tập lệnh Lua độc hại theo thời gian thực. Đây là...
  4. Code Nguyen

    Chỉ một tài liệu độc có thể khiến ChatGPT lộ sạch dữ liệu?

    Tại hội nghị hacker Black Hat ở Las Vegas, hai nhà nghiên cứu Michael Bargury và Tamir Ishay Sharbat đã chứng minh một điều đáng sợ: chỉ cần một tài liệu được “tẩm độc” là có thể đánh cắp dữ liệu riêng tư từ ChatGPT, nếu nó được kết nối với các dịch vụ lưu trữ bên ngoài như Google Drive hay...
Back