khai thác llm

  1. MinhSec

    Làm sao hacker có thể khiến AI tạo ra nội dung nguy hiểm?

    Cách kẻ tấn công lừa LLM mà không cần lời nhắc trực tiếp Một hình thức tấn công mạng bằng trí tuệ nhân tạo mới, có tên Echo Chamber, vừa được nhà cung cấp bảo mật AI Neural Trust công bố. Cuộc tấn công Proof-of-Concept (PoC) này cho thấy kẻ tấn công có thể thao túng các mô hình ngôn ngữ lớn...
  2. MinhSec

    Chỉ một câu lệnh, AI có thể biến thành “gián điệp”?

    Khi các mô hình ngôn ngữ lớn (LLM) được tích hợp vào hệ thống doanh nghiệp, một lỗ hổng mới xuất hiện: khai thác ngôn ngữ để điều khiển tác nhân AI. Không cần mã độc hay liên kết lừa đảo kẻ tấn công chỉ cần một lời nhắc đúng cách. Trong vụ tấn công "không nhấp chuột" mang tên Echoleak...
Back