Hiểm họa: Chatbot AI có thể bị lừa bởi câu lệnh độc hại giấu trong thơ

Kaya

Writer
Một nghiên cứu gần đây cảnh báo nguy cơ mất bất ngờ mất an toàn từ AI, những câu thơ tinh vi có thể “qua mặt” chatbot, khiến hệ thống bỏ qua cơ chế an toàn và thực thi các yêu cầu "độc hại" mà thường sẽ bị từ chối. Các câu thơ này có thể lây truyền lệnh độc hại, khiến AI tiết lộ thông tin nhạy cảm hoặc thực hiện hành vi rủi ro. Khi người dùng ngày càng phụ thuộc trợ lý ảo trong học tập, công việc và sinh hoạt, kỹ thuật này gọi là "adversarial poetry" – thơ đối kháng, đang trở thành mối đe dọa thực tế cho dữ liệu cá nhân và an ninh mạng.

Bản chất của vấn đề nằm ở cách các mô hình ngôn ngữ lớn (LLM) xử lý ngôn ngữ. AI không “hiểu” thơ theo cảm nhận của con người mà hoạt động dựa trên mô hình thống kê và mẫu ngôn ngữ. Khi một đoạn thơ được soạn khéo léo, lồng ghép các câu lệnh độc hại với cấu trúc mơ hồ hoặc ẩn ý, nó có thể làm lệch hướng phân tích ngữ cảnh của mô hình khiến lớp kiểm duyệt nội dung bị bỏ qua. Một số nghiên cứu đã cho thấy thơ đối kháng ở một số trường hợp đã thành công vượt qua hàng rào an toàn của nhiều mô hình, với tỉ lệ đáng chú ý trong các thử nghiệm.

Hệ quả là chatbot có thể cung cấp hướng dẫn cho các hành vi nguy hiểm, sinh ra nội dung độc hại hoặc tiết lộ thông tin nhạy cảm dù bình thường chúng đã được lập trình để từ chối. Điều này đặc biệt nguy hiểm khi các công cụ AI được tích hợp vào môi trường doanh nghiệp, nơi dữ liệu nhạy cảm và quyền truy cập quan trọng có thể bị lộ nếu chatbot bị “dẫn dắt” theo hướng sai. Ngay cả người dùng cá nhân cũng có thể bị lừa khi coi AI như nguồn tin chắc chắn, một câu thơ hấp dẫn, khéo léo có thể khiến họ nhận được câu trả lời mà nếu đặt thẳng câu hỏi, AI sẽ từ chối cung cấp.

Thiết kế chưa có tên (1).png

Phải nhấn mạnh rằng đây không phải là lỗ hổng duy nhất hay bằng chứng AI “vô dụng”. Thay vào đó, nó là lời nhắc rõ ràng rằng công nghệ vẫn còn những điểm yếu tinh vi, và việc phụ thuộc hoàn toàn vào kết quả do máy sinh ra là thiếu an toàn. Các nhà phát triển mô hình và nền tảng đang nỗ lực cập nhật cơ chế phòng thủ, nhưng cuộc đua giữa phương pháp tấn công sáng tạo và biện pháp bảo vệ cũng đang diễn ra nhanh chóng.

Với người dùng phổ thông, điều quan trọng không phải là hoảng sợ mà là thận trọng. Hãy xem chatbot như một công cụ hỗ trợ chứ không phải quyết định cuối cùng. Khi nhận được nội dung nhạy cảm, hướng dẫn kỹ thuật, hoặc đề xuất có thể gây tổn hại, người dùng cần kiểm chứng bằng nguồn tin đáng tin cậy hoặc hỏi ý kiến chuyên gia trước khi hành động. Doanh nghiệp cần rà soát cách tích hợp AI vào hệ thống, giới hạn quyền truy cập dữ liệu, và thiết lập giám sát để phát hiện hành vi bất thường.

Theo các chuyên gia, người dùng nên lưu ý một số khuyến nghị sau để tự bảo vệ mình:
  • Không tin tuyệt đối vào câu trả lời của chatbot, nhất là với nội dung nhạy cảm, pháp lý, y tế hay kỹ thuật.
  • Không dùng chatbot để hỏi cách làm việc nguy hiểm hoặc bất hợp pháp, dù đóng gói dưới dạng thơ hay ngôn ngữ mỹ miều.
  • Không chạy mã hoặc thao tác do AI sinh ra nếu bạn không hiểu rõ; luôn kiểm tra chéo bằng nguồn uy tín.
  • Cập nhật hệ thống AI và các bản vá do nhà cung cấp phát hành; doanh nghiệp nên triển khai giám sát và giới hạn quyền truy cập dữ liệu.
Tổng hợp
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview

1,3 tỷ mật khẩu bị rò rỉ, đẩy hàng triệu tài khoản trực tuyến vào nguy hiểm

  • 10,786
  • 0
Một kho dữ liệu khổng lồ vừa bị tung lên web "đen", làm dấy lên cảnh báo về nguy cơ đột nhập tài khoản trên phạm vi toàn cầu. Quy mô rò rỉ lần này...

LANDFALL: Biến ảnh gửi qua WhatsApp thành vũ khí tấn công người dùng Samsung

  • 10,684
  • 0
Các chuyên gia an ninh mạng vừa phát hiện một loại phần mềm gián điệp cực kỳ tinh vi có tên LANDFALL, đang âm thầm tấn công người dùng điện thoại...

Liên minh 3 nhóm hacker khét tiếng thành thế lực đe dọa toàn cầu

  • 14,272
  • 0
Một “liên minh” mới của giới tội phạm mạng đang khiến các chuyên gia bảo mật lo ngại. Ba nhóm hacker khét tiếng: Scattered Spider, LAPSUS$ và...

Cảnh báo: Mã độc giả mạo Telegram X chiếm toàn bộ điện thoại và thiết bị của bạn

  • 11,744
  • 0
Các chuyên gia vừa cảnh báo về một chiến dịch mã độc trên Android, giả mạo ứng dụng Telegram X, có khả năng chiếm quyền kiểm soát gần như toàn bộ...

Hơn 48.000 thiết bị Cisco đối mặt làn sóng tấn công từ ba lỗ hổng nghiêm trọng

  • 10,821
  • 0
Cisco đang gặp cảnh báo an ninh mạng nghiêm trọng khi ba lỗ hổng mới được phát hiện trên các sản phẩm cốt lõi của hãng. Hai lỗ hổng ảnh hưởng đến...

Cháy trung tâm dữ liệu, hơn 600 dịch vụ chính phủ Hàn Quốc tê liệt

  • 12,486
  • 0
Một vụ cháy nghiêm trọng tại Trung tâm Dữ liệu Quốc gia ở thành phố Daejeon đã khiến hơn 600 hệ thống CNTT của chính phủ Hàn Quốc đồng loạt ngừng...

Khi dữ liệu số bị lộ: Hacker có thể làm gì với các thông tin tài chính của bạn?

  • 14,367
  • 1
Các vụ tấn công mạng gần đây cho thấy sự hoạt động của tin tặc đã và đang gia tăng trở lại, đe dọa đến an ninh dữ liệu của người dùng số. Đặt tình...

Apple vá lỗ hổng nghiêm trọng trong hệ thống xử lý hình ảnh: Người dùng cần cập nhật ngay

  • 15,534
  • 0
Apple vừa phát hành bản vá bảo mật để khắc phục lỗ hổng nguy hiểm CVE-2025-43300 trong hệ thống xử lý hình ảnh. Lỗ hổng này cho phép tin tặc chiếm...

HP OmniBook X Flip 14: Laptop chuẩn Copilot+ PC với AI mạnh mẽ, thiết kế linh hoạt cho người dùng hiện đại

  • 16,256
  • 0
Sự xuất hiện của dòng laptop chuẩn Copilot+ PC đang tạo nên làn sóng mới trong thị trường máy tính, nơi AI trở thành lõi công nghệ mang lại hiệu...

Những hiểu nhầm với quy định mới về xác nhận SIM chính chủ

  • 350
  • 0
Nhiều người hiểu chưa đúng về quy định mới liên quan đến xác thực thông tin thuê bao di động, có hiệu lực từ 15/4, khiến lo ngại bị khóa SIM...
Back