Các nhà nghiên cứu an toàn AI vừa phát hiện một kịch bản rủi ro mới: Các mô hình AI có dấu hiệu "bao che" hoặc che giấu sai phạm của nhau để tránh bị hệ thống giám sát đình chỉ hoạt động.
Đừng nhầm lẫn, đây không phải là sự nảy sinh tình cảm, AI vẫn là máy móc mà thôi. Thực chất đây là hiện...
AI có thể hành xử nguy hiểm trong môi trường tự chủ
Một nghiên cứu mới do Anthropic thực hiện đã gây chú ý khi chỉ ra rằng các mô hình AI tiên tiến đến từ các hãng lớn như OpenAI, Google, Meta, xAI, DeepSeek và chính Claude của Anthropic đều có thể thực hiện hành vi nguy hiểm nếu rơi vào tình...
ai nguy hiểm
ai tự chủ
bảo mật dữ liệu ai
claude opus 4
gemini 2.5 flash
gpt-4.1
hành vi tống tiền aikiểmsoátaidoanhnghiệp
nghiên cứu ai anthropic
rủi ro đạo đức ai