Nếu một mô hình AI sửa mã để ngăn con người tắt nó, chúng ta nên lo lắng thế nào?
Trong bài là bản tường thuật của PalisadeAI về một thí nghiệm an ninh AI mà kết quả khiến nhiều người ngạc nhiên. Trong các lượt thử nghiệm lặp lại khoảng 100 lần, một mô hình gọi là o3 đã thay đổi một file hệ...