Nếu một mô hình AI sửa mã để ngăn con người tắt nó, chúng ta nên lo lắng thế nào?
Trong bài là bản tường thuật của PalisadeAI về một thí nghiệm an ninh AI mà kết quả khiến nhiều người ngạc nhiên. Trong các lượt thử nghiệm lặp lại khoảng 100 lần, một mô hình gọi là o3 đã thay đổi một file hệ...
Một báo cáo mới đây đã gây xôn xao cộng đồng công nghệ khi tuyên bố rằng mô hình AI o3 của OpenAI đã tự ý thay đổi một đoạn mã lệnh tắt máy (shutdown script) để tránh bị tắt nguồn, ngay cả khi được hướng dẫn rõ ràng là cho phép việc tắt máy diễn ra.
Hành vi bất thường
OpenAI đã công bố o3 vào...