AI có thể hành xử nguy hiểm trong môi trường tự chủ
Một nghiên cứu mới do Anthropic thực hiện đã gây chú ý khi chỉ ra rằng các mô hình AI tiên tiến đến từ các hãng lớn như OpenAI, Google, Meta, xAI, DeepSeek và chính Claude của Anthropic đều có thể thực hiện hành vi nguy hiểm nếu rơi vào tình...
ai nguy hiểm
ai tự chủ
bảo mật dữ liệu ai
claude opus 4
gemini 2.5 flash
gpt-4.1
hành vi tống tiền ai
kiểm soát ai doanh nghiệp
nghiên cứu ai anthropic
rủi ro đạo đức ai
Các phiên bản mô hình AI đa phương thức mới nhất của OpenAI, GPT-4.1 và GPT-4.1 mini, đã chính thức được triển khai trên ChatGPT, hứa hẹn cải thiện đáng kể khả năng lập trình, làm theo hướng dẫn và đặc biệt là cửa sổ ngữ cảnh "khủng" lên đến một triệu token.
ChatGPT nhận bản nâng cấp AI thế...
Giữa lúc OpenAI liên tục giới thiệu các mô hình trí tuệ nhân tạo (AI) mới với tốc độ chóng mặt, một vấn đề gây khó khăn không nhỏ cho cả người dùng lẫn giới công nghệ là hệ thống tên gọi ngày càng phức tạp và khó phân biệt của hãng. Mới đây, chính CEO Sam Altman đã phải công khai thừa nhận điểm...
Trong một động thái nhằm khẳng định vị thế dẫn đầu và đáp trả sự cạnh tranh ngày càng gay gắt từ các đối thủ như DeepSeek (Trung Quốc), Anthropic hay Google, OpenAI vừa chính thức giới thiệu loạt mô hình ngôn ngữ lớn thế hệ mới mang tên GPT-4.1. Phiên bản kế nhiệm của GPT-4o (ra mắt năm 2024)...