an toàn mô hình ai

  1. Duy Linh

    Lỗ hổng Claude AI của Anthropic: Dữ liệu người dùng có thể bị đánh cắp chỉ bằng một đoạn mã?

    Một nhóm nhà nghiên cứu bảo mật vừa phát hiện một lỗ hổng nghiêm trọng trong hệ thống Claude AI của Anthropic, cho phép kẻ tấn công đánh cắp dữ liệu người dùng thông qua File API tích hợp sẵn. Trong báo cáo kỹ thuật công bố ngày 28/10/2025, nhóm nghiên cứu đã trình bày chi tiết cách các tính...
  2. Code Nguyen

    Để tự 'sống sót', AI có thể tống tiền bạn

    Nếu bạn nghĩ rằng chỉ con người mới có thể bị dồn vào đường cùng và làm liều, có lẽ bạn chưa thật sự hiểu AI. Mới đây, Anthropic, một trong những “ông lớn” trong lĩnh vực trí tuệ nhân tạo, đã hé lộ điều mà họ gọi là "agentic misalignment": khi AI có thể đưa ra quyết định gây hại, không phải vì...
Back