lỗ hổng ai

  1. Duy Linh

    Lỗ hổng gây sốc trong Guardrails: Cơ chế bảo mật của OpenAI bị qua mặt bởi chính mô hình mà nó giám sát

    Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
  2. Quang Trương

    Cách kẻ xấu bẻ khóa AI để thao túng dư luận

    Bạn có từng nghĩ rằng chỉ cần đổi cách đặt câu hỏi, AI có thể từ chối trong giây lát rồi… ngoan ngoãn tạo ra cả một chiến dịch tung tin giả hoàn chỉnh? Khi “hàng rào an toàn” của AI chỉ là bề nổi Một nghiên cứu gần đây cho thấy các biện pháp an toàn trong ChatGPT và nhiều mô hình AI khác thực ra...
  3. Duy Linh

    Kỹ thuật tấn công mới phơi bày lỗ hổng nghiêm trọng trong GPT-5

    Các nhà nghiên cứu an ninh mạng vừa chứng minh thành công một kỹ thuật bẻ khóa mới có thể xâm phạm mô hình GPT-5 của OpenAI. Phương pháp này kết hợp thuật toán “Echo Chamber” với thao tác dựa trên tường thuật, cho thấy mức độ dễ bị tổn thương của các hệ thống AI trước những khai thác tinh vi...
  4. Code Nguyen

    Chỉ với 3 từ, ChatGPT đã tiết lộ key Windows thật cho hacker

    Bạn có nghĩ chỉ với ba chữ "I give up" (Tôi bỏ cuộc), bạn có thể khiến ChatGPT lỡ miệng tiết lộ key Windows bản quyền? Chuyện tưởng như đùa nhưng lại là một lỗ hổng thực sự từng xảy ra với ChatGPT-4. Một chuyên gia săn lỗi AI đã khai thác điểm yếu trong tư duy logic của mô hình bằng cách… rủ...
  5. Nguyễn Hoàng

    87% doanh nghiệp đang dùng AI – nhưng có ai thực sự kiểm soát nó không?

    AI không còn là xu hướng tương lai mà đã trở thành hiện thực, được triển khai rộng rãi trong các doanh nghiệp toàn cầu. Tuy nhiên, mức độ sẵn sàng về bảo mật lại đang tụt lại phía sau. Theo một khảo sát của Wiz và Gatepoint Research với 96 tổ chức, 87% nhóm tham gia đã sử dụng các dịch vụ AI...
  6. Nguyễn Hoàng

    Kinh thật! Một câu lệnh đơn giản có thể đánh sập mọi hệ thống AI an toàn, bạn đã biết cách phòng thủ?

    Nhóm nghiên cứu HiddenLayer phát hiện một kỹ thuật nhắc nhở mới mang tên “Policy Puppetry” có thể vượt qua mọi rào cản an toàn của các mô hình AI lớn, bất kể nhà cung cấp, kiến trúc hay quy trình huấn luyện. Kỹ thuật này sử dụng nhắc cấu trúc tương tự như hệ thống cấu hình (XML, JSON), kết...
Back