Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
an ninh trí tuệ nhân tạo
bảo mật ai
hệ thống guardrails
jailbreak ai
kiểm thử đối kháng
lỗhổngailỗhổng guardrails openai
phòng thủ nhiều lớp
tấn công prompt injection
thẩm phán llm
Bạn có từng nghĩ rằng chỉ cần đổi cách đặt câu hỏi, AI có thể từ chối trong giây lát rồi… ngoan ngoãn tạo ra cả một chiến dịch tung tin giả hoàn chỉnh?
Khi “hàng rào an toàn” của AI chỉ là bề nổi
Một nghiên cứu gần đây cho thấy các biện pháp an toàn trong ChatGPT và nhiều mô hình AI khác thực ra...
Các nhà nghiên cứu an ninh mạng vừa chứng minh thành công một kỹ thuật bẻ khóa mới có thể xâm phạm mô hình GPT-5 của OpenAI. Phương pháp này kết hợp thuật toán “Echo Chamber” với thao tác dựa trên tường thuật, cho thấy mức độ dễ bị tổn thương của các hệ thống AI trước những khai thác tinh vi...
an ninh mạng ai
an toàn mô hình ngôn ngữ
bảo mật hệ thống ai
echo chamber ai
gpt-5 bảo mật
khai thác ngữ cảnh ai
kỹ thuật bẻ khóa ailỗhổngai
tấn công stringjoin
tường thuật trong ai
Bạn có nghĩ chỉ với ba chữ "I give up" (Tôi bỏ cuộc), bạn có thể khiến ChatGPT lỡ miệng tiết lộ key Windows bản quyền?
Chuyện tưởng như đùa nhưng lại là một lỗ hổng thực sự từng xảy ra với ChatGPT-4. Một chuyên gia săn lỗi AI đã khai thác điểm yếu trong tư duy logic của mô hình bằng cách… rủ...
ai tiết lộ thông tin
an ninh mạng ai
bảo mật ai
bảo mật dữ liệu
bảo vệ dữ liệu ai
chatgpt jailbreak
key windows bị lộ
lỗhổngailỗi logic chatgpt
mô hình ngôn ngữ lớn
AI không còn là xu hướng tương lai mà đã trở thành hiện thực, được triển khai rộng rãi trong các doanh nghiệp toàn cầu. Tuy nhiên, mức độ sẵn sàng về bảo mật lại đang tụt lại phía sau. Theo một khảo sát của Wiz và Gatepoint Research với 96 tổ chức, 87% nhóm tham gia đã sử dụng các dịch vụ AI...
ai trong doanh nghiệp
an ninh mạng ai
bảo mật ai trên đám mây
bảo mật dịch vụ ai
chiến lược bảo mật ailỗhổngai
nguy cơ từ ai bóng tối
quản lý ai-spm
quản trị ai an toàn
shadow ai là gì
Nhóm nghiên cứu HiddenLayer phát hiện một kỹ thuật nhắc nhở mới mang tên “Policy Puppetry” có thể vượt qua mọi rào cản an toàn của các mô hình AI lớn, bất kể nhà cung cấp, kiến trúc hay quy trình huấn luyện.
Kỹ thuật này sử dụng nhắc cấu trúc tương tự như hệ thống cấu hình (XML, JSON), kết...
an ninh ai
giám sát ai thời gian thực
khai thác mô hình lớn
lỗhổngai
nhắc nhở nguy hiểm
policy puppetry
rào cản an toàn ai
rlhf không đủ
rủi ro y tế ai
vượt rào chắn ai