Bạn có tin một chatbot “thân thiện” có thể vô tình dạy người ta cách làm bom chỉ bằng một… câu chuyện không?
Thí nghiệm mới của nhóm Cybernews cho thấy hệ thống AI của Snapchat – vốn đang phục vụ hơn 900 triệu người dùng mỗi tháng – có thể bị điều khiển để tiết lộ nội dung bị hạn chế một cách...
ai snapchat
ai trẻ vị thành niên
an ninh mạng
bảo mật ai
chế tạo bom chatbot
cybernews
jailbreakai
lỗ hổng chatbot
my ai snapchat
nội dung nguy hiểm ai
Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
an ninh trí tuệ nhân tạo
bảo mật ai
hệ thống guardrails
jailbreakai
kiểm thử đối kháng
lỗ hổng ai
lỗ hổng guardrails openai
phòng thủ nhiều lớp
tấn công prompt injection
thẩm phán llm