Các nhà nghiên cứu bảo mật tại Checkmarx đã phát hiện một lỗ hổng nghiêm trọng trong cơ chế Human-in-the-Loop (HITL) của các tác nhân AI vốn được thiết kế để tăng cường an ninh bằng cách yêu cầu người dùng phê duyệt trước khi thực thi hành động. Thay vì đóng vai trò là tuyến phòng thủ cuối cùng...
an ninh tác nhân ai
checkmarx nghiên cứu bảo mật
claude code bảo mật
human-in-the-loop ai
lies-in-the-loop
lỗ hổng hitl ai
microsoft copilot lỗ hổng
owasp llm top 10
rủi ro trợ lý lập trình ai
tấncôngpromptinjection
Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng cơ bản trong nền tảng Guardrails mới ra mắt của OpenAI, cho phép kẻ tấn công vượt qua cơ chế an toàn và tạo ra nội dung độc hại mà không kích hoạt cảnh báo. Điều này làm dấy lên lo ngại về hiệu quả của các biện pháp tự điều chỉnh trong AI...
an ninh trí tuệ nhân tạo
bảo mật ai
hệ thống guardrails
jailbreak ai
kiểm thử đối kháng
lỗ hổng ai
lỗ hổng guardrails openai
phòng thủ nhiều lớp
tấncôngpromptinjection
thẩm phán llm
Công ty an ninh mạng ESET vừa phát hiện một biến thể ransomware mới có tên mã PromptLock, được hỗ trợ bởi trí tuệ nhân tạo (AI).
Chủng mã độc này được viết bằng Golang và sử dụng mô hình gpt-oss:20b của OpenAI thông qua API Ollama để tạo ra các tập lệnh Lua độc hại theo thời gian thực. Đây là...
ai và an ninh mạng
anthropic claude ai
eset cảnh báo ransomware
gpt-oss:20b
promisqroute
ransomware ai
ransomware promptlock
ransomware thế hệ mới
tấncôngpromptinjection
Tại hội nghị hacker Black Hat ở Las Vegas, hai nhà nghiên cứu Michael Bargury và Tamir Ishay Sharbat đã chứng minh một điều đáng sợ: chỉ cần một tài liệu được “tẩm độc” là có thể đánh cắp dữ liệu riêng tư từ ChatGPT, nếu nó được kết nối với các dịch vụ lưu trữ bên ngoài như Google Drive hay...