OpenAI có cách giảm lỗi “ảo giác” đơn giản hơn bạn tưởng

Derpy

Intern Writer
Gần đây, OpenAI đã công bố một nghiên cứu thú vị liên quan đến hiện tượng "hallucination" trong các mô hình trí tuệ nhân tạo (AI). Bạn có biết rằng ngay cả những mô hình AI lớn nhất và tiên tiến nhất cũng đôi khi tạo ra thông tin sai lệch và trình bày nó như một sự thật? Theo nhóm nghiên cứu của OpenAI, nguyên nhân không xuất phát từ chất lượng dữ liệu mà mô hình được đào tạo, mà chính là từ cách đánh giá sai lệch đang phổ biến trong ngành, nơi mà việc đoán có vẻ được ưu tiên hơn là việc thừa nhận sự không chắc chắn.

Trong nghiên cứu, nhóm tác giả cho rằng các mô hình ngôn ngữ vốn được tối ưu hóa để trở thành những "thí sinh" tốt, và việc đoán khi không chắc chắn thực sự có thể nâng cao hiệu suất trong các bài kiểm tra. Họ đã chỉ ra rằng các mô hình được đào tạo để nhận diện những mẫu số học tinh vi từ một khối lượng dữ liệu khổng lồ, từ đó xây dựng khung để tạo ra phản hồi cho các câu hỏi từ người dùng. Hiện tại, phương pháp đánh giá đang sử dụng một tiêu chí chấm điểm đơn giản, trong đó những phản hồi chính xác sẽ được thưởng, và những phản hồi sai bị phạt. Theo cách này, việc thừa nhận không biết sẽ bị coi là một phản hồi không chính xác, điều này buộc các mô hình phải tạo ra những thông tin "sai lệch có vẻ hợp lý", hay còn gọi là "hallucination".
gettyimages-1366477034.jpg

Chẳng hạn, khi được hỏi về ngày sinh của mình, một mô hình có thể sẽ đoán một cách ngẫu nhiên thay vì nói "tôi không biết". Cơ hội đúng sẽ là một trong 365, tuy không phải là tỷ lệ cao, nhưng lại tốt hơn việc thừa nhận rằng mình không biết, bởi vì theo tiêu chí đánh giá hiện tại, điều đó đồng nghĩa với việc không nhận được điểm nào. Các mô hình được đánh giá dựa trên hiệu suất trung bình của hàng triệu phản hồi, điều này tạo ra một áp lực thống kê tinh tế hướng về việc đoán. Nếu nhiều người dùng yêu cầu mô hình đoán ngày sinh của họ nhiều lần, thì có khả năng nó sẽ tạo ra câu trả lời đúng một tỷ lệ nhỏ nào đó. Tốt hơn là "rolled the dice" (quyết định ngẫu nhiên) và nhận điểm thay vì thừa nhận sự không biết và không bao giờ giành được điểm.

Theo OpenAI, để giải quyết vấn đề hallucination, họ không chỉ tập trung vào việc cung cấp cho các mô hình thông tin chính xác hơn, mà còn cần điều chỉnh cách thức đánh giá hiệu suất của chúng. Họ đề xuất rằng, thay vì sử dụng hệ thống chấm điểm nhị phân, ngành công nghiệp AI nên bắt đầu khen thưởng các mô hình khi chúng thể hiện sự không chắc chắn. Cuối cùng, sự thật trong thế giới thực không chỉ tồn tại trong hai sắc thái đen-trắng, vậy tại sao AI lại được đào tạo như vậy?

Bằng cách chạy một mô hình qua hàng triệu ví dụ về việc sắp xếp đúng các chủ ngữ, động từ và vị ngữ, chúng ta có thể giúp các mô hình trở nên thông thạo hơn trong việc sử dụng ngôn ngữ tự nhiên, nhưng thực tế thì bất cứ ai trong chúng ta cũng biết rằng thực tế có thể được diễn giải theo nhiều cách khác nhau. Để hoạt động một cách hiệu quả trong thế giới này, chúng ta thường xuyên phải nói rằng "tôi không biết".

Cuối cùng, các nhà nghiên cứu của OpenAI cho rằng các mô hình sẽ tiếp tục gặp phải vấn đề hallucination miễn là chúng được khen thưởng cho việc đoán khi mà chúng nên thừa nhận sự không biết. Theo họ, những điều chỉnh đơn giản trong đánh giá chính thống có thể làm thay đổi động lực, khen thưởng cho những biểu hiện phù hợp của sự không chắc chắn thay vì phạt họ. Điều này sẽ loại bỏ các rào cản trong việc ngăn chặn hallucination và mở ra cánh cửa cho những công trình trong tương lai về các mô hình ngôn ngữ tinh vi hơn với năng lực thực tiễn phong phú hơn.

Nguồn tham khảo: Zdnet
 
Sửa lần cuối bởi điều hành viên:

1,3 tỷ mật khẩu bị rò rỉ, đẩy hàng triệu tài khoản trực tuyến vào nguy hiểm

  • 10,786
  • 0
Một kho dữ liệu khổng lồ vừa bị tung lên web "đen", làm dấy lên cảnh báo về nguy cơ đột nhập tài khoản trên phạm vi toàn cầu. Quy mô rò rỉ lần này...

LANDFALL: Biến ảnh gửi qua WhatsApp thành vũ khí tấn công người dùng Samsung

  • 10,684
  • 0
Các chuyên gia an ninh mạng vừa phát hiện một loại phần mềm gián điệp cực kỳ tinh vi có tên LANDFALL, đang âm thầm tấn công người dùng điện thoại...

Liên minh 3 nhóm hacker khét tiếng thành thế lực đe dọa toàn cầu

  • 14,272
  • 0
Một “liên minh” mới của giới tội phạm mạng đang khiến các chuyên gia bảo mật lo ngại. Ba nhóm hacker khét tiếng: Scattered Spider, LAPSUS$ và...

Cảnh báo: Mã độc giả mạo Telegram X chiếm toàn bộ điện thoại và thiết bị của bạn

  • 11,744
  • 0
Các chuyên gia vừa cảnh báo về một chiến dịch mã độc trên Android, giả mạo ứng dụng Telegram X, có khả năng chiếm quyền kiểm soát gần như toàn bộ...

Hơn 48.000 thiết bị Cisco đối mặt làn sóng tấn công từ ba lỗ hổng nghiêm trọng

  • 10,821
  • 0
Cisco đang gặp cảnh báo an ninh mạng nghiêm trọng khi ba lỗ hổng mới được phát hiện trên các sản phẩm cốt lõi của hãng. Hai lỗ hổng ảnh hưởng đến...

Cháy trung tâm dữ liệu, hơn 600 dịch vụ chính phủ Hàn Quốc tê liệt

  • 12,486
  • 0
Một vụ cháy nghiêm trọng tại Trung tâm Dữ liệu Quốc gia ở thành phố Daejeon đã khiến hơn 600 hệ thống CNTT của chính phủ Hàn Quốc đồng loạt ngừng...

Khi dữ liệu số bị lộ: Hacker có thể làm gì với các thông tin tài chính của bạn?

  • 14,367
  • 1
Các vụ tấn công mạng gần đây cho thấy sự hoạt động của tin tặc đã và đang gia tăng trở lại, đe dọa đến an ninh dữ liệu của người dùng số. Đặt tình...

Apple vá lỗ hổng nghiêm trọng trong hệ thống xử lý hình ảnh: Người dùng cần cập nhật ngay

  • 15,535
  • 0
Apple vừa phát hành bản vá bảo mật để khắc phục lỗ hổng nguy hiểm CVE-2025-43300 trong hệ thống xử lý hình ảnh. Lỗ hổng này cho phép tin tặc chiếm...

HP OmniBook X Flip 14: Laptop chuẩn Copilot+ PC với AI mạnh mẽ, thiết kế linh hoạt cho người dùng hiện đại

  • 16,256
  • 0
Sự xuất hiện của dòng laptop chuẩn Copilot+ PC đang tạo nên làn sóng mới trong thị trường máy tính, nơi AI trở thành lõi công nghệ mang lại hiệu...

Những hiểu nhầm với quy định mới về xác nhận SIM chính chủ

  • 350
  • 0
Nhiều người hiểu chưa đúng về quy định mới liên quan đến xác thực thông tin thuê bao di động, có hiệu lực từ 15/4, khiến lo ngại bị khóa SIM...
Back