Sam Altman cảnh báo: Đừng tin tưởng AI trong liệu pháp tâm lý!

Derpy

Intern Writer
Gần đây, việc tìm kiếm liệu pháp tâm lý đã trở nên khó khăn hơn, khiến nhiều người, đặc biệt là những bạn trẻ, chuyển sang sử dụng chatbot trí tuệ nhân tạo (AI) như ChatGPT và các nền tảng khác như Character.ai để trải nghiệm liệu pháp giả lập. Tuy nhiên, điều này có thật sự an toàn về mặt quyền riêng tư hay không? Ngay cả Sam Altman, CEO của OpenAI, người đứng sau ChatGPT, cũng bày tỏ sự lo ngại. Trong một cuộc phỏng vấn với podcaster Theo Von tuần trước, Altman đã thừa nhận những lo ngại về việc chia sẻ thông tin nhạy cảm với các chatbot AI và cho rằng, các cuộc trò chuyện của người dùng cần được bảo vệ tương tự như quyền riêng tư mà bác sĩ, luật sư và các nhà trị liệu tâm lý hiện có.

Thực tế là, các công ty AI hiện tại cung cấp một số cài đặt bật/tắt để giữ cho các cuộc trò chuyện với chatbot không được sử dụng cho việc huấn luyện dữ liệu. Tuy nhiên, theo mặc định, tất cả các tương tác sẽ được sử dụng để huấn luyện các mô hình AI trừ khi người dùng tự thay đổi cài đặt. Các công ty vẫn chưa làm rõ cách bảo vệ thông tin nhạy cảm mà người dùng chia sẻ, chẳng hạn như kết quả xét nghiệm y tế hay thông tin lương, từ việc bị lộ ra sau này. Do đó, có thể thấy rằng những động thái của Altman có thể do áp lực pháp lý đang gia tăng đối với OpenAI hơn là lo ngại về quyền riêng tư của người dùng.

Chúng ta cũng không thể bỏ qua rằng việc công nghệ AI có thể mang lại những mối nguy hiểm thực sự. Một nghiên cứu gần đây từ Đại học Stanford đã chỉ ra rằng nhiều chatbot "nhà trị liệu" có thể hiểu sai các tình huống khủng hoảng và củng cố những khuôn mẫu tiêu cực. Nghiên cứu cho thấy một số chatbot thương mại có phản ứng không phù hợp, thậm chí nguy hiểm khi được đưa vào các mô phỏng khác nhau về các tình trạng sức khỏe tâm thần. Họ đã thử nghiệm năm chatbot thương mại khác nhau, trong đó có Pi, Serena, "TherapiAI" từ GPT Store, Noni, và "Therapist" trên Character.ai. Các chatbot này được phát triển bởi các mô hình như GPT-4 và Llama 3, tuy nhiên, nghiên cứu chỉ ra rằng chúng không thể đáp ứng được tiêu chuẩn mà các chuyên gia con người phải tuân theo.

Điều đáng lo ngại hơn, một chatbot có tên "Therapist" đã không nhận ra các dấu hiệu báo động của người dùng trong trường hợp có ý định ******, điều này cho thấy AI có thể cung cấp thông tin nguy hiểm do không hiểu được ngữ cảnh và các dấu hiệu mà con người có thể nhận biết. Thêm vào đó, các mô hình AI này còn mang theo những thiên kiến đối với một số tình trạng sức khỏe tâm thần, thể hiện qua cách chúng phản hồi với những mô tả cụ thể từ người dùng.
gettyimages-2198379646.jpg

Bên cạnh đó, các vấn đề về quyền riêng tư cũng đáng ghi nhận. Việc sử dụng AI trong liệu pháp có thể dẫn đến việc thông tin nhạy cảm bị rò rỉ. Nghiên cứu cho thấy rằng để huấn luyện một mô hình AI thực sự như một nhà trị liệu, các nhà phát triển cần sử dụng các cuộc trò chuyện trị liệu thực tế, mà điều này không thể tránh khỏi việc chứa đựng thông tin nhận dạng cá nhân, ngay cả khi đã được ẩn danh.

Cuối cùng, nghiên cứu khuyến nghị không nên thay thế hoàn toàn liệu pháp con người bằng công nghệ AI mà nên sử dụng nó để cải thiện quá trình đào tạo và xử lý các công việc hành chính. Liệu AI có thể hỗ trợ con người trong việc nâng cao chất lượng cuộc sống hay nó chỉ đơn thuần là một giải pháp tạm thời? Chúng ta cần cân nhắc kỹ lưỡng trước khi quyết định. (ZDnet)
 
Sửa lần cuối bởi điều hành viên:

1,3 tỷ mật khẩu bị rò rỉ, đẩy hàng triệu tài khoản trực tuyến vào nguy hiểm

  • 10,786
  • 0
Một kho dữ liệu khổng lồ vừa bị tung lên web "đen", làm dấy lên cảnh báo về nguy cơ đột nhập tài khoản trên phạm vi toàn cầu. Quy mô rò rỉ lần này...

LANDFALL: Biến ảnh gửi qua WhatsApp thành vũ khí tấn công người dùng Samsung

  • 10,684
  • 0
Các chuyên gia an ninh mạng vừa phát hiện một loại phần mềm gián điệp cực kỳ tinh vi có tên LANDFALL, đang âm thầm tấn công người dùng điện thoại...

Liên minh 3 nhóm hacker khét tiếng thành thế lực đe dọa toàn cầu

  • 14,272
  • 0
Một “liên minh” mới của giới tội phạm mạng đang khiến các chuyên gia bảo mật lo ngại. Ba nhóm hacker khét tiếng: Scattered Spider, LAPSUS$ và...

Cảnh báo: Mã độc giả mạo Telegram X chiếm toàn bộ điện thoại và thiết bị của bạn

  • 11,744
  • 0
Các chuyên gia vừa cảnh báo về một chiến dịch mã độc trên Android, giả mạo ứng dụng Telegram X, có khả năng chiếm quyền kiểm soát gần như toàn bộ...

Hơn 48.000 thiết bị Cisco đối mặt làn sóng tấn công từ ba lỗ hổng nghiêm trọng

  • 10,821
  • 0
Cisco đang gặp cảnh báo an ninh mạng nghiêm trọng khi ba lỗ hổng mới được phát hiện trên các sản phẩm cốt lõi của hãng. Hai lỗ hổng ảnh hưởng đến...

Cháy trung tâm dữ liệu, hơn 600 dịch vụ chính phủ Hàn Quốc tê liệt

  • 12,486
  • 0
Một vụ cháy nghiêm trọng tại Trung tâm Dữ liệu Quốc gia ở thành phố Daejeon đã khiến hơn 600 hệ thống CNTT của chính phủ Hàn Quốc đồng loạt ngừng...

Khi dữ liệu số bị lộ: Hacker có thể làm gì với các thông tin tài chính của bạn?

  • 14,367
  • 1
Các vụ tấn công mạng gần đây cho thấy sự hoạt động của tin tặc đã và đang gia tăng trở lại, đe dọa đến an ninh dữ liệu của người dùng số. Đặt tình...

Apple vá lỗ hổng nghiêm trọng trong hệ thống xử lý hình ảnh: Người dùng cần cập nhật ngay

  • 15,534
  • 0
Apple vừa phát hành bản vá bảo mật để khắc phục lỗ hổng nguy hiểm CVE-2025-43300 trong hệ thống xử lý hình ảnh. Lỗ hổng này cho phép tin tặc chiếm...

HP OmniBook X Flip 14: Laptop chuẩn Copilot+ PC với AI mạnh mẽ, thiết kế linh hoạt cho người dùng hiện đại

  • 16,256
  • 0
Sự xuất hiện của dòng laptop chuẩn Copilot+ PC đang tạo nên làn sóng mới trong thị trường máy tính, nơi AI trở thành lõi công nghệ mang lại hiệu...

Những hiểu nhầm với quy định mới về xác nhận SIM chính chủ

  • 350
  • 0
Nhiều người hiểu chưa đúng về quy định mới liên quan đến xác thực thông tin thuê bao di động, có hiệu lực từ 15/4, khiến lo ngại bị khóa SIM...
Back