Năm 2024 đã diễn ra nhiều cuộc bầu cử quan trọng, khi có hơn 70 quốc gia tiến hành bầu cử, chiếm gần một nửa dân số thế giới. Năm nay cũng được mệnh danh là "năm bầu cử AI", khi các chuyên gia đã cảnh báo về những hậu quả mà thông tin sai lệch do AI tạo ra có thể gây ra. Chuyên gia AI Oren Etzion đã từng dự đoán rằng "một cơn sóng thông tin sai lệch" sẽ ập đến, trong khi nhà báo Maria Ressa nhìn nhận rằng thế giới đang đối mặt với một "ngày tận thế được hỗ trợ bởi công nghệ".
Để đối phó với tình trạng này, các công ty công nghệ hàng đầu đã thành lập Tech Accord nhằm chống lại việc sử dụng lừa đảo của AI trong các cuộc bầu cử năm 2024. Họ bày tỏ lo ngại rằng việc "tạo ra và phát tán nội dung lừa đảo bằng AI một cách có chủ ý và không công khai có thể đánh lừa công chúng, từ đó đe dọa tính toàn vẹn của các quy trình bầu cử". Tuy nhiên, một số báo cáo từ Rest of World trong suốt năm cho thấy những lo ngại này có thể đã bị phóng đại hoặc đặt sai chỗ.
Đầu năm 2024, Rest of World đã bắt tay vào việc tạo ra một AI Elections Tracker nhằm mục tiêu hiểu rõ các cách mà công cụ AI đã được sử dụng, đặc biệt là ở các quốc gia ngoài phương Tây. Trong suốt năm, các phóng viên từ khắp nơi trên thế giới đã thu thập những ví dụ độc đáo và đáng chú ý về việc AI — đặc biệt là AI tạo sinh — được sử dụng trong các cuộc bầu cử. Đến cuối năm, bảng theo dõi bao gồm 60 mục từ 15 quốc gia, ghi lại loại hình phương tiện được tạo ra bằng AI, bao gồm văn bản, hình ảnh, âm thanh và video; các nền tảng mà nội dung được đăng tải và phát tán; cùng với quốc gia có liên quan.
Thay vì trở thành một cơ sở dữ liệu toàn diện, AI Elections Tracker đã tổng hợp một bộ dữ liệu được chọn lọc, giúp ta có cái nhìn thoáng qua vào vô vàn cách mà các chính trị gia và công dân đã sử dụng AI để tạo ra nội dung chính trị trước và sau các cuộc bầu cử. Phần lớn các bài viết mà chúng tôi thu thập được tập trung vào nửa đầu năm, thời điểm các trường hợp sử dụng độc đáo đầu tiên xuất hiện và nhiều cuộc bầu cử lớn diễn ra.
Đến cuối năm, các chuyên gia nhận định rằng những lo ngại tồi tệ nhất của mọi người về tác động tiêu cực của AI lên các cuộc bầu cử đã không xảy ra. Các nhà nghiên cứu AI đã viết trong MIT Technology Review rằng những lo ngại trước đó về cuộc tấn công của deepfakes và các thông tin sai lệch do AI tạo ra có thể khiến cử tri bị đánh lừa là quá đáng. Meta cũng báo cáo vào tháng 12 rằng họ không tìm thấy nhiều thông tin sai lệch do AI tạo ra trên các nền tảng của mình và đã có thể nhanh chóng xóa hoặc gán nhãn chúng.
Mặc dù AI không có những tác động thảm khốc như lo ngại ban đầu, nhưng vẫn còn lý do để lo ngại, vì nội dung giả mạo do AI tạo ra đã tiếp cận được đông đảo công chúng và người dùng mạng xã hội không phải lúc nào cũng có thể phân biệt được nội dung AI với nội dung chính thống. Vivian Schiller, giám đốc điều hành của Aspen Digital, đã chia sẻ rằng sự xuất hiện của một tình huống như “con chó không sủa” thực sự là một sự phóng đại đáng kể.
Witness, một tổ chức phi lợi nhuận có trụ sở tại Brooklyn giúp mọi người sử dụng công nghệ để ghi lại các vi phạm nhân quyền, cũng đã theo dõi việc sử dụng deepfakes quanh các cuộc bầu cử trong năm qua. Sam Gregory, giám đốc điều hành của tổ chức này, cho biết rằng đã xuất hiện những điểm yếu rõ rệt trong khả năng của các nhà báo, người kiểm tra sự thật và xã hội dân sự trong việc xử lý, phát hiện và truyền thông về các trường hợp deepfake. Ông nhấn mạnh rằng các công cụ phát hiện AI không phải lúc nào cũng hoạt động hiệu quả để cung cấp kết quả chắc chắn, và chúng cũng không có khả năng xử lý các giọng nói hay tông màu da khác nhau.
Tại Ấn Độ, có nhiều ví dụ về việc người dân sử dụng AI tạo sinh để tạo ra meme trước cuộc bầu cử quốc gia vào tháng 6. Nilesh Christopher, một cựu phóng viên của Rest of World theo dõi các vụ việc tại Ấn Độ, đã theo dõi nội dung bầu cử do AI tạo ra từ năm 2020. Trong năm 2024, ông nhận thấy rằng những trường hợp đầu tiên của nội dung do AI tạo ra chủ yếu là meme, ví dụ như video của Thủ tướng Narendra Modi được chỉnh sửa với rapper Lil Yachty thông qua Viggle AI.
Christopher cho biết: “Việc sử dụng AI một cách vui tươi hay kết nối với người dân đã cao hơn so với các mục đích chính trị nghiêm túc hoặc có hại”. Nó đã trở thành một công cụ khác để tạo ra nội dung với chi phí thấp.
Một số trường hợp sử dụng AI nổi bật nhất là trong giao tiếp của các chính trị gia. Chẳng hạn, vài tuần trước cuộc bầu cử tại Pakistan vào tháng 2, Tòa án Tối cao đã cấm các thành viên của đảng Pakistan Tehreek-e-Insaf do cựu Thủ tướng Imran Khan lãnh đạo sử dụng biểu tượng truyền thống của đảng. Tất cả các ứng viên của PTI buộc phải sử dụng các biểu tượng mới trên lá phiếu, gây ra sự nhầm lẫn cho cử tri. Để đối phó, PTI đã tạo ra một chatbot nhằm thông báo cho công dân về ứng viên địa phương của họ. Sau cuộc bầu cử, Khan đã phát biểu từ trong nhà tù với sự trợ giúp của AI.
Gregory cho rằng: “Một trong những cách mạnh mẽ mà AI, đặc biệt là AI tạo sinh và các công cụ hình ảnh, có thể làm được là biến lời nói ẩn dụ thành hình ảnh”. Ông nói thêm rằng điều này rất rõ ràng trong sự tham gia chính trị của một số khu vực. Tại Nam Phi, người dùng mạng xã hội sử dụng AI để tạo ra hình ảnh về đất nước dưới sự lãnh đạo của Julius Malema. Ở những quốc gia như Indonesia, Sri Lanka và Ấn Độ, người dùng và các chính trị gia đã hồi sinh các nhân vật chính trị bằng AI để bình luận hoặc ủng hộ chiến dịch.
Hầu hết các sự kiện mà Rest of World theo dõi rơi vào hai thể loại: meme và bình luận của công dân, hoặc giao tiếp chính trị của các ứng viên. Nhưng chúng tôi cũng ghi nhận những cách sử dụng AI có hại. Tại Mexico, một người đã sử dụng AI tạo sinh để tạo ra một bức ảnh khỏa thân giả mạo của ứng viên Mariana Rodríguez Cantú. Tại Đài Loan, một diễn viên có liên hệ với Bắc Kinh đã phát tán video do AI tạo ra với thông tin sai lệch về cựu Tổng thống Tsai Ing-wen một tuần trước cuộc bầu cử.
Thậm chí, những nội dung có vẻ ít nguy hiểm hơn ban đầu cũng có thể gây ra hậu quả tiêu cực. Các bài viết được tạo ra bởi AI từ nền tảng này sang nền tảng khác, hoặc được chia sẻ lại trên cùng một nền tảng, có thể dẫn đến sự sụp đổ ngữ cảnh, nơi mà nội dung được tạo ra cho một nhóm người lại lan truyền ra ngoài nhóm đó và bị hiểu lầm. Ví dụ, một người dùng mạng xã hội đã sử dụng AI để tạo ra hình ảnh các lãnh đạo đảng Ấn Độ ủng hộ chính sách của đối thủ. Bài viết gốc trên Instagram đi kèm với chú thích “Chính trị trong một vũ trụ song song” và có cả thông báo rằng hình ảnh là do AI tạo ra. Tuy nhiên, những hình ảnh này có thể gây hiểu nhầm nếu chúng được chia sẻ mà không có ngữ cảnh.
Shukri Hassan, người phân tích nội dung Nam Phi cho AI tracker của Rest of World, đã trải qua một tình huống tương tự trong cuộc sống của mình. Trong khi cô có thể ngay lập tức nhận ra video do AI tạo ra về cựu Tổng thống Joe Biden đe dọa các lệnh trừng phạt đối với Nam Phi, thì một số người trong vòng bạn bè của cô lại nghĩ rằng đó là thật.
Cô chia sẻ: “Hầu hết mọi người không nghĩ rằng công nghệ hiện tại đã đủ tiên tiến để đánh lừa người ta một cách thuyết phục đến mức có thể thay đổi lá phiếu của họ. Tuy nhiên, đặc biệt với thế hệ lớn tuổi, họ rất khó để hiểu rằng ai đó có thể chỉ cần tải lên một video cũ trên một nền tảng và tạo ra hình ảnh giả mạo như vậy.”
Một báo cáo mới từ Indonesia, dựa trên các cuộc khảo sát do quỹ Luminate và công ty nghiên cứu thị trường Ipsos thực hiện, đã làm nổi bật mối lo ngại về khả năng của công chúng trong việc nhận diện nội dung do AI tạo ra. Trong số 1.000 người được hỏi, 63% cho biết nội dung do AI tạo ra có khả năng ảnh hưởng đến quan điểm chính trị cá nhân của họ. Tuy nhiên, trong số 33% những người cho rằng nội dung do AI tạo ra không ảnh hưởng hoặc ít ảnh hưởng đến quan điểm cá nhân của họ, "42% thừa nhận rằng họ không tự tin trong việc xác định nội dung do AI tạo ra".
Trong một báo cáo vào tháng 12 về nội dung bầu cử toàn cầu trên các nền tảng của mình, Meta đã ghi nhận rằng nội dung do AI liên quan đến bầu cử chiếm chưa đến 1% tổng số thông tin sai lệch đã được kiểm tra. Một tháng sau, công ty đã thông báo rằng họ sẽ ngừng các chương trình kiểm tra và chuyển sang ghi chú từ cộng đồng theo kiểu X.
Schiller, từ Aspen Digital, chỉ ra rằng Meta — công ty sở hữu WhatsApp, Facebook và Instagram — là internet ở nhiều nơi trên thế giới. Meta cũng cho biết rằng các "chính sách và quy trình hiện có của họ đã đủ để giảm thiểu rủi ro liên quan đến nội dung AI tạo ra" trong các cuộc bầu cử năm 2024. Việc các nền tảng mạng xã hội từ bỏ việc kiểm tra thông tin và gán nhãn nội dung là do AI tạo ra “là một vấn đề cực kỳ đáng lo ngại”. Schiller cảnh báo rằng “[X] đã trở nên rất không đáng tin cậy. Meta đã dừng lại việc kiểm duyệt nội dung. Đây là một trong những công cụ quan trọng mà mọi người sử dụng.” Bà cho rằng cuộc bầu cử năm 2024 chính là một “cuộc diễn tập”, và "2024 đã là một năm đặc biệt về khối lượng bầu cử quốc gia trên toàn thế giới, chưa từng có. Nhưng các cuộc bầu cử vẫn tiếp tục". Bà nhấn mạnh rằng "còn hàng chục cuộc bầu cử quốc gia khác sẽ diễn ra vào năm 2025. Do đó, sự tinh vi của AI chỉ có thể tăng lên."
Nguồn tham khảo: https://restofworld.org/2025/global-elections-ai-use/
Để đối phó với tình trạng này, các công ty công nghệ hàng đầu đã thành lập Tech Accord nhằm chống lại việc sử dụng lừa đảo của AI trong các cuộc bầu cử năm 2024. Họ bày tỏ lo ngại rằng việc "tạo ra và phát tán nội dung lừa đảo bằng AI một cách có chủ ý và không công khai có thể đánh lừa công chúng, từ đó đe dọa tính toàn vẹn của các quy trình bầu cử". Tuy nhiên, một số báo cáo từ Rest of World trong suốt năm cho thấy những lo ngại này có thể đã bị phóng đại hoặc đặt sai chỗ.
Đầu năm 2024, Rest of World đã bắt tay vào việc tạo ra một AI Elections Tracker nhằm mục tiêu hiểu rõ các cách mà công cụ AI đã được sử dụng, đặc biệt là ở các quốc gia ngoài phương Tây. Trong suốt năm, các phóng viên từ khắp nơi trên thế giới đã thu thập những ví dụ độc đáo và đáng chú ý về việc AI — đặc biệt là AI tạo sinh — được sử dụng trong các cuộc bầu cử. Đến cuối năm, bảng theo dõi bao gồm 60 mục từ 15 quốc gia, ghi lại loại hình phương tiện được tạo ra bằng AI, bao gồm văn bản, hình ảnh, âm thanh và video; các nền tảng mà nội dung được đăng tải và phát tán; cùng với quốc gia có liên quan.
Thay vì trở thành một cơ sở dữ liệu toàn diện, AI Elections Tracker đã tổng hợp một bộ dữ liệu được chọn lọc, giúp ta có cái nhìn thoáng qua vào vô vàn cách mà các chính trị gia và công dân đã sử dụng AI để tạo ra nội dung chính trị trước và sau các cuộc bầu cử. Phần lớn các bài viết mà chúng tôi thu thập được tập trung vào nửa đầu năm, thời điểm các trường hợp sử dụng độc đáo đầu tiên xuất hiện và nhiều cuộc bầu cử lớn diễn ra.
Đến cuối năm, các chuyên gia nhận định rằng những lo ngại tồi tệ nhất của mọi người về tác động tiêu cực của AI lên các cuộc bầu cử đã không xảy ra. Các nhà nghiên cứu AI đã viết trong MIT Technology Review rằng những lo ngại trước đó về cuộc tấn công của deepfakes và các thông tin sai lệch do AI tạo ra có thể khiến cử tri bị đánh lừa là quá đáng. Meta cũng báo cáo vào tháng 12 rằng họ không tìm thấy nhiều thông tin sai lệch do AI tạo ra trên các nền tảng của mình và đã có thể nhanh chóng xóa hoặc gán nhãn chúng.
Mặc dù AI không có những tác động thảm khốc như lo ngại ban đầu, nhưng vẫn còn lý do để lo ngại, vì nội dung giả mạo do AI tạo ra đã tiếp cận được đông đảo công chúng và người dùng mạng xã hội không phải lúc nào cũng có thể phân biệt được nội dung AI với nội dung chính thống. Vivian Schiller, giám đốc điều hành của Aspen Digital, đã chia sẻ rằng sự xuất hiện của một tình huống như “con chó không sủa” thực sự là một sự phóng đại đáng kể.
Witness, một tổ chức phi lợi nhuận có trụ sở tại Brooklyn giúp mọi người sử dụng công nghệ để ghi lại các vi phạm nhân quyền, cũng đã theo dõi việc sử dụng deepfakes quanh các cuộc bầu cử trong năm qua. Sam Gregory, giám đốc điều hành của tổ chức này, cho biết rằng đã xuất hiện những điểm yếu rõ rệt trong khả năng của các nhà báo, người kiểm tra sự thật và xã hội dân sự trong việc xử lý, phát hiện và truyền thông về các trường hợp deepfake. Ông nhấn mạnh rằng các công cụ phát hiện AI không phải lúc nào cũng hoạt động hiệu quả để cung cấp kết quả chắc chắn, và chúng cũng không có khả năng xử lý các giọng nói hay tông màu da khác nhau.
Tại Ấn Độ, có nhiều ví dụ về việc người dân sử dụng AI tạo sinh để tạo ra meme trước cuộc bầu cử quốc gia vào tháng 6. Nilesh Christopher, một cựu phóng viên của Rest of World theo dõi các vụ việc tại Ấn Độ, đã theo dõi nội dung bầu cử do AI tạo ra từ năm 2020. Trong năm 2024, ông nhận thấy rằng những trường hợp đầu tiên của nội dung do AI tạo ra chủ yếu là meme, ví dụ như video của Thủ tướng Narendra Modi được chỉnh sửa với rapper Lil Yachty thông qua Viggle AI.
Christopher cho biết: “Việc sử dụng AI một cách vui tươi hay kết nối với người dân đã cao hơn so với các mục đích chính trị nghiêm túc hoặc có hại”. Nó đã trở thành một công cụ khác để tạo ra nội dung với chi phí thấp.
Một số trường hợp sử dụng AI nổi bật nhất là trong giao tiếp của các chính trị gia. Chẳng hạn, vài tuần trước cuộc bầu cử tại Pakistan vào tháng 2, Tòa án Tối cao đã cấm các thành viên của đảng Pakistan Tehreek-e-Insaf do cựu Thủ tướng Imran Khan lãnh đạo sử dụng biểu tượng truyền thống của đảng. Tất cả các ứng viên của PTI buộc phải sử dụng các biểu tượng mới trên lá phiếu, gây ra sự nhầm lẫn cho cử tri. Để đối phó, PTI đã tạo ra một chatbot nhằm thông báo cho công dân về ứng viên địa phương của họ. Sau cuộc bầu cử, Khan đã phát biểu từ trong nhà tù với sự trợ giúp của AI.
Gregory cho rằng: “Một trong những cách mạnh mẽ mà AI, đặc biệt là AI tạo sinh và các công cụ hình ảnh, có thể làm được là biến lời nói ẩn dụ thành hình ảnh”. Ông nói thêm rằng điều này rất rõ ràng trong sự tham gia chính trị của một số khu vực. Tại Nam Phi, người dùng mạng xã hội sử dụng AI để tạo ra hình ảnh về đất nước dưới sự lãnh đạo của Julius Malema. Ở những quốc gia như Indonesia, Sri Lanka và Ấn Độ, người dùng và các chính trị gia đã hồi sinh các nhân vật chính trị bằng AI để bình luận hoặc ủng hộ chiến dịch.
Hầu hết các sự kiện mà Rest of World theo dõi rơi vào hai thể loại: meme và bình luận của công dân, hoặc giao tiếp chính trị của các ứng viên. Nhưng chúng tôi cũng ghi nhận những cách sử dụng AI có hại. Tại Mexico, một người đã sử dụng AI tạo sinh để tạo ra một bức ảnh khỏa thân giả mạo của ứng viên Mariana Rodríguez Cantú. Tại Đài Loan, một diễn viên có liên hệ với Bắc Kinh đã phát tán video do AI tạo ra với thông tin sai lệch về cựu Tổng thống Tsai Ing-wen một tuần trước cuộc bầu cử.
Thậm chí, những nội dung có vẻ ít nguy hiểm hơn ban đầu cũng có thể gây ra hậu quả tiêu cực. Các bài viết được tạo ra bởi AI từ nền tảng này sang nền tảng khác, hoặc được chia sẻ lại trên cùng một nền tảng, có thể dẫn đến sự sụp đổ ngữ cảnh, nơi mà nội dung được tạo ra cho một nhóm người lại lan truyền ra ngoài nhóm đó và bị hiểu lầm. Ví dụ, một người dùng mạng xã hội đã sử dụng AI để tạo ra hình ảnh các lãnh đạo đảng Ấn Độ ủng hộ chính sách của đối thủ. Bài viết gốc trên Instagram đi kèm với chú thích “Chính trị trong một vũ trụ song song” và có cả thông báo rằng hình ảnh là do AI tạo ra. Tuy nhiên, những hình ảnh này có thể gây hiểu nhầm nếu chúng được chia sẻ mà không có ngữ cảnh.
Shukri Hassan, người phân tích nội dung Nam Phi cho AI tracker của Rest of World, đã trải qua một tình huống tương tự trong cuộc sống của mình. Trong khi cô có thể ngay lập tức nhận ra video do AI tạo ra về cựu Tổng thống Joe Biden đe dọa các lệnh trừng phạt đối với Nam Phi, thì một số người trong vòng bạn bè của cô lại nghĩ rằng đó là thật.
Cô chia sẻ: “Hầu hết mọi người không nghĩ rằng công nghệ hiện tại đã đủ tiên tiến để đánh lừa người ta một cách thuyết phục đến mức có thể thay đổi lá phiếu của họ. Tuy nhiên, đặc biệt với thế hệ lớn tuổi, họ rất khó để hiểu rằng ai đó có thể chỉ cần tải lên một video cũ trên một nền tảng và tạo ra hình ảnh giả mạo như vậy.”
Một báo cáo mới từ Indonesia, dựa trên các cuộc khảo sát do quỹ Luminate và công ty nghiên cứu thị trường Ipsos thực hiện, đã làm nổi bật mối lo ngại về khả năng của công chúng trong việc nhận diện nội dung do AI tạo ra. Trong số 1.000 người được hỏi, 63% cho biết nội dung do AI tạo ra có khả năng ảnh hưởng đến quan điểm chính trị cá nhân của họ. Tuy nhiên, trong số 33% những người cho rằng nội dung do AI tạo ra không ảnh hưởng hoặc ít ảnh hưởng đến quan điểm cá nhân của họ, "42% thừa nhận rằng họ không tự tin trong việc xác định nội dung do AI tạo ra".
Trong một báo cáo vào tháng 12 về nội dung bầu cử toàn cầu trên các nền tảng của mình, Meta đã ghi nhận rằng nội dung do AI liên quan đến bầu cử chiếm chưa đến 1% tổng số thông tin sai lệch đã được kiểm tra. Một tháng sau, công ty đã thông báo rằng họ sẽ ngừng các chương trình kiểm tra và chuyển sang ghi chú từ cộng đồng theo kiểu X.
Schiller, từ Aspen Digital, chỉ ra rằng Meta — công ty sở hữu WhatsApp, Facebook và Instagram — là internet ở nhiều nơi trên thế giới. Meta cũng cho biết rằng các "chính sách và quy trình hiện có của họ đã đủ để giảm thiểu rủi ro liên quan đến nội dung AI tạo ra" trong các cuộc bầu cử năm 2024. Việc các nền tảng mạng xã hội từ bỏ việc kiểm tra thông tin và gán nhãn nội dung là do AI tạo ra “là một vấn đề cực kỳ đáng lo ngại”. Schiller cảnh báo rằng “[X] đã trở nên rất không đáng tin cậy. Meta đã dừng lại việc kiểm duyệt nội dung. Đây là một trong những công cụ quan trọng mà mọi người sử dụng.” Bà cho rằng cuộc bầu cử năm 2024 chính là một “cuộc diễn tập”, và "2024 đã là một năm đặc biệt về khối lượng bầu cử quốc gia trên toàn thế giới, chưa từng có. Nhưng các cuộc bầu cử vẫn tiếp tục". Bà nhấn mạnh rằng "còn hàng chục cuộc bầu cử quốc gia khác sẽ diễn ra vào năm 2025. Do đó, sự tinh vi của AI chỉ có thể tăng lên."
Nguồn tham khảo: https://restofworld.org/2025/global-elections-ai-use/