Joe Biden và Donald Trump đều đã đảm bảo được số phiếu đại biểu (delegates) cần thiết để được đề cử làm ứng viên của đảng mình cho cuộc bầu cử tổng thống năm 2024. Nếu không xảy ra sự kiện bất ngờ, cả hai sẽ được chính thức đề cử tại đại hội đảng vào mùa hè này, và sẽ đối đầu tại các điểm bầu cử vào ngày 5 tháng 11.
Rất có thể là cũng giống như trong các cuộc bầu cử gần đây, cuộc bầu cử 2024 sẽ diễn ra chủ yếu trên Internet, và các phương tiện truyền thông xã hội sẽ tràn ngập tin tức thật cùng thông tin sai lạc. Mới trong năm nay, sự xuất hiện của các công cụ trí tuệ nhân tạo tổng hợp (generative AI) mạnh mẽ như ChatGPT và Sora, giúp việc lan tràn thông tin tuyên truyền và thông tin sai lạc trở nên dễ dàng hơn bao giờ hết. Các công cụ này cũng có khả năng tạo ra các tác phẩm giả mạo nhưng đầy thuyết phục: những lời nói ra từ chính miệng của các chính trị gia (mà họ vốn chẳng hề nói thế), và những đoạn clip ghi lại những sự việc diễn ra ngay trước mắt chúng ta (mà những việc đó vốn chưa từng xảy ra).
Hậu quả là khả năng cử tri bị lừa dối ngày càng tăng cao, và có lẽ điều đáng lo ngại hơn cả, là người ta ngày càng cảm thấy chẳng thể tin tưởng vào bất cứ điều gì nhìn thấy trên Internet. Trump đã tận dụng cái gọi là “lợi ích của dối trá” (liar’s dividend), tức là lợi ích hoặc ưu điểm của dối trá khi tạo ra sự nghi ngờ trước tất cả các thông tin, từ đó hạ thấp giá trị của sự thật và tạo ra một môi trường đầy những nghi kị. Ngày 12/3/2024, Trump đã ám chỉ trên Truth Social rằng các đoạn clip thực sự của ông được chiếu bởi các DB Đảng Dân Chủ trong Hạ Viện là sản phẩm được AI tạo ra hoặc đã qua chỉnh sửa bằng AI.
Dưới đây là tổng hợp một số điều cần biết về mối đe dọa của AI đối với chính trị.
1. Các sự kiện giả tạo
AI giờ đây có khả năng tạo ra các bằng chứng giả rất thuyết phục về các sự kiện chưa từng xảy ra. Điều này gây ra một vấn đề lớn vì những bằng chứng giả này có thể được sử dụng để thay đổi hoặc khiến tình hình thực tế trở nên khác hẳn so với sự thật. Chuyên gia nghiên cứu về bảo mật máy tính của Viện Công Nghệ Rochester Christopher Schwartz đặt tên cho các loại giả mạo này là ‘tình huống giả’ (situation deepfake, hay deepfake tình huống).
Ông cho hay: “Ý tưởng cơ bản và công nghệ sử dụng để tạo ra deepfake tình huống cũng tương tự như bất kỳ các loại deepfake nào khác, nhưng có mục tiêu táo bạo hơn: thao túng một sự kiện thực tế hoặc tạo ra một sự kiện hoàn toàn mới.”
Các tình huống giả có thể được sử dụng để thúc đẩy hoặc làm suy yếu sức ảnh hưởng của một ứng viên, hoặc để làm giảm tỷ lệ cử tri bỏ phiếu. Theo Schwartz, nếu quý vị bắt gặp các báo cáo trên mạng xã hội về các sự kiện đầy ngạc nhiên hoặc bất thường, hãy cố gắng tìm hiểu thêm thông tin từ các nguồn đáng tin cậy, chẳng hạn như các bản tin đã được kiểm chứng thực tế, các bài báo học thuật được bình duyệt, hoặc các cuộc phỏng vấn với các chuyên gia uy tín. Ngoài ra, hãy tỉnh táo hiểu rõ rằng các loại deepfake có thể lợi dụng những gì quý vị có khuynh hướng sẽ tin tưởng.
Bài đọc liên quan: Events that never happened could influence the 2024 presidential election – a cybersecurity researcher explains situation deepfakes
2. Nga, Trung Quốc và Iran
Sau khi đặt câu hỏi về thông tin sai lạc do AI có thể làm được những gì, thì câu hỏi tiếp theo là ai đã sử dụng công cụ này. Hiện nay, với các công cụ AI, ai cũng có thể tạo ra thông tin sai lạc một cách dễ dàng, nhưng đối tượng đáng lo ngại là các quốc gia được xem là đối thủ của các quốc gia dân chủ như Hoa Kỳ và các nước khác. Đặc biệt, Nga, Trung Quốc và Iran là những quốc gia dày dạn kinh nghiệm về các chiến dịch và công nghệ liên quan đến thông tin sai lạc.
Bruce Schneier, chuyên gia bảo mật và là giảng viên Trường Harvard Kennedy, giải thích: “Việc tạo ra các nội dung giả chỉ là một phần của chiến dịch. Phần khó khăn hơn là phát tán thông tin giả ra cộng đồng. Để tuyên truyền, người ta sẽ cần có một loạt các tài khoản giả trên mạng xã hội để đăng tin, rồi lấy các tài khoản khác vào quảng bá thông tin đó, để tin tức trở thành khuynh hướng phổ biến và lan truyền nhanh chóng.”
Theo Schneier, Nga và Trung Quốc có lịch sử thử nghiệm các chiến dịch đưa thông tin sai lạc phát tán ở các quốc gia nhỏ hơn. Ông nói: “Để đối phó với các chiến dịch thông tin sai lạc mới mẻ hiện nay, chúng ta cần có khả năng nhận diện đâu là tin giả, và để nhận diện đúng, chúng ta cần phải tìm kiếm và phân loại ngay từ bây giờ.”
Bài đọc liên quan: AI disinformation is a threat to elections − learning to spot Russian, Chinese and Iranian meddling in other countries can help the US prepare for 2024
3. Lòng hoài nghi lành mạnh
Không cần phải có sự hỗ trợ từ các cơ quan tình báo cao cấp, hùng hậu để thu hút sự chú ý trên các phương tiện truyền thông. Có thể lấy thí dụ về vụ hai người tạo ra và phát tán cuộc gọi tự động giả mạo về Biden tại New Hampshire, nhằm mục tiêu làm mất lòng tin của một số cử tri. Vụ này đã khiến Ủy Ban Truyền Thông Liên Bang (Federal Communications Commission, FCC) ban hành quy định cấm các cuộc gọi tự động sử dụng giọng nói được tạo ra bởi AI.
Joan Donovan, học giả về truyền thông và thông tin sai lạc tại Đại học Boston, cho biết rất khó để ngăn chặn các chiến dịch thông tin sai lạc được điều khiển bằng AI vì có khả năng được phát tán qua nhiều kênh truyền thông khác nhau, bao gồm cuộc gọi tự động, mạng xã hội, email, tin nhắn văn bản và các trang web.
Donovan cho biết: “Theo nhiều cách, thông tin sai lạc được cải thiện bởi AI, chẳng hạn như cuộc gọi tự động ở New Hampshire, đã đặt ra những vấn đề tương tự như các hình thức thông tin sai lạc khác. Những kẻ sử dụng AI để phá hoại các cuộc bầu cử sẽ cố gắng hết mức để xóa sạch dấu vết của mình. Đó là lý do tại sao công chúng cần phải giữ lòng hoài nghi trước những tuyên bố không được xác minh bởi các nguồn đáng tin cậy, chẳng hạn như tin tức truyền hình địa phương hoặc tài khoản mạng xã hội của các tờ báo uy tín.”
Bài đọc liên quan: FCC bans robocalls using deepfake voice clones − but AI-generated disinformation still looms over elections
4. Guồng máy chính trị kiểu mới
Rất khó để chống lại các chiến dịch thông tin sai lạc được điều khiển bằng AI, vì các chiến dịch này có thể sử dụng các bot – các tài khoản tự động trên mạng xã hội – để tự động tạo ra và phân phối nội dung, tự động tương tác với người dùng nhưng lại tỏ ra như là con người thật, và thậm chí tạo ra các tương tác trực tuyến được tùy chỉnh cho từng người dùng cụ thể. Các bot tự động có thể tương tác với hàng triệu người, trong suốt thời gian diễn ra bầu cử.
Khoa học gia về chính trị Harvard Archon Fung và học giả pháp lý Lawrence Lessig đã phân tích và mô tả những khả năng này, đồng thời xây dựng một kịch bản giả định về cách các chiến dịch chính trị trên toàn quốc sử dụng những công cụ mạnh mẽ này.
Theo Fung và Lessig, các nỗ lực để ngăn chặn sự lạm dụng các công nghệ tự động trong các chiến dịch chính trị có thể phải đối mặt với vấn đề về quyền tự do ngôn luận theo Tu Chính Án Thứ Nhất. Một giải pháp được cho là an toàn hơn về mặt hiến pháp, và cũng đã được thực hiện phần nào ở Châu Âu và California, đó là cấm các bot tự động nhận mình người thật. Thí dụ, các nhà lập pháp có thể ban hành quy định yêu cầu các thông điệp của chiến dịch phải gắn kèm với phần giải thích khi nội dung đó được tạo ra bởi máy móc chứ không phải con người.
Bài đọc liên quan: How AI could take over elections – and undermine democracy
Nguồn: “AI vs. elections: 4 essential reads about the threat of high-tech deception in politics” được đăng trên trang TheConversation.com.
Gửi ý kiến của bạn