Chúng ta có thể tin tưởng vào công nghệ phát hiện tin giả AI đến mức nào?
Trong nỗ lực đầy tham vọng nhằm giải quyết tác hại của nội dung sai lệch trên mạng xã hội và trang web tin tức, các nhà khoa học dữ liệu đang trở nên đầy sáng tạo.
Trong quá trình đào tạo, các mô hình ngôn ngữ lớn (LLM), như ChatGPT, đang được sử dụng để phát hiện tin tức giả mạo. Những công cụ này có thể cải thiện khả năng phát hiện thông tin sai lệch, giúp cảnh báo và ngăn chặn các tác hại do deepfake, tuyên truyền, thuyết âm mưu và thông tin sai lệch gây ra.
Công nghệ AI thế hệ mới sẽ không chỉ phát hiện nội dung sai lệch mà còn cá nhân hóa việc này, bảo vệ người dùng khỏi thông tin sai lệch. Để đạt được điều này, lĩnh vực khoa học dữ liệu cần kết hợp với khoa học hành vi và thần kinh.
Các nghiên cứu gần đây cho thấy đôi khi chúng ta không nhận thức được rằng mình đang tiếp xúc với tin tức giả. Khoa học thần kinh đang khám phá các phản ứng vô thức liên quan đến điều này. Những dấu hiệu sinh học như nhịp tim, chuyển động của mắt và hoạt động não có thể thay đổi khi chúng ta xem nội dung thật hay giả. Nói cách khác, những dấu hiệu này có thể chỉ ra rằng chúng ta đã bị lừa hay chưa.
Chúng ta có thể tin tưởng vào công nghệ phát hiện tin giả AI đến mức nào?
Chẳng hạn, khi con người nhìn vào khuôn mặt, dữ liệu theo dõi mắt cho thấy sự thay đổi trong tốc độ chớp mắt và màu sắc da do lưu lượng máu. Nếu những yếu tố này có vẻ không tự nhiên, chúng ta có thể nghi ngờ rằng đó là deepfake. Những hiểu biết này có thể giúp AI phát triển, cho phép nó học hỏi từ những gì con người tìm kiếm.
Việc cá nhân hóa công cụ kiểm tra tin tức giả AI có thể dựa vào dữ liệu từ chuyển động mắt và hoạt động điện não. Điều này sẽ giúp xác định loại nội dung sai lệch nào có tác động lớn nhất đến cảm xúc và tâm lý của từng cá nhân.
Với việc biết sở thích, tính cách và phản ứng cảm xúc của người dùng, một hệ thống kiểm tra thực tế dựa trên AI có thể phát hiện và dự đoán loại nội dung nào dễ dàng làm người xem bị ảnh hưởng nhất. Điều này sẽ giúp xác định khi nào mọi người dễ bị cuốn hút và loại tài liệu nào dễ dàng đánh lừa họ.
Chống lại tác hại
Để bảo vệ chúng ta khỏi tác hại của tin giả, cần xây dựng các hệ thống có khả năng can thiệp, tức là áp dụng một số biện pháp kỹ thuật số chống lại tin giả. Các biện pháp này có thể bao gồm việc gắn nhãn cảnh báo, cung cấp liên kết đến nội dung đáng tin cậy đã được các chuyên gia xác thực, và khuyến khích mọi người xem xét các quan điểm khác nhau khi đọc một thông tin.
Công cụ kiểm tra tin tức giả AI được cá nhân hóa có thể được thiết kế để cung cấp cho từng người dùng những biện pháp bảo vệ này nhằm giảm thiểu tác hại từ nội dung sai lệch trực tuyến.
Công nghệ như vậy đã được thử nghiệm. Các nhà nghiên cứu tại Hoa Kỳ đã nghiên cứu cách mà mọi người tương tác với một trình kiểm tra tin tức giả AI được cá nhân hóa cho các bài đăng trên mạng xã hội. Hệ thống này đã học cách giảm số lượng bài đăng trong nguồn cấp tin tức xuống còn những bài mà nó cho là đúng. Một nghiên cứu khác đã điều chỉnh nội dung tin tức bổ sung cho từng bài đăng trên mạng xã hội nhằm khuyến khích người dùng xem xét các quan điểm khác.
Phát hiện chính xác tin tức giả mạo
Mặc dù những điều này có vẻ ấn tượng, nhưng chúng ta cần đặt ra một số câu hỏi cơ bản. Hầu hết các nghiên cứu về tin giả, thông tin sai lệch đều nhấn mạnh một vấn đề mà bất kỳ hệ thống phát hiện nào cũng phải đối mặt.
Có nhiều loại máy phát hiện, không chỉ có máy phát hiện nói dối. Một số chỉ dựa vào phân tích ngôn ngữ, trong khi một số khác đọc khuôn mặt của con người để phát hiện những cảm xúc nhỏ có thể cho thấy họ đang nói dối. Cũng có những hệ thống AI thiết kế để xác định xem khuôn mặt có phải là thật hay giả.
Trước khi bắt đầu quá trình phát hiện, tất cả chúng ta cần thống nhất về những gì tạo thành lời nói dối nếu muốn phát hiện ra nó. Nghiên cứu cho thấy việc hướng dẫn mọi người khi nào nên nói dối và khi nào nên nói thật giúp phát hiện dễ hơn. Khi đó, chúng ta có thể có một số cách để biết sự thật cơ bản để huấn luyện cả con người và máy móc phân biệt sự khác biệt.
Một máy phát hiện nói dối chuyên nghiệp giỏi sẽ phát hiện ra lời nói dối nhiều lần (trúng đích) mà không nhầm lẫn ai đó là nói thật khi thực tế họ đang nói dối (bỏ lỡ). Họ cần biết sự thật khi phát hiện để từ chối đúng, và không buộc tội ai đó là nói dối khi họ nói thật (báo động giả). Điều này áp dụng cho việc phát hiện tin giả cũng giống như đã nêu.
Đối với hệ thống AI phát hiện tin giả, độ chính xác cần phải cao. Tỷ lệ phát hiện đúng (ví dụ 90%) cần cao, trong khi tỷ lệ bỏ lỡ và cảnh báo sai cũng cần thấp, để đảm bảo tin tức thực không bị gọi là giả.
Có thể xảy ra những trường hợp mà nội dung tin tức không hoàn toàn sai hoặc đúng, mà chỉ có một phần chính xác. Điều này là do tốc độ vòng đời tin tức khiến những gì được coi là chính xác có thể thay đổi theo thời gian. Vì vậy, một hệ thống phát hiện tin giả cần làm việc tốt trong các tình huống như vậy.
Nếu chúng ta biết trước tin nào là giả và tin nào là thật, thì dấu hiệu sinh học trong việc chỉ ra một cách vô thức đâu là tin nào có thể không chính xác lắm. Hoạt động não thường giống nhau khi chúng ta thấy bài viết thật và giả.
Khi xem các nghiên cứu theo dõi chuyển động của mắt, có nhiều loại dữ liệu khác nhau được thu thập. Một số nghiên cứu cho thấy chúng ta chú ý nhiều hơn đến nội dung sai lệch, trong khi một số khác lại chỉ ra điều ngược lại.
Chúng ta tới nơi chưa?
Các hệ thống phát hiện tin giả AI hiện tại đang sử dụng thông tin từ khoa học hành vi để cảnh báo chúng ta về nội dung tin giả. Vì vậy, sẽ không quá khó để những hệ thống AI tương tự xuất hiện trong nguồn cấp tin tức của chúng ta với các biện pháp bảo vệ tùy chỉnh cho từng hồ sơ người dùng.
Vấn đề với tất cả những điều này là chúng ta vẫn còn nhiều điều cần thảo luận để biết điều gì đang thật sự hiệu quả, và phải xem xét liệu chúng ta có muốn điều này hay không. Trong trường hợp xấu nhất, tin giả có thể được coi là một vấn đề trực tuyến mà chỉ cần giải quyết bằng AI, trong khi vấn đề thật sự lại phức tạp hơn ngoài đời thực.
Chúng ta không tin tất cả tin giả, đôi khi chúng ta sử dụng chúng trong các cuộc thảo luận để minh họa cho những ý tưởng sai lầm. Trong kịch bản tốt nhất, khoa học dữ liệu và khoa học hành vi có thể tự tin về các tác hại mà tin giả mang lại. Nhưng ngay cả ở đây, các ứng dụng AI vẫn có thể không phải là giải pháp tối ưu so với những giải pháp đơn giản nhưng hiệu quả hơn.