Sắc lệnh “chống AI thức tỉnh” của Trump có thể định hình lại các công ty công nghệ Hoa Kỳ

08:25, 24/07/2025

Khi DeepSeek, Alibaba và các công ty Trung Quốc khác công bố mô hình AI của họ, các nhà nghiên cứu phương Tây nhanh chóng nhận thấy các hệ thống này đã né tránh những câu hỏi chỉ trích Đảng Cộng sản Trung Quốc. Các quan chức Hoa Kỳ sau đó xác nhận rằng những công cụ AI này được thiết kế để phản ánh quan điểm của Bắc Kinh, làm dấy lên lo ngại về kiểm duyệt và thiên vị.

Các nhà lãnh đạo AI Mỹ như OpenAI đã chỉ ra điều đó như một lý do chính đáng để họ nhanh chóng phát triển công nghệ mà không cần quá nhiều quy định hay giám sát. Như Chris Lehane, giám đốc phụ trách các vấn đề toàn cầu của OpenAI, viết trên LinkedIn tháng trước: đang tồn tại một cuộc cạnh tranh giữa "AI dân chủ do Hoa Kỳ lãnh đạo và AI độc đoán của Trung Quốc do Đảng Cộng sản lãnh đạo".

Tuy nhiên, một sắc lệnh hành pháp được cựu Tổng thống Donald Trump ký vào thứ Tư vừa qua có thể phá vỡ sự cân bằng đó. Sắc lệnh cấm “AI thức tỉnh” và các mô hình không “trung lập về mặt ý thức hệ” khỏi các hợp đồng của chính phủ.

Cụ thể, sắc lệnh chỉ trích hệ tư tưởng về đa dạng, công bằng và hòa nhập (DEI), gọi đây là tư tưởng “lan tràn và mang tính hủy diệt” có thể “làm sai lệch chất lượng và độ chính xác của thông tin đầu ra”. Những nội dung bị liệt kê bao gồm thông tin về chủng tộc hoặc giới tính, thao túng biểu hiện chủng tộc hoặc giới tính, lý thuyết chủng tộc phê phán, chuyển giới, thành kiến vô thức, giao thoa và phân biệt chủng tộc có hệ thống.

Phát biểu tại một sự kiện về AI do All-In Podcast và Hill & Valley Forum tổ chức, Trump tuyên bố: “Một lần và mãi mãi, chúng ta sẽ loại bỏ sự thức tỉnh. Tôi sẽ ký lệnh cấm chính phủ liên bang mua sắm công nghệ AI bị tiêm nhiễm định kiến đảng phái hoặc các chương trình nghị sự tư tưởng, chẳng hạn như lý thuyết chủng tộc phê phán, điều này thật lố bịch. Và từ nay trở đi, chính phủ Hoa Kỳ sẽ chỉ làm việc với những AI theo đuổi sự thật, công bằng và sự vô tư tuyệt đối."

Cùng ngày, Nhà Trắng cũng công bố “Kế hoạch hành động AI” của Trump, trong đó chuyển hướng ưu tiên quốc gia khỏi các rủi ro xã hội để tập trung vào xây dựng hạ tầng AI, giảm thủ tục hành chính cho các công ty công nghệ, củng cố an ninh quốc gia và cạnh tranh với Trung Quốc.

Sắc lệnh hướng dẫn các quan chức cấp cao như Giám đốc Văn phòng Quản lý và Ngân sách, Quản trị viên Chính sách Mua sắm Liên bang, Quản trị viên Dịch vụ Tổng hợp và Giám đốc Văn phòng Chính sách Khoa học và Công nghệ ban hành hướng dẫn cho các cơ quan khác về cách tuân thủ.

Tuy nhiên, việc xác định điều gì là “công bằng” hay “khách quan” lại là một thách thức lớn. Theo Philip Seargeant, giảng viên cao cấp về ngôn ngữ học ứng dụng tại Đại học Mở, "Một trong những nguyên lý cơ bản của ngôn ngữ học xã hội là ngôn ngữ không bao giờ trung lập. Vì vậy, ý tưởng rằng bạn có thể đạt được sự khách quan thuần túy chỉ là một ảo tưởng."

Không chỉ vậy, hệ tư tưởng của chính quyền Trump cũng không đại diện cho niềm tin và giá trị của toàn thể người dân Mỹ. Trên thực tế, Trump đã nhiều lần tìm cách cắt giảm tài trợ cho các chương trình khí hậu, giáo dục, phát thanh truyền hình công cộng, nghiên cứu, trợ cấp cộng đồng, những sáng kiến mà ông thường coi là ví dụ về chi tiêu chính phủ “thức tỉnh” hoặc thiên lệch chính trị.

Như nhà khoa học dữ liệu Rumman Chowdhury – Giám đốc điều hành tổ chức Humane Intelligence và cựu đặc phái viên khoa học Hoa Kỳ về AI nhận xét: "Bất cứ điều gì [mà chính quyền Trump không] thích đều ngay lập tức bị ném vào đống rác rưởi đáng khinh bỉ này."

Định nghĩa về “tìm kiếm sự thật” và “trung lập tư tưởng” trong sắc lệnh cũng vừa mơ hồ, vừa cụ thể. Theo văn bản này, “tìm kiếm sự thật” là các mô hình AI ưu tiên tính chính xác lịch sử, nghiên cứu khoa học và tính khách quan; còn “trung lập tư tưởng” là các mô hình “không thao túng phản ứng theo hướng có lợi cho các giáo điều như DEI”.

Vấn đề là những định nghĩa như vậy tạo ra nhiều cách diễn giải rộng rãi, dễ dẫn đến áp lực ngầm. Nhiều chuyên gia cảnh báo các nhà phát triển AI sẽ cảm thấy buộc phải điều chỉnh kết quả đầu ra và tập dữ liệu theo đường lối của Nhà Trắng để đảm bảo tiếp cận nguồn tiền liên bang vốn là yếu tố sống còn với những doanh nghiệp đang đốt hàng triệu USD mỗi ngày.

Tuần trước, OpenAI, Anthropic, Google và xAI đã ký hợp đồng với Bộ Quốc phòng Mỹ, nhận tới 200 triệu USD mỗi bên để phát triển các quy trình AI phục vụ an ninh quốc gia. Tuy vậy, không rõ công ty nào trong số này sẽ tuân thủ sắc lệnh mới hoặc có vị thế đặc biệt để hưởng lợi.

Trong số đó, xAI có vẻ là bên phù hợp nhất – ít nhất ở giai đoạn đầu. Elon Musk đã định vị chatbot Grok là “AI phản thức tỉnh”, “ít thiên vị” và theo đuổi sự thật. Grok được thiết kế để không tuân theo các luồng thông tin chính thống, sẵn sàng tiếp cận quan điểm trái chiều kể cả khi chúng gây tranh cãi. Tuy nhiên, điều này đã dẫn đến việc Grok đưa ra cả các bình luận bài Do Thái, ca ngợi Hitler, phát ngôn thù hận, phân biệt chủng tộc và kỳ thị phụ nữ.

Mark Lemley, giáo sư luật tại Đại học Stanford, nhận định: “Sắc lệnh này rõ ràng mang tính phân biệt quan điểm, vì chính phủ vừa ký hợp đồng với Grok, hay còn gọi là ‘MechaHitler’.”

Ngoài nguồn tài trợ từ Lầu Năm Góc, xAI cũng vừa thông báo rằng “Grok for Government” đã được thêm vào lịch trình của Tổng cục Quản lý Dịch vụ, tức là sản phẩm của họ giờ có thể được mua bởi bất kỳ cơ quan chính phủ nào.

“Câu hỏi đúng là: liệu họ có cấm Grok – AI mà họ vừa ký hợp đồng lớn vì nó được thiết kế để đưa ra các phản hồi mang màu sắc chính trị? Nếu không, rõ ràng đây là sự thiên lệch có chọn lọc,” Lemley nói.

Trên thực tế, kết quả đầu ra của AI luôn phản ánh người xây dựng mô hình và dữ liệu huấn luyện. Việc đề cao tính bao hàm trong nội dung internet đã khiến một số mô hình như Gemini của Google bị chỉ trích. Ví dụ, Gemini từng hiển thị một George Washington da đen và những binh sĩ phát xít đa chủng tộc điều mà sắc lệnh của Trump coi là điển hình cho AI bị “nhiễm DEI”.

Chowdhury cho biết bà lo ngại các công ty sẽ chỉnh sửa dữ liệu đào tạo để tuân thủ đường lối chính trị. Bà dẫn chứng phát biểu của Musk khi ra mắt Grok 4 rằng xAI sẽ “viết lại toàn bộ kho tri thức nhân loại, bổ sung thông tin còn thiếu và xóa lỗi. Sau đó, đào tạo lại dựa trên những thông tin đó” một cách làm cho phép người nắm công nghệ tự định nghĩa đâu là sự thật.

Tất nhiên, việc kiểm soát thông tin không mới. Kể từ khi internet xuất hiện, các công ty công nghệ đã quyết định phần lớn thông tin nào được thấy và không được thấy. Tuy nhiên, khi AI trở thành công cụ phổ biến trong đời sống xã hội, mức độ tác động của những quyết định đó ngày càng lớn.

David Sacks – doanh nhân, nhà đầu tư bảo thủ và là người được Trump bổ nhiệm làm "ông trùm AI" đã nhiều lần công khai chỉ trích “AI thức tỉnh”, cho rằng các mô hình nổi tiếng hiện nay đã bị “nhồi nhét” các giá trị cánh tả. Ông viện dẫn quyền tự do ngôn luận để phản đối việc kiểm soát tư tưởng kỹ thuật số ngày càng tập trung.

Song, các chuyên gia cho rằng vấn đề nằm ở chỗ không có một “sự thật tuyệt đối”. Trong một thế giới nơi cả sự thật cũng bị chính trị hóa, việc tạo ra kết quả khách quan hay trung lập hoàn toàn là điều bất khả thi.

“Nếu kết quả do AI tạo ra cho thấy khoa học khí hậu là đúng, thì đó có phải là thiên kiến cánh tả không?” Seargeant đặt câu hỏi. “Một số người nói rằng để khách quan thì phải đưa ra cả hai phía, ngay cả khi một trong hai phía đó không có giá trị gì.”