Lộ nội dung thảo luận cơ chế thẩm tra AI của Nhà Trắng; Phát biểu của Hassett bị cơ quan chức năng phủ nhận vào ngày hôm sau

MarketWhisper

白宮AI預審機制討論

Chủ nhiệm Ủy ban Kinh tế Quốc gia (NEC) Nhà Trắng Kevin Hassett cho biết trong một cuộc phỏng vấn với Fox Business vào ngày 7 tháng 5 rằng chính quyền Trump đang xem xét ban hành lệnh hành pháp để yêu cầu các mô hình AI phải trải qua thẩm định an ninh của chính phủ trước khi được công bố rộng rãi, và ông viện dẫn so sánh tương tự quy trình phê duyệt trước khi đưa thuốc ra thị trường của FDA. Tuy nhiên, theo Politico ngày 8 tháng 5, các quan chức cấp cao tại Nhà Trắng sau đó khẳng định rằng phát biểu này đã bị “cắt xén khỏi ngữ cảnh”.

Diễn tiến sự kiện: Mâu thuẫn chính sách của Nhà Trắng lộ ra công khai qua báo cáo của The New York Times

Ngày 4 tháng 5 năm 2026, The New York Times đưa tin rằng Nhà Trắng đang thảo luận việc thiết lập một cơ chế thẩm tra trước khi công bố đối với các mô hình AI, khi đó được mô tả là “đang cân nhắc”. Đến ngày 7 tháng 5 năm 2026, trong cuộc phỏng vấn với Fox Business, Kevin Hassett công khai nói rằng: “Chúng tôi đang nghiên cứu liệu có thể thông qua lệnh hành pháp để yêu cầu AI trong tương lai có thể tạo ra lỗ hổng phải chứng minh được tính an toàn trước khi được đưa vào sử dụng — cũng như các loại thuốc của FDA.”

Vào đêm khuya ngày 7 tháng 5 năm 2026, Chánh văn phòng Nhà Trắng Susie Wiles đăng bài trên nền tảng X, nói rằng chính phủ “không có trách nhiệm lựa chọn kẻ thắng người thua”, đồng thời cho rằng việc triển khai an toàn cho công nghệ mạnh mẽ nên do “các nhà sáng tạo xuất sắc của Mỹ chứ không phải cơ quan quan liêu” dẫn dắt. Theo lịch sử ghi nhận trên tài khoản chính thức của bà, bài đăng nói trên là nội dung thứ tư kể từ khi tài khoản của Wiles được tạo.

Dẫn theo Politico, ba người am hiểu được giấu tên cho biết Nhà Trắng đang thảo luận để các cơ quan tình báo tiến hành đánh giá sớm trước khi các mô hình AI được công bố. Một quan chức chính phủ Mỹ trong bài báo cho biết một trong các mục đích là “đảm bảo rằng giới tình báo sẽ nghiên cứu và khai thác các công cụ đó trước khi các đối thủ như Nga và Trung Quốc hiểu được năng lực mới”.

Các cơ quan liên quan và khung chính sách

CAISI mở rộng thỏa thuận đánh giá an toàn tự nguyện

Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại trong tuần này đã công bố rằng họ đã ký các thỏa thuận đánh giá an toàn AI với Google DeepMind, Microsoft và xAI, đồng thời phạm vi được mở rộng so với OpenAI và Anthropic vốn đã nằm trong diện trước đó. Khung đánh giá tự nguyện của CAISI đã được triển khai từ năm 2024.

Thứ trưởng Bộ Quốc phòng công khai ủng hộ cơ chế đánh giá trước

Thứ trưởng Bộ Quốc phòng Emil Michael vào ngày 8 tháng 5 năm 2026 khi tham dự một hội nghị về AI tại Washington đã công khai ủng hộ đánh giá trước của chính phủ đối với các mô hình AI trước khi công bố, đồng thời trong phát biểu của mình đã dẫn Mythos của Anthropic như một ví dụ tham chiếu, cho rằng các mô hình liên quan “sớm muộn gì cũng sẽ xuất hiện”, và chính phủ phải xây dựng cơ chế ứng phó.

Bối cảnh chính sách của chính quyền Trump và Anthropic

Theo Politico, Bộ trưởng Quốc phòng Pete Hegseth vào tháng 3 năm 2026 đã đưa Anthropic vào danh sách rủi ro với lý do rủi ro chuỗi cung ứng, đồng thời cấm các mô hình của công ty này được sử dụng cho các hợp đồng của Bộ Quốc phòng. Sau đó, Trump đã yêu cầu riêng các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic trong vòng sáu tháng. Trong khi đó, đầu tháng trước Anthropic tiết lộ hệ thống AI Mythos của mình có khả năng phát hiện lỗ hổng phần mềm mạnh mẽ, vượt quá ngưỡng an toàn trước khi được công bố rộng rãi, và nhiều cơ quan liên bang sau đó đã nộp đơn xin kết nối. Ngày 8 tháng 5 năm 2026, OpenAI thông báo sẽ tiến hành xem trước giới hạn đối với công cụ GPT-5.5-Cyber mới, công cụ này có thể phát hiện và sửa các lỗ hổng mạng.

Quan điểm phản đối của ngành đối với cơ chế kiểm tra bắt buộc

Chủ tịch Hiệp hội Nền tảng Công nghệ Thông tin và Đổi mới (ITIF) Daniel Castro trong bài báo của Politico cho biết: “Nếu việc được phép đưa ra thị trường có thể bị từ chối trước khi lên sàn, điều đó sẽ là vấn đề lớn đối với mọi công ty. Nếu một đối thủ được phê duyệt còn công ty khác không được phê duyệt, chênh lệch vài tuần hoặc vài tháng trong việc tiếp cận thị trường sẽ tạo ra tác động vô cùng lớn.” Các đơn vị tài trợ của ITIF bao gồm Anthropic, Microsoft và Meta.

Một quan chức cấp cao tại Nhà Trắng trong cùng bài báo cho biết: “Đúng là có một hai người cực kỳ nhiệt tình với việc giám sát của chính phủ, nhưng họ chỉ là thiểu số.” Vị quan chức này được giấu tên với lý do mô tả các cuộc thảo luận chính sách nhạy cảm.

Câu hỏi thường gặp

Kevin Hassett phát biểu về thẩm định trước AI vào khi nào và ở đâu?

Theo Politico, Kevin Hassett đã công khai nêu quan điểm vào ngày 7 tháng 5 năm 2026 trong cuộc phỏng vấn với Fox Business rằng chính phủ đang xem xét ban hành lệnh hành pháp, yêu cầu các mô hình AI phải vượt qua thẩm định an ninh của chính phủ trước khi được công bố, và ông đã so sánh với quy trình phê duyệt thuốc của FDA.

Nhà Trắng phủ nhận phát biểu của Hassett dựa trên cơ sở nào?

Theo Politico ngày 8 tháng 5 năm 2026, các quan chức cấp cao tại Nhà Trắng cho biết phát biểu của Hassett “có phần bị cắt xén khỏi ngữ cảnh”, và định hướng chính sách của Nhà Trắng là thiết lập quan hệ đối tác với doanh nghiệp, không phải triển khai sự giám sát của chính phủ. Chánh văn phòng Susie Wiles cũng đăng bài để nhắc lại rằng chính phủ không can thiệp vào việc lựa chọn trên thị trường.

CAISI trong tuần này bổ sung những thỏa thuận đánh giá an toàn AI nào?

Theo tuyên bố của CAISI trong tuần này, các thỏa thuận bổ sung lần này bao gồm Google DeepMind, Microsoft và xAI, cùng với OpenAI và Anthropic vốn đã được bao phủ trước đó. Khung đánh giá tự nguyện được triển khai từ năm 2024.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Mỹ và Trung Quốc sắp khởi động Đối thoại An toàn AI chính thức, do các quan chức Bộ Tài chính dẫn đầu

Theo các báo cáo, Hoa Kỳ và Trung Quốc đang chuẩn bị khởi động một cuộc đối thoại chính thức về an toàn AI nhằm thiết lập các cơ chế quản lý khủng hoảng cho cuộc cạnh tranh công nghệ của họ. Phái đoàn Mỹ sẽ do Bộ trưởng Tài chính Scott Bessent dẫn đầu, trong khi phía Trung Quốc sẽ do Phó

GateNews13phút trước

RLWRLD Ra mắt mô hình AI RLDX-1 cho bàn tay robot công nghiệp

RLWRLD, một startup AI về robot được LG Electronics hậu thuẫn, đã ra mắt RLDX-1—một mô hình nền tảng được thiết kế cho bàn tay robot năm ngón trong các ứng dụng công nghiệp—theo RLWRLD. Công ty đã công bố trọng số, mã nguồn và các tài liệu kỹ thuật của mô hình trên GitHub và Hugging Face. Model

CryptoFrontier33phút trước

Thành tích đa lĩnh vực của DeepMind AlphaEvolve: phép nhân ma trận 4×4 làm mới kỷ lục Strassen 1969, quá trình huấn luyện của Gemini nhanh hơn 1%

Google DeepMind ngày 7 tháng 5 (giờ Mỹ) công bố báo cáo kết quả đa lĩnh vực của AlphaEvolve. Blog chính thức của DeepMind đã tổng hợp các tiến triển cụ thể của AlphaEvolve kể từ khi ra mắt: tìm ra phương pháp nhân ma trận phức 4×4 tốt hơn thuật toán Strassen năm 1969 (48 lần nhân vô hướng), hợp tác với các nhà toán học như Terence Tao để giải quyết nhiều bài toán nan giải về số Erdős (艾狄胥), tiết kiệm 0,7% tổng tài nguyên tính toán toàn cầu cho các trung tâm dữ liệu của Google, tăng tốc 23% các kernel then chốt được dùng để huấn luyện Gemini, và giảm 1% thời gian huấn luyện Gemini tổng thể. Kiến trúc: Gemini Flash thăm dò theo bề rộng + Gemini

ChainNewsAbmedia45phút trước

OpenAI Codex ra mắt tiện ích mở rộng cho Chrome: có thể thử Web App ngay trong trình duyệt, lấy Context qua nhiều trang, chạy song song

OpenAI ngày 7 tháng 5 (giờ Mỹ) công bố tiện ích mở rộng Chrome của Codex, cho phép các Codex coding Agent hoạt động trực tiếp trong trình duyệt Chrome trên macOS và Windows. Tài liệu chính thức của OpenAI về Codex cho biết tiện ích mở rộng giúp Codex có thể kiểm thử web app mà không tiếp quản trình duyệt của người dùng, lấy context trên nhiều tab, sử dụng Chrome DevTools và tiến hành các công việc khác song song. OpenAI cũng công bố người dùng hoạt động theo tuần của Codex đã vượt 4 triệu, tăng gấp 8 lần so với đầu năm. Những việc có thể làm trong trình duyệt: kiểm thử web app, lấy context qua các trang, dùng DevTools Tiện ích mở rộng Chrome

ChainNewsAbmedia49phút trước

OpenAI ra mắt GPT-Realtime-2: mang suy luận GPT-5 vào voice agent, nâng context lên 128K

OpenAI ngày 7 tháng 5 (theo giờ Mỹ) tại hội nghị dành cho nhà phát triển đã công bố ba mô hình giọng nói Realtime mới: GPT-Realtime-2, GPT-Realtime-Translate và GPT-Realtime-Whisper, tất cả đều được mở cho các nhà phát triển thông qua Realtime API. Thông báo chính thức của OpenAI cho biết, GPT-Realtime-2 là mô hình đầu tiên của OpenAI có khả năng GPT-5

ChainNewsAbmedia50phút trước

Đi thực địa tại các phòng thí nghiệm AI của Trung Quốc: Nhà nghiên cứu tiết lộ “khoảng trống về chip và dữ liệu” là chìa khóa tạo nên chênh lệch giữa Trung Quốc và Mỹ

Trong chuyến thâm nhập nhiều phòng thí nghiệm AI ở Trung Quốc, Nathan Lambert cho biết lợi thế cốt lõi của Trung Quốc nằm ở văn hóa, nhân tài và tinh thần thực dụng. Nghiên cứu được ưu tiên để nâng chất lượng mô hình, trong đó học sinh là nhóm đóng góp nòng cốt, và tổ chức ít xảy ra mâu thuẫn nội bộ; tuy nhiên vẫn có khoảng trống về chip, dữ liệu và sự sáng tạo. Năng lực tính toán từ bên ngoài bị Mỹ kiểm soát, trong khi chất lượng dữ liệu thấp đã thúc đẩy việc tự xây dựng môi trường huấn luyện. Doanh nghiệp có mở mã nguồn nhưng giữ lại công nghệ cốt lõi để tự tinh chỉnh; nếu Mỹ siết chặt hệ sinh thái mở, có thể ảnh hưởng đến vị trí dẫn đầu toàn cầu.

ChainNewsAbmedia59phút trước
Bình luận
0/400
Không có bình luận