Обсуждение просочившегося разговора о механизме предварительного допроса по ИИ в Белом доме; на следующий день заявление Хассетта было опровергнуто официальными лицами

白宮AI預審機制討論

Директор Национального экономического совета (NEC) при Белом доме Кевин Хассетт в интервью Fox Business от 7 мая заявил, что администрация Трампа обсуждает возможность потребовать через указ AI-модели проходить проверку безопасности правительства до их публичного выпуска, и провёл аналогию с тем, как FDA утверждает лекарства до выхода на рынок. Однако, как сообщила Politico 8 мая, высокопоставленные чиновники Белого дома затем заявили, что это высказывание было «вырвано из контекста».

Ход событий: «Нью-Йорк Таймс» доводит до публичности противоречия в политике Белого дома

4 мая 2026 года The New York Times сообщила, что Белый дом обсуждает создание механизма предварительной проверки перед публикацией AI-моделей, тогда это охарактеризовали как «рассматривается». 7 мая 2026 года Кевин Хассетт в интервью Fox Business публично заявил: «Мы изучаем, можно ли через административный приказ потребовать, чтобы AI, который в будущем может породить уязвимости, поступал в использование только после того, как докажет свою безопасность — как лекарства у FDA».

Поздно вечером 7 мая 2026 года глава аппарата Белого дома Сьюзи Уилс в посте на платформе X написала, что правительство «не должно определять победителей и проигравших», и заявила, что внедрение безопасного развертывания мощных технологий должны продвигать «выдающиеся инновааторы США, а не бюрократические структуры». Согласно записи в её официальном аккаунте, этот пост был четвёртым опубликованным с момента создания аккаунта Уилс.

По данным Politico со ссылкой на троих осведомлённых источников, получивших анонимность, Белый дом обсуждает идею привлечения разведсообщества для предварительной оценки AI-моделей до их публичного выпуска. Один из чиновников правительства США в материале заявил, что одна из целей — «дать разведке возможность сначала изучить и использовать эти инструменты, прежде чем Россия и Китай и другие оппоненты поймут новые возможности».

Задействованные структуры и рамки политики

CAISI расширяет соглашение о добровольных проверках безопасности

Центр стандартов и инноваций в области AI (CAISI) при Министерстве торговли на этой неделе объявил, что заключил соглашения об оценке безопасности AI с Google DeepMind, Microsoft и xAI, а охват расширен на OpenAI и Anthropic, которые были включены ранее. Добровольная рамка оценок CAISI действует с 2024 года.

Замминистра обороны публично поддерживает механизм предварительной оценки

Заместитель министра обороны Эмил Майкл 8 мая 2026 года на AI-конференции в Вашингтоне публично поддержал предварительную правительственную оценку AI-моделей до их публичного выпуска, а в своём выступлении привёл в качестве примера систему Mythos от Anthropic, заявив, что соответствующие модели «рано или поздно появятся», и правительству необходим механизм реагирования.

Политический контекст администрации Трампа и Anthropic

Согласно сообщению Politico, министр обороны Пит Хегсетт в марте 2026 года включил Anthropic в список рисков под предлогом рисков для цепочек поставок и запретил использование её моделей для контрактов Министерства обороны. После этого Трамп отдельно потребовал от федеральных ведомств в течение шести месяцев прекратить использование продуктов Anthropic. Параллельно с этим, в прошлом месяце Anthropic раскрыла, что её AI-система Mythos обладает мощными возможностями поиска уязвимостей в программном обеспечении, выходя за рамки порога безопасности для публичного выпуска; после этого несколько федеральных ведомств подали заявки на подключение. 8 мая 2026 года OpenAI объявила о ограниченном превью нового инструмента GPT-5.5-Cyber, который позволяет обнаруживать и исправлять сетевые уязвимости.

Позиция индустрии против механизма обязательной проверки

Председатель Фонда информационных технологий и инноваций (ITIF) Дэниел Кастро в материале Politico заявил: «Если до выхода на рынок можно отказать в одобрении, это станет большой проблемой для любой компании. Если один конкурент получил одобрение, а другой — нет, разрыв в допуске на рынок на недели или месяцы окажет огромное влияние». Среди спонсоров ITIF — Anthropic, Microsoft и Meta.

В том же материале один высокопоставленный чиновник Белого дома заявил: «Да, есть один-два человека, которые очень увлечены правительственным регулированием, но они — меньшинство». Чиновник согласился на анонимность, сославшись на необходимость описывать чувствительные обсуждения политики.

Часто задаваемые вопросы

Когда и где Кевин Хассетт сделал заявления об AI-предоценке?

Согласно сообщению Politico, Кевин Хассетт 7 мая 2026 года в интервью Fox Business публично заявил, что правительство рассматривает указ, который потребует от AI-моделей проходить проверку безопасности правительства до публикации, и провёл аналогию с процессом одобрения лекарств FDA.

На чём основано отрицание высказываний Хассетта со стороны Белого дома?

Согласно сообщению Politico от 8 мая 2026 года, высокопоставленные чиновники Белого дома заявили, что высказывание Хассетта «слегка вырвано из контекста», а направление политики Белого дома — строить партнёрства с компаниями, а не продвигать государственное регулирование. Сьюзи Уилс, глава аппарата Белого дома, в отдельном посте также подтвердила, что правительство не вмешивается в выбор на рынке.

Какие новые соглашения по оценке безопасности AI добавил CAISI на этой неделе?

Согласно заявлению CAISI на этой неделе, добавленные соглашения охватывают Google DeepMind, Microsoft и xAI, а также уже охваченные ранее OpenAI и Anthropic; добровольная рамка оценок действует с 2024 года.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев