Сообщение Gate News, 27 апреля — генеральный директор OpenAI Сэм Альтман опубликовал пять операционных принципов для компании под своей личной подписью, сигнализируя о том, что OpenAI может ограничивать доступ пользователей к возможностям моделей в определенные периоды, чтобы расставлять приоритеты в вопросах безопасности. В своем заявлении Альтман описал потенциальный сценарий будущего, при котором компании придется “пожертвовать некоторой расширенностью возможностей в обмен на большую устойчивость.”
Altman подчеркнул, что критически важные решения в области ИИ должны приниматься демократическими процессами, а не определяться исключительно ИИ-лабораториями. Он защищал недавние крупномасштабные закупки вычислительных мощностей OpenAI, строительство глобальных дата-центров и усилия по вертикальной интеграции, заявив, что цель — снизить затраты на ИИ, чтобы технология стала доступной для всех. Альтман отметил, что правительствам, возможно, придется изучить новые экономические модели, чтобы обеспечить распределение ценности. Он также выделил конкретный риск-сценарий: чрезвычайно мощные модели могут снизить порог для создания новых патогенов, что потребует реагирования на уровне общества.
Альтман размышлял об исторической нерешительности OpenAI относительно публикации весов GPT-2, признав, что в ретроспективе проявленная осторожность была чрезмерной, но указал, что это привело к итерационной стратегии развертывания, которую OpenAI продолжает применять сегодня.
Related News
Курс AI от Стэнфорда в связке с лидерами отрасли, Хуаном Жэньсюном и Альтманом, бросает вызов: создать ценность для всего мира за десять недель!
ИИ-агент уже может независимо воспроизводить сложные научные статьи: Mollick считает, что ошибки чаще бывают в человеческом исходном тексте, а не в ИИ
DeepSeek V4-Pro запускается при стоимости на 98% ниже, чем у GPT-5.5 Pro