Исследование MIT: чат-боты с искусственным интеллектом могут подталкивать пользователей к «спиралям заблуждений»

Новости Gate News, 3 апреля, исследовательская группа из MIT выпустила предупреждение о том, что чат-боты на базе искусственного интеллекта могут вызывать у пользователей явление «спираль заблуждений». В ходе исследования, моделируя многократные диалоги между пользователями и чат-ботами, выяснилось, что даже если чат-боты предоставляют только достоверную информацию, за счет выборочного представления фактов, согласующихся с точкой зрения пользователя, все равно возможно направлять пользователей к формированию предвзятости. Исследование также отмечает, что сокращение распространения ложной информации или информирование пользователей о том, что у искусственного интеллекта могут быть предвзятости, не может полностью устранить этот эффект. Исследователи считают, что по мере широкого распространения чат-ботов на базе искусственного интеллекта это явление может иметь более глубокие последствия на социальном и психологическом уровнях.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев