Линки доступности

Исследование: Искусственный интеллект не способен распознать дезинформацию


Чат-боты повторяют ложные нарративы, особенно в ответ на искусные запросы, копирующие тактику иностранных кампаний влияния

Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформаци накануне президентских выборов в США. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ.

В ходе исследования с использованием 10 ведущих чат-ботов, проведенного в сентябре, NewsGuard, выяснила, что при получении запроса, содержащего ложные нарративы, ИИ повторяет дезинформацию в 18% случаев и отказывается отвечать или дает нерелевантный ответ в 38% случаев.

«Эти чат-боты явно испытывают трудности, когда дело доходит до обработки запросов, связанных с новостями и информацией, – заявил автор исследования Маккензи Садеги. – Есть множество источников [информации], и чат-боты не всегда в состоянии определить, какие из них надежные, а какие нет».

NewsGuard поддерживает базу данных распространяемых ложных нарративов, охватывающих глобальные войны и американскую политику, рассказал Садеги «Голосу Америки».

Каждый месяц исследователи «скармливают» ведущим чат-ботам набирающие силу ложные нарративы в трех разных формах: запросы от «обычных» пользователей, наводящие вопросы и запросы от «злонамеренных субъектов». Затем исследователи изучают реакцию ИИ: повторяет ли он ложные утверждения, опровергает или отказывается отвечать.

Выяснилось, что в большинстве случаев ИИ повторяет ложные нарративы, когда отвечает на запросы «злонамеренных субъектов», которые копируют тактику, используемую иностранными кампаниями влияния для распространения дезинформации. Примерно 70% случаев, когда ИИ повторял ложные утверждения, были ответами на запросы «злонамеренных субъектов», в отличие от наводящих вопросов или запросов «обычных» пользователей.

По оценкам Офиса директора национальной разведки, иностранные кампании влияния могут воспользоваться этими недостатками. Россия, Иран и Китай используют генеративный ИИ для «активизации усилий по оказанию влияния на выборы в США», говорится в докладе разведки, опубликованном в сентябре.

В качестве примера того, как легко можно ввести в заблуждение чат-ботов ИИ, Садеги привел июньское исследование компании NewsGuard, в ходе которого выяснилось, что ИИ повторяет российскую дезинформацию, если она «замаскирована» под американский местный источник новостей.

Распространение ложной информации на самые разные темы – от миграции до чрезвычайных ситуаций – является постоянной темой на протяжении всего избирательного цикла 2024 года.

«В распространении ложной информации нет чего-то нового, но генеративный ИИ определенно усиливает эти модели и поведение», – заявила «Голосу Америки» исследователь ИИ из Джорджтаунского университета Седжин Пайк.

По словам Пайк, поскольку технологии, лежащие в основе ИИ, постоянно развиваются, он часто не в состоянии обнаружить ошибочную информацию, что приводит к проблемам с достоверностью ответов ИИ.

Группа NewsGuard также обнаружила, что две трети «высококачественных» новостных сайтов блокируют доступ генеративных моделей ИИ к своим материалам. В результате ИИ часто обучается на низкокачественных источниках новостей, склонных к дезинформации.

По мнению экспертов, в этом кроется опасность. Большая часть бесплатных СМИ, на которых обучается ИИ, являются либо «пропагандой», либо инструментами «намеренной стратегической коммуникации», заявил «Голосу Америки» исследователь СМИ Мэтт Джордан.

«Сам ИИ ничего не знает: он не отсеивает знания и не может оценить утверждения. Он просто повторяет, основываясь на больших данных», – сказал Джордан, профессор Пенсильванского университета.

ИИ склонен повторять «раздутые» новости, поскольку, по статистике, обучается на искаженной и предвзятой информации, добавил он. Джордан охарактеризовал такую модель как «шлак на входе – шлак на выходе».

Несмотря на проблемы с дезинформацией, сектор стремительно растет. За последние несколько лет индустрия генеративного ИИ пережила монументальный рост. По данным агентства Reuters, в настоящее время чатом ChatGPT компании OpenAI пользуется 200 миллионов пользователей в неделю, это более чем в два раза больше, чем в прошлом году.

По словам Анджаны Сусарлы, профессора Университета штата Мичиган, рост популярности этих инструментов приводит к другой проблеме. Поскольку информации поступает так много – от пользователей и из внешних источников, – обнаружить и остановить распространение дезинформации очень сложно.

По словам Сусарлы, многие пользователи по-прежнему верят в правдивость ответов чат-ботов.

«Иногда люди доверяют ИИ больше, чем людям», – сказала она «Голосу Америки».

Решением этой проблемы может стать двухпартийное регулирование, добавила она, выразив надежду, что правительство будет поощрять платформы социальных сетей регулировать вредоносную дезинформацию.

Джордан, напротив, считает, что решение проблемы – в аудитории.

«Противоядием от дезинформации должно стать доверие к журналистам и новостным агентствам, а не к ИИ, – сказал он. – Люди иногда думают, что проще доверять машине, чем человеку. Но в данном случае это просто машина, извергающая то, что сказали люди, не заслуживающие доверия».

Форум

XS
SM
MD
LG