Линки доступности

Какие угрозы дипфейки и ИИ создают для честных выборов?


Когда накануне праймериз в штате Нью-Гемпшире избирателям начали поступать автоматические звонки с сообщением якобы от президента Джо Байдена, кому-то это могло бы показаться простой предвыборной агитацией.

Байдена не было в бюллетене для праймериз штата, но демократы убеждали избирателей вписать туда его имя и тем самым поддержать действующего президента.

В аудиозаписи же голос, неотличимый от голоса Байдена, называл праймериз «набором чепухи» (одно из его любимых выражений) и призывал не участвовать в них, ведь «это только поможет республиканцам в их стремлении снова избрать Дональда Трампа».

Эта запись оказалась реалистичной цифровой подделкой, имитирующей голос президента – сейчас это часто называют «дипфейком» (deep fake). Власти штата проводят расследование инцидента.

Дипфейк-звонки не смогли помешать Байдену победить на праймериз в Нью-Гемпшире среди демократов, однако такое использование аудиоматериалов продемонстрировало новую опасность для избирательной системы в США: молниеносно развившиеся за последние пару лет технологии генеративного искусственного интеллекта (Generative AI, ГИИ). Как правило, под этим термином понимают разнообразные ИИ-системы создания реалистичных изображений, аудио, видео и текстов. Наиболее известные ГИИ-продукты – ChatGPT, Stable Diffusion и им подобные. Далее в этом тексте будет использоваться аббревиатура ИИ для обозначения в первую очередь технологий генеративного ИИ.

Хотя ИИ пока не создает принципиально новых рисков для избирательного процесса, он способен заметно усилить существующие, говорится в недавней публикации Агентства по кибербезопасности и защите инфраструктуры США.

Эксперты по технологиям и дезинформации выражают обеспокоенность в это связи.

«Доступность этих систем [ИИ] имеет огромный потенциал для оказания влияния на выборы», – говорит Лорен Крапф (Lauren Krapf), одна из руководителей Центра по изучению роли технологий в обществе Антидиффамационной лиги (Anti-Defamation League).

Чего опасаются американские власти?

Такие технологии, как ИИ, «обладают повышенным потенциалом нанесения большего урона, поскольку злоумышленники, в том числе представители иностранных государств и киберпреступники, могут использовать эти возможности во вред», – говорится в отчете Агентства по кибербезопасности и защите инфраструктуры.

Немалое внимание уделяется способности этих технологий создавать реалистичные политические аудио- или видеоматериалы. У этих технологий также может быть и более банальный эффект, отмечает Агентство: они могут позволить злоумышленникам снизить расходы и увеличить масштабы производства и охвата аудитории.

Например, отмечает Агентство, они смогут использовать генеративный искусственный интеллект «для создания штаммов вредоносного ПО, способных обойти системы кибербезопасности». К тому же, говорится в отчете, ИИ позволит реализовать более эффективные распределенные атаки типа «отказ в обслуживании» (DDoS). Эти атаки, работающие по принципу отправки системам-жертвам огромных объемов «мусорных» данных, могут выводить из строя сайты, в том числе, связанные с выборами.

Новое исследование специалистов из Университета им. Джорджа Вашингтона (George Washington University) в Вашингтоне подтверждает серьезность и рост связанных с ИИ рисков.

Изучив данные о двух предыдущих «кибер-инцидентах» – автоматических алгоритмических атаках на финансовые рынки США в 2008 году и китайских кибератаках на американскую инфраструктуру в 2013 году – исследователи предсказали, что уже к лету 2024 года случаи активности злоумышленников с применением ИИ станут ежедневными.

Ученые также установили, что злоумышленникам достаточно использовать даже относительно простые ИИ-модели (GPT2 от OpenAI), чтобы искажать тексты в соцсетях, придавая им нужные заказчикам смысловые акценты.

Старая версия даже работает лучше, ведь у нее нет защитных механизмов, препятствующих созданию такого контента.

Возможные угрозы

Поскольку ИИ остается передовой технологией и развивается бешеными темпами, никто не может предвидеть всех способов её применения. Но у экспертов уже есть множество опасений.

В конце января 2024 года порнографические изображения американской поп-звезды Тейлор Свифт, сгенерированные с помощью ИИ, заполнили соцсети несмотря на то, что распространение таких материалов нарушает правила пользования соцсетевых платформ.

Это не новое явление. В 2019, по оценкам одной из компаний, более 90% распространяемых в онлайне дипфейков были порнографическими материалами, созданными без согласия женщин, добавленных в них при помощи ИИ.

Нина Янкович (Nina Jankowicz), вице-президент Центра информационной устойчивости (Centre for Information Resilience) и автор книги «Как быть женщиной в онлайне» («How to Be a Woman Online»), опасается, что подобные дипфейки могут использоваться против женщин-кандидатов во время избирательных кампаний.

«Это очень простой способ подорвать положение женщин в политике и в обществе», – говорит Янкович. Если когда-нибудь появится непристойное видео женщины-политика или публичной персоны, избирателям стоит относиться к нему с огромным скепсисом, считает эксперт.

Риски заключаются не только в изображениях и видео. Крапф из Антидиффамационной лиги говорит, что люди пользуются инструментами вроде ChatGPT не только для создания контента, но и для получения и обработки информации, в том числе о выборах.

«Происхождение этого контента, уровень авторитетности этой информации […] довольно непрозрачны», – говорит она.

Крапф опасается, что само существование ИИ создает риски – даже без его фактического применения. Теперь у каждого есть повод сомневаться во всем, что они видят в интернете.

Правдивость любого контента может быть поставлена под вопрос, считает эксперт.

Как защититься от дипфейков?

Законодатели на различных уровнях берутся за проблему ИИ. Уже пять штатов – Мичиган, Калифорния, Вашингтон, Миннесота и Техас – приняли законы, ограничивающие применения дипфейков во время избирательных кампаний и выборов. Закон в Миннесоте также запрещает порнографические дипфейки, наказание – штраф или тюремное заключение.

Подобные законопроекты о дипфейках были предложены или уже рассматриваются законодателями 26 штатов, сообщает американская организация «Гражданин Общества» («Public Citizen»).

Федерального закона, регулирующего создание и распространение дипфейков, пока не существует. В сентябре 2023 года двухпартийная группа сенаторов – демократы Эми Клобушар и Крис Кунс, а также республиканцы Джош Хоули и Сьюзан Коллинз – внесли в Сенат законопроект, предлагающий запретить применение искусственного интеллекта для создания изображений кандидатов на федеральные должности, вводящих избирателей в заблуждение с целью повлиять на выборы. На днях Клобушар, Хоули, а также демократ Дик Дурбин и республиканец Линдси Грэм предложили еще один законопроект, который позволил бы привлечь к ответственности в гражданских судах создателей порнографических дипфейков.

Технологические компании также утверждают, что принимают меры против дипфейков.

«Голос Америки» связался с компаниями Meta (соцсети Facebook и Instagram), YouTube и TikTok. Все они требуют от создателей контента предупреждать, если реалистичные изображения людей были созданы или значительно модифицированы при помощи ГИИ. Компания X (бывший Twitter) не ответила на запрос.

В середине января OpenAI, создатели ChatGPT и генератора изображений DALL-E, опубликовали собственную стратегию по обеспечению честности выборов.

«Мы работаем над тем, чтобы предугадывать и предотвращать соответствующие злоупотребления, в том числе, вводящие в заблуждение “дипфейки”, масштабные операции влияния или чат-ботов, выдающих себя за кандидатов», – сообщает компания.

Согласно утверждениям OpenAI, компания не допускает применения своих сервисов для влияния на общество с целью неучастия в выборах.

По словам компании, она также работает над более прозрачной индикацией происхождения изображения. Кроме того, если ChatGPT будут задавать вопросы о процедурах голосования, программа отправит их на сайт Национальной Ассоциации Секретарей Штатов, где размещается авторитетная информация о выборах.

Крапф из Антидиффамационной лиги надеется, что другие ИИ-компании также опубликуют свои стратегии.

Несмотря на ожидаемый всплеск случаев применения ИИ злоумышленниками, Нил Джонсон, один из исследователей в Университете им. Джорджа Вашингтона, видит поводы для оптимизма.

Будучи профессором физики, Джонсон решил подойти к проблеме ИИ и контента, пропагандирующего ненависть или распространяющего ложную информацию, с точки зрения физики.

Вместе с коллегами он изучил социальные сети не в качестве отдельных единиц, а как единую систему. При помощи математического анализа ученые создали карту всех платформ и взаимосвязей между ними.

По словам Джонсона, исследователи делятся своей картой с властями и компаниями, владеющими соцсетями, чтобы они смогли более эффективно модерировать контент и сдерживать распространение ненависти и других токсичных явлений.

Существование этой карты придает Джонсону оптимизм. Он сравнивает проблему с лечением болезни.

«Когда знаешь, где находятся проблемные клетки – говорит физик, – их можно удалить, лечить или наблюдать за ними».

Форум

XS
SM
MD
LG