Глубокие фейковые сервисы искусственного интеллекта в Telegram представляют угрозу для выборов

Глубокие фейковые сервисы искусственного интеллекта в Telegram представляют угрозу для выборов

Технологии глубоких фейков, распространяемые через службу обмена сообщениями Telegram и другие платформы, вероятно, высвободят поток дезинформации, генерируемой искусственным интеллектом (ИИ), поскольку три миллиарда человек готовятся голосовать на выборах по всему миру в течение следующих двух лет.

Аналитики безопасности выявили более 400 каналов, продвигающих услуги дипфейков в приложении Telegram Messenger: от автоматических ботов, которые помогают пользователям создавать дипфейковые видео, до частных лиц, предлагающих создавать фейковые видео на заказ.

По данным исследования охранной компании Check Point, более 3000 репозиториев технологии Deep Fake были обнаружены на крупнейшей веб-платформе для размещения кода и совместных проектов GitHub.

Главный технолог Check Point Одед Вануну заявил Computer Weekly: «Пришло время поднять флаг и сказать, что на выборах будут голосовать миллиарды людей, и существует огромная инфраструктура глубоких фейков, и она растет».

Глубокие фейковые сервисы не оставляют цифровых следов. По его словам, это затрудняет контроль над глубокими фейками с помощью технологических мер, таких как внесение IP-адресов в черный список или идентификация их цифровых подписей.

Инструменты глубокого фейка в сочетании с сетями ботов, фейковыми аккаунтами и анонимными сервисами создали «экосистему обмана».

Цены на дипфейки варьируются от 2 долларов за видео до 100 долларов за сериал, что позволяет злоумышленникам создавать вводящий в заблуждение контент, который может быть использован для влияния или дестабилизации выборов, которые пройдут в самых густонаселенных странах мира в ближайшее время. следующие 12 месяцев – дешево в больших объемах.

Вануну сказал, что можно использовать сервисы искусственного интеллекта, рекламируемые на GitHub и Telegram, для создания глубокого фейкового видео из фотографии или глубокой фейковой аудиодорожки из фрагмента чьего-то голоса.

Дальнейшие опасения по поводу манипулирования выборами возникли, когда OpenAI выпустила в феврале свой видеоИИ Sora. Программное обеспечение может создавать фотореалистичные видеоролики из текстовых подсказок, что чрезвычайно упрощает создание высококачественных видеороликов.

Клонирование голоса

Технология клонирования голоса, которая позволяет изучать характеристики голоса цели, включая высоту, тон и стиль речи, для создания поддельных аудиоклипов, также представляет риск.

Скриншот Telegram, показывающий рекламу создания глубоких фейков
Скриншот Telegram, показывающий рекламу создания глубоких фейков

Аудио-дипфейки создать значительно проще, чем видео-дипфейки, которые требуют сложных манипуляций с визуальными данными.

Глубокие фейковые аудиоклипы лидера Лейбористской партии Кейра Стармера были распространены в Великобритании незадолго до конференции Лейбористской партии в октябре 2023 года. Они имели целью продемонстрировать, что лидер партии оскорбляет сотрудников и заявляет, что ненавидит Ливерпуль, где проходила конференция Лейбористской партии.

А в январе 2024 года избирателям в Нью-Гэмпшире позвонила фальшивая аудиоверсия президента Джо Байдена. В явной попытке удержать людей от голосования на праймериз в Нью-Гэмпшире фальшивая запись Байдена призывала избирателей оставаться дома.

Клонирование голоса обходится дешево: цены начинаются с 10 долларов в месяц, а за более продвинутые функции вырастают до нескольких сотен долларов в месяц. Стоимость голоса, генерируемого ИИ, составляет всего 0,006 доллара в секунду.

Персонализированная дезинформация

Дерик Митчелсон, директор по глобальной информационной безопасности компании Check Point и советник по кибербезопасности правительства Шотландии, заявил, что ИИ будет все чаще использоваться для нацеливания на людей фейковых новостей, адаптированных к их профилям и личным интересам, почерпнутых из сообщений в социальных сетях.

ИИ позволит людям, пытающимся повлиять на выборы, пойти дальше, нацеливаясь на связи человека в социальных сетях с помощью дезинформации и дезинформации.

Это означает, что на цели будут как напрямую влиять сообщения, которые они получают в своих лентах в социальных сетях, так и косвенно — люди, которых они знают, делятся обманным контентом.

«Может ли ИИ украсть выборы? Нет, я не думаю, что это произойдет. Может ли это повлиять на выборы? Нет сомнений в том, что все выборы, которые пройдут в этом году по всему миру, будут проходить под влиянием фейковых новостей», — сказал Митчелсон.

ИИ может дестабилизировать правительства

Всемирный экономический форум (ВЭФ) в Давосе в январе предупредил, что дезинформация и дезинформация, генерируемые искусственным интеллектом, являются одним из главных краткосрочных рисков, с которыми сталкиваются экономики.

«Нет сомнений, что все выборы, которые пройдут в этом году по всему миру, будут проходить под влиянием фейковых новостей»

Дерик Митчелсон, Check Point

Каролина Клинт, коммерческий директор по Европе Marsh McLennan и участник ВЭФ Отчет о глобальных рисках 2024 г.рассказал Computer Weekly, что распространение дезинформации и дезинформации может дестабилизировать законно избранные правительства.

«Люди начинают понимать, что здесь существует большое влияние, большое влияние на общественное мнение, большое влияние и давление с точки зрения того, что избиратели решают сделать», — сказала она. «И как только результаты будут собраны, можно будет законно утверждать, что это правительство не было избрано честно».

Обнаружение глубокого мошенничества

Федеральная комиссия по связи США запретила звонки с помощью роботов, генерируемые искусственным интеллектом, в феврале 2024 года после того, как в Нью-Гэмпшире была использована фейковая запись Байдена.

Однако выявить глубокие фейки сложно. По словам Вануну, сервисы дипфейков, предлагаемые в Telegram, предназначены для работы в закрытых «песочницах», которые не оставляют отслеживаемых цифровых отпечатков пальцев.

Как только дипфейк загружается на платформу социальной сети, например Facebook или Instagram, платформа оборачивает дипфейк в свой собственный компьютерный код. По его словам, это делает невозможным реконструировать и декодировать исходные метаданные, которые бы указывали на их происхождение и легитимность.

На практике это означает, что социальные сети, хотят они того или нет, станут передовой защитой от дипфейков.

«Платформы берут дипфейк и ускоряют его, чтобы он мог своевременно охватить миллионы или тысячи миллионов людей, поэтому узким местом с технологической точки зрения является платформа», — сказал Вануну.

Цифровые водяные знаки

Обязательное использование цифровых водяных знаков для идентификации контента, созданного искусственным интеллектом, является одним из решений, но не надежным, поскольку можно удалить цифровые водяные знаки путем сжатия глубоко поддельного изображения.

Технологическим компаниям придется сотрудничать с правоохранительными органами и экспертами по кибербезопасности, чтобы разработать способы обнаружения и нейтрализации глубоких фейков, сказал Майкельсон.

В то же время правительствам и технологическим компаниям необходимо будет посредством кампаний по информированию общественности обучать людей навыкам выявления глубоких фейков и попыток дезинформации.

Поделиться в соцсетях