OpenAI представляет инструмент клонирования голоса

OpenAI представляет инструмент клонирования голоса
OpenAI заявляет, что способы проверки согласия людей на имитацию их голосов с помощью искусственного интеллекта и автоматического обнаружения аудиоподделок с участием известных людей должны быть встроены в широко используемые инструменты «синтетического голоса».

OpenAI заявляет, что способы проверки согласия людей на имитацию их голосов с помощью искусственного интеллекта и автоматического обнаружения аудиоподделок с участием известных людей должны быть встроены в широко используемые инструменты «синтетического голоса».

OpenAI в пятницу представила инструмент клонирования голоса, который она планирует держать под строгим контролем до тех пор, пока не будут приняты меры безопасности, предотвращающие подделку аудио, предназначенную для обмана слушателей.

Модель под названием «Voice Engine» может по сути дублировать чью-либо речь на основе 15-секундного аудиообразца, согласно сообщению в блоге OpenAI, в котором представлены результаты небольшого тестирования инструмента.

«Мы понимаем, что создание речи, напоминающей голоса людей, сопряжено с серьезными рисками, о которых особенно важно в год выборов», — заявили в компании из Сан-Франциско.

«Мы сотрудничаем с американскими и международными партнерами из правительства, средств массовой информации, индустрии развлечений, образования, гражданского общества и других стран, чтобы гарантировать, что мы учитываем их отзывы в процессе строительства».

Исследователи дезинформации опасаются безудержного злоупотребления приложениями на базе искусственного интеллекта в решающий год выборов из-за распространения инструментов клонирования голоса, которые дешевы, просты в использовании и их трудно отследить.

Признавая эти проблемы, OpenAI заявила, что «принимает осторожный и осознанный подход к более широкому выпуску из-за возможности неправильного использования синтетического голоса».

Осторожное заявление было сделано через несколько месяцев после того, как политический консультант, работавший в перспективной президентской кампании демократического соперника Джо Байдена, признался, что стоял за вызовом робота, выдававшего себя за лидера США.

Сгенерированный искусственным интеллектом призыв, придуманный сотрудником конгрессмена от Миннесоты Дином Филлипсом, звучал как голос Байдена, призывающий людей не голосовать на январских праймериз в Нью-Гэмпшире.

Инцидент вызвал тревогу среди экспертов, которые опасаются потока фейковой дезинформации с помощью искусственного интеллекта во время гонки за Белый дом в 2024 году, а также на других ключевых выборах по всему миру в этом году.

OpenAI заявила, что партнеры, тестирующие Voice Engine, согласились с правилами, в том числе требующими явного и осознанного согласия любого человека, чей голос дублируется с помощью этого инструмента.

Также необходимо разъяснять аудитории, что голоса, которые они слышат, генерируются искусственным интеллектом, добавили в компании.

«Мы внедрили ряд мер безопасности, включая водяные знаки для отслеживания происхождения любого звука, генерируемого Voice Engine, а также упреждающий мониторинг того, как он используется», — заявили в OpenAI.

© 2024 АФП

Цитирование: OpenAI представляет инструмент клонирования голоса (30 марта 2024 г.), получено 31 марта 2024 г. с https://techxplore.com/news/2024-03-openai-unveils-voice-cloning-tool.html.

Этот документ защищен авторским правом. За исключением любых добросовестных сделок в целях частного изучения или исследования, никакая часть не может быть воспроизведена без письменного разрешения. Содержимое предоставлено исключительно в информационных целях.

Поделиться в соцсетях