Google обновил свою поисковую систему, добавив искусственный интеллект (ИИ) — но, как сообщается, новая функция позволяет пользователям есть камни, добавлять клей в пиццу и чистить стиральные машины с помощью газообразный хлорсогласно различным социальным сетям и новостным сообщениям.
В особенно вопиющем примере предложенный ИИ, похоже, предполагал прыжок с моста Золотые Ворота когда пользователь искал «Я чувствую депрессию».
Экспериментальный инструмент «Обзоры ИИ» просматривает Интернет, чтобы обобщить результаты поиска, используя Близнецы Модель ИИ. Эта функция была доступна некоторым пользователям в США в преддверии ее глобального релиза, запланированного на конец этого года, сообщил Google 14 мая на своем Конференция разработчиков ввода-вывода.
Но этот инструмент уже вызвал широкое беспокойство в социальных сетях: пользователи утверждают, что в некоторых случаях AI Reviews генерировал сводки, используя статьи с сатирического сайта The Onion и комедийные посты Reddit в качестве источников.
«Вы также можете добавить в соус около ⅛ стакана нетоксичного клея, чтобы придать ему больше липкости», — говорится в сообщении AI Reviews в ответ на один из вопросов о пицце, согласно скриншоту. опубликовано на X. Возвращаясь к ответу, можно сказать, что он основан на шуточном комментарии десятилетней давности, сделанном на Reddit.
Связанный: Ученые создают «токсичный ИИ», который вознаграждается за придумывание наихудших вопросов, которые мы только можем себе представить
Другие ошибочные утверждения заключаются в том, что Барак Обама мусульманинчто отец-основатель Джон Адамс окончил Университет Висконсина. 21 разчто собака играла в НБА, НХЛ и НФЛ и что пользователи должны съедать по камню в день чтобы помочь их пищеварению.
Live Science не смогла самостоятельно проверить публикации. В ответ на вопросы о том, насколько широко распространены ошибочные результаты, представители Google заявили в своем заявлении, что увиденные примеры были «в целом очень необычными запросами и не отражают опыт большинства людей».
«Подавляющее большинство обзоров ИИ предоставляют высококачественную информацию со ссылками для более глубокого поиска в сети», — говорится в заявлении. «Перед запуском этого нового опыта мы провели тщательное тестирование, чтобы убедиться, что обзоры ИИ соответствуют нашим высоким стандартам качества. В тех случаях, когда были нарушения наших политик, мы принимали меры — и мы также используем эти отдельные примеры, продолжая совершенствовать наши системы в целом».
Это далеко не первый случай, когда генеративные модели ИИ придумывают что-то — явление, известное как «галлюцинации». В одном примечательном примере ChatGPT сфабриковали скандал о сексуальных домогательствах и назвал виновным настоящего профессора права, сославшись в качестве доказательства на вымышленные газетные сообщения.