Иск Илона Маска против Сэма Альтмана и OpenAI, поданный на прошлой неделе в суд штата Калифорния, обвиняет ответчиков в забвении основных частей заявленной миссии OpenAI по разработке полезного и безвредного общего искусственного интеллекта. С тех пор Альтман предпринял шаги, чтобы подтвердить свои ответственные полномочия в области ИИ, в том числе подписал открытое письмо, в котором пообещал разработать ИИ «для улучшения жизни людей».
Критики, однако, по-прежнему не убеждены демонстрацией ответственности Альтмана. С момента быстрой популяризации генеративного ИИ (genAI) в прошлом году эти критики предупреждали, что последствия беспрепятственного и нерегулируемого развития ИИ могут быть не просто разрушительными для человеческого общества, но и представлять для него полную угрозу.
Риту Джиоти, вице-президент группы международных исследований в области искусственного интеллекта и автоматизации в IDC, сказала, что решение Альтмана публично поддержать ответственное развитие представляет собой не более чем обман.
«Хотя в отрасли существует согласие о том, что существует коллективная ответственность за ответственную разработку и внедрение ИИ, в этом письме не указаны конкретные необходимые действия», — сказала она. «Поэтому, на мой взгляд, особой добавленной стоимости не будет».
Альтман также подписал письмо, в котором признает изменяющие мир риски, связанные с ИИ, но критики продолжают утверждать, что саморегулируемый характер усилий по устранению этих рисков недостаточен.
Ключевым моментом является неспособность отрасли решить проблему согласования, которая возникает, когда инструменты ИИ начинают развивать поведение, выходящее за рамки их проектных спецификаций. Есть опасение, что самые продвинутые экземпляры ИИ потенциально могут повторять сами себя, а это серьезный риск развития, которого люди не хотят.
«Вопрос в том, сможем ли мы контролировать систему, если она умнее нас?» — спросил Джоп Мейндертсма, голландский разработчик и основатель группы PauseAI, которая занимается снижением рисков, связанных с искусственным интеллектом.
Мейндертсма привел в качестве примера такую систему, как AutoGPT, которая, по сути, может задавать себе вопросы и создавать собственные запросы для выполнения сложных исследовательских задач. Эта технология может оказаться весьма разрушительной и опасной.
«В какой-то момент кто-то спросит этот компьютер о чем-то, что будет связано с идеей, которую полезно распространить на другие машины», — сказал он. «Люди буквально просили AutoGPT попытаться захватить мир».
Что касается иска против Альтмана и OpenAI, Мейндертсма сказал, что Маск, возможно, прав. По его мнению, основная цель создания OpenAI заключалась в том, чтобы направить развитие ИИ в ответственных направлениях. Текущее состояние высокоскоростного развития быстро опережает любые ограничения, созданные отраслевыми организациями под руководством Альтмана и OpenAI.
Таким образом, нельзя доверять отрасли в саморегулировании, и правительство должно вмешаться, чтобы предотвратить потенциальную катастрофу, утверждают критики. Мейндертсма сказал, что уже продемонстрированные возможности, такие как способность GPT4 самостоятельно взламывать веб-сайты, критически опасны, а отсутствие регулирования в сочетании с быстрым развитием генИИ представляет собой экзистенциальную угрозу.
«Мы должны регулировать это так же, как мы регулируем ядерные материалы», — сказал Мейндертсма.
© IDG Communications, Inc., 2024.