Более 150 ведущих исследователей искусственного интеллекта (ИИ), специалистов по этике и других лиц подписали открытое письмо, призывающее компании, занимающиеся генеративным ИИ (genAI), пройти независимую оценку своих систем, отсутствие которой привело к опасениям по поводу базовой защиты.
В письме, составленном исследователями из Массачусетского технологического института, Принстона и Стэнфордского университета, содержится призыв к правовой и технической защите добросовестных исследований моделей генного искусственного интеллекта, которые, по их словам, препятствуют мерам безопасности, которые могли бы помочь защитить общественность.
Письмо и исследование, лежащее в его основе, были созданы с помощью почти двух десятков профессоров и исследователей, которые призвали создать юридическую «безопасную гавань» для независимой оценки продуктов генного ИИ.
Письмо было разослано таким компаниям, как OpenAI, Anthropic, Google, Meta и Midjourney, и содержало просьбу разрешить исследователям исследовать их продукты, чтобы гарантировать защиту потребителей от предвзятости, предполагаемого нарушения авторских прав и интимных изображений без согласия.
«Независимая оценка уже развернутых моделей ИИ широко считается важной для обеспечения безопасности, защищенности и доверия», — написали в своем блоге двое исследователей, ответственных за письмо. «Независимое исследование моделей ИИ, проведенное красной командой, выявило уязвимости, связанные с языками с ограниченными ресурсами, обходом мер безопасности и широким спектром джейлбрейков.
«Эти оценки исследуют широкий набор зачастую непредвиденных недостатков модели, связанных со злоупотреблением, предвзятостью, авторским правом и другими проблемами», — сказали они.
В апреле прошлого года эксперты-технологи призвали лаборатории искусственного интеллекта прекратить обучение самых мощных систем как минимум на шесть месяцев, сославшись на «серьезные риски для общества и человечества».
Сейчас это открытое письмо подписали более 3100 человек, включая соучредителя Apple Стива Возняка; Технологические лидеры, в частности, особо отметили недавно анонсированный алгоритм GPT-4 лаборатории OpenAI Lab из Сан-Франциско, заявив, что компания должна прекратить дальнейшую разработку до тех пор, пока не будут приняты стандарты надзора.
В последнем письме говорится, что компании, занимающиеся искусственным интеллектом, академические исследователи и гражданское общество «согласны с тем, что генеративные системы искусственного интеллекта представляют собой заметные риски и что независимая оценка этих рисков является важной формой подотчетности».
В число подписавшихся входят профессора школ Лиги плюща и других известных университетов, включая Массачусетский технологический институт, а также руководители таких компаний, как Hugging Face и Mozilla. В список также вошли исследователи и специалисты по этике, такие как Дханарадж Тхакур, директор по исследованиям Центра демократии и технологий, и Субхабрата Маджумдар, президент Альянса по рискам и уязвимости ИИ.
Хотя в письме признается и даже хвалится тот факт, что у некоторых производителей генИИ есть специальные программы, позволяющие исследователям получить доступ к их системам, оно также призывает их к субъективному подходу к тому, кто может или не может видеть их технологию.
В частности, исследователи назвали ИИ-компании Cohere и OpenAI исключениями из правил, «хотя остается некоторая неясность относительно объема защищаемой деятельности».
Cohere допускает «намеренное стресс-тестирование API и состязательные атаки» при условии соответствующего раскрытия уязвимостей (без явных юридических обещаний). А OpenAI расширила свою безопасную гавань, включив в нее «модельные исследования уязвимостей» и «академические модели исследований безопасности» в ответ на ранний проект нашего предложения.
В других случаях компании, занимающиеся генИИ, уже приостановили действие учетных записей исследователей и даже изменили свои условия обслуживания, чтобы предотвратить некоторые виды оценок, по мнению исследователей, «лишение прав независимых исследователей не в собственных интересах компаний, занимающихся искусственным интеллектом».
Независимые оценщики, которые проводят исследования продуктов genAI, опасаются приостановки действия учетной записи (без возможности апелляции) и юридических рисков, «оба из которых могут иметь сдерживающие последствия для исследований», утверждается в письме.
Чтобы помочь защитить пользователей, подписанты хотят, чтобы компании, занимающиеся искусственным интеллектом, предоставили два уровня защиты исследований:
- Юридическая безопасная гавань для обеспечения добросовестных независимых исследований безопасности, безопасности и надежности ИИ, которые проводятся с хорошо зарекомендовавшим себя раскрытием уязвимостей.
- Корпоративная приверженность более справедливому доступу путем использования независимых рецензентов для модерации заявок исследователей на оценку.
Computerworld обратился к OpenAI и Google за ответом, но ни одна из компаний не предоставила немедленных комментариев.
© IDG Communications, Inc., 2024.