Исследователи и эксперты по правовым вопросам хотят, чтобы компании, занимающиеся искусственным интеллектом, открылись для проверок безопасности

shutterstock 2287556297

Более 150 ведущих исследователей искусственного интеллекта (ИИ), специалистов по этике и других лиц подписали открытое письмо, призывающее компании, занимающиеся генеративным ИИ (genAI), пройти независимую оценку своих систем, отсутствие которой привело к опасениям по поводу базовой защиты.

В письме, составленном исследователями из Массачусетского технологического института, Принстона и Стэнфордского университета, содержится призыв к правовой и технической защите добросовестных исследований моделей генного искусственного интеллекта, которые, по их словам, препятствуют мерам безопасности, которые могли бы помочь защитить общественность.

Письмо и исследование, лежащее в его основе, были созданы с помощью почти двух десятков профессоров и исследователей, которые призвали создать юридическую «безопасную гавань» для независимой оценки продуктов генного ИИ.

Письмо было разослано таким компаниям, как OpenAI, Anthropic, Google, Meta и Midjourney, и содержало просьбу разрешить исследователям исследовать их продукты, чтобы гарантировать защиту потребителей от предвзятости, предполагаемого нарушения авторских прав и интимных изображений без согласия.

«Независимая оценка уже развернутых моделей ИИ широко считается важной для обеспечения безопасности, защищенности и доверия», — написали в своем блоге двое исследователей, ответственных за письмо. «Независимое исследование моделей ИИ, проведенное красной командой, выявило уязвимости, связанные с языками с ограниченными ресурсами, обходом мер безопасности и широким спектром джейлбрейков.

«Эти оценки исследуют широкий набор зачастую непредвиденных недостатков модели, связанных со злоупотреблением, предвзятостью, авторским правом и другими проблемами», — сказали они.

© IDG Communications, Inc., 2024.

Поделиться в соцсетях