Можем ли мы избавить искусственный интеллект от предвзятости?

Можем ли мы избавить искусственный интеллект от предвзятости?
Гиганты искусственного интеллекта сталкиваются с проблемой: заставить модели искусственного интеллекта отражать разнообразие мира, не будучи при этом чрезмерно политкорректными.

Гиганты искусственного интеллекта сталкиваются с проблемой: заставить модели искусственного интеллекта отражать разнообразие мира, не будучи при этом чрезмерно политкорректными.

Искусственный интеллект, построенный на горах потенциально предвзятой информации, создал реальный риск автоматизации дискриминации, но есть ли способ переобучить машины?

Вопрос для некоторых крайне актуальный. В эпоху ChatGPT ИИ будет принимать все больше и больше решений для поставщиков медицинских услуг, банковских кредиторов или юристов, используя в качестве исходного материала все, что было найдено в Интернете.

Таким образом, базовый интеллект ИИ настолько хорош, насколько хорош мир, из которого он пришел, и он может быть полон остроумия, мудрости и полезности, а также ненависти, предрассудков и напыщенных высказываний.

«Это опасно, потому что люди осваивают и внедряют программное обеспечение искусственного интеллекта и действительно зависят от него», — сказал Джошуа Уивер, директор Техасского инкубатора возможностей и правосудия, юридической консалтинговой компании.

«Мы можем попасть в эту петлю обратной связи, где предвзятость в нас самих и в культуре влияет на предвзятость в ИИ и становится своего рода усиливающей петлей», — сказал он.

Обеспечение того, чтобы технологии более точно отражали человеческое разнообразие, — это не просто политический выбор.

Другие варианты использования ИИ, такие как распознавание лиц, привели к тому, что компании оказались в затруднительном положении из-за дискриминации со стороны властей.

По данным Федеральной торговой комиссии, это имело место в случае с Rite-Aid, сетью аптек в США, где камеры в магазинах ложно помечали потребителей, особенно женщин и цветных людей, как магазинных воров.

‘Ошибся’

Генеративный искусственный интеллект в стиле ChatGPT, который может за считанные секунды создать подобие рассуждений человеческого уровня, открывает новые возможности ошибаться, беспокоятся эксперты.

Гиганты искусственного интеллекта хорошо осведомлены об этой проблеме, опасаясь, что их модели могут привести к плохому поведению или чрезмерно отразить западное общество, когда их пользовательская база глобальна.

«У нас есть люди, которые задают вопросы из Индонезии или США», — сказал генеральный директор Google Сундар Пичаи, объясняя, почему запросы на изображения врачей или юристов будут стремиться отразить расовое разнообразие.

Но эти соображения могут достичь абсурдного уровня и привести к гневным обвинениям в чрезмерной политкорректности.

Именно это произошло, когда генератор изображений Gemini от Google выдал изображение немецких солдат времен Второй мировой войны, на котором абсурдно были изображены чернокожий мужчина и азиатская женщина.

«Очевидно, ошибка заключалась в том, что мы применили слишком много… там, где это никогда не должно было применяться. Это была ошибка, и мы ошиблись», — сказал Пичаи.

Но Саша Луччиони, научный сотрудник Hugging Face, ведущей платформы для моделей искусственного интеллекта, предупредила, что «думать о том, что существует технологическое решение проблемы предвзятости, уже в каком-то смысле идет по неправильному пути».

По ее словам, генеративный ИИ, по сути, зависит от того, «соответствует ли результат тому, что ожидает пользователь», и это во многом субъективно.

Огромные модели, на которых построен ChatGPT, «не могут рассуждать о том, что является предвзятым, а что нет, поэтому они не могут ничего с этим поделать», — предупредил Джейден Зиглер, руководитель отдела продуктов Alembic Technologies.

По крайней мере, на данный момент люди должны гарантировать, что ИИ генерирует все, что подходит или соответствует их ожиданиям.

«Запеченная» предвзятость

Но, учитывая безумие вокруг ИИ, это непростая задача.

На платформе Hugging Face доступно около 600 000 моделей искусственного интеллекта или машинного обучения.

«Каждые пару недель выходит новая модель, и мы изо всех сил пытаемся просто оценить и задокументировать предвзятости или нежелательное поведение», — сказал Луччиони.

Один из разрабатываемых методов — это алгоритмическое искажение, которое позволит инженерам удалять контент, не разрушая при этом всю модель.

Но есть серьезные сомнения, что это действительно сработает.

Другой метод «поощряет» модель идти в правильном направлении, «точно настраивать» ее, «вознаграждать за правильное и неправильное», — сказал Рам Шрихарша, технический директор Pinecone.

Сосновая шишка — это специалист по дополненной генерации поиска (или RAG), методу, при котором модель извлекает информацию из фиксированного доверенного источника.

Для Уивера из Техасского инкубатора возможностей и справедливости эти «благородные» попытки исправить предвзятость являются «проекциями наших надежд и мечтаний о том, как может выглядеть лучшая версия будущего».

Но предвзятость «также присуща тому, что значит быть человеком, и поэтому она также встроена в ИИ», — сказал он.

© 2024 АФП

Цитирование: Можем ли мы избавить искусственный интеллект от предвзятости? (2024 г., 19 мая) получено 20 мая 2024 г. с https://techxplore.com/news/2024-05-artificial-intelligence-bias.html.

Этот документ защищен авторским правом. За исключением любых добросовестных сделок в целях частного изучения или исследования, никакая часть не может быть воспроизведена без письменного разрешения. Содержимое предоставлено исключительно в информационных целях.

Поделиться в соцсетях