Генеративный искусственный интеллект присутствует повсюду, но политика по-прежнему отсутствует

Генеративный искусственный интеллект присутствует повсюду, но политика по-прежнему отсутствует

Генеративный искусственный интеллект (GenAI) появляется повсюду на рабочих местах, но у компаний нет политики или обучения, которые могли бы гарантировать, что развертывание не пойдет наперекосяк.

Согласно исследованию профессиональной организации ISACA, сотрудники почти трех четвертей европейских организаций уже используют ИИ на работе, но только 17% имеют официальную всеобъемлющую политику, регулирующую использование таких технологий.

Около половины (45%) опрошенных ISACA заявили, что использование GenAI разрешено в их организации, что значительно выше, чем 29% всего шесть месяцев назад.

Однако, похоже, что сотрудники продвигают внедрение дальше, чем могут себе представить руководители: 62% опрошенных используют GenAI для создания письменного контента, повышения производительности и автоматизации повторяющихся задач.

Недостаточное понимание ИИ

Опрос ISACA показал, что, хотя 30% организаций проводили ограниченное обучение по ИИ для сотрудников, занимающих должности, связанные с технологиями, 40% не предлагали никакого обучения вообще.

Несмотря на огромную шумиху вокруг генеративного искусственного интеллекта, большинство бизнес- и ИТ-специалистов ограниченно осведомлены об этой технологии, как показало исследование, при этом три четверти (74%) сообщили, что они лишь отчасти знакомы с ней или вообще не очень знакомы. Только 24% заявили, что очень или очень хорошо знакомы с ИИ, а 37% назвали себя новичками.

Однако это, похоже, не останавливает персонал от беспокойства по поводу потенциального негативного воздействия ИИ: 61% респондентов признались, что крайне или очень обеспокоены тем, что генеративный ИИ может быть использован злоумышленниками.

Около 89% бизнес- и ИТ-профессионалов, опрошенных ISACA, назвали дезинформацию и дезинформацию самыми большими рисками, связанными с ИИ, но лишь 21% были уверены в своей способности или способности своей компании их обнаружить.

Четверть (25%) считают, что организации уделяют достаточно внимания этическим стандартам ИИ, но только 23% считают, что организации должным образом решают проблемы, связанные с ИИ, такие как конфиденциальность данных и риск предвзятости.

Значительное большинство (89%) назвали дезинформацию и дезинформацию самыми большими рисками ИИ, но лишь 21% были уверены в своей способности или способности своей компании обнаружить это.

В то время как 38% опрошенных работников ожидали, что искусственный интеллект уничтожит многие рабочие места в течение следующих пяти лет, гораздо больше (79%) заявили, что рабочие места будут изменены.

Специалисты по цифровому доверию были более оптимистичны в отношении своих областей: 82% заявили, что ИИ окажет нейтральное или даже положительное влияние на их карьеру. Однако они признали, что для достижения успеха потребуются новые навыки: 86% ожидают, что им придется повысить свои навыки и знания в области ИИ в течение двух лет, чтобы продвинуться или сохранить свою работу.

Для этого исследования ISACA опросила 601 профессионала бизнеса и ИТ в Европе. Результаты соответствовали более масштабному международному опросу, который он также провел.

Крис Димитриадис, директор по глобальной стратегии ISACA, сказал, что предстоит проделать большую работу, чтобы понять ИИ на рабочем месте. «Вы не сможете создать ценность, если не будете глубоко понимать технологию. Вы не сможете по-настоящему справиться с риском, если не разбираетесь в технологии», — сказал он.

Димитриадис добавил, что текущая ситуация с ИИ такая же, как и с предыдущими новыми технологиями. «У нас есть организации, пытающиеся разобраться в этом, разработать свою политику и собрать команды для развития навыков», — сказал он.

«Но в то же время внедрение этой технологии на самом деле не означает, что все это произойдет. Итак, мы видим, как сотрудники используют генеративный искусственный интеллект для создания письменного контента. [and] продуктовые команды пытаются опробовать новые партнерские отношения с поставщиками ИИ, не закладывая их в структуру, которая могла бы оказать значимую помощь организации», — добавил он.

Димитриадис предупредил, что, хотя компании стремились воспользоваться перспективами ИИ и создать ценность, многие из них еще не относились серьезно к обучению или переподготовке своего персонала для безопасного использования ИИ. «Наша жажда инноваций и создания чего-то нового иногда превосходит структуры корпоративной политики», — сказал он Computer Weekly.

Например, в более крупной организации некоторые отдельные отделы могут начать использовать ИИ, не сообщая высшему руководству об этой новой технологии. В других случаях, по его словам, из-за ограничений по срокам выхода на рынок усилия по кибербезопасности, обеспечению гарантий и конфиденциальности могут отставать.

Необходимо образование по рискам ИИ

Но самой большой причиной разрыва между использованием ИИ и управлением ИИ считается отсутствие навыков. «Например, у нас уже есть огромный пробел в кибербезопасности. Представьте теперь, с появлением ИИ, как этот разрыв превращается во что-то гораздо более серьезное», — сказал он.

Это связано с тем, что GenAI, в частности, может создавать новые угрозы безопасности, в зависимости от отрасли и приложения. Компании, обрабатывающие персональные данные, должны осознавать риск того, что ИИ, например, внесет предвзятость или даже галлюцинирует новые детали для добавления в записи.

Существует также угроза атак со стороны посторонних, возможно, создающих запросы, которые могут обманом заставить системы ИИ раскрыть конфиденциальные данные. Еще одна проблема заключается в том, что, хотя в некоторых юрисдикциях появляются конкретные правила, касающиеся ИИ, неспециалистам трудно понять, какие правила их использование ИИ может нарушать.

Вот почему организациям следует быть очень осторожными при постоянном аудите ИИ с точки зрения его результатов, чтобы убедиться, что он работает в соответствии с ожиданиями пользователя, сказал он.

По словам Димитриадиса, первым шагом на пути к устранению отсутствия политики и надзора за ИИ является обучение нужных людей внутри организации.

«Все всегда начинается с людей. Если у вас есть обученные люди, то эти люди смогут разработать правильную политику. Сначала нужно понять риск, а затем написать политику», — сказал он.

Речь также идет о том, чтобы осведомленность и образование в области ИИ выходили за рамки экспертов, чтобы сотрудники знали о рисках, связанных с использованием ИИ, и могли избежать непреднамеренных нарушений, сказал он.

«Это обсуждение в зале заседаний с точки зрения того, чтобы убедиться, что ценность, которую может создать внедрение ИИ, также находится в балансе с рисками», — добавил он.

Частично это будет связано с наличием директора по информационной безопасности (CISO), а также экспертов по конфиденциальности и рискам, прошедших обучение и способных обсуждать с советами директоров проблемы в контексте работы конкретной организации.

«Если вы обратитесь к совету директоров с общей историей об угрозах, она никогда не будет убедительной, поскольку не будет помещена в контекст конкретного потока доходов внутри компании», — сказал он. «Все начинается с обучения людей».

Поделиться в соцсетях