Интервью с руководителем: инновационные возможности GenAI от AWS

Интервью с руководителем: инновационные возможности GenAI от AWS

Amazon создает системы искусственного интеллекта (ИИ) и использует машинное обучение уже более 20 лет. Персонализация и рекомендации были одними из первых инноваций, представленных на сайте электронной коммерции, и эти и другие технологические концепции, такие как голосовой помощник Alexa, помогают продвигать инновации в области искусственного интеллекта в публичном облачном сервисе Amazon Web Services (AWS). Затем это становится доступным корпоративным ИТ-заказчикам.

Начало работы с ИИ может оказаться непростой задачей, учитывая почти постоянную болтовню в отрасли, которая, кажется, доминирует в разговорах об ИТ. Журнал Computer Weekly недавно обсудил проблемы искусственного интеллекта на предприятии с Франческой Васкес, вице-президентом по профессиональным услугам и Инновационному центру GenAI для AWS.

Отвечая на вопрос о том, как ИТ-лидеры и бизнес-лидеры могут разработать жизнеспособную стратегию ИИ, учитывая весь отраслевой ажиотаж вокруг этой технологии, Васкес призывает предприятия, включающие ИИ в свою бизнес-стратегию, начать с рассмотрения возможностей своей ИТ-инфраструктуры, которая необходима для построения и обучать модели фундамента.

Несмотря на все то, что происходит с ИИ, Васкес считает, что для многих организаций машинное обучение остается очень полезным инструментом.

«Вам не обязательно нужны какие-то сложные входные и выходные данные глубокого обучения, которые дает генеративный ИИ. [GenAI] обеспечивает», — говорит Васкес, добавляя, что компании отдают приоритет вариантам использования искусственного интеллекта и машинного обучения, которые, по их мнению, являются наиболее значимыми и эффективными. По ее словам, такие проекты обычно имеют хорошую окупаемость инвестиций.

«Как правило, они представляют меньший риск и позволяют организациям быстрее приступить к работе», — говорит Васкес. Это немного похоже на то, когда автоматизация внедрялась для решения так называемых «легко висящих плодов» неэффективности, с которыми столкнулись организации.

Обеспечение уровня интеллекта при автоматизации таких задач позволяет организации работать быстрее с точки зрения оптимизации неэффективных шагов в бизнес-процессах.

«Что меня больше всего волнует и что каждый клиент может добиться ощутимых результатов, так это когда вы смотрите на то, как разработчики создают программное обеспечение и на весь жизненный цикл разработки программного обеспечения», — говорит она. «Для меня это отличный пример автоматизации, искусственного интеллекта и людей, которые используются для повышения эффективности».

Сервисы искусственного интеллекта на AWS

Глядя на предложения AWS по искусственному интеллекту, Васкес говорит: «Мы вкладываем очень большие средства в собственные вычислительные ресурсы и специализированные микросхемы».

Над аппаратным обеспечением AWS управляет уровнем платформы, известным как Bedrock для GenAI. «На самом деле это управляемые сервисы, в которых мы позволяем организациям использовать большие языковые модели (LLM) и базовые модели», — говорит она.

Bedrock предлагает то, что AWS называет основой для создания и масштабирования безопасных приложений GenAI. В частности, компания стремится предоставить единую платформу через единый интерфейс прикладного программирования (API), который, по словам Васкеса, дает доступ к Titan LLM компании. [large language model] наряду с несколькими сторонними базовыми моделями. К ним относятся модели, предоставленные AI21 Labs, Cohere, Stability AI или Anthropic, Meta и Mistral AI.

«Что меня действительно волнует, так это то, что на вершине нашего стека генеративного ИИ вы видите инновации, происходящие с возможностью создания приложений GenAI», — говорит она.

Одним из таких приложений искусственного интеллекта является Amazon Q, помощник на базе GenAI, который может отвечать на вопросы, предоставлять сводные данные, генерировать контент и выполнять задачи на основе данных и информации в корпоративных системах. AWS утверждает, что всего этого можно достичь безопасно.

Управление моделями ИИ и доступом к данным

Всегда существует баланс между блокировкой доступа к данным для соблюдения требований и обеспечением соблюдения строгих политик кибербезопасности, а также возможностью использовать данные конкретной компании для стимулирования инноваций и создания ценности. Был ряд громких примеров непреднамеренной утечки данных при использовании общедоступных LLM.

Когда ее спрашивают о совете, который она дала бы предприятиям, рассматривающим возможность получения степени LLM, Васкес отвечает: «Первое, что я скажу, это то, что данные растут в геометрической прогрессии. Мы все должны опираться на это».

Большинство организаций хранят терабайты; у некоторых есть петабайты хранилища данных; и, в некоторых редких случаях, некоторые из них хранят эксабайты данных. «Масштаб информации растет, и информация создается в новых форматах, выходящих за рамки того, что вы привыкли называть структурированными данными», — говорит она.

По мнению Васкеса, чтобы извлечь выгоду из всех различных хранилищ данных организации, в которых хранятся огромные массивы данных во множестве форматов, компаниям необходимы возможности GenAI. «Большинству организаций сначала придется перейти в общедоступное облако, чтобы воспользоваться преимуществами генеративного искусственного интеллекта», — говорит она.

Васкес объясняет: «В AWS, если я просто думаю о нашем облаке, безопасность, как и конфиденциальность данных, является довольно большим приоритетом».

Это означает, что по мере того, как AWS разрабатывает и выпускает новые сервисы, безопасность не рассматривается отдельно. «Мы считаем, что вся информация должна быть зашифрована и управляться», — говорит она. «Мы по-прежнему применяем те же концепции общей ответственности. Вы должны иметь возможность создавать приложения в виртуальном общедоступном облаке. [VPC]и эта информация никогда не покидает VPC».

По словам Васкеса, это мышление развивается, чтобы удовлетворить ожидания клиентов AWS от услуг LLM. «Клиентам нужны более строгие меры контроля доступа и управления моделями, которые могут автоматически отфильтровывать нежелательные концепции, высказывания, ненормативную лексику или вещи, которые вы не хотите включать в модель», — говорит она.

Подход AWS заключается во внедрении таких возможностей в Bedrock.

Обучение во избежание путаницы

Васкес признает, что выпускники LLM могут легко запутаться, например, когда чат-бот отвечает ерундой на неоднозначный вопрос. «Когда мы посмотрим, как эти модели применяются во всем мире, это станет еще более важным», — говорит она. «Мы не представляем себе мир, в котором будет только одна модель фундамента, которая сможет все».

Васкес призывает компании, внедряющие LLM, сосредоточиться на оптимизации базовых моделей, которые они используют. Типичным примером является обучение с использованием дополненной генерации, когда модель адаптируется на основе полученных дополнительных данных.

Некоторым предприятиям, возможно, придется выйти за рамки самообучения. «Мы думаем, что некоторым клиентам понадобится возможность тонкой настройки, а некоторые клиенты захотят непрерывного предварительного обучения моделей по мере поступления новой информации», — говорит она.

По мнению Васкеса, всегда будет существовать элемент моделей ИИ, работающих с людьми, чтобы разобраться в тех ситуациях, когда обучение модели недостаточно. «В конце концов, это все рассуждения», — говорит она. «Может быть, вы можете назвать это человеческой логикой или человеческим интеллектом».

Послушайте подкаст с Франческой Васкес из AWS здесь.

Поделиться в соцсетях