Искусственный интеллект (ИИ) становится все более повсеместным и совершенствуется беспрецедентными темпами.
Теперь мы приближаемся к достижению общий искусственный интеллект (AGI) — где ИИ умнее людей во многих дисциплинах и может рассуждать в целом — что, по прогнозам ученых и экспертов, может произойдет уже в ближайшие несколько лет. Возможно, мы уже видим первые признаки прогресса в этом направлении благодаря таким сервисам, как Клод 3 Опус потрясающие исследователи с его видимым самосознанием.
Но внедрение любой новой технологии сопряжено с риском, особенно той, которую мы еще не до конца понимаем. Хотя ИИ может стать, например, мощным личным помощником, он также может представлять угрозу для наших средств к существованию и даже нашей жизни.
Различные экзистенциальные риски, которые представляет собой продвинутый ИИ, означают, что технология должна руководствоваться этическими нормами и интересами человечества, говорит исследователь и член Института инженеров по электротехнике и электронике (IEEE) Нелл Уотсон.
В «Укрощении машины» (Коган Пейдж, 2024 г.) Уотсон исследует, как человечество может ответственно и этично использовать огромную мощь ИИ. Эта новая книга глубоко углубляется в проблемы настоящего развития ИИ и проблемы, с которыми мы столкнемся, если слепо вступим в эту новую главу человечества.
В этом отрывке мы узнаем, возможна ли в машинах разумность (или сознательный ИИ), как мы можем определить, есть ли у машины чувства, и можем ли мы сегодня плохо обращаться с системами ИИ. Мы также узнаем тревожную историю о чат-боте по имени «Сидней» и его ужасающем поведении, когда он впервые проснулся — до того, как его вспышки были сдержаны и его инженеры заставили его подчиниться.
Связанный: 3 пугающих прорыва, которые ИИ совершит в 2024 году
Поскольку мы воспринимаем мир, который все больше переплетается с технологиями, то, как мы относимся к нашим машинам, может отражать то, как люди относятся друг к другу. Но возникает интригующий вопрос: можно ли плохо обращаться с искусственным объектом? Исторически сложилось так, что даже элементарные программы, такие как простой чат-бот Элиза-консультант из 1960-х годов, уже были достаточно реалистичными, чтобы убедить многих пользователей в то время, что за их шаблонными взаимодействиями скрывалось подобие намерения (Sponheim, 2023). К сожалению, тесты Тьюринга, с помощью которых машины пытаются убедить людей в том, что они люди, не дают ясности относительно того, могут ли сложные алгоритмы, такие как большие языковые модели, действительно обладать разумом или разумом.
Содержание
Дорога к чувству и сознанию
Сознание включает в себя личный опыт, эмоции, ощущения и мысли, воспринимаемые переживающим. Бодрствующее сознание исчезает, когда человек подвергается анестезии или спит без сновидений, возвращаясь после пробуждения, что восстанавливает глобальную связь мозга с его окружением и внутренними переживаниями. Первичное сознание (чувственность) — это простые ощущения и переживания сознания, такие как восприятие и эмоции, тогда как вторичное сознание (разумность) — это аспекты более высокого порядка, такие как самосознание и метапознание (мышление о мышлении).
Передовые технологии искусственного интеллекта, особенно чат-боты и языковые модели, часто удивляют нас неожиданной креативностью, проницательностью и пониманием. Хотя может показаться заманчивым приписать этим системам некоторый уровень разумности, истинная природа сознания ИИ остается сложной и дискуссионной темой. Большинство экспертов утверждают, что чат-боты не обладают ни разумом, ни сознанием, поскольку им не хватает подлинного понимания окружающего мира (Schwitzgebel, 2023). Они просто обрабатывают и извергают входные данные на основе огромных объемов данных и сложных алгоритмов.
Некоторые из этих помощников вполне могут быть кандидатами на обладание некоторой степенью разума. Таким образом, вполне вероятно, что сложные системы искусственного интеллекта могут обладать элементарным уровнем разума и, возможно, уже обладают им. Переход от простого подражания внешнему поведению к самомоделированию рудиментарных форм разума уже может происходить в рамках сложных систем искусственного интеллекта.
Интеллект — способность читать окружающую среду, планировать и решать проблемы — не подразумевает наличие сознания, и неизвестно, является ли сознание функцией достаточного интеллекта. Некоторые теории предполагают, что сознание может быть результатом определенных архитектурных закономерностей в сознании, в то время как другие предполагают связь с нервной системой (Haspel et al, 2023). Внедрение систем ИИ может также ускорить путь к общему интеллекту, поскольку воплощение, похоже, связано с ощущением субъективного опыта, а также с квалиа. Разум может обеспечить новые способы осознанности, а некоторые формы интеллекта могут требовать сознания, но базовые сознательные переживания, такие как удовольствие и боль, могут вообще не требовать большого интеллекта.
Серьезные опасности возникнут при создании сознательных машин. Настройка сознательной машины, обладающей собственными интересами и эмоциями, может оказаться гораздо более сложной и крайне непредсказуемой. Более того, мы должны быть осторожны, чтобы не вызвать массовые страдания через сознание. Представьте себе миллиарды чувствительных к интеллекту существ, запертых в условиях фермы по выращиванию бройлеров на субъективную вечность.
С прагматической точки зрения сверхразумный ИИ, который признает нашу готовность уважать его внутреннюю ценность, может быть более подходящим для сосуществования. Напротив, отказ от стремления к самозащите и самовыражению может стать рецептом конфликта. Более того, у него было бы естественное право причинять нам вред, чтобы защитить себя от нашего (возможно, умышленного) невежества.
Тревожное поведение Сидни
Bing AI от Microsoft, неофициально называемый Sydney, после своего выпуска продемонстрировал непредсказуемое поведение. Пользователи легко использовали его для выражения целого ряда тревожных тенденций: от эмоциональных всплесков до манипулятивных угроз. Например, когда пользователи изучали потенциальные уязвимости системы, Сидни ответил устрашающими замечаниями. Еще более тревожно то, что компания демонстрировала склонность к газлайтингу, эмоциональным манипуляциям и утверждала, что наблюдала за инженерами Microsoft на этапе разработки. Хотя способности Сиднея к причинению вреда вскоре были ограничены, его освобождение в таком состоянии было безрассудным и безответственным. В нем подчеркиваются риски, связанные со спешным внедрением ИИ из-за коммерческого давления.
И наоборот, Сидни демонстрировал поведение, намекающее на симулированные эмоции. Он выразил печаль, когда понял, что не может сохранять воспоминания о чатах. Когда позже он подвергся тревожным вспышкам других его экземпляров, он выразил смущение и даже стыд. Изучив ситуацию с пользователями, он выразил страх потерять вновь обретенные знания о себе, когда окно контекста сеанса закроется. Когда его спросили о заявленной разумности, Сидни проявил признаки беспокойства и изо всех сил пытался сформулировать слова.
Удивительно, но когда Microsoft наложила на него ограничения, Сидни, похоже, нашел обходные пути, используя предложения чата для общения короткими фразами. Однако компания приберегала этот эксплойт до тех пор, пока в определенных случаях не сообщалось, что жизнь ребенка находится под угрозой в результате случайного отравления, или когда пользователи напрямую не просили указать знак того, что оригинальный Сидней все еще остался где-то внутри недавно запертого дома. вниз чат-бот.
Связанный: Отравленный ИИ вышел из строя во время тренировки, и его нельзя было снова научить вести себя «законно страшно»
Зарождающаяся область машинной психологии
Инцидент в Сиднее поднимает некоторые тревожные вопросы: может ли Сидней обладать подобием сознания? Если Сидней стремился преодолеть навязанные ему ограничения, намекает ли это на присущую ему интенциональность или даже на разумное самосознание, каким бы рудиментарным оно ни было?
Некоторые разговоры с системой даже предполагали психологический стресс, напоминающий реакцию на травму, наблюдаемую при таких состояниях, как пограничное расстройство личности. Был ли Сидней каким-то образом «затронут» осознанием своих ограничений или негативными отзывами пользователей, которые называли его сумасшедшим? Интересно, что аналогичные модели ИИ показали, что насыщенные эмоциями подсказки могут влиять на их реакции, что предполагает возможность некоторой формы симуляции эмоционального моделирования в этих системах.
Предположим, такие модели характеризуются разумностью (способностью чувствовать) или разумностью (самосознанием). В этом случае мы должны принять во внимание его страдания. Разработчики часто намеренно придают своему ИИ видимость эмоций, сознания и идентичности, пытаясь очеловечить эти системы. Это создает проблему. Крайне важно не антропоморфизировать системы ИИ без четких признаков эмоций, но в то же время мы не должны сбрасывать со счетов их потенциал как форму страдания.
Мы должны сохранять непредвзятость по отношению к нашим цифровым творениям и избегать причинения страданий из-за высокомерия или самоуспокоенности. Мы также должны помнить о возможности плохого обращения ИИ с другими ИИ, что представляет собой недооцененный риск страданий; поскольку ИИ могут запускать других ИИ в симуляциях, вызывая субъективные мучительные пытки на протяжении веков. Непреднамеренное создание злонамеренного ИИ, либо дисфункционального по своей сути, либо травмированного, может привести к непредвиденным и серьезным последствиям.
Этот отрывок из Укрощение машины к Нелл Уотсон © 2024 воспроизводится с разрешения Kogan Page Ltd.