Документ DeepMind AGI повышает актуальность этического искусственного интеллекта

Источник · Перевод автора

Это был отличный год для искусственного интеллекта. Компании тратят больше средств на крупные проекты в области ИИ, а новые инвестиции в стартапы в области ИИ идут рекордными темпами. Все эти вложения и расходы приносят результаты, которые приближают всех нас к долгожданному святому Граалю – общему искусственному интеллекту (AGI, artificial general intelligence). Согласно McKinsey, многие академики и исследователи утверждают, что есть по крайней мере шанс, что искусственный интеллект человеческого уровня может быть достигнут в следующем десятилетии. И один исследователь заявляет: «AGI – это не какая-то далекая фантазия. Это случится с нами раньше, чем думает большинство людей».

Еще одним стимулом является исследовательская лаборатория искусственного интеллекта DeepMind, которая недавно представила убедительный документ в рецензируемом журнале по искусственному интеллекту под названием «Награды достаточно». Они утверждают, что обучение с подкреплением – форма глубокого обучения, основанного на поощрении поведения – однажды приведет к воспроизведению когнитивных способностей человека и достижению ОИИ. Этот прорыв позволил бы мгновенные вычисления и совершенную память, что привело бы к созданию искусственного интеллекта, который превосходил бы людей почти во всех когнитивных задачах.

Мы не готовы к общему искусственному интеллекту

Несмотря на заверения стойких приверженцев, что AGI принесет пользу всему человечеству, уже существуют реальные проблемы с сегодняшними одноцелевыми узкими алгоритмами ИИ, которые ставят это предположение под сомнение. Согласно истории Harvard Business Review, когда примеры ИИ от прогнозирующего контроля до автоматизированных алгоритмов кредитного рейтинга не проверяются, они представляют серьезную угрозу для нашего общества. Недавно опубликованный Pew Research опрос технологических новаторов, разработчиков, лидеров бизнеса и политики, исследователей и активистов демонстрирует скептицизм относительно того, что этические принципы ИИ будут широко реализованы к 2030 году. Это связано с широко распространенным убеждением, что предприятия будут уделять приоритетное внимание прибыли, а правительства продолжат для наблюдения и контроля за своим населением. Если так сложно обеспечить прозрачность, устранить предвзятость и обеспечить этичное использование сегодняшнего узкого ИИ, то вероятность непредвиденных последствий от ОИИ кажется астрономической.

И это беспокойство касается только фактического функционирования ИИ. Политические и экономические последствия ИИ могут привести к ряду возможных результатов, от утопии пост-дефицита до феодальной антиутопии. Возможно также, что обе крайности могут сосуществовать. Например, если богатство, генерируемое ИИ, распределяется по всему обществу, это может способствовать утопическому видению. Однако мы увидели, что ИИ концентрирует власть, а технологию контролирует относительно небольшое количество компаний. Концентрация власти создает почву для феодальной антиутопии.

Возможно меньше времени, чем думал

В документе DeepMind описывается, как можно достичь AGI. До этого еще далеко, от 20 лет до вечности, в зависимости от оценки, хотя недавние достижения предполагают, что временная шкала будет на более коротком конце этого диапазона и, возможно, даже раньше. В прошлом году я утверждал, что GPT-3 от OpenAI переместил ИИ в сумеречную зону, область между узким и общим ИИ. GPT-3 способен выполнять множество различных задач без дополнительного обучения, может создавать убедительные повествования, генерировать компьютерный код, автозаполнение изображений, переводить между языками и выполнять математические вычисления, среди прочего, в том числе некоторые его создатели не планировали. Эта очевидная многофункциональность не очень похожа на определение узкого ИИ. На самом деле, он гораздо более универсален по функциям.

Тем не менее, современные алгоритмы глубокого обучения, в том числе GPT-3, не могут адаптироваться к меняющимся обстоятельствам, что является фундаментальным отличием современного ИИ от AGI. Одним из шагов к адаптации является мультимодальный ИИ, сочетающий языковую обработку GPT-3 с другими возможностями, такими как визуальная обработка. Например, на основе GPT-3 OpenAI представил DALL-E, который генерирует изображения на основе изученных концепций. Используя простую текстовую подсказку, DALL-E может создать «картину капибары, сидящей в поле на рассвете». Хотя он, возможно, никогда раньше не «видел» это изображение, он может комбинировать то, что он узнал о картинах, капибарах, полях и восходах солнца, для создания десятков изображений. Таким образом, он является мультимодальным и более универсальным, но все же не AGI.

Исследователи из Пекинской академии искусственного интеллекта (BAAI) в Китае недавно представили Wu Dao 2.0, мультимодальную систему искусственного интеллекта с 1,75 триллионом параметров. Это немногим больше года после введения GPT-3 и на порядок больше. Как и GPT-3, мультимодальный Wu Dao, что означает «просветление», может выполнять задачи обработки естественного языка, создания текста, распознавания изображений и создания изображений. Но он может делать это быстрее, возможно, лучше, и даже может петь.

Принято считать, что достижение AGI не обязательно зависит от увеличения вычислительной мощности и количества параметров системы глубокого обучения. Однако есть мнение, что сложность порождает интеллект. В прошлом году Джеффри Хинтон, профессор Университета Торонто, пионер глубокого обучения и обладатель премии Тьюринга, отметил: «В кубическом сантиметре мозга находится один триллион синапсов. Если есть такая вещь, как общий ИИ, [системе], вероятно, потребуется один триллион синапсов ». Синапсы являются биологическим эквивалентом параметров модели глубокого обучения.

Wu Dao 2.0 явно достиг этого числа. Председатель BAAI д-р Чжан Хунцзян сказал о выпуске 2.0: «Путь к общему искусственному интеллекту – большие модели и большой компьютер». Всего через несколько недель после выпуска Wu Dao 2.0 компания Google Brain анонсировала модель компьютерного зрения с глубоким обучением, содержащую два миллиарда параметров. Хотя не факт, что тенденция последних достижений в этих областях будет продолжаться, есть модели, которые предполагают, что к 2025 году компьютеры могут обладать такой же мощностью, как человеческий мозг.

Расширение вычислительной мощности и созревание моделей прокладывают путь к AGI

Алгоритмы обучения с подкреплением пытаются подражать людям, узнавая, как лучше всего достичь цели, ища награды. С такими моделями искусственного интеллекта, как Wu Dao 2.0, и вычислительными мощностями, которые растут экспоненциально, может ли обучение с подкреплением – машинное обучение методом проб и ошибок – стать технологией, ведущей к AGI, как считает DeepMind?

Этот метод уже широко используется и получает все большее распространение. Например, компании по производству беспилотных автомобилей, такие как Wayve и Waymo, используют обучение с подкреплением для разработки систем управления для своих автомобилей. Военные активно используют обучение с подкреплением для разработки совместных многоагентных систем, таких как команды роботов, которые могут работать бок о бок с будущими солдатами. McKinsey недавно помогла команде Emirates Team New Zealand подготовиться к чемпионату Америки 2021 года, создав систему обучения с подкреплением, которая могла бы протестировать любой тип конструкции лодки в реальных условиях плавания, смоделированных цифровым способом. Это позволило команде добиться преимущества в производительности, что помогло ей обеспечить свою четвертую победу в Кубке.

Google недавно использовал обучение с подкреплением для набора данных из 10 000 проектов компьютерных микросхем, чтобы разработать TPU следующего поколения, микросхему, специально разработанную для повышения производительности приложений ИИ. Работа, на которую у команды инженеров-проектировщиков ушло много месяцев, теперь может быть выполнена ИИ менее чем за шесть часов. Таким образом, Google использует ИИ для разработки микросхем, которые можно использовать для создания еще более сложных систем ИИ, что еще больше ускоряет и без того экспоненциальный прирост производительности за счет эффективного цикла инноваций.

Хотя эти примеры убедительны, они все же являются узкими вариантами использования ИИ. Где AGI? В документе DeepMind говорится: «Вознаграждения достаточно, чтобы стимулировать поведение, демонстрирующее способности, изучаемые естественным и искусственным интеллектом, включая знания, обучение, восприятие, социальный интеллект, язык, обобщение и имитацию». Это означает, что AGI естественным образом возникнет в результате обучения с подкреплением по мере того, как модели становятся более сложными и вычислительные мощности расширяются.

Не все соглашаются с представлением DeepMind, а некоторые уже отвергают газету как пиар-ход, призванный держать лабораторию в новостях больше, чем продвигать науку. Даже в этом случае, если DeepMind прав, тем важнее внедрять этичные и ответственные практики и нормы ИИ в промышленности и правительстве. С быстрыми темпами ускорения и развития ИИ мы явно не можем позволить себе рискнуть, что DeepMind ошибается.