Почему искусственный интеллект не может решать неизвестные проблемы

Источник · Перевод автора

Когда у нас появится общий искусственный интеллект, такой ИИ, который сможет имитировать человеческий разум во всех аспектах? Эксперты разделились по этому поводу, и ответы варьируются от нескольких десятилетий до никогда.

Но все согласны с тем, что нынешние системы искусственного интеллекта далеки от человеческого интеллекта. Люди могут исследовать мир, открывать нерешенные проблемы и обдумывать их решения. Между тем набор инструментов ИИ продолжает расти за счет алгоритмов, которые могут выполнять определенные задачи, но не могут обобщать свои возможности за пределами своей узкой области. У нас есть программы, которые позволяют побеждать чемпионов мира в StarCraft, но не могут сыграть в другую игру на любительском уровне. У нас есть искусственные нейронные сети, которые могут находить признаки рака груди на маммограммах, но не могут отличить кошку от собаки. И у нас есть сложные языковые модели, которые могут создавать тысячи, казалось бы, связанных статей в час, но начинают ломаться, когда вы задаете им простые логические вопросы о мире.

Короче говоря, каждому из наших методов искусственного интеллекта удается воспроизвести некоторые аспекты того, что мы знаем о человеческом интеллекте. Но собрать все воедино и заполнить пробелы остается серьезной проблемой. В своей книге «Алгоритмов недостаточно» ученый-аналитик Герберт Ройтблат (Herbert Roitblat) дает подробный обзор различных ветвей ИИ и описывает, почему каждая из них не соответствует мечте о создании общего интеллекта.

Ройтблат утверждает, что общим недостатком всех алгоритмов искусственного интеллекта является необходимость в заранее определенных представлениях. Как только мы обнаруживаем проблему и можем представить ее вычислимым способом, мы можем создавать алгоритмы ИИ, которые могут решить ее, часто более эффективно, чем мы. Однако это неоткрытые и непредставимые проблемы, которые по-прежнему ускользают от нас.

Представления в символическом ИИ

На протяжении всей истории искусственного интеллекта ученые регулярно изобретали новые способы использования достижений компьютеров для решения проблем остроумными способами. Первые десятилетия ИИ сосредоточились на символических системах.

Эта ветвь ИИ предполагает, что человеческое мышление основано на манипулировании символами, и любая система, которая может вычислять символы, разумна. Символический ИИ требует, чтобы разработчики тщательно определяли правила, факты и структуры, определяющие поведение компьютерной программы. Символьные системы могут выполнять замечательные функции, такие как запоминание информации, вычисление сложных математических формул на сверхвысоких скоростях и имитация принятия решений экспертами. Популярные языки программирования и большинство приложений, которые мы используем каждый день, уходят корнями в работу над символическим ИИ.

Но символический ИИ может решать только те проблемы, для которых мы можем предложить хорошо сформированные, пошаговые решения. Проблема в том, что большинство задач, которые выполняют люди и животные, нельзя представить в виде четких правил.

«Интеллектуальные задачи, такие как игра в шахматы, анализ химической структуры и вычисления, относительно легко выполнять с помощью компьютера. Гораздо сложнее виды деятельности, которые мог бы выполнять даже годовалый человек или крыса», – пишет Ройтблат в своей книге «Алгоритмов недостаточно».

Это называется парадоксом Моравека, названным в честь ученого Ганса Моравека, который заявил, что, в отличие от людей, компьютеры могут выполнять высокоуровневые логические задачи с очень небольшими усилиями, но с трудом справляются с простыми навыками, которые люди и животные приобретают естественным путем.

«Человеческий мозг за миллионы лет развил механизмы, которые позволяют нам выполнять основные сенсомоторные функции. Мы ловим мячи, узнаем лица, оцениваем расстояние, казалось бы, без усилий», – пишет Ройтблат. «С другой стороны, интеллектуальная деятельность появилась совсем недавно. Мы можем выполнять эти задачи с большими усилиями и часто с большим обучением, но нам следует относиться с подозрением, если мы думаем, что именно эти способности делают интеллект, а не тот интеллект, который делает эти способности возможными».

Таким образом, несмотря на свои замечательные способности к рассуждению, символический ИИ строго привязан к представлениям, предоставляемым людьми.

Представления в машинном обучении

Машинное обучение предлагает другой подход к ИИ. Вместо того, чтобы писать явные правила, инженеры «тренируют» модели машинного обучения на примерах. «Системы [машинного обучения] могут не только делать то, на что они были специально запрограммированы, но они могут расширять свои возможности на ранее невидимые события, по крайней мере, те, которые находятся в определенном диапазоне», – пишет Ройтблат в книге «Алгоритмов недостаточно».

Самая популярная форма машинного обучения – это обучение с учителем, при котором модель обучается на наборе входных данных (например, влажности и температуры) и ожидаемых результатов (например, вероятность дождя). Модель машинного обучения использует эту информацию для настройки набора параметров, которые сопоставляют входные данные с выходными. При представлении ранее невидимых входных данных хорошо обученная модель машинного обучения может предсказать результат с поразительной точностью. Нет необходимости в явных правилах «если-то».

Но контролируемое машинное обучение по-прежнему основывается на представлениях, предоставляемых человеческим интеллектом, хотя и более расплывчатым, чем символический ИИ. Вот как Ройтблат описывает контролируемое обучение: «[M] ашинное обучение включает представление проблемы, которую он ставит перед собой, в виде трех наборов чисел. Один набор чисел представляет входные данные, которые получает система, один набор чисел представляет результаты, которые производит система, а третий набор чисел представляет модель машинного обучения».

Таким образом, хотя машинное обучение с учителем не жестко связано с такими правилами, как символический ИИ, оно по-прежнему требует строгих представлений, созданных человеческим интеллектом. Люди-операторы должны определить конкретную проблему, подготовить набор обучающих данных и пометить результаты, прежде чем они смогут создать модель машинного обучения. Только когда проблема была четко представлена ​​по-своему, модель может приступить к настройке своих параметров.

«Представление выбирает разработчик системы», – пишет Ройтблат. «Во многих отношениях представление является наиболее важной частью разработки системы машинного обучения».

Одна из ветвей машинного обучения, популярность которой возросла за последнее десятилетие, – это глубокое обучение, которое часто сравнивают с человеческим мозгом. В основе глубокого обучения лежит глубокая нейронная сеть, которая складывает слои за слоями простых вычислительных единиц для создания моделей машинного обучения, которые могут выполнять очень сложные задачи, такие как классификация изображений или расшифровка аудио.

Но опять же, глубокое обучение во многом зависит от архитектуры и представления. Для большинства моделей глубокого обучения требуются маркированные данные, и не существует универсальной архитектуры нейронной сети, которая могла бы решить все возможные проблемы. Инженер по машинному обучению должен сначала определить проблему, которую он хочет решить, сформировать большой набор обучающих данных, а затем выяснить архитектуру глубокого обучения, которая может решить эту проблему. Во время обучения модель глубокого обучения настроит миллионы параметров для сопоставления входных данных с выходными. Но инженеры по машинному обучению по-прежнему должны определять количество и тип слоев, скорость обучения, функцию оптимизации, функцию потерь и другие неизученные аспекты нейронной сети.

«Как и большая часть машинного интеллекта, настоящий гений [глубокого обучения] проистекает из того, как спроектирована система, а не из собственного автономного интеллекта. «Умные» представления, включая умную архитектуру, создают «умный» машинный интеллект», – пишет Ройтблат. «Сети глубокого обучения часто описываются как изучающие собственные представления, но это неверно. Структура сети определяет, какие представления она может получить из своих входов. То, как он представляет входные данные и как он представляет процесс решения проблем, так же определяется для сети глубокого обучения, как и для любой другой системы машинного обучения».

Другие отрасли машинного обучения следуют тому же правилу. Например, для обучения без учителя не требуются размеченные примеры. Но для этого по-прежнему требуется четко определенная цель, такая как обнаружение аномалий в кибербезопасности, сегментация клиентов в маркетинге, уменьшение размерности или встраивание представлений.

Обучение с подкреплением, еще одна популярная ветвь машинного обучения, очень похожа на некоторые аспекты интеллекта человека и животных. Агент ИИ не полагается на размеченные примеры для обучения. Вместо этого ему предоставляется среда (например, шахматы или доска для игры в го) и набор действий, которые он может выполнять (например, перемещать фигуры, ставить камни). На каждом этапе агент выполняет действие и получает обратную связь от своего окружения в виде вознаграждений и штрафов. Путем проб и ошибок агент обучения с подкреплением находит последовательности действий, которые приносят больше награды.

Ученый-компьютерщик Ричард Саттон описывает обучение с подкреплением как «первую вычислительную теорию интеллекта». В последние годы он стал очень популярным для решения сложных задач, таких как освоение компьютерных и настольных игр, а также разработка универсальных роботизированных рук и кистей.

Но среды обучения с подкреплением обычно очень сложны, и количество возможных действий, которые может выполнить агент, очень велико. Таким образом, агенты обучения с подкреплением нуждаются в большой помощи человеческого интеллекта, чтобы разработать правильные награды, упростить задачу и выбрать правильную архитектуру. Например, OpenAI Five, система обучения с подкреплением, освоившая онлайн-видеоигру Dota 2, полагалась на своих дизайнеров, упрощающих правила игры, например, сокращая количество игровых персонажей.

«Невозможно проверить ни в каких системах, кроме тривиальных, все возможные комбинации всех возможных действий, которые могут привести к вознаграждению», – пишет Ройтблат. «Как и в случае с другими ситуациями машинного обучения, эвристика необходима, чтобы упростить задачу до чего-то более доступного, даже если нельзя гарантировать получение наилучшего ответа».

Вот как Ройтблат резюмирует недостатки существующих систем искусственного интеллекта в «Алгоритмах недостаточно»: «Текущие подходы к искусственному интеллекту работают, потому что их разработчики выяснили, как структурировать и упростить проблемы, чтобы существующие компьютеры и процессы могли их решать. Чтобы иметь действительно общий интеллект, компьютерам потребуется способность определять и структурировать свои собственные проблемы».

В правильном ли направлении движутся исследования ИИ?

«Каждый классификатор (фактически, каждая система машинного обучения) может быть описан в терминах представления, метода измерения его успешности и метода обновления», – сказал Ройтблат TechTalks по электронной почте. «Обучение – это поиск пути (последовательности обновлений) через пространство значений параметров. Однако на данный момент у нас нет никакого метода для создания этих представлений, целей и оптимизаций».

Существуют различные попытки решить проблемы существующих систем искусственного интеллекта. Одна из популярных идей – продолжить масштабирование глубокого обучения. Общая аргументация заключается в том, что более крупные нейронные сети в конечном итоге взломают код общего интеллекта. В конце концов, человеческий мозг имеет более 100 триллионов синапсов. Самая большая на сегодняшний день нейронная сеть, разработанная исследователями искусственного интеллекта в Google, имеет один триллион параметров. И данные показывают, что добавление большего количества слоев и параметров к нейронным сетям приводит к постепенным улучшениям, особенно в языковых моделях, таких как GPT-3.

Но большие нейронные сети не решают фундаментальных проблем общего интеллекта.

«Эти языковые модели являются значительными достижениями, но они не являются общим интеллектом», – говорит Ройтблат. «По сути, они моделируют последовательность слов в языке. Они плагиаты со слоем абстракции. Дайте ему подсказку, и он создаст текст, который имеет статистические свойства прочитанных страниц, но не имеет отношения ни к чему, кроме языка. Он решает конкретную проблему, как и все современные приложения искусственного интеллекта. Это именно то, что рекламируется – языковая модель. Это не мелочь, но это не общий интеллект».

Другие направления исследований пытаются добавить структурные улучшения в существующие структуры ИИ.

Например, гибридный искусственный интеллект объединяет символический ИИ и нейронные сети, чтобы объединить разумную силу первого и возможности распознавания образов вторым. Уже существует несколько реализаций гибридного ИИ, также называемого «нейросимвольными системами», которые показывают, что гибридные системы требуют меньше обучающих данных и более стабильны в задачах рассуждения, чем подходы с использованием чистой нейронной сети.

Глубокое обучение в Системе 2, еще одно направление исследований, предложенное пионером глубокого обучения Йошуа Бенжио, пытается вывести нейронные сети за рамки статистического обучения. Глубокое обучение Системы 2 направлено на то, чтобы позволить нейронным сетям изучать «высокоуровневые представления» без необходимости явного встраивания символического интеллекта.

Еще одна исследовательская работа – это обучение с самоконтролем, предложенное Яном ЛеКуном, еще одним пионером глубокого обучения и изобретателем сверточных нейронных сетей. Самостоятельное обучение направлено на изучение задач без необходимости в маркированных данных и на изучение мира, как это сделал бы ребенок.

«Я думаю, что все это способствует более эффективному решению проблем (для задач, связанных с путями), но ни одно из них не решает вопрос о том, как эти решения структурированы или генерируются», – говорит Ройтблат. «Все они по-прежнему включают навигацию в заранее структурированном пространстве. Ни один из них не рассматривает вопрос о том, откуда взялось это пространство. Я думаю, что это действительно важные идеи, просто они не отвечают конкретным потребностям перехода от узкого к общему разуму».

В книге «Алгоритмов недостаточно» Ройтблат предлагает идеи о том, что нужно искать для развития систем искусственного интеллекта, которые могут активно искать и решать проблемы, для которых они не были разработаны. Нам еще есть чему поучиться у самих себя и у того, как мы применяем свой интеллект в этом мире.

«Умные люди могут распознать существование проблемы, определить ее природу и представить ее», – пишет Ройтблат. «Они могут распознать, где не хватает знаний, и работать над их получением. Хотя умные люди извлекают выгоду из структурированных инструкций, они также способны искать собственные источники информации».

Но наблюдать разумное поведение легче, чем создавать его, и, как сказал мне Ройтблат в нашей переписке, «люди не всегда решают свои проблемы так, как они говорят / думают, что они делают».

Продолжая изучать искусственный и человеческий интеллект, мы продолжим продвигаться к AGI шаг за шагом.

«Искусственный интеллект находится в стадии разработки. Некоторые задачи продвинулись дальше, чем другие. У некоторых есть путь. Недостатки искусственного интеллекта, как правило, связаны с недостатками его создателя, а не с присущими ему свойствами принятия вычислительных решений. Я ожидал, что со временем они улучшатся», – сказал Ройтблат.