Четыре самых распространенных заблуждения об искусственном интеллекте

Источник · Перевод автора

История искусственного интеллекта была отмечена повторяющимися циклами крайнего оптимизма и надежд, за которыми следовало разочарование и разочарование. Современные системы искусственного интеллекта могут выполнять сложные задачи в широком диапазоне областей, таких как математика, игры и создание фотореалистичных изображений. Но некоторые из ранних целей ИИ, таких как роботы-домработницы и беспилотные автомобили, продолжают отступать по мере того, как мы приближаемся к ним.

По словам Мелани Митчелл (Melanie Mitchell), Дэвиса, профессора сложности в Институте Санта-Фе и автора книги «Искусственный интеллект: руководство для мыслящих людей», часть продолжающегося цикла невыполнения этих целей связана с неверными предположениями об ИИ и естественном интеллекте.

В новой статье под названием «Почему ИИ сложнее, чем мы думаем» Митчелл излагает четыре распространенных заблуждения об ИИ, которые вызывают недопонимание не только среди общественности и средств массовой информации, но и среди экспертов. Эти заблуждения дают ложное чувство уверенности в том, насколько мы близки к достижению общего искусственного интеллекта, систем ИИ, которые могут соответствовать когнитивным навыкам и навыкам решения общих проблем людей.

Узкий ИИ и общий ИИ не в одном масштабе

ИИ, который у нас есть сегодня, может очень хорошо решать узко определенные проблемы. Они могут превзойти людей в го и шахматах, с удивительной точностью находить раковые образования на рентгеновских изображениях и преобразовывать аудиоданные в текст. Но проектирование систем, которые могут решать отдельные проблемы, не обязательно приближает нас к решению более сложных проблем. Митчелл описывает первое заблуждение как «Узкий интеллект находится в континууме с общим интеллектом».

«Если люди видят, как машина делает что-то удивительное, хотя и в узкой области, они часто предполагают, что эта область намного дальше от общего ИИ», – пишет Митчелл в своей статье.

Например, современные системы обработки естественного языка прошли долгий путь к решению множества различных проблем, таких как перевод, создание текста и ответы на вопросы по конкретным проблемам. В то же время у нас есть системы глубокого обучения, которые могут преобразовывать голосовые данные в текст в режиме реального времени. За каждым из этих достижений стоят тысячи часов исследований и разработок (и миллионы долларов, потраченных на вычисления и данные). Но сообщество ИИ до сих пор не решило проблему создания агентов, которые могли бы вести открытые беседы, не теряя согласованности в течение длительного времени. Такая система требует большего, чем просто решение небольших проблем; это требует здравого смысла – одной из ключевых нерешенных проблем ИИ.

Легкие вещи сложно автоматизировать

Когда дело доходит до людей, мы ожидаем, что умный человек будет делать сложные дела, на которые потребуются годы обучения и практики. Примеры могут включать такие задачи, как решение математических и физических задач, игра в шахматы на уровне гроссмейстера или запоминание множества стихов.

Но десятилетия исследований искусственного интеллекта доказали, что сложные задачи, требующие осознанного внимания, легче автоматизировать. Это простые задачи, вещи, которые мы считаем само собой разумеющимся, которые трудно автоматизировать. Митчелл описывает вторую ошибку: «Легкие – легкие, а сложные – трудные».

«То, что мы, люди, делаем, не задумываясь, – смотрим в мир и осмысливаем то, что мы видим, ведем беседу, идем по переполненному тротуару, не натыкаясь ни на кого – оказываются самыми сложными проблемами для машин», Митчелл пишет. «И наоборот, зачастую легче заставить машины делать вещи, которые очень трудны для человека; например, решение сложных математических задач, освоение таких игр, как шахматы и го, и перевод предложений на сотни языков – все это оказалось для машин относительно проще».

Рассмотрим, например, зрение. За миллиарды лет организмы разработали сложные устройства для обработки световых сигналов. Животные используют свои глаза, чтобы оценивать окружающие их объекты, перемещаться по окружающей среде, находить пищу, обнаруживать угрозы и выполнять множество других задач, жизненно важных для их выживания. Мы, люди, унаследовали все эти способности от наших предков и используем их, не задумываясь. Но лежащий в основе механизм действительно более сложен, чем большие математические формулы, которые мешают нам учиться в средней школе и колледже.

Показательный пример: у нас до сих пор нет систем компьютерного зрения, которые были бы почти столь же универсальны, как человеческое зрение. Нам удалось создать искусственные нейронные сети, которые примерно имитируют части системы зрения животных и человека, такие как обнаружение объектов и сегментирование изображений. Но они хрупкие, чувствительны к разного рода возмущениям и не могут имитировать весь спектр задач, которые может выполнить биологическое зрение. Вот почему, например, системы компьютерного зрения, используемые в беспилотных автомобилях, необходимо дополнить передовыми технологиями, такими как лидары и картографические данные.

Еще одна область, которая оказалась очень сложной, – это сенсомоторные навыки, которыми люди овладевают без специальной подготовки. Подумайте о том, как вы обращаетесь с предметами, ходите, бегаете и прыгаете. Это задачи, которые вы можете выполнять без сознательной мысли. Фактически, во время прогулки вы можете заниматься другими делами, например слушать подкаст или разговаривать по телефону. Но такие навыки остаются большой и дорогостоящей проблемой для современных систем искусственного интеллекта.

«ИИ сложнее, чем мы думаем, потому что мы в значительной степени не осознаем сложность наших собственных мыслительных процессов», – пишет Митчелл.

Антропоморфизация ИИ не помогает

Область искусственного интеллекта изобилует словарным запасом, который ставит программное обеспечение на один уровень с человеческим интеллектом. Мы используем такие термины, как «учиться», «понимать», «читать» и «думать», чтобы описать, как работают алгоритмы ИИ. Хотя такие антропоморфные термины часто служат сокращением, чтобы помочь передать сложные программные механизмы, они могут ввести нас в заблуждение, заставив думать, что современные системы искусственного интеллекта работают как человеческий разум.

Митчелл называет это заблуждение «приманкой желаемого за действительное» и пишет: «Такое сокращение может ввести в заблуждение публику, пытающуюся понять эти результаты (и средства массовой информации, сообщающие о них), а также может неосознанно влиять на то, как думают даже эксперты по ИИ. их системы и насколько они похожи на человеческий интеллект».

Заблуждение о желаемой мнемонике также привело к тому, что сообщество ИИ назвало эталонные тесты для оценки алгоритмов, вводя в заблуждение. Рассмотрим, например, тест General Language Understanding Evaluation (GLUE), разработанный некоторыми из наиболее уважаемых организаций и академических институтов в области искусственного интеллекта. GLUE предоставляет набор задач, которые помогают оценить, как языковая модель может обобщать свои возможности за пределами задачи, для которой она была обучена. Но вопреки тому, что изображают в СМИ, если агент ИИ получает более высокий балл GLUE, чем человек, это не означает, что он лучше понимает язык, чем люди.

«Хотя машины могут превосходить людей по этим конкретным тестам, системы ИИ все еще далеки от того, чтобы соответствовать более общим человеческим способностям, которые мы связываем с названиями тестов», – пишет Митчелл.

Ярким примером мнемоники желаемого за действительное является проект Facebook Artificial Intelligence Research в 2017 году, в котором ученые обучили двух агентов ИИ согласовывать задачи на основе человеческих разговоров. В своем сообщении в блоге исследователи отметили, что «обновление параметров обоих агентов привело к расхождению с человеческим языком, поскольку агенты разработали свой собственный язык для ведения переговоров [выделено мной]».

Это привело к потоку статей с приманками, в которых говорилось о системах искусственного интеллекта, которые становятся умнее людей и общаются на секретных диалектах. Четыре года спустя самые продвинутые языковые модели все еще не могут понять базовые концепции, которые большинство людей изучает в очень молодом возрасте без инструктажа.

ИИ без тела

Может ли разум существовать в отрыве от богатого физического опыта мира? Это вопрос, над которым ученые и философы ломали голову на протяжении веков.

Одна школа мысли считает, что все интеллект находится в мозгу и может быть отделен от тела, также известная как теория «мозга в чане». Митчелл называет это заблуждением «разум – это все в мозгу». Считается, что с правильными алгоритмами и данными мы можем создать ИИ, который живет на серверах и соответствует человеческому интеллекту. Для сторонников этого образа мышления, особенно тех, кто поддерживает подходы, основанные на чистом глубоком обучении, достижение общего уровня ИИ зависит от сбора нужного количества данных и создания все более крупных нейронных сетей.

Между тем появляется все больше свидетельств того, что этот подход обречен на провал. «Все больше исследователей ставят под сомнение основы модели обработки информации «все в мозге» для понимания интеллекта и создания ИИ», – пишет она.

Мозг человека и животных эволюционировал вместе со всеми другими органами тела с конечной целью повышения шансов на выживание. Наш интеллект тесно связан с ограничениями и возможностями нашего тела. И есть расширяющаяся область воплощенного ИИ, целью которого является создание агентов, которые развивают интеллектуальные навыки, взаимодействуя с окружающей средой с помощью различных сенсорных стимулов.

Митчелл отмечает, что исследования нейробиологии показывают, что «нейронные структуры, контролирующие познание, тесно связаны с теми, которые контролируют сенсорные и моторные системы, и что абстрактное мышление использует нейронные« карты »тела». И на самом деле появляется все больше свидетельств и исследований, подтверждающих обратную связь от различные сенсорные области мозга влияют как на наши сознательные, так и на бессознательные мысли.

Митчелл поддерживает идею о том, что эмоции, чувства, подсознательные предубеждения и физический опыт неотделимы от интеллекта. «Ничто в наших знаниях в области психологии или нейробиологии не подтверждает возможность того, что «чистая рациональность» отделима от эмоций и культурных предубеждений, которые формируют наше познание и наши цели», – пишет она. «Напротив, то, что мы узнали из исследований воплощенного познания, заключается в том, что человеческий интеллект кажется сильно интегрированной системой с тесно взаимосвязанными атрибутами, включая эмоции, желания, сильное чувство самости и автономии, а также здравое понимание мира. Совершенно не ясно, можно ли разделять эти атрибуты».

Здравый смысл в ИИ

Разработка общего ИИ требует корректировки нашего понимания самого интеллекта. Мы все еще пытаемся определить, что такое интеллект и как его измерить у искусственных и естественных существ.

«Ясно, что для более эффективного достижения и оценки прогресса в области ИИ нам нужно будет улучшить словарный запас, чтобы говорить о том, что могут делать машины», – пишет Митчелл. «И в более общем плане нам потребуется лучшее научное понимание интеллекта, проявляющегося в различных системах в природе».

Еще одна проблема, которую Митчелл обсуждает в своей статье, – это проблема здравого смысла, которую она описывает как «своего рода зонтик для того, чего не хватает в современных системах искусственного интеллекта».

Здравый смысл включает в себя знания, которые мы получаем об окружающем мире и применяем их каждый день без особых усилий. Мы многому учимся без явных инструкций, исследуя мир в детстве. К ним относятся такие понятия, как пространство, время, гравитация и физические свойства объектов. Например, ребенок узнает в очень раннем возрасте, что когда объект оказывается закрытым позади другого, он не исчез и продолжает существовать, или когда мяч катится по столу и достигает выступа, он должен упасть. Мы используем эти знания, чтобы строить ментальные модели мира, делать причинно-следственные выводы и предсказывать будущие состояния с приличной точностью.

Такого рода знания отсутствуют в современных системах искусственного интеллекта, что делает их непредсказуемыми и требовательными к данным. На самом деле, ведение домашнего хозяйства и вождение, два приложения ИИ, упомянутые в начале этой статьи, – это вещи, которым большинство людей учатся с помощью здравого смысла и небольшой практики.

Здравый смысл также включает в себя основные факты о человеческой природе и жизни, вещи, которые мы опускаем в наших разговорах и письмах, потому что мы знаем, что наши читатели и слушатели знают их. Например, мы знаем, что если два человека «разговаривают по телефону», это означает, что они находятся не в одной комнате. Мы также знаем, что если «Джон потянулся за сахаром», это означает, что где-то рядом с Джоном был контейнер с сахаром внутри. Такие знания имеют решающее значение для таких областей, как обработка естественного языка.

«Никто еще не знает, как запечатлеть такие знания или способности в машинах. Это текущая граница исследований ИИ, и одним из обнадеживающих способов продвижения вперед является использование того, что известно о развитии этих способностей у маленьких детей», – пишет Митчелл.

Хотя мы все еще не знаем ответов на многие из этих вопросов, первым шагом к поиску решений является осознание наших собственных ошибочных мыслей. «Понимание этих заблуждений и их скрытого влияния может указать направления для создания более надежных, заслуживающих доверия и, возможно, действительно интеллектуальных систем ИИ», – пишет Митчелл.