Это риски искусственного интеллекта, на которых мы должны сосредоточиться

Источник · Перевод автора

С самого начала компьютерной эры люди относились к подходу искусственного интеллекта (ИИ) с некоторой степенью опасения. Популярные изображения ИИ часто связаны с роботами-убийцами или всеведущими всевидящими системами, стремящимися уничтожить человечество. Подобным же образом эти настроения пронизывают и средства массовой информации, которые склонны встречать прорывы в области искусственного интеллекта с большей тревогой или шумихой, чем взвешенный анализ. На самом деле настоящая проблема должна заключаться в том, отвлекают ли эти чрезмерно драматизированные, антиутопические видения наше внимание от более тонких – но не менее опасных – рисков, связанных с неправильным использованием приложений ИИ, которые уже доступны или разрабатываются сегодня.

ИИ проникает в нашу повседневную жизнь, влияя на то, какие медиа мы потребляем, что покупаем, где и как работаем, и многое другое. Технологии искусственного интеллекта, несомненно, продолжат разрушать наш мир, от автоматизации рутинных офисных задач до решения насущных проблем, таких как изменение климата и голод. Но, как демонстрируют такие инциденты, как незаконные аресты в США и массовая слежка за уйгурским населением Китая, мы также уже наблюдаем некоторые негативные последствия, исходящие от ИИ. Сосредоточенные на расширении границ возможного, компании, правительства, специалисты по ИИ и специалисты по обработке данных иногда не понимают, как их открытия могут вызвать социальные проблемы, пока не становится слишком поздно.

Поэтому настало время более целенаправленно подходить к использованию и развитию ИИ. Нам необходимо с самого начала интегрировать соображения этического и социального воздействия в процесс развития, а не бороться с этими проблемами постфактум. И самое главное, мы должны признать, что даже кажущиеся безобидными алгоритмы и модели могут быть использованы в негативных целях. Мы далеки от угроз ИИ, подобных Терминаторам – и этот день может никогда не наступить, – но сегодня идет работа, заслуживающая не менее серьезного внимания.

Как дипфейки могут сеять сомнения и разногласия

Дипфейки – это реалистичные искусственные изображения, аудио и видео, обычно созданные с использованием методов машинного обучения. Технология производства таких «синтетических» материалов развивается с головокружительной скоростью, а сложные инструменты теперь доступны бесплатно и легко даже для неспециалистов. Злоумышленники уже используют такой контент, чтобы подорвать репутацию и совершить преступления, основанные на мошенничестве, и нетрудно представить себе другие вредоносные варианты использования.

Дипфейки создают двоякую опасность: фейковый контент заставит зрителей поверить в реальность сфабрикованных заявлений или событий и что их растущее распространение подорвет доверие общественности к надежным источникам информации. И хотя инструменты обнаружения существуют сегодня, создатели дипфейков показали, что они могут извлечь уроки из этих средств защиты и быстро адаптироваться. В этой игре в кошки-мышки с высокими ставками нет простых решений. Даже простой фальшивый контент может нанести значительный ущерб, учитывая психологическую силу предвзятости подтверждения и способность социальных сетей быстро распространять мошенническую информацию.

Дипфейки – лишь один из примеров технологии искусственного интеллекта, которая может оказывать коварное влияние на общество. Они демонстрируют, насколько важно продумывать возможные последствия и стратегии снижения вреда с самого начала разработки ИИ.

Крупные языковые модели как множители силы дезинформации

Крупные языковые модели – еще один пример технологии искусственного интеллекта, разработанной с неотрицательными намерениями, которая по-прежнему заслуживает внимательного рассмотрения с точки зрения социального воздействия. Эти модели учатся писать человеческий текст, используя методы глубокого обучения, которые обучаются шаблонам в наборах данных, часто извлекаемых из Интернета. Последняя модель ведущей исследовательской компании в области искусственного интеллекта OpenAI, GPT-3, может похвастаться 175 миллиардами параметров – в 10 раз больше, чем в предыдущей итерации. Эта обширная база знаний позволяет GPT-3 генерировать практически любой текст с минимальным вмешательством человека, включая рассказы, ответы по электронной почте и технические документы. Фактически, статистические и вероятностные методы, лежащие в основе этих моделей, улучшаются так быстро, что многие из вариантов их использования остаются неизвестными. Например, первые пользователи только случайно обнаружили, что модель также может писать код.

Однако потенциальные недостатки очевидны. Как и его предшественники, GPT-3 может создавать сексистский, расистский и дискриминационный текст, потому что он учится на интернет-контенте, на котором его обучали. Более того, в мире, где тролли уже влияют на общественное мнение, крупные языковые модели, такие как GPT-3, могут испортить онлайн-разговоры раскольнической риторикой и дезинформацией. Осознавая возможность неправомерного использования, OpenAI ограничил доступ к GPT-3, сначала для выбора исследователей, а затем в качестве эксклюзивной лицензии Microsoft. Но джинн из бутылки: Google представила модель с триллионом параметров в начале этого года, и OpenAI признает, что проекты с открытым исходным кодом находятся на пути к воссозданию GPT-3 в ближайшее время. Похоже, наше окно для коллективного решения проблем, связанных с дизайном и использованием этой технологии, быстро закрывается.

Путь к этичному, социально полезному ИИ

ИИ, возможно, никогда не дойдет до кошмарных научно-фантастических сценариев Скайнета или Терминатора, но это не значит, что мы можем уклоняться от реальных социальных рисков, которые несет сегодня ИИ. Работая с группами заинтересованных сторон, исследователи и лидеры отрасли могут установить процедуры для выявления и снижения потенциальных рисков без чрезмерного препятствования инновациям. В конце концов, сам по себе ИИ не является ни хорошим, ни плохим по своей сути. Есть много реальных потенциальных преимуществ, которые он может открыть для общества – нам просто нужно быть внимательными и ответственными в том, как мы его разрабатываем и внедряем.

Например, мы должны стремиться к большему разнообразию профессий в области науки о данных и искусственного интеллекта, в том числе предпринимать шаги для консультаций с экспертами в соответствующих областях, таких как социальные науки и экономика, при разработке определенных технологий. Потенциальные риски ИИ выходят за рамки чисто технических; так же должны быть приложены усилия по снижению этих рисков. Мы также должны сотрудничать, чтобы установить нормы и общие практики в отношении ИИ, такие как GPT-3 и модели deepfake, такие как стандартизированные оценки воздействия или периоды внешней проверки. Подобным образом отрасль может активизировать усилия в отношении контрмер, таких как средства обнаружения, разработанные с помощью Facebook Deepfake Detection Challenge или Microsoft Video Authenticator. Наконец, необходимо будет постоянно вовлекать широкую общественность в образовательные кампании по ИИ, чтобы люди знали о его злоупотреблениях и могли легче выявлять их. Если бы о возможностях GPT-3 знали столько же людей, сколько о Терминаторе, мы были бы лучше оснащены для борьбы с дезинформацией и другими вредоносными сценариями использования.

Теперь у нас есть возможность установить стимулы, правила и ограничения в отношении того, кто имеет доступ к этим технологиям, их развитию, а также в каких условиях и обстоятельствах они применяются. Мы должны использовать эту силу с умом – прежде чем она выскользнет из наших рук.