«Опасный» искусственный интеллект предлагает писать поддельные новости

«Опасный» искусственный интеллект предлагает писать поддельные новости

Источник · Перевод автора

Система искусственного интеллекта, которая генерирует реалистичные истории, стихи и статьи, была обновлена, и некоторые утверждают, что теперь она почти так же хороша, как писатель-человек.

Генератор текста, созданный исследовательской фирмой OpenAI, изначально считался «слишком опасным», чтобы обнародовать его из-за возможного злоупотребления.

Но теперь вышла новая, более мощная версия системы, которая может использоваться для создания поддельных новостей или оскорбительного спама в социальных сетях.

Би-би-си вместе с некоторыми экспертами по искусственному интеллекту решили испытать это.

Модель, получившая название GPT-2, была обучена на наборе данных из восьми миллионов веб-страниц и способна адаптироваться к стилю и содержанию исходного текста, переданного ей.

Он может закончить стихотворение Шекспира, а также писать статьи и эпитеты.

В то время компания заявила: «Из-за нашей озабоченности по поводу вредоносных приложений технологии мы не выпускаем обученную модель. В качестве эксперимента по ответственному раскрытию информации мы вместо этого выпускаем гораздо меньшую модель, с которой исследователи могут экспериментировать».

В результате выпущенная версия имела гораздо меньше параметров – фраз и предложений – чем использовалась во время обучения.

В этом месяце OpenAI решил расширить параметры, предложив гораздо более широкую базу данных об обучении.

Технический новостной сайт The Next Web сказал об обновлении: «Этот работает почти достаточно хорошо, чтобы использовать его в качестве общего искусственного интеллекта для генерации текста – почти».

Автор статьи Тристан Грин (Tristan Greene) добавил: «Я в ужасе от GPT-2, потому что он представляет собой технологию, которую злые люди собираются использовать для манипулирования населением, и, по моему мнению, это делает его более опасным, чем любое оружие».

Би-би-си решила протестировать систему, введя первые несколько предложений недавней истории, соответственно одно из них об искусственном интеллекте.

Китайская поисковая система Sogou создает двойники искусственного интеллекта для чтения популярных романов голосами авторов.

По словам исследователей, этот метод чтения является не просто детищем пользователей Amazon Kindle. Пользователи Android-устройств также являются заметным рынком для поддельного чтения. Есть несколько теорий, чтобы объяснить это.

Во-первых, устройство в руке пользователя отличается от планшета или компьютера, на котором он читает. Во-вторых, устройство, используемое для доступа в Интернет, может быть каким-то образом подделано. Третья причина заключается в том, что пользователь может просто копировать и вставлять контент непосредственно в своих виртуальных персонажей.

Тем не менее, другое объяснение состоит в том, что устройство не имеет возможности распознавания голоса вообще. Если это так, то распознавание голоса является более продвинутым, чем система перевода Google. Таким образом, эти пользователи обманываются, думая, что они читают от настоящего автора – книга звучит аутентично, как только они пытаются читать.

Ноэль Шарки (Noel Sharkey), профессор компьютерных наук в университете Шеффилда, провел свои собственные испытания генератора и не был слишком впечатлен.

Человек заходит в бар

«Если бы программное обеспечение работало так, как задумано Open AI, это был бы очень полезный инструмент для простой генерации поддельных новостей и спама с наживкой. К счастью, в его нынешнем виде он генерирует бессвязный и нелепый текст, мало связанный с вводимыми «заголовками», сказал он.

Он добавил: «Я протестировал программное обеспечение с многочисленными заголовками и получил смехотворные результаты. Например, для «Индейки ненавидят Рождество» я понял, что «Турция – единственная страна в мире, которая не празднует Рождество» и ряд не связанных между собой выводов.

«Поскольку «Борис Джонсон любит задний ход», он произвел бессвязную тарабарщину и кое-что об искусственном интеллекте и спорте. Когда я вводил утверждение, что «Борис Джонсон ненавидит задний ход», я получил более последовательную историю, которая, кажется, была спровоцирована Поиском Гугл».

Дейв Коплин (Dave Coplin), основатель ИИ-консалтинга Envisioners, также поиграл с системой, введя первую строку классической шутки: «Человек заходит в бар …»

Предложение от ИИ было не тем, что он ожидал: «… И заказал две пинты пива и два скотча. Когда он попытался оплатить счет, с ним столкнулись двое мужчин, один из которых крикнул «Это для Сирии» «У этого человека было кровотечение и перерезано горло».

Это «в подавляющем большинстве случаев антиутопическое отражение нашего общества» стало уроком того, как любая система ИИ будет отражать смещение, обнаруженное в данных обучения, сказал он.

«Из моих коротких экспериментов с моделью довольно ясно, что большая часть данных была обучена новостями в Интернете», – сказал он.

«Решение OpenAI опубликовать обновленную версию своей модели генератора текстового предсказания языка GPT-2 может показаться спорным», – добавил он.

«Но как только первоначальная (и понятная) проблема исчезает, остается то, что остается для нашего общества принципиально важной дискуссией о том, как нам нужно думать о мире, в котором становится грань между человеческим контентом и компьютерным контентом все труднее дифференцировать», добавил он.

OpenAI, который изначально был некоммерческим, был основан в 2015 году с целью продвижения и развития ИИ таким образом, чтобы принести пользу всему человечеству.

Илон Маск был одним из первых спонсоров, но некоторое время не был связан с компанией.

https://talktotransformer.com