Платформа обнаружения дезинформации на базе искусственного интеллекта Blackbird привлекла 10 млн долларов

Платформа обнаружения дезинформации на базе искусственного интеллекта Blackbird привлекла 10 млн долларов

Источник · Перевод автора

Blackbird.AI, платформа на базе искусственного интеллекта, предназначенная для борьбы с дезинформацией, объявила сегодня о закрытии раунда финансирования серии A стоимостью 10 миллионов долларов, возглавляемого Dorilton Ventures с участием NetX, Generation Ventures, Trousdale Ventures, StartFast Ventures и индивидуальных бизнес-ангелов. По словам соучредителя и генерального директора Васима Халеда (Wasim Khaled), выручка, в результате которой общая сумма привлеченных средств компании составит 11,87 миллиона долларов, будет использована для поддержки увеличения числа сотрудников и линейки продуктов, а также запуска новых функций и возможностей для корпоративных клиентов и заказчиков, занимающихся национальной безопасностью.

Стоимость угроз дезинформации и цифровых манипуляций для организаций и правительств оценивается в 78 миллиардов долларов в год, говорится в отчете Университета Балтимора и Cheq Cybersecurity. В том же исследовании было выявлено более 70 стран, которые, как считается, использовали онлайн-платформы для распространения дезинформации в 2020 году, что на 150% больше, чем в 2017 году.

Blackbird был основан компьютерными учеными Халедом и Наушадом Уззаман, двумя друзьями, которые разделяют убеждение, что дезинформация является одной из величайших угроз существованию нашего времени. Они запустили Blackbird в Сан-Франциско, штат Калифорния, в 2014 году с целью разработки платформы, которая позволит компаниям реагировать на кампании по дезинформации, извлекая информацию из коммуникационных данных в реальном времени.

Отслеживание дезинформации

Blackbird отслеживает и анализирует то, что он описывает как «риски СМИ», возникающие в социальных сетях и других онлайн-платформах. Используя ИИ, система объединяет комбинацию сигналов, включая повествовательные, сетевые, когортные, манипуляции и обман, чтобы профилировать потенциально опасные информационные кампании.

Повествовательный сигнал включает диалоги, которые следуют общей теме, например темам, которые могут нанести вред. Сетевой сигнал измеряет отношения между пользователями и концепциями, которые они разделяют в разговоре. Между тем, сигнал когорты отражает принадлежность и общие убеждения различных онлайн-сообществ. Сигнал манипуляции включает в себя «синтетически принудительный» диалог или пропаганду, в то время как сигнал обмана охватывает преднамеренное распространение известной дезинформации, такой как мистификации и заговоры.

Blackbird пытается определить влиятельных лиц и их взаимодействие в сообществах, а также, например, то, как они влияют на голоса участников. Помимо этого, платформа ищет общие системы ценностей, доминирующие в чатах, и доказательства пропаганды, синтетического усиления и сетей, управляемых ботами, троллей и спамеров.

Например, в феврале прошлого года президент Трамп провел митинг в Чарльстоне, Южная Каролина, где заявил, что опасения по поводу пандемии были попыткой демократов дискредитировать его, назвав это «их новым обманом». Blackbird обнаружил скоординированную кампанию под названием «Dem Panic», которая, по-видимому, была запущена во время выступления Трампа: платформа также выявила подкатегории хэштегов с особенно высоким уровнем манипуляции, включая #QAnon, #MAGA и #Pelosi.

Смешанные сигналы

ИИ не идеален. Как свидетельствуют такие конкурсы, как Fake News Challenge и Facebook Hateful Memes Challenge, алгоритмы машинного обучения по-прежнему с трудом помогают получить целостное понимание слов в контексте. Проблема усугубляется возможностью появления предвзятости в алгоритмах. Например, некоторые исследователи утверждают, что Perspective, управляемый искусственным интеллектом API для борьбы с запугиванием и дезинформацией, управляемый поддерживаемой Alphabet организацией Jigsaw, не смягчает ненависть и ядовитые высказывания в одинаковой степени среди разных групп людей.

Показательно, что Facebook недавно признал, что не смог обучить модель обнаруживать новые экземпляры определенной категории дезинформации: вводящие в заблуждение новости о COVID-19. Вместо этого компания полагается на свои 60 партнерских организаций по проверке фактов, чтобы пометить вводящие в заблуждение заголовки, описания и изображения в сообщениях. «Создание нового классификатора для чего-то, что понимает контент, которого раньше никогда не видели, требует времени и большого количества данных», – сказал Майк Шрёпфер, технический директор Facebook, во время пресс-конференции в мае.

С другой стороны, такие группы, как Лаборатория Линкольна Массачусетского технологического института, заявляют, что им удалось создать системы для автоматического обнаружения нарративов дезинформации, а также людей, распространяющих их в социальных сетях. Несколько лет назад исследователи из Школы компьютерных наук и инженерии Пола Г. Аллена Вашингтонского университета и Института искусственного интеллекта Аллена разработали алгоритм Гровера, который, по их словам, смог выделить 92% образцов дезинформации, написанных ИИ, в ходе теста. установленный.

По данным Gartner, на фоне усиления защиты от дезинформации и наступательной гонки вооружений ожидается, что расходы на разведку угроз вырастут на 17% в годовом исчислении с 2018 по 2024 год. В качестве примера можно привести компанию Blackbird, у которой есть Fortune 500, Global 2000 и государственные заказчики, – сегодня она объявила о партнерстве с PR-фирмой Weber Shandwick, чтобы помочь компаниям понять риски дезинформации, которые могут повлиять на их бизнес.

Blackbird, которая утверждает, что последние 18 месяцев были периодом наибольшего роста в истории компании с точки зрения доходов и потребительского спроса, планирует утроить размер своей команды к концу 2021 года. И это несмотря на конкуренцию со стороны Logically, Fabula AI, New Knowledge и другие стартапы на базе искусственного интеллекта, которые утверждают, что обнаруживают дезинформацию с высокой точностью.