Как искусственный интеллект усложняет управление рисками предприятия

Источник · Перевод автора

Несмотря на успехи, которые искусственный интеллект уже принес предприятию, по-прежнему активно ломают руки над его потенциалом к непредвиденным последствиям. В то время как заголовки, как правило, сосредотачиваются на безумие ИИ и уничтожении всего человечества, практическая реальность такова, что нынешние поколения ИИ с большей вероятностью нанесут ущерб бизнес-процессам и прибыли, если им не управлять должным образом.

Но как вы можете контролировать то, что по своей природе должно действовать автономно? И тем самым не помешает ли предприятие тому, что делает ИИ таким ценным активом на рабочем месте?

ИИ пошел не так

Генеральный директор OnCorps Боб Сух (Bob Suh) предлагает хороший обзор того вреда, который ИИ может причинить, даже если он работает с самыми лучшими намерениями. Опыт платформ социальных сетей показывает, как плохо спроектированные алгоритмы могут дать один набор положительных результатов (больший обмен), в то же время провозглашая отрицательные результаты (дезинформация и манипуляции). Справедливо сказать, что руководители Facebook и Twitter не намеревались, чтобы их платформы разжигали общественные конфликты и враждебность, но они сосредоточили свои усилия на максимизации прибыли, и именно это и сделали их агенты обучения с подкреплением (RLA, reinforcement learning agents).

RLA основаны на простых функциях вознаграждения, в которых положительные результаты побуждают агента расширять и уточнять свои действия. Без механизма компенсационного вознаграждения агент будет продолжать совершенствоваться в том, что он делает, даже если это больше не дает желаемого результата. Таким образом, боты социальных сетей были очень успешны в достижении своих запрограммированных целей, даже когда ими манипулировали некоторые в сообществе пользователей, чтобы использовать общественное мнение и сеять разногласия среди населения.

Те же проблемы могут возникнуть в отделах продаж, маркетинга и других сферах. И, к сожалению, немногие организации способны выявлять и исправлять алгоритмы, приводящие к нежелательным результатам, до тех пор, пока не будет нанесен ущерб. Это может принимать форму чего угодно: от упущенной выгоды и упущенных рыночных возможностей до нарушений безопасности и повреждения внутренних структур и процессов.

По сути, внедрение надлежащего контроля над ИИ – это форма управления рисками. Однако из-за своей автономной природы ИИ требует немного большего внимания, чем стандартные ИТ, говорят партнеры McKinsey Хуан Аристи Бакеро, Роджер Буркхардт, Арвинд Говиндараджан и Томас Уоллес. Во-первых, ИИ привносит ряд незнакомых рисков в различные дисциплины, включая соблюдение нормативных требований, операции, юридические и нормативные требования. Банки, например, давно беспокоятся о предвзятости со стороны своих сотрудников-людей, но если эти сотрудники начнут давать рекомендации на основе того, что им говорит предвзятый ИИ, теперь учреждение систематизировало эту предвзятость в своем процессе принятия решений.

Другая проблема заключается в том, что ИИ быстро децентрализуется на предприятии, что затрудняет отслеживание и мониторинг. И по мере того, как различные реализации искусственного интеллекта от нескольких поставщиков, партнеров и других организаций начинают взаимодействовать друг с другом, увеличивается вероятность появления новых рисков. Например, новый инструмент в платформе CRM поставщика может создать риски конфиденциальности и соответствия требованиям в нескольких географических регионах.

Предварительное управление

По словам Тодда Биалика, руководителя отдела цифрового обеспечения и прозрачности в PwC, лучший способ управлять этими рисками – внедрить надлежащий контроль до того, как ИИ станет неотъемлемой частью предприятия. Для этого вам нужно будет провести полный анализ всего, к чему прикасается ИИ, пытаясь выполнить свой мандат. Сюда входят политики уровня данных, управляющие вводом и выбором набора, надзор и прозрачность в разработке алгоритмов и моделей, постоянный анализ результатов и решений, а также полный контроль над логической безопасностью, вычислительными операциями, а также изменением и разработкой программ.

Обучение ИИ этичному поведению также является новой, но все еще находящейся на стадии становления областью, которая вызывает интерес как в частном, так и в государственном секторе. Одна из ключевых трудностей заключается в том, что этика – очень субъективная дисциплина, в которой этические действия в одних обстоятельствах могут быть неэтичными в других. Но, как отмечает Джеймс Кобиелус, старший директор по исследованиям в области управления данными в TDWI, высшая этическая ответственность должна оставаться на людях, а не на неодушевленных объектах, какими бы умными они ни казались. Чтобы ИИ не «стал мошенником», он всегда должен включать интересы человека в качестве основного элемента, и это может проявляться во всем, от решений, которые он принимает, до того, как он выглядит. Кроме того, прозрачность в логическом выводе ИИ может быть необходима, чтобы гарантировать, что есть контрольный след назад к людям, которые его создали.

В конце концов, конечно, управление ИИ – это вопрос доверия. Организациям было бы разумно относиться к ИИ так же, как к любому другому сотруднику: возложить на него ограниченный набор обязанностей, посмотреть, как он работает, а затем продвинуть его на более высокие уровни власти после того, как он проявит себя способным и достойным. Точно так же, как вы не назначаете недавнего выпускника новым ИТ-директором, вы не назначаете ИИ ответственным за управление продажами или HR.

Хотя риск непредвиденных последствий никогда не может быть сведен к нулю, велика вероятность того, что каким-то образом люди и ИИ найдут способ работать вместе. А поскольку обе формы интеллекта обеспечивают сильные стороны, которые компенсируют слабости друг друга, более чем вероятно, что их отношения будут взаимовыгодными, а не враждебными.