Хотите разработать структуру управления рисками для ИИ? Относитесь к нему как к человеку

Хотите разработать структуру управления рисками для ИИ? Относитесь к нему как к человеку

Источник · Перевод автора

Технологии искусственного интеллекта (ИИ) предлагают очень важные стратегические преимущества и опасности для глобального бизнеса и государственных учреждений. Одна из самых сильных сторон ИИ – его способность участвовать в поведении, обычно связанном с человеческим интеллектом, например обучении, планировании и решении проблем. Однако искусственный интеллект также несет новые риски для организаций и отдельных лиц и сбивает с толку эти риски.

Вскоре ИИ неизбежно столкнется с усилением регулирования. Летом ряд федеральных агентств выпустили инструкции, начали обзоры и запросили информацию о разрушительных, а иногда и беспорядочных способностях ИИ. Пришло время организациям подготовиться к тому дню, когда им нужно будет продемонстрировать подотчетность, прозрачность, надежность, недискриминацию и безопасность своих собственных систем ИИ.

На пути к управлению новыми рисками ИИ возникают серьезные и серьезные проблемы. К счастью, организации могут использовать некоторые недавние инициативы агентств в качестве практических руководств для создания или совершенствования структур управления рисками ИИ. При внимательном рассмотрении эти инициативы демонстрируют, что новыми рисками ИИ можно управлять многими из тех же установленных способов, что и рисками, возникающими в результате человеческого интеллекта. Ниже мы опишем семиэтапный подход, чтобы привнести человеческий фактор в эффективную структуру управления рисками искусственного интеллекта. Но перед этим давайте кратко рассмотрим различные мероприятия правительства, связанные с этим летом.

Лето инициатив в области искусственного интеллекта

В то время как лето традиционно является тихим временем для действий агентств в Вашингтоне, округ Колумбия, лето 2021 года было совсем не тихим, когда дело касалось ИИ. 27 августа 2021 года Комиссия по ценным бумагам и биржам (SEC) выпустила запрос о предоставлении информации с просьбой к участникам рынка предоставить агентству свидетельские показания об использовании «практик цифрового взаимодействия» или «DEP». Реакция SEC на цифровые риски, создаваемые компаниями, занимающимися финансовыми технологиями, может иметь серьезные последствия для инвестиционных консультантов, розничных брокеров и управляющих активами, которые все чаще используют ИИ для создания инвестиционных стратегий и привлечения клиентов к продуктам с более высокими доходами. Действия SEC последовали за запросом информации от группы федеральных финансовых регуляторов, закрытой ранее этим летом, относительно возможных новых стандартов искусственного интеллекта для финансовых учреждений.

В то время как финансовые регуляторы оценивают риски ИИ для управления экономическими решениями людей, 13 августа 2021 года Национальное управление безопасности дорожного движения (НАБДД) Министерства транспорта объявило предварительную оценку безопасности ИИ для управления транспортными средствами. NHTSA рассмотрит причины 11 аварий Tesla, которые произошли с начала 2018 года, когда автомобили Tesla разбились в местах, где были активны службы быстрого реагирования, часто в темноте, с включенным автопилотом или круиз-контролем с учетом трафика.

Тем временем другие агентства стремились стандартизировать и нормализовать управление рисками, связанными с ИИ. 29 июля 2021 года Национальный институт стандартов и технологий Министерства торговли США запросил информацию, чтобы помочь в разработке добровольной системы управления рисками ИИ. В июне 2021 года Главное управление отчетности (GAO) выпустило структуру подотчетности AI, чтобы определить ключевые методы, которые помогут обеспечить подотчетность и ответственное использование AI федеральными агентствами и другими организациями, участвующими в проектировании, разработке, развертывании и постоянном мониторинге систем ИИ.

Использование управления человеческими рисками в качестве отправной точки

Как предвещает летняя правительственная деятельность, агентства и другие важные заинтересованные стороны, вероятно, формализуют требования для управления рисками для отдельных лиц, организаций и общества, связанных с ИИ. Хотя ИИ представляет новые риски, организации могут эффективно и действенно распространить аспекты своих существующих систем управления рисками на ИИ. Практические рекомендации, предлагаемые некоторыми структурами управления рисками, разработанными государственными организациями, в частности GAO, Концепцией этики ИИ разведывательного сообщества и Руководящими принципами этики для надежного ИИ Европейской комиссии экспертов высокого уровня по искусственному интеллекту, обеспечивают схему для Семиступенчатый подход, позволяющий организациям расширить существующие рамки управления рисками для людей на ИИ.

Во-первых, характер того, как ИИ создается, обучается и внедряется, делает обязательным создание целостности ИИ на стадии проектирования. Подобно тому, как сотрудники должны соответствовать ценностям организации, ИИ тоже. Организации должны сверху задавать правильный тон тому, как они будут ответственно разрабатывать, развертывать, оценивать и защищать ИИ в соответствии со своими основными ценностями и культурой добросовестности.

Во-вторых, перед внедрением ИИ организации должны провести комплексную проверку, аналогичную той, что они проводят для новых сотрудников или сторонних поставщиков. Как и в случае с людьми, этот процесс должной осмотрительности должен основываться на оценке риска. Организации должны проверить эквивалент резюме и расшифровки стенограммы ИИ. Для ИИ это примет форму обеспечения качества, надежности и достоверности источников данных, используемых для обучения ИИ. Организациям также может потребоваться оценить риски использования продуктов ИИ, если поставщики услуг не хотят делиться подробностями о своих проприетарных данных. Поскольку даже хорошие данные могут дать плохой ИИ, эта комплексная проверка будет включать проверку эквивалента ссылок для выявления потенциальных предубеждений или проблем безопасности в прошлой работе ИИ. В отношении особо чувствительного ИИ такая комплексная проверка может также включать глубокую проверку биографических данных для устранения любых опасений по поводу безопасности или внутренних угроз, что может потребовать проверки исходного кода ИИ с согласия поставщика.

В-третьих, после внедрения ИИ необходимо укоренить в культуре организации, прежде чем его можно будет развернуть. Как и другие формы разведки, ИИ должен понимать кодекс поведения организации и применимые правовые ограничения, а затем принимать и сохранять их с течением времени. AI также необходимо научить сообщать о предполагаемых нарушениях, совершаемых им самим и другими людьми. С помощью оценок рисков и воздействия ИИ организации могут, среди прочего, оценивать конфиденциальность, гражданские свободы и последствия для гражданских прав для каждой новой системы ИИ.

В-четвертых, после развертывания ИИ необходимо управлять, оценивать и нести ответственность. Как и в случае с людьми, организациям следует применять условный и поэтапный подход, основанный на оценке рисков, к возложенным на ИИ обязанностям. Должен быть подходящий период испытательного срока искусственного интеллекта, с продвижением, обусловленным получением результатов, соответствующих программным и организационным целям. Как и люди, ИИ необходимо надлежащим образом контролировать, наказывать за злоупотребления, вознаграждать за успех, а также иметь возможность и желание конструктивно сотрудничать в ходе проверок и расследований. Компании должны регулярно и регулярно документировать работу ИИ, включая любые корректирующие действия, предпринимаемые для обеспечения получения желаемых результатов.

В-шестых, как и в случае с людьми, ИИ должен быть защищен от физического вреда, внутренних угроз и рисков кибербезопасности. Для особо рискованных или ценных систем искусственного интеллекта меры безопасности могут включать страховое покрытие, аналогичное страхованию, которое компании предоставляют для ключевых руководителей.

В-седьмых, как и люди, не все системы искусственного интеллекта будут соответствовать основным ценностям и стандартам производительности организации, и даже те, которые соответствуют, в конечном итоге уйдут или должны будут уйти на пенсию. Организации должны определить, разработать и внедрить процедуры передачи, прекращения и вывода из эксплуатации систем искусственного интеллекта. Для систем искусственного интеллекта с особо серьезными последствиями должны быть четкие механизмы, по сути, выводящие ИИ из здания путем отключения и деактивации, когда что-то пойдет не так.

ИИ, как и люди, создает проблемы для надзора, потому что входные данные и процессы принятия решений не всегда видны и меняются с течением времени. Управляя новыми рисками, связанными с ИИ, во многом так же, как и люди, казалось бы, устрашающие проблемы надзора, связанные с ИИ, могут стать более доступными и помочь обеспечить такое же доверие и подотчетность ИИ, как и все другие формы интеллекта организации.