Domino Data Lab усиливает интеграцию MLOps с репозиториями Git

Источник · Перевод автора

Domino Data Lab, пионер платформы операций машинного обучения (MLOps), облегчает специалистам по обработке данных управление кодом в то время, когда поставщики платформ DevOps начинают рассматривать модели ИИ как еще один программный артефакт, который необходимо управляется в контексте любого проекта разработки приложений.

«Версия 4.4 платформы Domino добавляет возможность CodeSync, которая интегрирована с репозиториями Git таким образом, чтобы упростить отслеживание всех аспектов экспериментов», – сказал Ник Элприн (Nick Elprin), генеральный директор Domino Data Lab.

В то время как Domino Data Lab видит, что команды по анализу данных используют репозитории Git для управления артефактами, составляющими модель искусственного интеллекта, процессы, используемые для их создания, будут отличаться от процессов DevOps, которые разработчики используют для создания приложений, добавил Элприн. «Модели принципиально разные», – сказал он.

В рамках усилий, направленных на то, чтобы командам MLOps было проще достичь этой цели, Domino Data Labs также добавила функцию под названием Durable Workspaces, которая позволяет запускать несколько изолированных сред одновременно для повышения производительности. По словам Элприна, Durable Workspaces также снизит затраты на инфраструктуру, поскольку позволит специалистам по обработке данных останавливать, редактировать и возобновлять конфигурации рабочего пространства по мере необходимости.

Наконец, Domino 4.4 добавляет поддержку протокола TLS, чтобы обеспечить шифрование при передаче и возможность монтировать тома внешней сетевой файловой системы (NFS) из файловой системы Domino.

Переход к более тесной интеграции с репозиториями Git, такими как GitHub и GitLab, происходит в то время, когда поставщики этих репозиториев позволяют DevOps и командам специалистов по обработке и анализу данных создавать и развертывать модели искусственного интеллекта в более совместной манере. Команды DevOps включают модели искусственного интеллекта в свои рабочие процессы, чтобы ускорить развертывание приложений, наполненных возможностями искусственного интеллекта.

Пока неясно, будут ли лучшие практики в DevOps и MLOps просто совпадать или задачи, которые в настоящее время управляются платформами MLOps, будут выполняться платформами непрерывной интеграции / непрерывной доставки (CI / CD), которые уже существуют во многих организациях.

Эльприн отметил, что большинство организаций уже сталкиваются с трудностями, когда дело доходит до найма как специалистов по данным, так и инженеров DevOps. По его словам, шансы, что они найдут специалиста по DevOps, который также разбирается в тонкостях MLOps, очень малы.

Тем не менее, так или иначе, организации стремятся ускорить развертывание приложений с поддержкой ИИ. Сегодня нередко команды по анализу данных тратят несколько месяцев на создание модели искусственного интеллекта, которую необходимо развернуть в производственной среде.

Проблема заключается в том, что многие группы разработчиков приложений развертывают и обновляют приложения с такой скоростью, которая затрудняет согласование усилий групп по анализу данных с разработкой приложений. Таким образом, сторонники DevOps теперь приводят доводы в пользу того, чтобы сделать платформы DevOps более доступными для команд по анализу данных.

Еще только начало построения моделей искусственного интеллекта в корпоративных ИТ-организациях. Большинство процессов далеки от зрелости. Однако в какой-то момент потребуются более интегрированные процессы, охватывающие науку о данных, разработчиков и группы ИТ-операций, поскольку количество моделей ИИ, развертываемых и обновляемых в производственных средах, продолжает неуклонно расти.