Intel сотрудничает с Google в развертывании графического процессора Mount Evans на базе ASIC

Intel сотрудничает с Google в развертывании графического процессора Mount Evans на базе ASIC

Источник · Перевод автора

Сегодня на первом мероприятии, посвященном инновациям, корпорация Intel сообщила, что она сотрудничает с Google в разработке первого специализированного графического процессора на базе интегральных схем (ASIC) для конкретных приложений под названием Mount Evans. Intel заявляет, что Mount Evans, которую она называет «интеллектуальным процессором», или IPU, будет поддерживаться «отраслевым» языком программирования и комплектом разработки для программистов инфраструктуры с открытым исходным кодом, специально разработанным для упрощения доступа к технологии в Google Cloud. центры обработки данных.

IPU и блоки обработки данных (DPU) набирают обороты, поскольку поставщики облачных услуг стремятся разгрузить определенные сетевые функции, функции безопасности и хранения с центральных процессоров в кластере систем. Эти задачи постоянно поглощают ресурсы ЦП в центрах обработки данных и в облаке по мере роста внедрения облака, особенно во время пандемии. Исследования Google и Facebook показывают, что рабочие нагрузки инфраструктуры потребляют от 22% до 80% циклов ЦП в широком диапазоне рабочих нагрузок микросервисов.

Впервые объявленный этим летом на Дне архитектуры Intel, Mount Evans объединяет до четырех процессоров Xeon с технологией обработки пакетов, разработанной Barefoot Networks, сетевым стартапом, приобретенным Intel в 2019 году. IPU также включает в себя до шестнадцати ядер Arm Neoverse N1, работающих на частоте 3 ГГц. а также интерфейсы ввода-вывода, кеши и три двухрежимных контроллера LPDDR4 с пропускной способностью памяти 102 Гбит / с.

В своем блоге Патрисия Куммроу (Patricia Kummrow), генеральный директор подразделения Intel по Ethernet, объясняет, что вычислительный комплекс Mount Evans тесно связан с сетевой подсистемой, что позволяет ядрам ускорителя использовать кэш системного уровня как свой собственный кеш последнего уровня.

«Этот ASIC поддерживает множество существующих вариантов использования, включая разгрузку vSwitch, межсетевые экраны, виртуальную маршрутизацию» и функции телеметрии, при этом поддерживая до 200 миллионов пакетов в секунду и до 16 миллионов защищенных соединений, – сказала Куммроу. «IPU Mount Evans имитирует устройства NVMe с очень высокой скоростью ввода-вывода в секунду (IOPS) за счет использования и расширения контроллера Intel Optane NVMe. Та же операционная система Intel, которая работает на IPU на базе FPGA, будет работать и на Mount Evans. Дополнительные технологические инновации в IPU Mount Evans – это надежный транспортный протокол нового поколения, разработанный совместно с [Google] для решения проблемы длинных задержек в сетях с потерями, а также наши передовые ускорители шифрования и сжатия».

Рекламируемые преимущества

Брэд Беррес (Brad Burres), сотрудник Intel, возглавляющий разработку архитектуры IPU, утверждает, что преимуществом таких устройств, как Mount Evans, является разделение функций между поставщиками услуг и арендаторами. По его словам, это обеспечивает повышенную безопасность и изоляцию для всех сторон, а также поддерживает такие варианты использования, как хостинг на голом железе, для работы на тех же аппаратных платформах с использованием тех же сервисов, что и виртуальные машины. Помимо этого, DPU и IPU могут включать новые модели обслуживания для хранилища, абстрагируя хранилище, инициированное арендатором, говорит Буррес.

«[Mount Evans] позволяет арендаторам полностью контролировать свой ЦП. Они могут делать такие вещи, как запуск собственного гипервизора. И в этом случае облачные операторы по-прежнему полностью контролируют такие функции инфраструктуры, как сеть, хранилище и безопасность, потому что они находятся в IPU», – цитировал Бурреса слова HPC Wire в августе. «IPU [также] обеспечивает [] среду исполнения, оптимизированную для инфраструктуры. Это включает значительные вложения в аппаратные ускорители в IPU, которые позволяют IPU очень эффективно обрабатывать задачи инфраструктуры. Это позволяет лучше настроить программное обеспечение и ядра для этих типов рабочих нагрузок. В целом, это оптимизирует производительность, и теперь облачный оператор может сдавать в аренду 100% ЦП своему гостю, что также максимизирует прибыль».

Конкуренция

Intel немного опоздала на вечеринку DPU / IPU, а ее конкуренты, такие как Nvidia и Marvell, уже несколько поколений разрабатывают свои разработки. В апреле Nvidia анонсировала BlueField-3 DPU для рабочих нагрузок AI и аналитики, который включает в себя программно определяемые сети, хранилище и возможности ускорения кибербезопасности, предлагая то, что, по утверждению Nvidia, эквивалентно мощности до 300 ядер ЦП. Такие стартапы, как Fungible и Speedata, также разрабатывают DPU для рабочих нагрузок, ориентированных на центры обработки данных, в то время как Amazon Web Services несколько лет назад запустила Nitro System, комбинацию аппаратного и программного обеспечения DPU, направленную на повышение производительности и безопасности.

Но, по словам Куммроу, IPU позиционируется как стратегический элемент в более широкой стратегии Intel в области облачного оборудования. Действительно, глобальный рынок ускорителей центров обработки данных к 2027 году может составить 53 миллиарда долларов по сравнению с 4,2 миллиардами долларов в 2020 году, прогнозирует Valuates Reports, что означает совокупный годовой темп роста почти 44%.

«Мы считаем, что наш ведущий портфель IPU обеспечивает основу общей инфраструктуры, которая позволяет нашим облачным клиентам в полной мере использовать свои вычислительные ресурсы общего назначения, XPU и ресурсы ускорения в гетерогенных архитектурах центров обработки данных ближайшего будущего», – сказала она. «Сочетание этих возможностей идеально соответствует текущим тенденциям в развитии микросервисов и предлагает уникальную возможность для создания оптимизированной функциональной инфраструктуры, которая соответствует высокоскоростным аппаратным сетевым компонентам и общим программным фреймворкам. IPU предоставляет поставщикам облачных услуг возможность переосмыслить архитектуру центра обработки данных, ускорить работу облака и разместить больше приносящих доход услуг – приложений клиентов, работающих на виртуальных машинах – на каждом ЦП сервера в центре обработки данных».