Intel представила следующее поколение чипов для приложений ИИ
На калифорнийском мероприятии AI Summit, состоявшемся вчера в Сан-Франциско, Intel сообщила о расширении ассортимента оборудования для искусственного интеллекта, уже приносящего этой компании 3,5 млрд долл. в год.
Она представила новое поколение Movidius Vision Processing Unit (VPU), под кодовым именем Keem Bay, а также два чипа в семействе Nervana Neural Network Processor (NNP): Nervana NNP-T1000 для ускорения обучения нейросетей и Nervana NNP-I1000 для логических выводов или умозаключений (inference).
К выпуску Movidius VPU компания приступила в 2017 году. Keem Bay, поставки которого предполагается начать в первой половине 2020 года, по производительности логических выводов превосходит первое поколение в 10 раз. Предварительные тесты Intel показали, что пропускная способность Keem Bay лучше в четыре раза, а энергопотребление - на треть, чем у TX2 SOC производства Nvidia. С Nvidia Xavier SOC новый продукт Intel имеет примерно равную производительность, но обеспечивает пятикратную экономию энергии.
Предназначенный для медиаприложений на границе сети, задач компьютерного зрения и ускорения умозаключений моделей ИИ, новый VPU имеет размер стороны всего 72 мм (у Xavier - 350 мм). Малые габариты делают возможным использование Keem Bay в различных форм-факторах - от робототехники и киосков до полноценных карт PCIe.
NNP-T1000 и NNP-I1000 являются первыми прикладными чипами (ASIC) Intel, созданными для сложных задач глубокого обучения на платформах облачных вычислений и в датацентрах.
NNP-T предназначен для высокоэффективной тренировки реальных приложений глубокого обучения с масштабированием до 95% для Resnet-50 & BERT, измеренном на кластере из 32 карт.
Специализация NNP-I, это выполнение умозаключений на основе большого объема данных почти в реальном времени. Intel недавно опубликовала результаты тестов MLPerf для двух предсерийных процессоров Nervana NNP-I, продемонстрировавших производительность 10567 изображений в секунду в офлайновом и 10263 - в серверном сценариях при классификации массива изображений ImageNet на ResNet-50 v1.5 с использованием ONNX.
NNP-I получит поддержку набора инструментов OpenVINO, служащего для реализации ИИ в приложениях машинного зрения на границе сети. В дополнение к OpenVINO, Intel во вторник также анонсировала Intel DevCloud for the Edge. С его помощью разработчики смогут прототипировать и тестировать ИИ-решения на многих процессорах Intel до покупки оборудования. Более 2700 клиентов Intel уже пользуются услугами DevCloud.