Новости и события » Hi-Tech » Google создала сверхпроизводительный чип для машинного обучения

Google создала сверхпроизводительный чип для машинного обучения

Google создала сверхпроизводительный чип для машинного обучения

В прошлом году на конференции для разработчиков I/O 2016 компания Google объявила о разработке процессорного блока под названием Tensor Processing Unit, предназначенного для систем машинного обучения. Тогда компания рассказала, что данный чип существенно превосходит классические центральные и графические процессоры, когда дело доходит до обработки и анализа данных с применением машинного обучения. На этой неделе Google раскрыла новые подробности об этом чипе. Согласно внутренним тестам Google, Tensor Processing Unit в 15-30 раз быстрее по сравнению с NVIDIA Tesla K80 и серверными процессорами Haswell, а также в 80 раз более эффективный, чем другие чипы.

Процессорный блок под названием Tensor Processing Unit был разработан специально под программное обеспечение машинного обучения с открытым исходным кодом TensorFlow. Так как Google спешила с разработкой данной чипа, то он не интегрирован с другим центральным процессором, а подключается через шину ввода/вывода PCIe, как это делают графические процессоры. При этом хост-сервер должен отправлять инструкции в TPU - вместо того, чтобы TPU самостоятельно запрашивал инструкции. В этом плане TPU ближе к сопроцессору модуля с плавающей точкой. Это было сделано для упрощения проектирования и отладки.

Инженеры Google в своем докладе о TPU отмечают, что самым важным показателем, который они учитывают при покупке чипов для своих серверов данных, является не максимальная производительность чипа, а общая величина целевых затрат. Последняя учитывает потребление энергии, поскольку чем больше энергии использует чип, тем больше его совокупная стоимость на протяжении всего срока службы. Таким образом, TPU в разы превосходит решения конкурентов по двум показателям производительности на ватт: общей производительности на ватт и приросту производительности на ватт.

TPU был произведен по 28-нм техпроцессу. Если Google перейдет на 14-нм, то его производительность на ватт вырастет в два раза по сравнению с нынешними показателями. Кроме этого, Google может увеличить тактовые частоты чипа еще на 50%, что также поспособствует увеличению производительности. Компания заявляет, что способна увеличить производительность TPU еще в три раза.

Планирует ли Google использовать TPU первого поколения или же перейдет сразу на более эффективное и мощное решение - пока не сообщается.

Google создала сверхпроизводительный чип для машинного обучения

NVIDIA Tesla


Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх