До конца года Intel выпустит «первую в отрасли микросхему для обработки нейронных сетей» — Intel Nervana Neural Network Processor

Intel Nervana Neural Network Processor — новое имя семейства ускорителей Lake Crest

Год назад компания Intel представила платформу Nervana для приложений искусственного интеллекта. Тогда сообщалось, что основой для платформы послужат и CPU Xeon, и ускорители Xeon Phi, и ускорители на базе FPGA.

Позже мы узнали подробности об ускорителях Lake Crest, которые будут являться первым воплощением новой тензорной архитектуры Flexpoint. А вчера процессорный гигант рассказал о том, что до конца текущего года выпустит «первую в отрасли микросхему для обработки нейронных сетей». Она будет называться Intel Nervana Neural Network Processor (NNP), то есть, как ясно из названия, тоже будет относиться к платформе Nervana.

Intel Nervana Neural Network Processor — новое имя семейства ускорителей Lake Crest

По словам Intel, NPP произведёт революцию в вычислениях, связанных с искусственным интеллектом. Используя платформу Intel Nervana, производители смогут разрабатывать совершенно новые классы приложений ИИ, которые максимизируют объёмы обрабатываемых данных.

Проще говоря, ASIC Intel Nervana Neural Network Processor, а это именно интегральные схемы, станут первыми специализированными решениями, нацеленными исключительно на работу с нейронными сетями. По крайней мере, так утверждает Intel. При этом мы держим в уме существование уже второго поколения Tensor Processing Unit компании Google. К сожалению, особых подробностей о NNP в пресс-релизе нет, но мы знаем, что данные решения — это и есть те самые ускорители Lake Crest, о которых мы уже писали.

Отдельно Intel отметила, что уже к концу года выпустит 49-кубитовую микросхему для квантовых вычислений.

18 октября 2017 в 19:41

Автор:

| Источник: Intel

15 комментариев

G
Так и хочется сказать: «Чегооо?!»
Нейросетевой процессор, а не «микросхема для обработки».
У
А нейросетевой процессор — это разве не микросхема для обработки нейронных сетей? Если нет, объясните, что это такое на самом деле.
K

это просто перевод, вполне удачный имхо.

G
Обрабатываются не сети, а через сетями этого проца или того набора нейронов, откуда процу дадут возможность тянуть данные
Ф
А что значит «через сетями»? И данные тянутся не из «набора нейронов», а _в_ «набор нейронов». И в первую очередь обработать надо именно саму сеть, чтобы синаптические веса вычислить. Хайкина хотя бы почитайте, что ли.
R
Оспаде какое же дебильное название.
P
Имеется ввиду специализированный процессор для операций с тензорами. Эти операции составляют основную часть вычислений при работе нейронной сети, поэтому их ускорение важно. Под тензором в машинном обучении понимается вектор или матрица произвольной размерности.
В этой новости интересно то, что в ней не сказано: сколько это будет стоить.
Yurik51
Думаю не дороже денег. В разрезе тех пользователей, кто реально будет использовать подобные камни. Сейчас нейронные компьютеры размером с дом стоят, как минимум, не дешевле.
M
При этом мы держим в уме существование уже второго поколения Tensor Processing Unit компании Google.
Google TPU и другие подобные процессоры (в отличии от Nervana) используются только для поиска «матчинга». «Глубокое обучение» по прежнему осуществляется на CPU/GPU.
С
Забавно, что они ещё в 80-х делали такие (ну, в сотни тысяч раз проще, но идеологически такие) микросхемы.
Grobik
Первой в какой области. Уже по моему все кроме самых убогих выпустили в составе SoC или отдельного продукта кластеры чахлых АЛУ под названием процессор ИИ.
u
Скайнет все ближе и ближе.
B
Да уж давно внедрился чатботами и расползся. Завязывайте с эмерджентизмом.
Z
Интель опять взялся ускорять...
Им пора логотип вводить: Intel ускоряе

Добавить комментарий

Все новости за сегодня

Календарь

октябрь
Пн
Вт
Ср
Чт
Пт
Сб
Вс