По данным зарубежных СМИ. В информационном докладе Huawei изложил внутренний план «Да Винчи», который также называют «D Plan» руководителями Huawei. Ответственный за это является вице-председателем Huawei, проектной компанией Huawei IC Hai Si Председатель Сюй Чжицзюнь.
Основное содержание заключается в следующем: во-первых, внедрите AI во все продукты и услуги Huawei, включая базовые станции телекоммуникаций, облачные центры обработки данных, смартфоны, камеры наблюдения и т. Д. Во-вторых, создайте новые чипы AI для центров обработки данных, обеспечивающие распознавание речи, изображения. Такие приложения, как распознавание, могут использоваться в облаке.
Спекуляции информации о плане таковы: во-первых, чип AI от Huawei может представлять угрозу для Nvidia, во-вторых, структура облака AI в Huawei может усугубить озабоченность правительства США.
Расположение Huawei AI
Макет AI Huawei на самом деле ничего нового.
Lei Feng.com сообщил, что на Huawei DigiX2018 Huawei Terminal · Глобальная партнерская конференция и конференция разработчиков, состоявшаяся 22 июня, генеральный директор потребительского бизнеса Huawei Ю. Ченгдун разработал новую стратегию потребительского бизнеса Huawei: экологическую стратегию жизненного цикла всей сцены.
Ю Чжэндун подчеркнул, что полноценная среда жизни Huawei - это открытая экология. С точки зрения всей экологии открытая платформа Huawei HiAI для открытого интеллекта открывает основные, конечные и облачные технологии на трех уровнях и расширяет возможности глобальных партнеров.
На стороне чипа Huawei создаст беспрепятственный опыт работы с мобильной вычислительной платформой HiAI, аудиовизуальными инструментами, игровыми помощниками и т. Д. На стороне терминала Huawei создает службы полного соединения и приложения с полным сценарием через интеллектуальное оборудование, платформу HiAI, AR / VR и другие устройства. Обеспечьте ряд интеллектуальных возможностей восприятия и взаимодействия, а на облачной стороне Huawei Mobile Services (HMS), AppGallery и т. Д. Отвечают потребностям пользователя в индивидуальном использовании.
В сентябре 2017 года Huawei выпустила первый в мире чип AI мобильного телефона Kirin 970, добавив модуль обработки нейронной сети NPU (технология от Cambrian), по сравнению с процессором, скорость вычислений увеличена в 25 раз, энергоэффективность увеличена в 50 раз. Huawei Mate 10 и Mate 10 Pro и Glory V10 оснащены чипами Kirin 970.
В настоящее время Huawei по-прежнему использует чип NVIDIA для добавления функций AI на сервер.
Китайская группа «Core» входит в облачный AI-чип
Внутренняя конкурентная ситуация усиливается. В этом году Baidu и Cambrian вошли в облачный AI-чип.
В мае этого года, Cambrian выпустил первый облачный смарт-чип Cambricon MLU100.
Понятно, что MLU100 использует новейшую архитектуру MLUv01 от Cambrian и 16-нм процесс TSMC, может работать в сбалансированном режиме (частота 1 ГГц) и в режиме высокой производительности (частота 1,3 ГГц), эквивалентная теоретическая пиковая скорость в сбалансированном режиме составляет 128 в секунду. Триллионы операций с фиксированной точкой, эквивалентная теоретическая пиковая скорость в высокопроизводительном режиме достигает 166,4 трлн операций с фиксированной точкой в секунду, но типичная потребляемая мощность на уровне платы составляет 80 Вт, а пиковая потребляемая мощность не превышает 110 Вт.
4 июля, на конференции разработчиков Baidu AI 2018, генеральный директор Baidu и председатель Li Yanhong выпустили саморазвивающийся AI-чип Baidu «Kunlun», в который вошли обучающий чип Kunlun 818-300 и рассуждающий чип 818-100.
Baidu утверждает, что это первый в мире полнофункциональный AI-чип в Китае, и это, безусловно, самый мощный AI-чип в отрасли. С точки зрения параметров «Kunlun» использует 14-нм процесс Samsung с производительностью 260Tops, 512 ГБ / с Полоса пропускания памяти, потребляемая мощность превышает 100 Вт, состоящая из десятков тысяч малых ядер.
Обзор рынка чипов облачного AI
На нынешнем рынке чипов GPU доля NVIDIA составляет 70%, что является заслуженным лидером чип-лидера.
2016, Nvidia вложила миллиарды долларов, потратила тысячи инженеров, представила первую оптимизированный для глубокого изучения Паскаля GPU. 2017 года и запущен увеличилась на 5 раз производительности по сравнению с новым Паскаля архитектуры GPU Volta, нейронные сети рассуждения ускоритель TensorRT 3 также представил, TensorRT аргументация как программируемый ускоритель может ускорить существующие и будущие сетевые архитектуры.
Детальный анализ (см: сегодня многолюдно AI чип промышленности в конечном итоге будет доминировать на голову игрока) Лэй Фэн сети структуры AI рынка чипа присутствовали, облака AI чип от любого аппаратного или программного обеспечения, находится под контролем традиционных гигантов ,
Следующий снимок - это глобальный список чипов AI, выпущенный Compass Intelligence. Поскольку чип AI в настоящее время редко используется в терминале, рейтинг главы списка можно приблизить как текущую рыночную структуру облачного AI-чипа.
Мы видим, что чип-гигант Nvidia прочно занял верхнюю часть чипа AI. Из-за популярности платформы разработки CUDA графический процессор NVIDIA является наиболее широко используемой универсальной аппаратной вычислительной платформой AI.
В дополнение к компаниям с сильными саморазвивающимися чипами (их немного в мире), если вам нужно выполнять работу, связанную с ИИ, вы должны использовать чипы Nvidia. Чип-приложения Nvidia являются общими, и теперь все библиотеки программного обеспечения AI поддерживают использование ускорения CUDA. , включая Google Tensorflow, Facebook Caffe, MXNet от Amazon и т. д.
В настоящее время основное внимание в отраслевых дебатах - это лучшая процессорная архитектура для чипов AI, включая графические процессоры, FPGA, DSP и ASIC, а также еще более современные ультрафиолетовые микросхемы мозга. Теперь GPU находится в доминирующем положении, но несколько других Архитектура процессора также имеет свои преимущества.
Intel представляет собой многопартийную ставку, не пропустите любую архитектуру процессора. Огромные инвестиции Google в TPU (фактически ASIC) привели к значительному увеличению производительности оборудования, похоже, что влияние на GPU будет самым большим Причина заключается не только в том, что преимущества, обеспечиваемые выделенной архитектурой, но и преимущество в цене, принесенное бизнес-моделью.
В облаке международные гиганты стали фактическим экологическим лидером, потому что облачные вычисления - это поле битвы гигантов. Теперь все открытые AI-структуры также выпущены этими гигантами. В такой экологически чистой среде Huawei хочет Возьмите долю, внутренние чипы AI для облаков хотят перейти в пятерку лидеров или даже бросить вызов Nvidia, это непросто.