화웨이 | Da Vinci Project | 노출 : 모든 제품에 인공 지능 소개, 새로운 칩 개발

화웨이 부회장, 화웨이의 IC 설계 회사 하스가 이끄는, 화웨이는 내부적으로 프로그램은 또한 'D 프로그램'내부 화웨이 임원으로 알려져 개발 '레오나르도 다빈치 프로그램'외국 언론의 보도에 따르면 정보, 회장 쭈 지준.

주요 내용은 첫째, 통신 기지국, 클라우드 데이터 센터, 스마트 폰, 보안 카메라를 포함한 화웨이 사이에 AI 제품 및 서비스의 도입, 둘째, 데이터 센터를위한 새로운 AI 칩의 개발, 음성 인식을하고, 이미지 인식과 같은 응용 프로그램을 클라우드에서 사용할 수 있습니다.

둘째, 화웨이의 클라우드 AI 레이아웃은 미국 정부에 대한 우려를 악화시킬 첫째, 화웨이 힘 AI 칩은 엔비디아을 위협 할 수있다 :이 정보는 계획이라고 추측했다.

화웨이 인공 지능 레이아웃

화웨이의 AI 레이아웃, 사실, 새로운 아무것도.

전체 장면을 라이브 생태 전략의 지혜 : 레이 펭 네트워크는 화웨이 장치 화웨이 DigiX2018은 · 글로벌 파트너 6 월 (22) 열린 개발자 컨퍼런스는, 대표 이사 유 청동, 화웨이의 소비자 사업은 화웨이의 소비자 사업의 새로운 전략을 제시,보고되었다.

유 청동 화웨이 삶의 전체 장면을 생태 학적 지혜는 오픈 생태계 구축 할 것을 강조했다. 전체 생태계를 들어, 화웨이는 글로벌 파트너를 가능하게 오픈 플랫폼 HiAI 인공 지능 코어, 말, 개방형 클라우드 기술의 세 가지 수준을 제공 할 것입니다.

칩 측면에서, 화웨이 HiAI 모바일로 플랫폼, 오디오 및 비디오 툴, 게임 보좌관을 계산 원활한 운영 경험을 구축 할 것, 단말 측에서, 화웨이 전체 연결 서비스 및 하드웨어의 지혜에 의해 전체 화면 응용 프로그램을 구축, HiAI 플랫폼, AR / VR 및 기타 장비 그것은 지능형 감지 및 대화 형 기능의 시리즈를 제공하고, 화웨이의 모바일 서비스 (HMS), AppGallery 등을 통해 클라우드 측에서 개별 소비자의 요구를 충족.

9 월 2017 웨이는 CPU, 연산 속도의 증가에 25 배, 50 배 증가 된 에너지 효율에 비해 AI 970 유니콘 세계 최초의 휴대폰 칩 (웨일스로부터 기술) 뉴럴 네트워크 처리부 NPU 추가를 발표 화웨이 메이트 (10) 및 (10) 프로와 영광 V10 메이트는 기린 (970) 칩이 내장되어 있습니다.

현재 화웨이는 여전히 AI 서버에 기능을 추가하기 위해 엔비디아 GPU 칩을 사용하고 있습니다.

중국 코어 '그룹'이 클라우드 AI 칩에 진입

올해는 바이두와 캄브리아기가 구름 AI 칩에 들어갔다.

올해 5 월, 캄브리아기는 최초의 클라우드 스마트 칩인 Cambricon MLU100을 출시했습니다.

MLU100은 캄브리아기의 최신 MLUv01 아키텍처와 TSMC 16nm 공정을 사용하며, 평형 모드 (1GHz 주파수)와 고성능 모드 (1.3GHz 주파수)에서 작동 할 수 있으며, 평형 모드에서의 등가 이론적 피크 속도는 초당 128입니다. 수백 조의 고정 소수점 연산, 고성능 모드에서의 이론상 최대 속도는 초당 166.4 조 고정 소수점 연산에 도달하지만 일반적인 보드 레벨 전력 소비는 80 와트이며 피크 전력 소비는 110 와트를 초과하지 않습니다.

2018년 7월 4일는 AI 바이 개발자 컨퍼런스, CEO 겸 회장 로빈 리 바이두 바이두 교육 및 추론 칩 칩 쿤룬 818-300 818-100을 포함하는 자체 개발 한 AI 칩 '쿤룬'을 발표했다.

바이두는 성능 260Tops 512 GB / s의보기의 매개 변수 포인트, '쿤룬'를 사용하여 삼성의 14nm 공정에서 AI 칩의 업계 최고 전력 디자인 연구까지이며, 이는 중국 최초의 완전한 기능을 갖춘 클라우드 AI 칩이라고 주장 메모리 대역폭, 작은 코어의 수만으로 구성 전력 100 와트.

클라우드 AI 칩 시장 구조

그리고 현재의 GPU 칩 시장에서 70 %의 높은 엔비디아의 시장 점유율은 잘된 헤게모니 칩이다.

2016, 엔비디아 엔지니어의 수천을 보냈다, 수십억 달러를 투자 깊은 학습 파스칼 GPU에 최적화 된 최초 도입했다. 2,017년 및 새로운 파스칼 GPU 아키텍처 볼타, 신경망에 비해 5 배의 성능 증가 출시 추론 가속기 TensorRT 3도 동시에 등장했는데, TensorRT는 프로그래밍이 가능한 추론 가속기로서 기존 및 미래의 네트워크 아키텍처를 가속화 할 수 있습니다.

자세한 분석 (참조 : 오늘날의 혼잡 AI 칩 산업은 결국 선수의 머리에 의해 지배 될 것이다) AI 칩 시장 구조 출석의 레이 펭 네트워크, 하드웨어 또는 소프트웨어 중 하나에서 클라우드 AI 칩은 기존의 거인을 제어하고있다 .

인공 지능 칩은 현재 최종 애플리케이션에 아주 작은이기 때문에이지도는 나침반 지능 AI 칩 글로벌 목록에 의해 게시 아래 순위 목록의 머리는 현재의 시장 구조가 클라우드 AI 칩 간주됩니다에 근접 할 수있다.

우리는 칩 업체 인 엔비디아 (엔비디아)으로 인해 인기 CUDA 개발 플랫폼으로, 최고 AI 칩을 점령 단단히 것을 볼 수 있으며, NVIDIA GPU는 현재 가장 널리 사용되는 범용 AI 하드웨어 컴퓨팅 플랫폼입니다.

당신은 AI 관련 작업을 수행해야하는 경우 기업 자체 개발 칩 (세계 몇을하지 않았다)의 강도뿐만 아니라, 우리는 엔비디아 칩을 사용해야합니다. 엔비디아 칩 광범위한 응용 프로그램, 이제 모든 AI 소프트웨어 라이브러리는 CUDA 가속의 사용을 지원 그래서 구글의 Tensorflow, 페이스 북의 CAFFE, 아마존 MXNet 등.

이제 업계의 논쟁의 초점은 GPU, FPGA, DSP 및 ASIC을 비롯한 AI 칩용 프로세서 아키텍처와 최첨단의 뇌 신경 노드 칩을위한 프로세서 아키텍처입니다. 이제 GPU가 지배적 인 위치에 있지만 몇 가지 다른 것들이 있습니다 프로세서 아키텍처에는 자체 장점도 있습니다.

인텔은 멀티 - 파티 (multi-party) 방식의 베팅으로 어떤 종류의 프로세서 아키텍처도 놓치지 마십시오. TPU (사실 ASIC)에 대한 구글의 엄청난 투자로 하드웨어 성능이 크게 향상되었으므로 GPU에 미치는 영향이 가장 클 것 같습니다 그 이유는 전용 아키텍처로 인한 효율성 이점뿐만 아니라 비즈니스 모델로 인한 비용 이점이기도합니다.

클라우드 컴퓨팅은 사실상의 생태 리더가되었습니다. 클라우드 컴퓨팅이 거인의 전장이기 때문에 현재 모든 오픈 소스 AI 프레임 워크가 이러한 대기업들에 의해 출시됩니다. 환경 친화적 인 환경에서 Huawei는 공유, 국내 클라우드 AI 칩을 타고 상위 5 개국으로 진출하거나 심지어 엔비디아에 도전하기를 원한다면 쉽지 않습니다.

2016 GoodChinaBrand | ICP: 12011751 | China Exports