엔가 젯 보고서에 따르면, 컴퓨터 비전, 음성 인식 및 다른 깊은 학습 응용 프로그램은 일반적으로 인텔 코어 또는 제온 칩 보편적 인 장기 등이 아닌 큰 배열의 행렬 계산에있을 필요가있다. 인텔은 이러한 격차 AI를 만회하기 위해 향후 NNP에서 빌려 기대 및 칩 설계에 참여하는 학습과 AI 페이스 북의 발전에 헌신의 깊이에 초대했다.
페이스 북의 강력한 소셜 미디어 애플리케이션 외에도 인텔은 헬스 케어, 자동차 및 기상학을 포함 해 AI 칩을 출시 할 계획이다.
Nervana NNP는 극한의 계산 효율로 깊은 학습 알고리즘을 교육하고 실행할 수있게 해주는 특수 목적의 집적 회로 (ASIC)입니다. 인텔은 CPU의 일반적인 캐시를 폐기하고 특정 알고리즘에 특수한 소프트웨어 칩을 사용합니다 이 칩 컴퓨팅 집적도와 성능을 새로운 수준으로 끌어 올리려고하는 메모리 관리.
Nervana NNP은 양방향 데이터 전송을 다수 지원하는 고속의 내부와 외부의 칩을 통해 상호 접속 될 수있다. 칩 NNP 복수를 연결하는 경우에는 이관 깊이 학습 모듈의 크기에 대응하기 위해 큰 가상 칩을 만들 수있다.
Nervana NNP가 낮은 정밀 Flexpoint 형식을 사용하는 언급 할 가치가있다. 나빈 라오, 인텔의 AI 부사장은 노이즈 정보에 대한 신경 네트워크가 매우 높은 내성을 가지고 있으며, 이러한 소음에도 도움을 줄 수 있다고 말했다 신경망은 새로운 솔루션을 제공하며, Flexpoint의 정확도가 낮 으면 시스템 병렬 처리가 향상되고 지연 시간이 줄어들며 대역폭이 증가합니다.
AI 개발에 인텔의 투자를하기 전에 한 발 앞서있는 능력의 그것을 통해 NVIDIA GPU의 병렬 컴퓨팅 시장을 캡처하지만, GPU 오히려 실행보다는 훈련 알고리즘에 좋다. 반면에, 인텔의 가장 큰 라이벌 퀄컴 (퀄컴이) 좋은 실행에 넣고 AI 프로그램 칩 개발.
인텔의 NNP 칩은 또한 AI의 교육과 실행을 목표로하고 Loihi라고 불리는 새로운 neuromorphic 칩뿐만 아니라 Myriad X R & D
인텔이 따라 잡기가 힘들었던 것처럼 엔비디아도 AI 애플리케이션 용 V100 칩을 선보였으며 심층 학습 프로그램을 실행할 수있는 칩의 능력을 향상시키기 위해 AI 아키텍처 부사장으로 클레멘트 파래 벳 (Clement Farabet)을 영입했다.
그동안 구글은 자사의 데이터 센터 애플리케이션 용 텐서 프로세싱 유닛 (TPU) 칩을 개발했으며 IBM은 트루 노스 (True North)라고 불리는 neuromorphic 칩을 출시했다.