테크 크런치 (TechCrunch) 및 기술 Xplore에 따르면 칩은 MIT 대학원생 Avishek Biswas에 의해 개발 된 것으로보고에게 그것의 가장 큰 장점은 오히려 신경 네트워크를 실행하는 전력 소모가 서버보다, 스마트 폰, 가전 제품 및 기타 휴대용 장치에 팀을 주도 도로.
이 웨이퍼의 향후 사용은 음성 및 얼굴 인식 및 기본 깊이 학습 신경망을 전화보다는 더 거친 규칙 기반 알고리즘을 사용하거나 분석 결과로 돌아 전달합니다 클라우드에 정보를 보낼 수 있다는 것을 의미한다.
Biswas는 일반적으로 인공 지능 칩 설계에는 메모리와 프로세서간에 데이터를 앞뒤로 이동시키는 메모리와 프로세서가 있습니다. 기계 학습 알고리즘은 많은 수의 연산을 필요로하므로 데이터가 대부분의 전력을 앞뒤로 전송합니다 이러한 알고리즘의 연산은 내적 (dot product)이라고하는 특정 연산으로 단순화 될 수있어 내적 연산이 메모리에서 직접 수행 될 수있는 경우 데이터를 앞뒤로 전송할 필요가 없습니다.
일반적으로 신경망은 여러 계층으로 나뉘어지며, 네트워크 계층의 단일 처리 노드는 일반적으로 하위 계층의 여러 노드에서 데이터를 수신하고 상위 계층의 여러 노드로 데이터를 전달합니다. 노드 간의 각 연결 그 무게를 가지고. 그리고 신경 네트워크를 훈련 과정은 주로 이러한 무게를 조정하는 것입니다.
노드가 하위 계층에서 여러 노드의 데이터를 얻으면 각 데이터에 가중치를 곱하여 결과를 더한다.이 과정을 내적이라고하며 내적이 특정 임계 값을 초과하면 결과가 상위 노드로 전송됩니다.
실제로 이러한 노드는 컴퓨터의 메모리에 저장된 가중치 일뿐입니다. 일반적으로 내적을 계산할 때는 메모리에서 가중치를 읽고 관련 데이터를 가져 와서 두 배를 곱한 다음 그 결과를 어딘가에 노드의 위치에 저장해야합니다. 이것은 모든 입력 데이터에 대해 반복되며, 신경망에 수천 또는 수백만 개의 노드가 존재한다는 것을 고려할 때 많은 양의 데이터가 프로세스에서 이동되어야합니다.
그러나이 일련의 수술은 신호가 여러 뉴런을 따라 이동하고 시냅스에서 만나는 뇌의 사건을 디지털화하는 것입니다. 그리고 뉴런의 발사 속도와 시냅스에서의 전압 전기 화학 신호 중 신경 네트워크의 데이터 값과 가중치에 해당합니다. MIT 연구원의 새로운 웨이퍼는 뇌 활동을보다 충실하게 복제하여 신경 네트워크 효율을 높입니다.
이 칩에서는 노드의 입력 값을 전압으로 변환하여 적절한 가중치를 곱한 값을 다시 데이터로 변환하여 이후 처리를 위해 메모리에 저장합니다. 따라서 프로토 타입 칩은 16 작업이 수행 될 때마다 프로세서와 메모리간에 데이터를 이동할 필요없이 노드의 점을 찍습니다.
IBM AI의 부회장 인 다리오 길 (Dario Gil)은 인터넷 결과물 (IoT)에서 이미지 및 비디오 분류를 위해보다 복잡한 길쌈 신경 네트워크를 사용할 가능성을 열어 줄 것이라고 밝혔다.