MIT、新しいAIチップを開発|ニューラルネットワークをモバイルデバイスにもたらす

MITの研究者たちは、人工知能(AI)ウェハの新しい一種類を開発し、消費電力を削減しながら、ニューラルネットワークは、3-7倍の最大95%に動作速度を向上させることができています。

TechCrunchの、テック論文によると、チップは、MITの大学院生Avishekビスワスによって開発されたことを報告したが、その最大の利点は、スマートフォン、家電製品やその他のポータブル機器ではなく、ニューラルネットワークを実行している電力を消費サーバ上にあるチーム主導しました道路。

これは、ウェハの将来の使用というよりラフ、ルールベースのアルゴリズムを使用するよりも、音声と顔認識とネイティブの深学習のためのニューラルネットワークに電話、またはクラウドに情報を送信することができますが、解析結果に戻るに渡すことを意味します。

Biswas氏は、一般的に、AIチップの設計では、メモリとプロセッサとの間でデータを前後に移動させるメモリとプロセッサを備えていると述べている。機械学習アルゴリズムは多数の演算を必要とするため、これらのアルゴリズムの動作は、ドット積と呼ばれる特定の演算に単純化することができ、ドット積演算をメモリ内で直接実行できる場合には、データを前後に転送する必要がなくなる。

ネットワーク層の単一の処理ノードは、通常、下位層のいくつかのノードからデータを受け取り、そのデータを上位層の複数のノードに渡す。ノード間の各接続その重みを持っています。そして、神経ネットワークを訓練するプロセスは、主にこれらの体重を調整することです。

ノードが下位層の複数のノードのデータを取得すると、各データに重みを掛けて加算し、ドットプロダクトと呼びます。ドットプロダクトがある閾値を超えると結果は上位ノードに送信されます。

実際には、これらのノードはコンピュータのメモリに格納されているウェイトだけです。ドットプロダクトを計算するには、通常、メモリからウェイトを読み込み、関連するデータを取得し、2つを掛け、その結果をノードのどこかに格納しますこれはすべての入力データに対して繰り返され、ニューラルネットワークには数千ないし数百万のノードが存在することを前提として、処理中に大量のデータを移動する必要があります。

しかしこの一連の操作は、信号が複数のニューロンに沿って移動し、シナプスで会合する脳内の事象を数値化することです。そして、ニューロンの発火率とシナプス間の電圧電気化学信号のうち、ニューラルネットワークのデータ値と重みに対応します.MIT研究者の新しいウェーハは、脳の活動をより忠実に再現することで、ニューラルネットワークの効率を高めます。

このチップでは、ノードの入力値が電圧に変換され、適切な重みが乗算され、合成された電圧のみがデータに変換され、メモリに格納されて処理されます。操作が実行されるたびに、ノードとプロセッサとの間でデータを移動させることなく、ノードの積を計算する。

ダリオ・ギルIBM副社長は、AIは研究の結果は、画像と動画の分類のためにあるモノのインターネット(IOT)に、より複雑な畳み込みニューラルネットワークを使用する可能性を開くことが期待されていると述べた。TOP▲

2016 GoodChinaBrand | ICP: 12011751 | China Exports