顔認識技術、人間のレースの色の誤判定を起こしやすい、不均一な精度

IBMとマイクロソフトと他の業界が受け入れテストサービス高白色の正確性、民族、人種、ブラック色の精度が低い見つかった顔認識技術の精度を立ち上げた後、米国の研究者がテストします。報告書は、その理由は、そのノートオリジナルのトレーニングアルゴリズムに少ない情報の現在の認識精度でも、業界のために呼ばれる暗い顔色人口の専門家は、より透明にする必要があります。有線の報告によると、研究者はその結果、ジェンダー分析サービスの顔写真を識別し、MicrosoftとIBMでテスト同社は、白人男性のほぼ100パーセントの精度が、分析よりも色の認識アルゴリズムは理由が顔暗い顔色でトレーニングデータのアルゴリズムを構築するために機械学習技術を用いて分析され、多くの場合、間違った肌の色黒人女性であることが判明しましたGoogleの写真サービスの分類の過去レスは無い恐怖と機械学習システムにおける消費者製品、ビジネスシステムと政府のプログラムでの展開は、人工知能(AI)であることを確実にする方法、そのため、チンパンジーのための黒マークと外の世界の不思議を持っていますディスカッショントピックの重要な分野。2016年ジョージタウン大学(ジョージタウン大学)報告書は指摘しているが、警察とFBIは回避されています顔認識技術の精度が、新しい研究で認識システムに入れアフリカ系アメリカ人研究者の喜びBuolamwiniとMicrosoftの研究者Timnit Gebruが低く、マサチューセッツ工科大学(MIT)ヨーロッパの1270枚アフリカ民族会議や写真だけでなく、手数料型スケールの使用のメンバーは(フィッツパトリックスケール)分類システム。写真集は、Microsoft、IBMをテストするために使用されたと本土がMegviiの顔++クラウドサービスの顔を認識しスタートアップと、研究者は、ロックサービスのセックス検出機能の3種類で。それは白く肌が黒い色よりも良いですが、これらの3つのサービス、男性が女性よりも高精度に直面していることが判明した、女性のためのすべてのサービスがすべての精度に暗い顔色を持っています高いものではない。白人男性よりも色を識別するときに、マイクロソフトフル答えは、IBMのエラー率が0.3%だったが、黒い女性、21%のマイクロソフトのエラー率を特定するには、IBMと顔++はそれが提供する35%をコメントしていますオンデマンドの機械学習アルゴリズムのサービスは、主要な競争力のあるホットゾーン、マイクロソフト、IBM、Googleやアマゾン(アマゾン)となっている宣伝の雲のような文法的な意味タスクから画像やテキストを分析するのに適していますこうしたAI機能の医療や製造導入などの選択肢が、しかし同時に、お客様はその限界を受け入れることを余儀なくされるために持っている可能性があります。Pivotheadは、Microsoft AIサービス1人の顧客の使用であるスタートアップと視覚障害者がスマートメガネを開発するために、しかし、Microsoftの技術文書は、完全に正確ではない感情的で、現在実験その男女の識別、および年齢など他の顔の特徴を、指摘している。この点で、元米大統領のバラク・オバマ(オバマ)任意のDJパティルでチーフデータサイエンティスト報告書は、彼らのマシンは、人間のすべてのタイプに適用可能なシステムを学習していることを確認しなければならないテクノロジー企業の重要性を強調したが、そのサービスは、マイクロソフトに関する制限が残っているため、業界は、よりオープンにする必要があり、現在、倫理的な問題についての機械学習の取り組みに焦点を当てていることを指摘しました同社の研究者の多くに主導的な役割を果たしているフィールドに入れて、内部AI工学研究倫理委員会(オード)を設定されている。2017年にユニットが監査業務に携わってきました、表情分析が子供にそのマイクロソフトのクラウドサービス発見パフォーマンスの低下。

2016 GoodChinaBrand | ICP: 12011751 | China Exports