AIを偏見から守るには?

著者は意図的で意図しない間に人工知能および機械学習アプリケーションに追加される可能性のあるさまざまな偏見について議論します...

私たちは、機械が世界を支配し、人間を破壊する場面を見てきましたが、幸いなことに、これらの映画は単にエンターテインメントです。実際には、これらの強制シーンは起こらないでしょう。 :アルゴリズムバイアス(アルゴリズムバイアス)。

いわゆる「アルゴリズム的偏見」は、悪意のあると思われるプログラミングのデザイナーや開発者の偏見を指します。あるいは、使用されるデータに偏りがあります。もちろん、結果にはさまざまな問題があります。たとえば、Googleの検索が誤解され、有資格の候補者が医学学校に入学できず、チャットボットが人種差別や性差別の情報をTwitterに広めたとします。

MicrosoftのチャットロボットTayは、1日の間に人種差別を犯していると教えられていたが、マイクロソフトは緊急に彼女に「沈黙」を許した。

一つのアルゴリズム偏見が原因で最も困難な問題は、プログラミングエンジニアで、レースをする傾向、性別、年齢、その他の差別を持っていない場合でも、またバイアスを引き起こすかもしれないことである。人工知能(AI)は、本質的に自己の研究のために設計され、時にはそれは確かに、もちろん、我々は事実の後に調整することができます。間違っているだろうが、最善の解決策が起こってからそれを防ぐ開始することです。それでは、どのように偏見人工知能せずにそれを作るのですか?

皮肉なことに、人工知能の最もエキサイティングな可能性の1つは、人間の偏見のない世界です。例えば、人を募集する場合、同じ仕事をするときに男女が平等になるアルゴリズムです。治療、またはポリシングにおける人種差別を避ける。

人間が作った機械が人間の世界観を本当に反映しているかどうかに関わらず、人工知能は人生の中でますます深くなるので、この問題に注意を払う必要があります。

人工知能が直面するもう1つの課題は、バイアスが単一の形ではなく、インタラクティブなバイアス、潜在的なバイアス、選択バイアス、データ指向のバイアス、確認バイアスを含む様々なタイプに存在するということです。

さまざまなAIバイアスタイプ

「インタラクティブな偏見」とは、ユーザーがアルゴリズムとやりとりすることによるアルゴリズムの偏見を指します。周囲の環境から学習するように設定されている場合、保持するデータや廃棄するデータを決めることはできません。それとも、間違っているのではなく、彼らは提供されたデータのみを使用することができます - それが良い、悪い、または醜いかどうかは、この基準に基づいて判断することができます。 Tayはこのような偏見の一例であり、オンラインチャットコミュニティの影響を受けて人種差別主義者となっています。

「無意識のバイアスは」アルゴリズムがない女性医師、医師の写真を検索する際に、例えば、人工知能は、男性医師の絵の最初のショーになります。人種や性別、その他の要因でリンクアップ誤解、およびその逆のことを意味しますしかし、看護師を探すときにも同様の状況が発生します。

「選択バイアスが」あまりにつまたは複数のグループをズームイン、その結果によるデータの影響にアルゴリズムを意味し、彼らの好意でアルゴリズムいるので、他のグループを犠牲にして。例えば、リクルートのスタッフに、AIがある場合男性の履歴書だけを認識するためのトレーニングでは、女性の求職者は応募プロセスで成功することはほとんどありません。

「データ指向のバイアス」とは、アルゴリズムを訓練するために使用されたオリジナルのデータが偏見を持っているということを指します。ひずんでいると、出力結果にも反映されます。

最後の種類は「確認バイアス」で、データ指向のバイアスに似ています。このような偏見は、人々が情報をどのように収集し、どのように情報を解釈するかに影響します。他の月よりも生まれた人はより創造的であり、このアイデアを補強するデータを検索する傾向があります。

私たちは一例人工知能システムを浸透するので、多くの偏見があることを知ったとき、人々が非常に心配しているようだ。しかし、世界そのものがバイアスされ、したがって、いくつかのケースでは、私たちの人工知能という事実を認識することが重要です開発の初期段階や導入前に偏見を検出するために、人工知能アルゴリズムとシステムのテストと検証のプロセスが必要です。

アルゴリズムと人間との違いは、それが嘘ではないということです。その結果が偏っていると、アルゴリズムによって得られたデータがあるはずです。しかし、人工知能はこのようなものではないかもしれません。アルゴリズムを使用することで、将来、これらの問題を克服できるように、偏見がいつあるかを知り、調整することができます。

人工知能は学ぶことができ、間違いを犯すことがあります。通常、実際のアルゴリズムを使用した後で、これらのバイアスが増幅されるため、すべての内部的な偏見を見つけることができます。すべての偏見の質問のための良い機会と必要に応じて修正してください。

人間と比較して、人工知能は、仮説の確率を決定し、すべての可能性を排除するベイズ法に特に適しています人間の偏見。これは複雑ですが、特に人工知能の重要性を考えると実現可能であり、今後ますます重要になるでしょう。無責任なことです。

人工知能システムの開発と、まだ人工知能の非常に急速な発展にもかかわらず、忘れてはいけません。デザインの感覚とそれを通じ作るために、そして起こりうる偏見将来の問題を避けるために、それがどのように動作するかを理解することは重要ですが、揺籃期、学び、改善すべき多くの場所が。これらの調整は、しばらくの間継続すると同時に、人工知能は賢く、将来的になり、偏見やその他の問題を克服するために、より多くの方法があるでしょうがあります。

IT業界では、我々は機械の操作方法を疑問視し続け、その理由は非常に重要であり、人工知能のほとんどがブラックボックスのようなものです、意思決定プロセスが隠されているが、公共および人工知能の透明性は、それが確立されています信頼と誤解を避けるための鍵。

この段階では多くの研究があり、そのようなフラウンホーファー・ハインリッヒ・ヘルツ研究所の研究として、農産物識別偏見を助け、彼らは、バイアスの区別、異なるタイプで、前述と同様に、より多くの「低レベル」偏見として偏見を重視し、いくつかの人工知能の訓練と開発中に発生する可能性のある問題。

一方、人工知能モデルの大部分は教師訓練によって開発されており、人間が分類したデータのみが収集されている。この方法は通常、教師あり学習よりも数桁遅いが、人間の介入を比較的制限するものである。意識的または無意識の人間の偏見を排除し、データへの影響を避けることができます。

新製品、ウェブサイト、または機能を開発する場合、ハイテク企業はあらゆる分野の有能な人材を必要とします。多様化はアルゴリズムのさまざまなデータを提供しますが、意図せずにこれらのデータは偏っています。誰かが出力を分析すると、偏見を見つける可能性はかなり高くなります。

さらに、アルゴリズム監査には他の役割もあります.2016年に米国のカーネギーメロン大学の研究チームがオンライン求人広告のアルゴリズムバイアスを発見し、インターネット上でGoogle Advertisingに掲載しました。雇用を求める人々のリストによれば、男性の高収入雇用率は女性の6倍に近く、研究チームは内部のアルゴリズム監査を最初に実施すれば、そのようなバイアスを減らす助けとなると結論づけた。

要するに、機械の偏見は人間の偏見です。人工知能の偏りには多くの種類がありますが、実際には、人間の唯一の源、人間から来ています。

技術者、エンジニア、開発者は、誤ってバイアスされたアルゴリズムを作成するのを避けるための効果的な対策を講じなければなりません。アルゴリズムの監査とそのオープン性と透過性の維持を通じて、人工知能を作り出すことができます。偏見を取り除くアルゴリズム。

2016 GoodChinaBrand | ICP: 12011751 | China Exports