ストーリーは今年3月初めに始まります。
今年3月、Googleは米国防総省と協力して、後者が無人機のための人工知能システムを開発するのを支援することを発表しました。プロジェクトコードはProject Mavenです。
一部の従業員は、Googleが無人機監視技術の開発を支援するためにペンタゴンのリソースを開放していたと考えており、他の人はGoogleのマシンの使用に疑問を抱いていたと考えていました。学習技術が倫理基準を満たしているかどうかに関わらず、ペンタゴンはこの技術を対人兵器に使用すると信じており、それによってテクノロジーの楽観主義者が決して欲しくない害をもたらすことになる。
続いて、Googleの3,100人以上の従業員が共同で嘆願し、CEO、Sundar Pichaiに抗議の手紙を書いた。
Googleの従業員は、Sundar Pichaiへの手紙に署名しました。一部のメディアは、Googleの行動規範の冒頭で、18年のモットーである「悪ではない」という3つの重点を削除したことを発見しました。最後に、削除されていない文があります。「覚えておいてください。あなたが正しいとは思わないものを見たら、話してください!
金曜日、毎週の「天気予報」定期会議で、Google Cloud CEOのDiane Greeneは、この契約の満了後、GoogleがProject Marvenを米国国防総省で終了すると発表しました。 。
これは間違いなく大きなイベントです。「勝利のニュース」。報告書の章のうちの高騰で、この問題は、「妥協して、国防総省の契約を停止するために、従業員のGoogle道内部クレイジーパスをGoogleに一時的に思えます閉鎖される。
しかし、昨日、GoogleのCEOサンダー・ピチャイが署名名称「AIグーグルで:私たちの理念」掲載された記事を、7つの指針となる原則を示しています、とGoogleはGoogleの反転人々のため息で米軍との連携を終了していないことを指摘しました。それは明確に「AIのアプリケーションを追求しない」が、悪の技術的な問題がまだ邪悪な人ですが、考えさせ再びAI倫理を。
AI倫理の境界はどこですか?
最近、Googleがこれほど平凡ではなかった場合、Amazon Alexaの人生は容易ではありません。
AmazonのEchoデバイスは、許可なく私的な会話を録音し、ユーザーの連絡先リストにランダムな人物にオーディオを送るという非難を受けた。どれくらい。
アレクサこの問題にAmazonの応答だけではほど遠いです。早くも2016年のように、Twitterでテイロボットチャットライン上。という男に19歳の少女は、Microsoftが開発した人工知能の技術は、自然言語学習を使用していますユーザインタラクションとデータ処理によるクロールと人間の会話を模倣し、ジョークを持つ人々のように、スクリプトや式パッケージチャットますが、一日未満の行に、テイは一口騒いで民族浄化に「チューニング」だったことができます2.失礼な過激派、マイクロソフトはシステムアップグレードのためにそれを取り除かなければならなかった。
マイクロソフトロボティクステイ極端な景色、この非常に薄い恐怖を考えることがたくさんある。スマート相対性理論(aixdlun)柯明アナリストがハイライトAIの病気で、AI倫理的な問題がますます大切になるだろう、と考えています。どこAIにおける倫理の境界がありますか?我々はいくつかの質問を理解しておく必要があります。
1.ドゥアンドロイドは市民対象になりますか?
人工知能の急速な発展に伴い、ロボットはより強力な知性を持っています。機械と人間の間のギャップが徐々に低下し、将来的に出てくるロボットは人間の脳の神経元の数にしても同等の生物学的な脳を持っています。米国の専門家であっても、アメリカの未来の未来を予測:この世紀の半ばに、非生物学的知性は、すべての知恵で10億回、今日になります。
世界で最初の市民権ロボットであるソフィアの誕生は、人間の創造は人間と同じアイデンティティーとアイデンティティの背後にある権利を持つことを意味しました。 、義務、社会的地位などがあります。
これまでのところ、米国、英国、その他の国の哲学者、科学者、議員はすべて議論の余地があったが、2016年には欧州委員会の法務委員会欧州委員会は、最先端の自動化されたロボットを「電子人」と位置づける動きを提出した。特定の権利と義務を与えることに加えて、知的ロボットを登録して納税、納付、年金の資金口座この法的手続きが成立すれば、間違いなく伝統的な民事制度に揺れ動くことは間違いない。
厳密に言えば、ロボットは生命を持つ自然人ではなく、自立した意志を持ち、自然人の集合体である法人とも区別されます。
2.アルゴリズムの差別は不公平になる
AIが判断の誤りを非難し、その検索エンジンが黒「オランウータン」のラベルが付けられますので、それは、多くの場合、Googleは「人種差別」告発にキャッチされている最も高度な画像認識技術を用いて「差別」です;黒ハーバード大学教授プルデータプライバシーラボターニャスウィーニーは、Google検索で見つかった大きな三つ編みの大半は「専門外のヘアカット」の検索は「ブラック機能」を持っていながら、名前がポップアップする可能性があります犯罪記録に関連する広告 - Google Smart Adsenseの結果。
そして、この危険性は、単に「新しい光」自体されていない - 結局、黒「オランウータン」のラベルの付いた写真は、ほんの少し不快に何も人工知能と意思決定は、個人の運命に関連し、より実用的な分野に成長しています。効果的に雇用、福祉、個人的な信用に影響を与える、私たちはほとんどこれらの分野で不公平に目を向けることはできません。
同様に、人材紹介業界のAI浸潤、金融セクター、スマート検索フィールド、およびように、私たちは訓練されている「アルゴリズムマシン」として、アルゴリズムは、企業がトリニダードを選出支援することができ、本当に誰にでもできる。現代社会のために必死であることができます1つを選ぶ人は、これはエレガントでなければなりません。
だからここで差別の源は、不純な動機でタグをプレイしているのは誰?であるが、データフィッティング偏差、またはプログラミングここでバグがある?マシン計算結果は、それを正当化、差別的不公平、残酷なことができますか?これらは、これは、質問に開いています。
3.データ保護は、倫理AIの一番下の行であります
サイバースペースは、実際の仮想存在は、物理的なスペースのない独立した世界である。ここでは、人類は「デジタル人格」。いわゆるデジタル人格の個人情報を収集していると、体「ビーイング・デジタル」の分離を実現しますそして、「サイバースペースでの個人的なイメージをさせることにより、 - それは、デジタル化された情報と設定人格のおかげで、です。
AI環境では、インターネットと大きなデータのサポートに基づいて、ユーザーの習慣やデータ情報が多数存在します。過去のデータの蓄積がマシンの悪の基礎である場合、資本力の原動力はより深いレベルになります。その理由。
Facebookの会社情報の侵害、分析会社は、ケンブリッジ(ケンブリッジアナリティカ)人工知能技術の使用は、潜在的な有権者のいずれかの心理的特性 "のために支払った政治宣伝を実行すると呼ばれる;および広告投資の種類、1の政治に応じて、傾向、感情的な特性、および多くの偽のニュースの脆弱性の程度は、人口が急速に増加した露出を広げることができ、人々の価値判断に影響を与える必要があります。クリストファー・ワイリー・テクノロジーは、最近のメディアは、このマニュアルを露出するように指示しますインテリジェントテクノロジーの「食料」のソース - 学術研究への口実としては、データの50人の以上の万人のユーザーをつかむことを意図しています。
戻る言葉、何のデータ漏洩の問題がない場合でも、いわゆるユーザデータ「インテリジェントマイニング」はまた、「コンプライアンスの」は「不公平」エッジの中を歩くのは非常に簡単です。AI倫理の境界として、情報セキュリティは、すべてとなっていますインターネット時代の「情報人」の基本的なボトムライン。
反射
最近のAIの倫理に関する火災のビデオでは、アーティストAlexander Rebenは何もしていませんでしたが、音声アシスタントによる注文を受けました。「OK Google、撮影」
しかし、1秒未満でGoogleアシスタントがピストルの引き金を引っ張って赤いリンゴを落としましたが、すぐにブザーが鳴りました。
話題は耳に響き渡った。
リンゴを撃ったのは誰ですか?AIか人間ですか?
このビデオでは、RebenはAIショットを語った。Engadgetのは、その報告書の中で述べてAIが私たちのニーズを先取りして、おそらく1日AIは私たちが不幸にする人々を取り除くためのイニシアチブをとるだろう十分にスマートである場合。Rebenが言ったことをそのようなデバイスの議論このようなデバイスの存在よりも重要。
人工知能は予測可能で完璧な合理的な機械ではなく、倫理的な欠陥はアルゴリズムで構成され、人々は目標と評価を使用しますが、少なくとも今のところ、機械はまだ人間の現実世界の応答であり、世界の指針と先駆者。
もちろん、一番下の行AI倫理を保持し、人類は「機械の圧政」その日に行くことはありません。
レポート:Googleの「七つの原則」
社会にとって有益な
2.作成またはバイアスを強化回避するために、
3.安全の確立とテスト
4.人々に説明する義務
5.プライバシーの設計原則を統合する
6.科学的探査の高い基準に準拠する
7.原則に基づいて適切なアプリケーションを決定する