人々の日々:良性の相互作用の時代を創造する

人工知能アルゴリズム潜在的なセキュリティリスク、認知の偏り、法的倫理の競合は、多くの場合、社会的な欠陥機で唯一の人の現実を反映し、2人の努力の上にマシンを使用し、我々はポジティブな相互作用と人工知能人類の未来を作成することができます。

音声アラカルト、60年前に、若手研究者のグループは最初、おそらくそれは、それがもたらす大きな変化を期待していなかった、人工知能の概念を提案したときに......家に取るように顔ブラシ、無人車両を払う;、今コンピューティングへの感謝をし、能力の向上、大きなデータの駆け込み、深い学習のブレークスルー、人工知能は「進化」を加速し、生産と人生をますます変えています。

技術は両刃の剣である。それは同時に、セキュリティ、法的倫理だけでなく、新たな挑戦で人工知能の勝利の中で理解すべきである。例えば、一部の専門家は、人工知能は、仮想世界と物理世界の境界線をぼかすことができることを心配し、さらに改造します厄介な倫理的な問題の一連の由来生活環境と認知人間の形、ひいては。Huojin盛の前に、よく知られている物理学者は、人工知能の短期的な影響は、それをコントロールする人々によって決定され、長期的な影響は、人工的に依存することと考えています知性が人によって完全に制御されるかどうか。

技術的な開発プロセスとロジックからは、これらの懸念は、そのために早く来るかもしれない。幸い、私たちは論争に滞在しませんでした、人工知能、科学者やエンジニアのための潜在的なリスクは、製品の設計基準、仕様、その他の制約から、予防措置をとること機械の偏見に起因する透明性の欠如を理解することはできませんインテリジェントなアルゴリズムのインテリジェントな機械制御システムの実現可能性の顔のシリーズを提唱しようと、人々は偏見につながる可能性の要因を除く、人工知能、アルゴリズムやモデルのデータ評価を強化するために使用されています;強力な人工知能の環境下での将来のために、マシンは、彼らは同じ思いやりと人間性を持っているように、人の問題と一緒に取得するために人格を調整する方法を準は、科学者たちは、人間の価値や規範に埋め込まれたインテリジェントなマシンにアルゴリズムによって探求しようとした責任感を持って、人工知能アルゴリズムは、「善行」を辿るようにように恥と。我々は、機械のリスクを制御するように、人間の倫理「良い」側を描き、同時に人工知能プログラムを規制することを願っています。

実際の言葉では、豊かな言語表現、微妙な感情的魅力を機械で理解して受け入れることができますか?量的指標を使って、善悪な倫理観を測定することは可能でしょうか?決定アルゴリズム、標準を設定されていますか?これらは、我々が直面する人工知能の必要性の開発を規制しようとしているが、機械組み込み倫理に難しく、私たちは何もできないという意味ではありませんされている問題がある。機械学習の判断と行動出力は、多くの場合、それに依存します理想的な状況下では、深い学習に基づく現在の人工知能アルゴリズムは中立で客観的かつ効率的であり、潜在的なセキュリティリスク、認知バイアス、法的倫理の競合は、多くの場合、社会的な欠陥の現実を反映しますが、ビジョン技術の分野に拡大しているため、インテリジェントなマシンは、技術的手段を通じてアルゴリズムを見直すか、指導に加えて、より完璧になる、おそらくさらに重要にするために現実の社会環境を真正面に向かわせ、理解し、改善することです。マシンとマシンを使用する人が互いに焦点を合わせるときだけ、人工知能将来的には人間との正の相互作用。

倫理学者は、人工知能の道徳的レベルは、人間文明の道徳的高さを反映した鏡となると言います。人間社会は完璧ではなく、機械知能の未来も同じです。知性の時代。

2016 GoodChinaBrand | ICP: 12011751 | China Exports