خوارزميات الذكاء الاصطناعي المخاطر الأمنية المحتملة، التحيزات المعرفية والصراعات الأخلاق القانونية غالبا ما تعكس واقع العيوب الاجتماعية الشخص الوحيد في الجهاز واستخدام الجهاز على الجهدين، يمكننا خلق التفاعل الإيجابي والذكاء الاصطناعي ومستقبل البشرية.
صوت بالصحن، ودفع فرشاة الوجه والمركبات بدون طيار لاتخاذ المنزل ...... قبل 60 عاما، عندما اقترحت مجموعة من العلماء الشباب للمرة الأولى مفهوم الذكاء الاصطناعي، وربما لم يكن يتوقع تغييرات كبيرة في ان يجلب، والآن، وذلك بفضل الحوسبة قدرة رفع، محرك الأقراص والبيانات الكبيرة اختراق التعلم العميق، والذكاء الاصطناعي يتسارع في "التطور"، وتغيير متزايد لدينا الإنتاج والحياة.
التكنولوجيا هي سلاح ذو حدين ، وتجدر الإشارة إلى أن الذكاء الاصطناعي قد أثار تحديات جديدة للسلامة والأخلاق القانونية ، وما إلى ذلك أثناء الانتصار ، على سبيل المثال ، يشعر بعض الخبراء بالقلق من أن الذكاء الاصطناعي قد يشوش الحدود بين العالم الافتراضي والعالم المادي ، بل ويعيد تشكيله. وتعتقد البيئة المعيشية وشكل الإنسان المعرفي، وبالتالي المستمدة من سلسلة من المشاكل الأخلاقية الشائكة. الفيزيائي المعروف قبل Huojin شنغ التي تؤثر على المدى القصير الذكاء الاصطناعي يتم تحديدها من قبل الناس الذين السيطرة عليه، وسوف تؤثر على المدى الطويل يعتمد على اصطناعية يتم التحكم الذكية بالكامل من قبل الرجل.
من عملية التطور التقني والمنطق، وهذه المخاوف قد يأتي مبكرا لذلك. لحسن الحظ، لم نكن مجرد البقاء في الجدل، والمخاطر المحتملة للالذكاء الاصطناعي والعلماء والمهندسين لاتخاذ تدابير وقائية، من معايير تصميم المنتجات والمواصفات وغيرها من القيود في محاولة لطرح سلسلة من آلة التحكم وجه نظام جدوى ذكي من خوارزميات ذكية لا يمكن فهم انعدام الشفافية الناجمة عن الإخلال آلة، واعتاد الناس على تعزيز تقييم البيانات من الذكاء الاصطناعي، والخوارزميات والنماذج، باستثناء العوامل المحتملة التي يمكن أن تؤدي إلى الإخلال وبالنسبة للمستقبل في ظل بيئة الذكاء الاصطناعي قوية، وآلة لديه شبه كيفية تنسيق شخصية للحصول على جنبا إلى جنب مع مشاكل الناس، وقد حاول العلماء لاستكشاف من خلال الخوارزمية لآلات ذكية جزءا لا يتجزأ من القيم الإنسانية والمعايير، بحيث يكون لديهم نفس الرحمة والإنسانية، والشعور بالمسؤولية، العار وهلم جرا. ونحن نأمل أنه في نفس الوقت لتنظيم برنامج الذكاء الاصطناعي، بحيث خوارزميات الذكاء الاصطناعي تتبع "العمل الصالح"، ورسم الجانب أخلاقيات الإنسان "جيد"، وذلك للسيطرة على مخاطر الجهاز.
بالطبع، لبناء آلة جيدة نظام الأخلاق القانونية ليست سهلة. لغة غنية للتعبير عن الواقع، يمكن أن يفهم النداء العاطفي خفية من قبل الأجهزة، وتقبل ذلك؟ تقاس المؤشرات الكمية مفهوم أخلاقي من الخير والشر، وما إلى ذلك ممكنا؟ أيضا، الذين قرار الخوارزمية، تحدد المعيار؟ هذه هي المشاكل التي نحاول تنظيم وتطوير ضرورة الذكاء الاصطناعي لوجه، ولكن من الصعب آلة جزءا لا يتجزأ من الأخلاق، لا يعني أننا يمكن أن تفعل شيئا. الحكم والإخراج سلوك التعلم الآلي، وغالبا ما يعتمد عليه تلقت معلومات. من وجهة النظر هذه، فإن منظمة العفو الدولية في حد ذاته ليس خطأ ام على صواب، والدولة المثالية، ينبغي أن تكون دراسة متعمقة الحالية القائمة على خوارزميات الذكاء الاصطناعي محايد وموضوعي وفعال، أخطاره الأمان المحتملة، التحيزات المعرفية، غالباً ما تكون النزاعات الأخلاقية القانونية ، وما إلى ذلك ، انعكاسات لنواقص اجتماعية حقيقية ، ولكنها تتضخم في مجال التكنولوجيا ، ولذلك ، لجعل الآلات الذكية أكثر كمالاً ، بالإضافة إلى مراجعة أو توجيه الخوارزميات من خلال الوسائل التقنية ، والأهم من ذلك إنها مواجهة البيئة الاجتماعية الحقيقية وفهمها وتحسينها ، فقط عندما يركز الجهاز والشخص الذي يستخدم الآلة على بعضهما البعض ، يمكننا إنشاء ذكاء اصطناعي التفاعل الإيجابي مع البشر في المستقبل.
ويقول علماء الأخلاق، والذكاء الاصطناعي، والمعايير الأخلاقية أن يكون مرآة، فإنه يعكس ارتفاع الأخلاقي للحضارة الإنسانية. المجتمع البشري لا يمكن أن تكون مثالية، ومستقبل عصر آلة الاستخبارات لا يختلف. نحن نريد الاستمرار في بذل جهود حثيثة لخلق أفضل عصر الذكاء.