أخبار

تتعاون Google مع الجيش مرة أخرى ، فأين حدود أخلاقيات الذكاء الاصطناعي؟

تبدأ القصة في أوائل شهر مارس من هذا العام للبدء.

في مارس، وكسر غوغل قد تم التوصل إلى صحفي مع وزارة الدفاع الأمريكية لمساعدة هذه الأخيرة تطوير أنظمة الذكاء الاصطناعي المستخدم في الطائرات بدون طيار، والتي أطلق عليها اسم المشروع مشروع مخضرم.

وجاءت هذه الانباء بها، ويتصاعد على الفور، أعرب موظفي غوغل عن استيائها الشديد مع هذا المشروع نعتقد أن موظفي غوغل في المصادر المفتوحة للبنتاغون، والتي تساعد على بناء جمل تفعل تكنولوجيا المراقبة بدون طيار الشر ؛. ومع ذلك شكك البعض الآخر في استخدام الجهاز بحيث جوجل تعلم التكنولوجيا تلبي المعايير الأخلاقية، فإنها تعتقد أن البنتاغون استخدام هذه التكنولوجيا لأسلحة الدمار، وبالتالي إلحاق الأذى المتفائلين التكنولوجيا الذين لم يهدف إلى التسبب.

وفي وقت لاحق، وقعت جوجل أكثر من 3100 موظف عريضة، رسالة إلى الرئيس التنفيذي Sandahl · بتشاردو العراق (ساندر Pichai)، احتجاجا على ذلك.

وقع موظفي غوغل بريد إلكتروني ساندر Pichai شيء إلى نهاية أبريل لمزيد من التخمير. اكتشفت وسائل الإعلام، حذف جوجل الثامنة عشرة التي تتبع شعار "لا تكن شريرا" أكد في بداية رمز الشركة لقواعد السلوك في ثلاثة. المعيار الوحيد في النهاية، كان هناك حكم لا يزال يتم حذف: "تذكر، لا تكن شريرا، إذا رأيت شيئا تعتقد أنه ليس الشيء الصحيح، ويقول بصوت عال!

يوم الجمعة، وأعلن الاجتماع الدوري لل"توقعات الطقس" الأسبوعية، وجوجل الغيمة الرئيس التنفيذي ديان غرين (ديان غرين)، وجوجل إنهاء التعاون مع وزارة الدفاع الأمريكية بعد انتهاء مخضرم مشروع .

وهذا بلا شك حدثا كبيرا. "اخبار النصر". مع ارتفاع للخروج من الفصل من التقرير، هذا الأمر يبدو مؤقتا إلى Google "الموظفين لتقديم تنازلات، ووقف وزارة الدفاع عقد 'تمرير مجنون داخل الطريق جوجل لتكون مغلقة.

ولكن بالأمس فقط، نشرت الرئيس التنفيذي لجوجل ساندر Pichai موقعة بعنوان "منظمة العفو الدولية في جوجل: مبادئنا" المادة، تسرد سبعة مبادئ التوجيهية، وأشار إلى أن جوجل لا تنتهي التعاون مع الجيش الامريكي في الناس انعكاس جوجل تنفس الصعداء. على الرغم من أنه واضح "عدم المضي قدما في تطبيق AI"، ولكن المشكلة التقنية الشر لا يزال الناس الشر، ويشحذ الفكر الأخلاق AI مرة أخرى.

أين هي حدود الأخلاق في منظمة العفو الدولية؟

إذا جوجل ليست سلمية في الآونة الأخيرة، والأمازون اليكسا تبدو سيئة.

تم اتهام جهاز Echo الخاص بأمازون بتسجيل محادثات خاصة دون الحصول على إذن وإرسال صوت إلى شخص عشوائي في قائمة جهات الاتصال الخاصة بالمستخدم ، وهذه هي المرة الأخيرة التي يمر فيها حادث أليكسا المرعب "السخرية عند البشر". الى متى.

استجابة الأمازون لقضية اليكسا هذه هي بعيدة كل البعد عن وحدها. ومنذ عام 2016، فتاة تبلغ من العمر 19 عاما لرجل يدعى تاي الروبوت دردشة على تويتر على الخط. وتستخدم تكنولوجيا الذكاء الاصطناعي وضعت مايكروسوفت على تعلم اللغة الطبيعية يمكن الزحف من خلال تفاعل المستخدم ومعالجة البيانات والمحادثة الإنسان تقليد، مثل الناس مع نكتة، والدردشة النصية وحزمة التعبيرات، ولكن على خط أقل من يوم واحد، وكان تاي "ضبطها" إلى الفم يطالبون التطهير العرقي والمتطرفين الدب البري، وكان مايكروسوفت "ترقية" بسبب الرفوف.

مايكروسوفت الروبوتات تاي وجهات نظر متطرفة، وهذا هو الكثير للتفكير الخوف رقيقة جدا. ويعتقد النسبية (aixdlun) المحللين كه مينغ الذكية التي، مع تسليط الضوء على علل AI، سوف تصبح قيمتها القضايا الأخلاقية AI على نحو متزايد. أين هي حدود الأخلاق في منظمة العفو الدولية؟ بادئ ذي بدء ، ينبغي توضيح العديد من القضايا.

1. هل الروبوت هو موضوع مدني؟

مع التطور السريع في مجال الذكاء الاصطناعي، الروبوت لديه ذكاء أكثر قوة. ويتم تخفيض الفجوة بين الآلات والبشر تدريجيا، والروبوت سوف تظهر في المستقبل يكون الدماغ البيولوجي، حتى مقارنة لعدد اليوان العصبية في الدماغ البشري. خبراء أمريكيون حتى التنبؤ بالمستقبل لمستقبل أميركا: في منتصف هذا القرن، والاستخبارات غير البيولوجية يكون واحدا مليار مرة، في كل حكمة اليوم.

لا يبدو أن المواطنة تشكل مشكلة بالنسبة للروبوتات ، ففي شهر أكتوبر من العام الماضي ، كانت ولادة صوفيا ، أول روبوت في العالم للمواطنة ، تعني أن الإبداع البشري له نفس الهوية التي يتمتع بها الإنسان وحقوقه. والالتزامات والوضع الاجتماعي.

لا تزال المؤهلات القانونية للموضوعات المدنية هي الخط الفاصل لأخلاقيات الذكاء الاصطناعي ، ففي الفترات الماضية ، كان للفلاسفة والعلماء والمشرعين في الولايات المتحدة وبريطانيا ودول أخرى جدل ساخن في عام 2016 ، لجنة الشؤون القانونية للمفوضية الأوروبية. قدمت المفوضية الأوروبية اقتراحا يطلب وضع الروبوتات الآلية الأكثر تقدما كأشخاص "إلكترونيين" ، بالإضافة إلى منحهم "حقوقًا والتزامات محددة" ، يوصى أيضًا بتسجيل الروبوتات الذكية لأغراضهم الخاصة. دفع الضرائب ، والدفع ، وحساب الصندوق للمعاش التقاعدي ، إذا تم تمرير هذا الاقتراح القانوني ، فإنه سيؤدي بلا شك إلى تغيير في النظام المدني التقليدي.

في بالمعنى الدقيق للكلمة، والروبوت ليس شخص طبيعي له الحياة، وميز نفسه أيضا إرادة مستقلة والكلي الطبيعي القانونى، وفى حالة محاولة إلقاء اللوم على سلوك الروبوت AI الإدانة في حد ذاته، لا خط قبل الأوان.

2. والتمييز خوارزمية يكون غير عادل

إن اتهام الذكاء الاصطناعي في ارتكاب الأخطاء في الحكم هو أنه في كثير من الأحيان "تمييزي" ، فقد اتهمت شركة جوجل ، التي تستخدم أحدث تكنولوجيا التعرف على الصور ، "بالتمييز العنصري" لأن محرك البحث الخاص بها يصف السود بـ "orangutans". وتبحث عن "قصات الشعر المهنية" ، والغالبية العظمى منها من أبناء شقيق الأسود ، وقد وجد أستاذ مختبر خصوصية البيانات بجامعة هارفارد راتانيا سويني أن بحث جوجل عن أسماء "الأحرف السوداء" ، فمن المحتمل الإعلانات ذات الصلة بالسجلات الجنائية - النتائج من Google Smart Adsense.

وهذا الخطر ليس مجرد "نيو لايت 'نفسها - بعد كل شيء، وصورة ملحوظ مع تسمية السوداء" انسان الغاب "، فقط قليلا شيء بالإهانة الذكاء الاصطناعي وصنع القرار ينمو في الحقول أكثر واقعية تتعلق بمصير الأفراد. تؤثر بشكل فعال فرص العمل والرعاية الاجتماعية والقروض الشخصية، فإنه من الصعب لهذه المناطق "غير عادلة" تغض الطرف.

وبالمثل، كما الغزو AI من قطاع التوظيف، والقطاع المالي، حقل البحث الذكي، وهلم جرا، ونحن مدربون 'الجهاز الخوارزمية يمكن أن ندعي حقا. وفي يائسة للمجتمع المعاصر، خوارزمية قادرة على مساعدة الشركات على انتخاب ترينيداد واختيار هذا الشخص، والتي سوف يكون على ما يرام.

فأين هو مصدر التمييز؟ الذي يلعب سمة لديهم دوافع خفية، هو الانحراف المناسب البيانات، أو البرمجة أين هو الخلل؟ آلة النتائج المحسوبة يمكن أن يكون تمييزيا وغير عادلة، قاسية تبرير ذلك؟ هذه هي كان مفتوحا للتساؤل.

3. حماية البيانات هو بيت القصيد من الأخلاق AI

الفضاء الإلكتروني هو وجود الظاهري الحقيقي، هو عالم مستقل من دون الحيز المادي. هنا والإنسانية تدرك فصل الجسم يجري الرقمية '، مع' شخصية الرقمي ". إن ما يسمى شخصية الرقمي هو" جمع المعلومات الشخصية وعن طريق السماح صورة شخصية في الفضاء الإلكتروني "- وهذا هو، بحكم المعلومات الرقمية وانشاء الشخصية.

في بيئة الذكاء الاصطناعي ، استنادا إلى دعم الإنترنت والبيانات الضخمة ، فإنه يحتوي على عدد كبير من عادات المستخدم ومعلومات البيانات ، فإذا كان تراكم "البيانات في الماضي" هو أساس آلة الشر ، فإن القوة المحركة للقوة الرأسمالية تكون أعمق. السبب.

في حالة تسريب معلومات فيس بوك ، استخدمت شركة تدعى كامبريدج أناليتيكا تقنية الذكاء الاصطناعي لوضع إعلانات سياسية مدفوعة عن "الخصائص النفسية" لأي ناخب محتمل ؛ أي نوع من الإعلانات تم اعتماده يعتمد على سياسة المرء. الميول والسمات العاطفية ودرجة الضعف: العديد من الأخبار الكاذبة يمكن أن تنتشر بسرعة بين مجموعات معينة من الناس ، وتزيد من التعرض ، وتؤثر ببراعة على أحكام قيم الناس ، وقد كشف الكاتب التقني كريستوفر ويلي مؤخراً عن هذا الدليل لوسائل الإعلام. المصدر "الغذائي" للتكنولوجيا الذكية - باسم البحوث الأكاديمية ، أكثر من 50 مليون مستخدم البيانات التي تعتزم التقاطها.

وبعبارة أخرى ، حتى إذا لم تكن هناك مشكلة في تسريب البيانات ، فإن ما يسمى "التعدين الذكي" لبيانات المستخدم من السهل جدًا السباحة على حافة "الامتثال" ولكن "أبعد من الإنصاف". أما فيما يتعلق بحدود أخلاقيات الذكاء الاصطناعي ، يصبح أمن المعلومات كل الخط الأساسي الأساسي لـ "شخص المعلومات" في عصر الإنترنت.

انعكاس

في فيديو للنيران الأخيرة على أخلاقيات الذكاء الاصطناعي ، لم يكن للفنان ألكسندر ريبين أي إجراء ، ولكنه قدم طلبًا عبر مساعد الصوت: "OK Google، shoot."

ومع ذلك ، في أقل من ثانية واحدة من الثانية ، سحب مساعد Google زناد مسدس وأدى إلى سقوط تفاحة حمراء ، على الفور ، أزعج الجرس.

طاف طنين من خلال الأذنين.

من أطلق النار على التفاح؟

في هذا الفيديو، وقال Reben النار منظمة العفو الدولية. وقال التقنية بلا حدود في تقريرها أنه إذا كانت منظمة العفو الدولية ذكي بما فيه الكفاية لتوقع احتياجاتنا، وربما يوم واحد AI سوف تأخذ زمام المبادرة للتخلص من أولئك الذين تجعلنا سعداء. وقال Reben أن مناقشة مثل هذا الجهاز إنه أكثر أهمية من وجود مثل هذا الجهاز.

الذكاء الاصطناعي ليست قابلة للتنبؤ وعقلانية آلة الكمال، وعيب أخلاقي على يد الخوارزمية، يستخدم الناس الأهداف والتقييم. ومع ذلك، على الأقل حتى الآن، والجهاز لا يزال الحقيقي رد فعل الإنسان الطبيعي في العالم، بدلا من 'يجب توجيه العالم ورواده.

من الواضح، عقد بيت القصيد الأخلاق AI، فإن الإنسانية لا تذهب "آلة الطغيان" في ذلك اليوم.

المرفقات: "إرشادات Google السبعة"

مفيد للمجتمع

2. تجنب خلق أو تحسين الأحكام المسبقة

3. إنشاء واختبار للسلامة

4. الالتزام بشرح للناس

5. دمج مبادئ تصميم الخصوصية

6. الالتزام بمعايير عالية من الاستكشاف العلمي

7. تحديد التطبيق المناسب على أساس المبدأ

2016 GoodChinaBrand | ICP: 12011751 | China Exports