لقد رأينا كل آلة فيلم تسيطر على العالم، وتدمير المشهد البشري. لحسن الحظ، هذه الأفلام مجرد تسلية، الحياة الحقيقية، وهذه السيناريو بعيد المنال لن يحدث. ومع ذلك، تجدر الإشارة إلى مشكلة العملية التي : خوارزميات التحيز (التحيز حسابي).
يشير "التحيز الخوارزمي" المزعوم إلى تحامل المصمم أو المطور في البرمجة الخبيثة ظاهريًا ، أو تكون البيانات المستخدمة متحيزة ، وقد أسفرت النتيجة بالطبع عن مشاكل مختلفة. على سبيل المثال ، تم إساءة تفسير بحث Google ، ولم يتمكن المرشحون المؤهلون من الدخول إلى المدرسة الطبية ، ونشر برامج الدردشة على الإنترنت العنصرية والتمييز على أساس الجنس على تويتر.
واحدة من المشاكل الشائكة التي يسببها التحيز الخوارزمي هي أن المهندسين المشاركين في البرمجة يمكن أن يخلقوا تحيزات حتى لو لم تكن عنصرية أو جنسية أو تمييزية للعمر ، فالذكاء الاصطناعي (AI) مصمم أساسًا للتعلم من تلقاء نفسه ، وأحيانًا وبالطبع ، يمكننا إجراء تعديلات بعد ذلك ، لكن الحل الأفضل هو منع حدوثها ، فكيف يمكننا أن نجعل منظمة العفو الدولية غير متحيزة؟
ومن المفارقات، واحدة من إمكانية الأكثر إثارة أن الذكاء الاصطناعي هو: عالم خال من التحيز البشري، على سبيل المثال، عندما يتعلق الأمر تعيين الموظفين، من خلال خوارزمية يمكن أن تجعل الرجال والنساء على قدم المساواة في التقدم بطلب للحصول على الوظيفة نفسها. العلاج، أو تجنب وقوع التمييز العنصري في الشرطة.
بغض النظر عن ما إذا كان الناس يدركون أن آلة خلق الإنسان، لا تعكس الكيفية التي ينظر بها الناس في العالم، وبالتالي، سيكون لديك وجهة نظر عالمية مماثلة والقوالب النمطية بسبب الذكاء الاصطناعي أكثر وأكثر عمقا في الحياة، يجب أن نولي الاهتمام لهذه المسألة.
التحدي الآخر الذي يواجهه الذكاء الاصطناعي هو أن التحيز ليس شكلاً واحداً ، ولكنه موجود في أنواع مختلفة ، بما في ذلك التحيز التفاعلي ، والتحيزات اللاوعي ، والتحيز في الاختيار ، والتحيز الموجه نحو البيانات ، وتحيز التأكيد.
مختلف أنواع التحيز الذكاء الاصطناعى
يشير "تحيز التفاعل" إلى تحيز الخوارزمية الناتجة عن تفاعل المستخدم مع الخوارزمية .عندما يتم تعيين الجهاز للتعلم من البيئة المحيطة ، لا يمكنه تحديد البيانات التي يجب الاحتفاظ بها أو تجاهلها. بدلا من ذلك ، يمكنهم فقط استخدام البيانات المقدمة لهم - سواء كانت جيدة أو سيئة أو قبيحة ، يمكنهم فقط إصدار الأحكام بناء على هذا الأساس. تاي هو مثال على هذا النوع من التحامل ، فقد بدأ يصبح عنصريًا بسبب تأثير مجتمع الدردشة عبر الإنترنت.
يشير "التحيز الشعوري" إلى الخوارزمية التي تربط الأفكار الخاطئة بعوامل مثل العرق والجنس ، على سبيل المثال ، عند البحث عن صورة الطبيب ، يقدم الذكاء الاصطناعي أولاً صورة لطبيب ذكر ، وليس طبيبة ، والعكس بالعكس. ومع ذلك ، تحدث حالات مماثلة عند البحث عن الممرضات.
يشير "التحيز الانتقائي" إلى الخوارزمية التي تتأثر بالبيانات ، مما يؤدي إلى تضخيم مجموعة أو مجموعة معينة ، حتى تكون الخوارزمية مفيدة لها ، والتكلفة هي التضحية بالمجموعات الأخرى ، والاستعانة بتوظيف الموظفين كمثال ، إذا كان الذكاء الاصطناعي التدريب على التعرف فقط على السيرة الذاتية للرجال ، ثم النساء باحثين عن العمل لا يكاد ينجح في عملية التطبيق.
يشير مصطلح "الانحياز الموجه نحو البيانات" إلى حقيقة أن البيانات الأصلية المستخدمة لتدريب الخوارزمية قد تم التحيز عليها ، فالآلات تشبه الأطفال: لا يشككوا في البيانات التي يتلقونها ، بل يبحثون ببساطة عن الأنماط الموجودة بها. كونها مشوهة ، فإن نتيجة ناتجها ستعكس هذا أيضا.
النوع الأخير هو "تحيز التأكيد" ، الذي يشبه الانحياز الموجه نحو البيانات ، فهو ينحاز إلى تلك المعلومات المسبقة ، ويؤثر هذا التحيز على كيفية جمع الناس للمعلومات وكيفية تفسير المعلومات ، على سبيل المثال ، إذا شعرت أن الناس ولدوا في أغسطس. يعتبر الأشخاص الذين يولدون أكثر من الأشهر الأخرى أكثر إبداعًا ويميلون إلى البحث عن البيانات التي تعزز هذه الفكرة.
عندما نعلم أن هناك الكثير من الأحكام المسبقة التي قد تتسلل إلى نظام ذكائي اصطناعي ، يبدو أنه مثير للقلق للغاية ، ولكن من المهم أن ندرك حقيقة أن العالم نفسه متحيز ، وبالتالي ، في بعض الحالات ، لدينا ذكاء صناعي. النتائج المقدمة ليست مفاجئة ، لكن لا ينبغي أن يكون الأمر كذلك ، فنحن بحاجة إلى عملية لاختبار والتحقق من خوارزميات وأنظمة الذكاء الاصطناعي من أجل الكشف عن التحيز في مرحلة مبكرة من التطوير وقبل النشر.
الفرق بين الخوارزمية والإنسان هو أنه لا يكذب ، لذلك ، إذا كانت النتيجة متحيزة ، يجب أن يكون هناك سبب ، أي البيانات التي تم الحصول عليها بواسطة الخوارزمية ، حيث يستطيع البشر أن يكذبوا ويشرحوا لماذا لا يقومون بتعيين شخص ما. ولكن الذكاء الاصطناعي قد لا يكون هكذا ، فباستخدام الخوارزميات ، قد نعرف متى ستكون هناك تحيزات وتعديلها حتى نتمكن من التغلب على هذه المشكلات في المستقبل.
يمكن أن يتعلم الذكاء الاصطناعي ويخطئ ، وعادة ما يتم ذلك فقط بعد استخدام الخوارزمية فعليًا حتى يمكن اكتشاف جميع التحيزات الداخلية بسبب تضخيم هذه التحيزات ، وبدلاً من معالجة الخوارزمية كتهديد ، من الأفضل اعتبارها حلاً. فرصة جيدة لجميع الأسئلة المسبقة وتصحيحها إذا لزم الأمر.
يمكننا تطوير أنظمة لكشف القرارات المنحازة واتخاذ الإجراءات في الوقت المناسب ، وبالمقارنة مع البشر ، فإن الذكاء الاصطناعي مناسب بشكل خاص لأساليب بايز لتحديد احتمال وجود فرضية والقضاء على كل ما هو ممكن. التحيز الإنساني ، هذا أمر معقد ، لكنه قابل للتطبيق ، خاصة بالنظر إلى أهمية الذكاء الاصطناعي ، وسوف يصبح أكثر أهمية في السنوات القادمة فقط ، وهذا أمر غير مسؤول.
مع تطوير أنظمة الذكاء الاصطناعي ، من المهم أن نفهم كيف تعمل من أجل جعلها واعية من خلال التصميم وتجنب الأفكار المسبقة المحتملة في المستقبل.لا ننسى أنه على الرغم من أن الذكاء الاصطناعي يتطور بسرعة كبيرة ، فإنه لا يزال في المرحلة الأولى ، هناك العديد من المجالات التي يجب دراستها وتحسينها ، وسيستمر هذا التعديل لبعض الوقت ، وفي الوقت نفسه ، ستصبح الذكاء الاصطناعي أكثر ذكاءً ، وفي المستقبل سيكون هناك المزيد والمزيد من الطرق للتغلب على الأفكار المسبقة وغير ذلك من القضايا. .
لصناعة التكنولوجيا، ونحن نواصل التساؤل عن طرق تشغيل الجهاز والسبب هو مهم جدا، ومعظم الذكاء الاصطناعي يشبه الصندوق الأسود، وعملية صنع القرار هي خفية، ولكن العامة والشفافية في الذكاء الاصطناعي، ثبت الثقة وتجنب سوء الفهم من المفتاح.
في هذه المرحلة هناك العديد من الدراسات مساعدة المساس إنتاج الهوية، مثل دراسة معهد فراونهوفر هاينريش هيرتز، فإنها تركز على تمييز أنواع مختلفة من التحيز والتعصب مثل ما سبق ذكره، وكذلك المزيد من التحامل "على مستوى منخفض"، وبعض المشاكل التي قد تنشأ في عملية تدريب وتطوير الذكاء الاصطناعي.
من ناحية أخرى ، ما يجب أخذه في الاعتبار هو التدريب بدون إشراف ، ففي الوقت الحاضر ، يتم تطوير معظم نماذج الذكاء الاصطناعي من خلال التدريب الخاضع للإشراف ، أي أن البيانات التي تم تمييزها من قبل البشر قد تم جمعها فقط. يستخدم التدريب الخاضع للإشراف على البيانات غير المعلنة ، ويجب أن تقوم الخوارزمية بفرز البيانات وتحديدها وتجميعها ، وهذه الطريقة عادة ما تكون أبطأ بكثير من التعلم تحت الإشراف ، ولكن هذه الطريقة تقيد التدخل البشري نسبيا. يمكن القضاء على أي تحيز الإنسان الواعي أو اللاوعي وتجنب التأثير على البيانات.
هناك أيضًا العديد من الأشياء التي يمكن تحسينها من حيث البنية التحتية ، فعندما تقوم بتطوير منتجات أو مواقع ويب أو ميزات جديدة ، تحتاج شركات التكنولوجيا إلى أشخاص موهوبين في جميع المجالات ، وسيوفر التنويع مجموعة متنوعة من البيانات للخوارزمية ، ولكن دون قصد هذه البيانات متحيزة ، فإذا قام شخص ما بتحليل المخرجات ، فستكون احتمالية العثور على التحامل عالية للغاية.
بالإضافة إلى ذلك ، فإن التدقيق الحسابي له أدوار أخرى ، ففي عام 2016 ، اكتشف فريق بحث في جامعة كارنيجي ميلون في الولايات المتحدة تحيزات خوارزمية في إعلانات الوظائف عبر الإنترنت ، وهي مدرجة على الإنترنت ، إعلانات Google. وتبين قائمة الأشخاص الذين يبحثون عن وظائف أن نسبة الرجال من الوظائف ذات الدخل المرتفع تبلغ ستة أضعاف ما لدى النساء ، وقد خلص فريق البحث إلى أنه في حالة إجراء عمليات تدقيق حسابية داخلية لأول مرة ، فإنه سيساعد على التقليل من هذه الأحكام المسبقة.
باختصار ، إن التحيز المادي هو تحامل بشري ، فهناك العديد من أنواع التحيز في الذكاء الاصطناعي ، لكنه في الحقيقة لا يأتي إلا من مصدر واحد: البشر.
المفتاح هو أن شركات التكنولوجيا والمهندسين والمطورين يجب أن يتخذوا تدابير فعالة لتجنب إنتاج الخوارزميات المتحيزة عن غير قصد ، ومن خلال تدقيق الخوارزميات وإبقائها مفتوحة وشفافة في جميع الأوقات ، فإننا نثق في أننا نستطيع صنع الذكاء الاصطناعي. خوارزمية للتخلص من التحيز.