ہم سب نے اس منظر کو دیکھا ہے جس میں مشینیں دنیا کو کنٹرول کرتی ہیں اور انسانوں کو تباہ کر دیا جاتا ہے. خوش قسمتی سے، یہ فلمیں صرف تفریحی ہیں. حقیقی زندگی میں، یہ مجبور نہیں ہوسکتے ہیں. : الگورتھممی تعصب (الگورتھممک تعصب).
نام نہاد 'الورگورتھمک تعصب' کو پروگرامنگ میں ڈیزائنر یا ڈویلپر کا تعصب کا اشارہ ہے جسے بدقسمتی سے ظاہر ہوتا ہے، یا استعمال کردہ اعداد و شمار باصلاحیت ہے. کورس کا نتیجہ مختلف قسم کے مسائل پیدا ہوتا ہے. مثال کے طور پر، گوگل کی تلاش غلط تشریح کی گئی تھی، امیدوار امیدوار میڈیکل اسکول میں داخل ہونے میں ناکام تھے، چیٹ بوٹ ٹویٹر پر نسلی اور جنسی پرست معلومات پھیلاتے ہیں.
ایک الگورتھم تعصب کی وجہ سے سب سے زیادہ مشکل مسئلہ کبھی کبھی، پروگرامنگ انجینئرز میں، نسل کے لئے ایک رجحان، صنف، عمر اور دیگر امتیاز نہیں ہے یہاں تک کہ اگر، بھی تعصب کا سبب بن سکتا ہے. مصنوعی انٹیلی جنس (اے آئی) بنیادی طور پر خود مطالعہ کے لئے ڈیزائن کیا گیا ہے یہ واقعی غلط ہو گا. کورس کے، ہم حقیقت کے بعد ایڈجسٹ کیا جا سکتا ہے، لیکن سب سے بہترین حل ہونے سے اس کی روک تھام شروع کرنے کے لئے ہے. تو کس طرح آپ کو تعصب مصنوعی ذہانت کے بغیر یہ کر سکتا ہوں؟
ستم ظریفی یہ ہے، مصنوعی ذہانت ہے کہ سب سے زیادہ دلچسپ امکان میں سے ایک: مثال کے طور پر انسانی تعصب کے بغیر ایک ایسی دنیا میں، یہ الگورتھم کے ذریعے، بھرتی عملے کو ایک ہی کام کے لئے درخواست دینے میں مردوں اور عورتوں کے برابر بنا سکتے آتی ہے تو. علاج، یا پولیس میں نسلی امتیاز کی موجودگی سے بچنے.
قطع نظر لوگوں انسانی تخلیق کی مشین، لوگوں کو دنیا دیکھنے میں کس طرح عکاسی کرتے کہ اس بات سے آگاہ ہیں کہ آیا کے، اس وجہ سے، اسی طرح کی ایک دنیا کو دیکھیں اور اس وجہ سے مصنوعی ذہانت کے دقیانوسی تصورات کو زیادہ سے زیادہ گہرائی کی زندگی میں، ہم اس مسئلے پر توجہ دینا ضروری ہوگا.
ایک اور چیلنج ہے جو AI کے چہرے یہ ہے کہ تعصب صرف ایک ہی شکل نہیں ہے، لیکن مختلف اقسام ہیں، جن میں بات چیت کی تعصب، مضحکہ خیز تعصب، انتخابی تعصب، ڈیٹا پر مبنی تعصب، اور توثیقی تعصب شامل ہیں.
مختلف AI کی اقسام
صارفین ان کے اپنے الگورتھم کے ساتھ تعامل کی وجہ سے الگورتھم پیدا. مشین ماحول سے سیکھنے کے لئے مقرر کیا گیا ہے جب 'انٹرایکٹو تعصب' تعصب کا مطلب، وہ کیا صحیح ہے آپ کو رکھنے یا مسترد کرنا چاہتے کون سا ڈیٹا فیصلہ نہیں کر سکتے یا غلط اس کے بجائے، وہ صرف آپ کے ڈیٹا کو ان کرنے کے لئے استعمال کر سکتے ہیں - اچھا، برا، یا بدسورت، صرف پہلے ذکر مائیکروسافٹ (مائیکروسافٹ) بیوٹی کی بنیاد پر مبنی فیصلے کر سکتا ہے یا Tay کی ہے کیونکہ یہ ایک نیٹ ورک چیٹ کمیونٹی کی طرف سے متاثر ہوتا ہے، یہ ایک نسلی امتیاز بن گیا ایسی تعصب کی ایک مثال ہے.
'بے ہوش تعصب' الگورتھم نسل اور جنس اور دیگر عوامل کے ساتھ منسلک غلط فہمی گا کا مطلب ہے. مثال کے طور پر جب ایک ڈاکٹر کی تصویر کے لئے تلاش کر کے، مصنوعی ذہانت مرد ڈاکٹروں، نہ عورتوں ڈاکٹروں کی تصاویر کے پہلے شو، اور اس کے برعکس ہو جائے گا تاہم، جب ایک نرس کے لئے تلاش، اسی طرح کی صورتحال واقع ہو گا.
'سلیکشن تعصب'، ڈیٹا کے اثر و رسوخ کی وجہ سے الگورتھم کا مطلب ہے کے نتیجے میں بھی ایک گروپ یا گروپوں پر، بھرتی عملے کو تو ان کے حق میں الگورتھم، لیکن دوسرے گروپوں کی قیمت پر. کہ، مثال کے طور پر، زوم میں AI ہے تو صرف مردوں کو دوبارہ شروع، درخواست کے عمل کے دوران اس وقت خواتین کی ملازمت کے متلاشیوں کی شناخت کے لئے تربیت یافتہ ہے، یہ کامیاب ہونے کے لئے مشکل ہے.
'ڈیٹا کارفرما تعصب' کا مطلب الگورتھم کو تربیت کرنے کے لئے استعمال خام ڈیٹا کے بچوں کی طرح مشین جانبدار گیا ہے: وہ سوال نہیں ہے ڈیٹا موصول ہوا، لیکن صرف ماڈل میں سے ایک ہے تو اعداد و شمار کے آغاز کے لئے تلاش کر رہے تحریف ہے، اس کی پیداوار کا نتیجہ، بھی اس کی عکاسی کرے گا.
گزشتہ ایک 'تصدیق کے تعصب'، یہ اور اسی طرح کے اعداد و شمار پر مبنی تعصب، یہ وہ لوگ پہلے سے قائم شدہ معلومات کی حمایت کرے گا، اس طرح کے تعصبات لوگوں معلومات جمع کیسے متاثر، اور کس طرح معلومات کی تشریح کرنا ہے. مثال کے طور پر، آپ لوگوں نے اگست میں پیدا ہوا محسوس ہوتا ہے کہ اگر دیگر مہینوں سے زیادہ تخلیقی میں پیدا ہونے والے لوگوں کے مقابلے میں، یہ اس خیال کی تلاش کے اعداد و شمار کو مضبوط کرنے کی کوشش کریں گے.
ہم اتنے سارے تعصبات مثال مصنوعی ذہانت کے نظام رسنا سکتی جانتے ہیں کہ وہاں تو، یہ لوگ بہت پریشان ہیں کہ لگتا ہے. لیکن یہ حقیقت یہ ہے کہ دنیا خود متعصب ہے، اور اس وجہ سے، بعض صورتوں میں، کے لئے ہماری مصنوعی ذہانت ہے کہ تسلیم کرنے کے لئے اہم ہے نتائج فراہم کی اور تعجب نہیں ہو گا، تاہم، ایسا نہیں ہونا چاہئے، ہم سے پہلے اور ترقی ترتیب دوران تعصب کا جلد پتہ لگانے کے لئے مصنوعی ذہانت الگورتھم اور نظام کے لئے ایک جانچ اور تصدیق کے عمل کی ضرورت ہے.
مختلف یلگوردمز اور انسانوں، یہ اس وجہ سے، جھوٹ نہیں بولتا، نتیجہ متعصب ہے، تو یہ ایک وجہ کا ہونا ضروری یلگوردمز اور ڈیٹا کو ایک شخص کے بارے میں حاصل کردہ کسی کی خدمات حاصل نہیں کی وجوہات کی وضاحت کے لئے جھوٹ بول سکتا، یہ ہے کہ، لیکن AI. یلگوردمز کا استعمال، ہم تعصب وہاں ہو جائے گا جب آپ کو معلوم نہیں کر سکتے ہیں ہو سکتا ہے، اور مستقبل میں ان مسائل پر قابو پانے کے لئے ان کو ایڈجسٹ.
AI ایک خطرے کے طور پر، میں سیکھ جائے گی ان تعصبات بڑائی ہے کیونکہ تمام موروثی تعصب کو تلاش کرنے کے لئے کی غلطیوں، صرف اصل استعمال الگورتھم کے بعد عام طور پر بناتے ہیں. بلکہ الگورتھم، یہ ایک کے طور پر ان کو حل کرنے کے لئے بہتر ہے مسئلہ تعصب کو سب اچھا موقع ہے، اور اگر ضروری ہو تو درست.
ہم باصلاحیت فیصلے کا پتہ لگانے اور بروقت عمل کرنے کے نظام کو ترقی دے سکتے ہیں. انسانوں کے مقابلے میں، مصنوعی انٹیلی جنس خاص طور پر بائیسین طریقوں کے لئے ایک تصور کی امکانات کا تعین کرنے کے لئے خاص طور پر موزوں ہے اور تمام ممکنہ طور پر ختم کرنے کے لئے انسانی تعصب. یہ پیچیدہ ہے، لیکن یہ ممکن ہے، خاص طور پر مصنوعی انٹیلی جنس کی اہمیت پر غور کریں، اور یہ آنے والے سالوں میں صرف زیادہ اہم ہو جائے گا. یہ ایک غیر ذمہ دار چیز ہے.
مصنوعی ذہانت کے نظام کی ترقی کے ساتھ، یہ اس کے ڈیزائن کے احساس کے ساتھ اس کے ذریعے بنانے کے لئے، اور تعصب مستقبل کے مسائل پیدا ہو سکتی ہے سے بچنے کے لیے کس طرح کام کرتا سمجھنے کے لئے اہم ہے. مصنوعی ذہانت کے بہت تیز رفتار ترقی کے باوجود، مت بھولنا، لیکن پھر بھی اس کے بچپن، سیکھا اور بہتر کرنے کی بہت سی جگہوں پر ان کی ایڈجسٹمنٹ، کچھ وقت کے لئے جاری رہے گا ایک ہی وقت میں، مصنوعی ذہانت کو مستقبل میں زیادہ ہوشیار بننے تعصب اور دیگر مسائل پر قابو پانے کے لئے زیادہ سے زیادہ طریقوں وہاں ہو جائے گا کریں گے .
ٹیکنالوجی کی صنعت کے لئے، ہم مشین کے آپریشن کے طریقوں کے بارے میں سوال کرنے کے لئے جاری ہے اور وجہ سے، بہت اہم ہے مصنوعی ذہانت کے سب سے زیادہ ایک بلیک باکس کی طرح ہے، فیصلہ سازی کے عمل پوشیدہ ہے، لیکن عوامی اور مصنوعی ذہانت کی شفافیت ہے، یہ قائم ہے پر اعتماد اور چابی کی غلط فہمی سے بچنے کے.
اس مرحلے پر، جیسا کہ Fraunhofer کی ہینرچ ہرٹج انسٹیٹیوٹ مطالعہ بہت سے مطالعے کی مدد کی پیداوار شناخت تعصب موجود ہیں وہ اس طرح کے مذکورہ بالا، اسی طرح زیادہ 'کم درجے' تعصبات، اور کچھ، تعصبات کی مختلف اقسام تمیز پر توجہ مرکوز تعصبات مسائل تربیت اور مصنوعی ذہانت کی ترقی کے عمل میں پیدا ہو سکتی ہے.
دوسری طرف، سمجھنا ضروری ہے کہ غیر جانبدار تربیت ہے. آج کل، مصنوعی انٹیلی جنس ماڈلز کی نگرانی کی تربیت کے ذریعہ تیار کیا جاتا ہے. یہی ہے، صرف وہی اعداد و شمار جسے انسان نے لیبل لگایا ہے. غیر فعال شدہ اعداد و شمار کا استعمال کرتے ہوئے نگرانی کی تربیت، الگورتھم خود کو ترتیب دیں، اعداد و شمار کی شناخت اور جمع کرنا چاہئے. یہ طریقہ کار عموما سست نگرانی سیکھنے کے مقابلے میں ہے، لیکن یہ طریقہ نسبتا انسانی مداخلت کو محدود کرتا ہے. کسی بھی ہوشیار یا غیر جانبدار انسانی تعصب کو ختم کر کے اعداد و شمار پر اثر انداز کر سکتے ہیں.
بنیادی ڈھانچے کے لحاظ سے، نئی مصنوعات، ویب سائٹ یا تقریب کی ترقی میں، اشیاء کو بہتر بنایا جا سکتا ہے کہ بہت سے چیزیں ہیں، ٹیکنالوجی کمپنیوں مختلف شعبوں، متنوع الگورتھم کے لئے اعداد و شمار کی ایک وسیع رینج فراہم کرے گا میں پیشہ ور افراد کی ضرورت ہے، لیکن یہ بھی نادانستہ طور پر دے سکتا ہوں ان اعداد و شمار جانبدار شخص پیداوار کا تجزیہ کرنے کے لئے ہے، تو پھر تعصب کے امکان بہت زیادہ پایا گیا تھا.
اس کے علاوہ، الگورتھممک امتحانات دیگر کردار ہیں. 2016 ء میں، امریکہ میں کارنیج میلن یونیورسٹی میں ایک تحقیقاتی ٹیم نے آن لائن ملازمت کے اشتہارات میں الگورتھممک تعصب دریافت کیا. انہوں نے انٹرنیٹ، گوگل ایڈورٹائزنگ پر درج کیا. ملازمتوں کی تلاش کرنے والے افراد کی فہرست سے پتہ چلتا ہے کہ مردوں کے اعلی آمدنی کی ملازمتوں کا تناسب خواتین کی تقریبا چھ مرتبہ ہے. تحقیقاتی ٹیم نے یہ نتیجہ اخذ کیا ہے کہ اگر اندرونی الگورتھم آڈٹ سب سے پہلے ہوتے ہیں، تو اس طرح کے تعصب کو کم کرنے میں مدد ملے گی.
مختصر طور پر، مشین تعصب انسانی تعصب ہے. مصنوعی انٹیلی جنس کے بہت سے اقسام ہیں، لیکن حقیقت یہ ہے کہ یہ صرف ایک ذریعہ ہے: انسان.
ٹیکنالوجی کمپنیوں، یکساں انجینئرز اور ڈویلپرز میں اہم جھوٹ، غیر ارادی طور پر متعصب الگورتھم سے بچنے کے لئے موثر اقدامات پیدا اور الگورتھم کے ذریعے کسی بھی وقت کھلے اور شفاف آڈٹ برقرار رکھنے کے لئے کرنا چاہئے، ہم مصنوعی ذہانت کو بنانے کے لئے اعتماد ہے الگورتھم تعصبات سے چھٹکارا حاصل کرنے کے لئے.