همه ما شاهد ماشین فیلم را کنترل جهان، و تخریب از صحنه است. خوشبختانه، این فیلم فقط سرگرمی، زندگی واقعی، این سناریو دور از ذهن است اتفاق می افتد. با این حال، یک مشکل عملی به ذکر است که : تعصب الگوریتمی (تعادل الگوریتمی).
به اصطلاح "تعرف الگوریتم" اشاره به تعصب یک طراح یا توسعه دهنده در برنامه نویسی است که به نظر می رسد مخرب است، و یا داده ها استفاده بی عیب و نقص است. نتیجه دوره ها انواع مشکلات است. به عنوان مثال، جستجوی گوگل اشتباه تفسیر شد، نامزدهای واجد شرایط نمی توانند وارد مدرسه پزشکی شوند، ربات های چت رادیکال و اطلاعات تبعیض جنسی در توییتر را گسترش داد.
مشکل یک الگوریتم تعصب باعث سخت ترین است که در مهندسان برنامه نویسی، حتی اگر تمایل به نژاد، جنس، سن و تبعیض های دیگر ندارد، نیز ممکن است تعصب شود. هوش مصنوعی (AI) است که اساسا برای خود مطالعه طراحی شده است، گاهی اوقات آن در واقع اشتباه باشد. البته، ما می تواند پس از این واقعیت تنظیم شده، اما بهترین راه حل این است که شروع جلوگیری از آن را. پس چگونه شما آن را بدون تعصب هوش مصنوعی؟
از قضا، یکی از هیجان انگیز ترین امکان که هوش مصنوعی است: جهان بدون خطای انسانی، برای مثال، وقتی که می آید به کارکنان استخدام، از طریق الگوریتم، مردان و زنان در استفاده از برای همین کار برابر است. درمان، و یا جلوگیری از وقوع تبعیض نژادی در پلیس.
صرف نظر از اینکه مردم آگاه باشید که دستگاه خلقت انسان، را منعکس چگونه مردم مشاهده جهان هستند، بنابراین، یک جهان مشابه و کلیشه به دلیل هوش مصنوعی بیشتر و عمیق تر در زندگی، ما باید با توجه به این موضوع پرداخت.
چالش دیگری که هوش مصنوعی با آن مواجه است این است که تعصب، یک شکل واحد نیست، بلکه در انواع مختلف وجود دارد، از جمله تعصب تعاملی، تعصبات ناخودآگاه، تعصبات انتخابی، تعصبهای داده گرا و تعصبات تایید.
انواع مختلف بی نظمی AI
"تعامل تعامل" اشاره به تعصب الگوریتم ایجاد شده توسط تعامل کاربر با الگوریتم است.هنگامی که دستگاه برای یادگیری از محیط اطراف، آنها نمی توانند تصمیم بگیرند که داده ها را به نگهداری و یا دور انداختن چه درست است؟ یا اشتباه است، در عوض، آنها فقط می توانند از داده های ارائه شده به آنها استفاده کنند - چه خوب، بد، و چه زشت، تنها می تواند قضاوت ها را بر اساس این اساس انجام دهد. ربات چت مایکروسافت فوق Tay یک نمونه از این نوع تعصب است. به دلیل تاثیر یک انجمن چت آنلاین، نژادپرست تبدیل شد.
، تعصب ناخودآگاه »به معنای الگوریتم تصور غلط را لینک کنید تا با نژاد و جنسیت و عوامل دیگر. به عنوان مثال، هنگام جستجو برای عکس دکتر، هوش مصنوعی خواهد بود که نشان می دهد اولین عکس از پزشکان مرد، زنان نه پزشکان، و بالعکس با این حال، هنگام جستجو برای یک پرستار، یک وضعیت مشابه رخ خواهد داد.
، تورش انتخاب »به معنای الگوریتم با توجه به نفوذ داده، و در نتیجه بیش از حد بزرگنمایی یک گروه یا گروه، به طوری که الگوریتم به نفع خود، اما در هزینه گروه های دیگر. به کارکنان استخدام، برای مثال، اگر هوش مصنوعی است آموزش دیده برای شناسایی تنها مردان از سر، در طول روند درخواست سپس جویندگان کار زن، آن را دشوار برای موفقیت است.
"تعصب داده گرا" به این واقعیت اشاره دارد که داده های اصلی که برای آموزش الگوریتم مورد استفاده قرار می گیرد، مورد سوء استفاده قرار گرفته است. ماشین ها مانند بچه ها هستند: آنها اطلاعاتی را که دریافت می کنند، مورد سوال قرار نمی دهند، آنها به سادگی الگوهای آنها را در آنها جستجو می کنند. در نتیجه تحریف شده، نتیجه خروجی آن نیز این را منعکس می کند.
آخرین نوع «تعصب تایید» است، که شبیه به تعصب داده گرا است و این اطلاعات را پیشبینی شده از بین می برد. چنین تعصبی بر نحوه جمع آوری اطلاعات و نحوه تفسیر اطلاعات تأثیر می گذارد، مثلا اگر احساس می کنید که مردم در ماه اوت متولد شده اند. افرادی که بیش از ماههای دیگر متولد شده اند خلاق تر هستند و تمایل دارند اطلاعاتی را که این ایده را تقویت می کنند، جستجو کنند.
هنگامی که ما می دانیم که تعصبات بسیاری ممکن است به عنوان مثال سیستم هوش مصنوعی نفوذ وجود دارد، به نظر می رسد که مردم بسیار نگران است. اما این مهم است به رسمیت شناختن این واقعیت است که جهان خود را مغرضانه است، و بنابراین، در برخی موارد، برای هوش مصنوعی ما نتایج ارائه شده و می شود جای تعجب نیست، با این حال، نباید این کار، ما نیاز به یک تست و فرآیند راستی آزمایی برای الگوریتم های هوش مصنوعی و سیستم تشخیص زود هنگام از تعصب قبل و در طول طرح توسعه.
الگوریتم های مختلف و انسان، آن را دروغ نمی گوید، بنابراین، اگر نتیجه مغرضانه است، باید آن را به یک دلیل، است که، الگوریتم و اطلاعات به دست آمده در مورد یک مرد می تواند دروغ به توضیح دلایل برای کسی استخدام نیست اما AI می تواند. استفاده از الگوریتم های، ممکن است ما مطمئن شوید که وجود خواهد داشت تعصب، و تنظیم آنها برای غلبه بر این مشکلات در آینده است.
AI به عنوان یک تهدید یاد بگیرند، اشتباه می کنند، معمولا تنها پس از الگوریتم استفاده واقعی برای پیدا کردن همه تعصب ذاتی چرا که این تعصبات بزرگ است. الگوریتم در عوض، بهتر است آنها را حل کند به عنوان یک همه فرصت خوبی به پیش داوری مشکل، و درست در صورت لزوم.
ما می توانیم سیستم هایی را برای شناسایی تصمیمات بی تاثیر و اقدام به موقع بسازیم. در مقایسه با انسان، هوش مصنوعی به ویژه برای روش های بیزی برای تعیین احتمال یک فرضیه و از بین بردن همه ممکن است مناسب باشد تعصب بشر این پیچیده است، اما این امکان پذیر است، به خصوص با توجه به اهمیت هوش مصنوعی، و تنها در سال های آتی بیشتر و بیشتر مهم خواهد بود. این چیزی غیر مسئولانه است.
با توسعه سیستم های هوش مصنوعی، مهم است که بدانیم چگونه کار می کند تا آن را از طریق طراحی آگاه سازد و از پیشداوری های بالقوه در آینده جلوگیری کند. فراموش نکنید که اگرچه هوش مصنوعی به سرعت در حال رشد است اما هنوز در ابتدای مرحله، مناطق زیادی وجود دارد که باید مورد مطالعه و بهبود قرار گیرند. این تنظیم برای مدت زمان طولانی ادامه خواهد داشت. در عین حال، هوش مصنوعی دقیق تر خواهد شد. در آینده، راه های بیشتری برای غلبه بر مشکلات مانند تعصبات وجود خواهد داشت. .
برای صنعت فن آوری، ما همچنان به سوال روش های بهره برداری از دستگاه و به همین دلیل بسیار مهم است، بسیاری از هوش مصنوعی است که مانند یک جعبه سیاه، فرایند تصمیم گیری پنهان، اما عمومی و شفافیت هوش مصنوعی است، از آن برقرار شد کلید اعتماد و جلوگیری از سوء تفاهم است.
در این مرحله بسیاری از مطالعات به کمک تعصب شناسایی تولید، مانند مطالعه فرانهوفر هاینریش هرتز موسسه وجود دارد، آنها در تشخیص انواع مختلف از تعصبات مانند فوق، و همچنین بیش تعصبات، سطح پایین، و برخی متمرکز شده است، تعصبات مشکلات ممکن است در طول آموزش و توسعه هوش مصنوعی بوجود آید.
از سوی دیگر، آنچه باید مورد توجه قرار گیرد، آموزش بی نظیر است. امروزه اغلب مدل های هوش مصنوعی از طریق آموزش های نظارت شده توسعه می یابند، یعنی تنها داده های انسانی جمع آوری شده اند. آموزش با استفاده از داده های بدون برچسب، الگوریتم باید خود را مرتب سازی کند، داده ها را شناسایی و جمع آوری کند. این روش معمولا چندین مرتبه کمتر از یادگیری نظارت است، اما این روش نسبتا مداخله انسان را محدود می کند. می تواند هر گونه تعصب آگاهانه یا ناخودآگاه انسان را از بین ببرد و از تاثیر بر روی داده ها جلوگیری کند.
همچنین بسیاری از چیزهایی که می توانند از نظر زیرساخت بهبود پیدا کنند وجود دارد. در هنگام تولید محصولات جدید، وب سایت ها یا ویژگی ها، شرکت های فن آوری به افراد با استعداد در همه زمینه ها نیاز دارند. انواع مختلف داده ها برای الگوریتم ارائه می شود، این داده ها بی تاثیر هستند. اگر کسی خروجی را تجزیه و تحلیل کند، احتمال احتمال تعصب بسیار بالا خواهد بود.
علاوه بر این، حسابرسی الگوریتمی نقش های دیگری نیز دارد. در سال 2016، یک تیم تحقیقاتی در دانشگاه کارنگی ملون در ایالات متحده، تعصب های الگوریتمی را در تبلیغات شغلی آنلاین کشف کرد. آنها در اینترنت، Google Advertising ثبت شده اند. فهرستی از افرادی که به دنبال استخدام هستند نشان می دهد که نسبت مردان نسبت به مشاغل با درآمد بالا نزدیک به شش برابر بیشتر از زنان است. تیم تحقیقاتی نتیجه گرفت که اگر اولین الزامات الگوریتم در نظر گرفته شود، این امر به کاهش چنین سوگیری هایی کمک می کند.
به طور خلاصه، تعصب ماشین، تخریب انسان است. انواع مختلفی از تعصب هوش مصنوعی وجود دارد، اما در حقیقت، از یک منبع تنها به انسان می رسد.
کلید نهفته در شرکت های فن آوری، مهندسین و توسعه دهندگان به طور یکسان، باید اقدامات مؤثر برای جلوگیری از الگوریتم ناخواسته گرایش به تولید و حفظ حسابرسی باز و شفاف در هر زمان از طریق الگوریتم، ما باید اعتماد به نفس را هوش مصنوعی الگوریتم به تعصبات خلاص شوید.