خبریں

گوگل دوبارہ فوجی سے تعاون کرتا ہے. اے اے اخلاقیات کی حد کہاں ہے؟

اس سال مارچ کے آغاز میں کہانی شروع ہوتی ہے.

مارچ میں، گوگل توڑ دیا خبروں مؤخر الذکر کو تیار بغیر پائلٹ ہوائی گاڑیاں، منصوبہ کوڈ نام پروجیکٹ Maven میں استعمال کیا مصنوعی ذہانت کے نظام کی مدد کے لئے امریکی محکمہ دفاع کے ساتھ پہنچ گیا ہے.

خبر باہر آئے، اور فوری طور پر بڑھتی ہیں، گوگل کے ملازمین کو اس منصوبے کے ساتھ مضبوط عدم اطمینان کا اظہار یقین ایک اونٹ تعمیر کرنے میں مدد ملے جو پینٹاگون کے لئے اوپن سورس میں گوگل کے ملازمین بری ڈرون نگرانی ٹیکنالوجی؛ پھر بھی دوسروں کو گوگل تو مشین کے استعمال سے پوچھ گچھ کرتے ہیں کہ سیکھنے ٹیکنالوجی اخلاقی معیار پر پورا اترتا ہے، وہ پینٹاگون تباہی پھیلانے والے ہتھیاروں کے لئے اس ٹیکنالوجی کا استعمال کریں گے، اور اس طرح کی وجہ سے کرنے کا ارادہ کبھی نہیں جو ٹیکنالوجی رجائیت کو نقصان لانے لگتا ہے.

اس کے بعد، گوگل سے زیادہ 3100 ملازمین ایک درخواست، سی ای او Sandahl کو ایک خط پر دستخط کئے · Pichardo عراق (سندر Pichai)، احتجاجا.

گوگل کے ملازمین کو مزید ابال کے لئے اپریل کے اختتام پر ایک خط سندر Pichai چیز پر دستخط کیے. میڈیا دریافت، گوگل خارج کر اٹھارہ سال معیاری جملہ 'برائی نہ بنو' تین میں ضابطہ اخلاق کی کمپنی کے کوڈ کے آغاز پر زور دیا پیروی ہے کہ صرف کسوٹی آخر میں، اب بھی حذف نہیں سزا وہاں تھے: 'یاد رکھیں، برائی نہ کرو، تم سے کچھ دیکھنے اگر آپ کو صحیح بات نہیں ہے لگتا ہے کہ بلند آواز سے کہنا!'

جمعہ، ہفتہ وار 'موسم کی پیشن گوئی' باقاعدہ اجلاس، گوگل کلاؤڈ CEO ڈیانے گرین (ڈیانے گرین) نے اعلان کیا ہے، گوگل پروجیکٹ Maven کی میعاد ختم ہونے کے بعد امریکی محکمہ دفاع کے ساتھ تعاون ختم ہو جائے گی .

یہ بلاشبہ ایک اہم واقعہ ہے. 'فتح کی خبر' کی رپورٹ کے ایک باب سے باہر بڑھتی ساتھ، یہ معاملہ عارضی طور پر گوگل کو 'ملازمین سمجھوتہ کرنے، اور محکمہ دفاع کے معاہدہ کو روکنے کے لئے' گوگل طریقہ اندر پاگل پاس لگتا ہے یہ ختم ہو جاتا ہے.

لیکن کل، گوگل کے سی ای او سندر Pichai شائع ایک دستخط شدہ حقدار "گوگل پر AI: ہمارا اصول" مضمون، سات رہنما اصول کی فہرست، اور Google گوگل الٹا لوگ سانس میں امریکی فوج کے ساتھ تعاون ختم نہیں ہوتی کہ اس کی نشاندہی. یہ واضح طور پر 'AI کی درخواست کی پیروی کے لئے نہیں' اگرچہ، لیکن برائی کی تکنیکی مسئلہ اب بھی برے لوگ ہے، فکر انگیز دوبارہ AI اخلاقیات.

AI میں اخلاقیات کی حد کہاں ہے؟

گوگل حالیہ دنوں میں پرامن نہیں ہے تو، ایمیزون سے Alexa برا لگ رہا ہے.

ایمیزون کے اونو آیوائس پر نجی بات چیت کی ریکارڈ کے بغیر صارف کی رابطے کی فہرست میں بے ترتیب شخص کو ریکارڈ کرنے اور آڈیو بھیجنے کا الزام لگایا گیا تھا. یہ آخری وقت ہے کہ 'انسان کو ملنے والا' الیکسکا کا خوفناک واقعہ ابھی تک منظور نہیں ہوا ہے. کب تک

یہ Alexa میں کے معاملے پر ایمیزون کے جواب اکیلے سے دور ہے. کے طور پر ابتدائی 2016 کے طور پر، ٹویٹر پر Tay کی روبوٹ چیٹ لائن پر. نامی شخص کو 19 سالہ لڑکی مائیکروسافٹ تیار مصنوعی ذہانت ٹیکنالوجی ایک قدرتی زبان سیکھنے کا استعمال کرتا ہے ایک مذاق کے ساتھ لوگوں کی طرح، صارف کو بات چیت اور ڈیٹا پروسیسنگ اور نقل انسانی گفتگو کے ذریعے کرال چیٹ سکرپٹ اور اظہار پیکج، لیکن ایک دن سے بھی کم لائن پر، Tay کی نسلی صفائی حق میں ایک گراس میں 'دیکھتے' کیا گیا تھا کر سکتے ہیں ، جنگلی ریچھ انتہا پسندوں، مائیکروسافٹ 'اپ گریڈ' کے لیے اپنی شیلف کی بنیاد پڑی.

مائیکروسافٹ روبوٹکس Tay کی انتہائی خیالات، یہ بہت پتلی خوف سوچنے کی ایک بہت ہے. اسمارٹ اضافیت (aixdlun) Ke ڈکشنری منگ تجزیہ نگاروں، جو کہ خاص بات AI کی برائیوں، AI اخلاقی مسائل تیزی قابل قدر ہو جائے گا کے ساتھ. کہاں AI میں اخلاقیات کی حد ہے کہ یقین؟ ہم چند سوالات سمجھنا چاہئے.

1. کیا Androids کے سول موضوع بن؟

مصنوعی ذہانت کی تیز رفتار ترقی کے ساتھ، روبوٹ ایک زیادہ طاقتور انٹیلی جنس ہے. مشینیں اور انسانوں کے درمیان فرق کو آہستہ آہستہ کم کیا جاتا ہے، روبوٹ مستقبل میں ابھرے گی ایک حیاتیاتی دماغ انسانی دماغ اعصاب یوآن کی تعداد بھی قابل موازنہ ہے. امریکی ماہرین بھی امریکہ کے مستقبل کے مستقبل کی پیشن گوئی: اس صدی کے وسط میں، غیر حیاتیاتی انٹیلیجنس آج تمام علوم کی ایک ارب گنا ہو جائے گا.

شہریوں کو روبوٹ کے لئے کوئی مسئلہ نہیں لگتا ہے. گزشتہ سال اکتوبر میں، سوفیا کی پیدائش، دنیا کی پہلی شہریت کے روبوٹ کا مقصد یہ ہے کہ انسانی تخلیق انسان کے طور پر ایک ہی شناخت اور اپنی شناخت کے پیچھے حقوق رکھتے ہیں. ، ذمہ داریوں، اور سماجی حیثیت.

قانونی سولیشن کی اہلیت اب بھی AI اخلاقیات کی تقسیم لائن ہے. پچھلے عرصے میں، امریکہ، برطانیہ اور دیگر ممالک میں فلسفہ، سائنس دانوں اور قانون ساز نے تمام دلائل سنبھالے ہیں. 2016 میں، یورپی کمیشن کے قانونی معاملات کمیٹی یورپی کمیشن نے ایک تحریک پیش کی جس میں سب سے زیادہ جدید خود کار طریقے سے روبوٹ کی حیثیت سے 'الیکٹرانک افراد' کی حیثیت رکھتا ہے. ان کے 'مخصوص حقوق اور ذمہ داریاں' دینے کے علاوہ، یہ بھی سفارش کی جاتی ہے کہ ذہین روبوٹ ان کے اپنے مقاصد کے لئے رجسٹرڈ ہوں. پینشن کی ادائیگی، ادائیگی، اور پینشن کے لئے اکاؤنٹ فنڈ. اگر یہ قانونی تحریک منظور ہو جائے تو، بلاشبہ یہ روایتی سول مضامین کے نظام میں جھٹکا لگے گا.

ایک سخت معنی میں، روبوٹ نہیں ایک قدرتی شخص ایک زندگی ہے بھی ایک آزاد مرضی اور قدرتی مجموعی قانونی طور اپنے آپ کو پہچانا ہے، ہے.، کوشش خود میں روبوٹ AI سزایابی کے رویے پر الزام عائد کرنا ہے تو وقت سے پہلے لائن کو کرتا ہے.

2. امتیاز الگورتھم غیر منصفانہ ہو گا

AI فیصلے میں ایک غلطی پر الزام لگایا ہے، یہ اس کی تلاش کے انجن کی سیاہ 'آرنگٹان' لیبل کے ساتھ نشان لگا دیا جائے گا کیونکہ اکثر 'امتیاز' سب سے زیادہ جدید تصویر شناس ٹیکنالوجی گوگل 'نسلی امتیاز' الزام میں پکڑا گیا ہے کا استعمال کرتے ہوئے ہے ؛ جبکہ 'اویوساییک کٹوانے'، کے لئے تلاش بڑی داڑھیوں سیاہ ہارورڈ یونیورسٹی کے پروفیسر پل ڈیٹا کی رازداری کی لیبارٹری تانیا سوینی گوگل کے تلاش پر پائے کی بڑی اکثریت ہے جو 'خصوصیت سیاہ' ہے نام پاپ کا امکان ہے ایڈورٹائزنگ ایک مجرمانہ ریکارڈ کے ساتھ منسلک - گوگل ایڈسینس دیا سمارٹ ایڈورٹائزنگ اوزار سے نتائج.

اور یہ خطرہ صرف 'نئی روشنی' خود نہیں ہے - سب کے بعد، تصویر ایک سیاہ 'آرنگٹان' لیبل، صرف ایک چھوٹا سا ناراض کچھ بھی مصنوعی ذہانت اور فیصلہ سازی کے نشان والے افراد کی قسمت سے متعلق زیادہ عملی شعبوں میں بڑھ رہی ہے. ان علاقوں 'غیر منصفانہ' ایک نظر تبدیل لئے مؤثر طریقے سے روزگار، سماجی بہبود اور ذاتی کریڈٹ کو متاثر، یہ مشکل ہے.

اسی طرح، بھرتی صنعت کے AI حملے، مالیاتی شعبے، سمارٹ تلاش کے خانے، اور اسی طرح، ہم تربیت یافتہ ہیں 'الگورتھم مشین' کے طور پر واقعی نقائص سے پاک. معاصر معاشرے کے لئے بے چین ہے، الگورتھم قابل کمپنیوں ٹرینیڈاڈ منتخب کرنے میں مدد کرنے کے لئے ہے کر سکتے ہیں ایک وہ شخص ٹھیک ہو جائے گا جس کے لے.

لہذا امتیاز کا ذریعہ؟ کون مذموم مقاصد کے ساتھ ٹیگ کھیل رہا ہے جہاں ہے، ایک ڈیٹا فٹنگ انحراف، یا جہاں بگ؟ مشین شمار کیا نتائج امتیازی، غیر منصفانہ ہو سکتا ہے پروگرامنگ ہے، ظالم اس کا جواز پیش؟ یہ ہیں اس سوال کے لئے کھلا ہے.

3. ڈیٹا کے تحفظ اخلاقیات عی کے سب سے نیچے لائن ہے

سائبرسپیس ایک حقیقی مجازی موجودگی، جسمانی جگہ کے بغیر ایک آزاد دنیا ہے. یہاں، انسانیت ایک 'ڈیجیٹل شخصیت' نام نہاد ڈیجیٹل شخصیت کی ذاتی معلومات جمع ہے کے ساتھ، جسم 'ہونے ڈیجیٹل' کی علیحدگی کا احساس اور سائبر سپیس میں 'ایک ذاتی تصویر دے کی طرف سے - ڈیجیٹائزڈ معلومات کی فضیلت اور شخصیت قائم کر پر ہے.

اے این ماحول میں، انٹرنیٹ اور بڑے اعداد و شمار کی حمایت پر مبنی ہے، اس کے پاس صارف کی عادات اور ڈیٹا کی معلومات کا بہت بڑا معاملہ ہے. اگر 'ماضی میں ڈیٹا' کو جمع کرنے کی مشین برائی کی بنیاد ہے، تو سرمایہ دار طاقت کا ڈرائیور قوت سطح کو گہرا کرنا ہے. وجہ

کسی کے سیاسی لحاظ سے، اور اشتہارات کی سرمایہ کاری کی کس قسم؛ فیس بک کمپنی کی معلومات خلاف ورزیوں، تجزیہ کمپنی کے کیمبرج (کیمبرج Analytica) مصنوعی ذہانت ٹیکنالوجی کا استعمال، 'نفسیاتی خصوصیات' ممکنہ ووٹروں میں سے کسی کے لئے ادا کی سیاسی اشتہارات چلانے بلایا رجحانات، جذباتی خصوصیات، اور بہت سے جھوٹے خبر کے خطرے کی ڈگری اضافہ کی نمائش، جس کی آبادی میں تیزی سے پھیل سکتا ہے اور لوگوں کی قدر فیصلوں پر اثر انداز ہونے چاہئے. کرسٹوفر ولی ٹیکنالوجی سے حالیہ میڈیا اس دستی کو بے نقاب حکم 'خوراک' انٹیلی ٹیکنالوجی کا ذریعہ - ایک بہانے کے طور پر تعلیمی تحقیق کرنے، ڈیٹا کے 50 ملین سے زائد صارفین پر قبضہ کرنے کا ارادہ رکھتی ہے.

واپس الفاظ، یہاں تک کہ کوئی ڈیٹا رساو مسئلہ ہے تو، نام نہاد صارف کے ڈیٹا 'انٹیلی کان کنی' بھی 'تعمیل' لیکن 'غیر منصفانہ' کناروں میں چلنے کے لئے بہت آسان ہے. AI اخلاقیات کی حدود کے طور پر، معلومات سیکورٹی ہر بن گیا 'مخبر' سب سے بنیادی نیچے لائن کو اگلے انٹرنیٹ کے دور.

عکاسی

آواز اسسٹنٹ طرف AI اخلاقیات، آرٹسٹ الیگزینڈر Reben کوئی کارروائی نہیں کی، لیکن احکامات کی کچھ حالیہ آتشزدگی ویڈیو میں: 'ٹھیک ہے گوگل، گولی مار.'

تاہم، ایک سیکنڈ سے بھی کم وقت تو آنکھ کے جھپکنے، گوگل اسسٹنٹ ایک پستول کے ٹرگر، بیپر سخت بز نکالا ایک سرخ سیب ناک آؤٹ فورا.

Hum کی کانوں کے ذریعے گونج.

کون ایپل کو فائرنگ کھول دی؟ AI یا انسان ہے؟

اس ویڈیو میں، Reben AI شاٹ بتایا. اپنی رپورٹ میں Engadget کہا AI ہماری ضروریات کا اندازہ کرنے کے لئے، اور شاید ایک دن AI ہمیں ناخوش کرنے والوں میں سے چھٹکارا حاصل کرنے کے لئے پہل کرے گا کافی ہوشیار ہے. Reben کہا کہ اس طرح ایک آلہ کی بحث اس سے زیادہ ضروری ہے کہ اس طرح کے ایک آلہ موجود ہے.

مصنوعی انٹیلی جنس ایک متوقع، کامل عقلی مشین نہیں ہے، اس کی اخلاقی غلطیوں کو الگورتھم سے بنا دیا جاتا ہے، لوگ مقاصد اور تشخیص کا استعمال کرتے ہیں. تاہم، کم از کم اب بھی، مشینیں اب بھی حقیقی حقیقی دنیا کا جواب ہیں، نہیں 'ہونا چاہئے. ورلڈ کے رہنمائی اور پائینرز.

واضح طور پر، AI کے اخلاقی نچلے حصے پر منعقد کرنے کے لئے، انسانوں کو 'مشین پرانی' کے دن نہیں جائیں گے.

منسلک: گوگل کی 'سات ہدایات'

معاشرے کے لئے فائدہ مند

2. تعصب پیدا کرنے یا بڑھانے سے بچیں

3. حفاظت کے لئے قائم کریں اور آزمائیں

4. لوگوں کی وضاحت کرنے کے لئے ذمہ داری

5. رازداری ڈیزائن کے اصولوں کو ضم

6. سائنسی تحقیق کے اعلی معیار پر عمل کریں

7. اصول کی بنیاد پر مناسب درخواست کا تعین کریں

2016 GoodChinaBrand | ICP: 12011751 | China Exports