اخبار

گوگل با ارتش دوباره همکاری می کند. مرز اخلاقیات AI کجاست؟

داستان در اوایل ماه مارس سال جاری آغاز می شود شروع می شود.

در ماه مارس، گوگل را شکست اخبار شده است با وزارت دفاع ایالات متحده رسیده برای کمک به دومی توسعه سیستم های هوش مصنوعی مورد استفاده در وسایل نقلیه هوایی بدون سرنشین، پروژه با کد نام پروژه Maven را.

خبر بیرون آمد، و فورا فزاینده، کارمندان گوگل ابراز نارضایتی قوی با این پروژه معتقدند که کارمندان گوگل در منبع باز برای پنتاگون، که برای کمک به ساخت یک شتر بدی فن آوری نظارت هواپیماهای بدون سرنشین ؛. هنوز دیگران استفاده از دستگاه به طوری که گوگل سوال فن آوری یادگیری مطابق با استانداردهای اخلاقی، آنها فکر می کنم در پنتاگون این تکنولوژی برای سلاح های کشتار استفاده کنید، و در نتیجه آوردن آسیب به خوش تکنولوژی که هرگز قصد شود.

پس از آن، گوگل بیش از 3100 نفر از کارکنان یک درخواست، نامه ای به مدیر عامل شرکت Sandahl امضا · Pichardo عراق (سوندار پیچای)، در اعتراض.

کارمندان گوگل نامه چیزی سوندار پیچای به پایان ماه آوریل برای تخمیر بیشتر به امضا رساند. رسانه کشف، گوگل هجده سال که شعار "آیا می شود بد نیست، تاکید کرد که در ابتدای کد شرکت رفتار در سه دنبال حذف شده است. تنها معیار در پایان، وجود دارد جمله هنوز هم حذف نشده: 'به یاد داشته باشید، نمی شود بد، اگر شما چیزی را دیدید و فکر می کنم کار درست نیست، آن را با صدای بلند می گویند!

در روز جمعه، جلسه به طور منظم پیش بینی هوا، هفتگی، گوگل ابر مدیر عامل شرکت دایان گرین (دایان گرین) اعلام کرد، گوگل با همکاری وزارت دفاع ایالات متحده پس از انقضای Maven را پروژه پایان .

این بدون شک یک رویداد بزرگ. 'اخبار پیروزی. با افزایش از یک فصل از این گزارش، این ماده به طور موقت به نظر می رسد گوگل کارکنان به سازش، و برای جلوگیری از وزارت دفاع قرارداد، پاس احمقانه در داخل راه گوگل بسته شدن

اما درست همین دیروز، مدیر عامل شرکت گوگل سوندار پیچای منتشر شده یک امضا تحت عنوان "هوش مصنوعی در گوگل: اصول ما" مقاله، لیست هفت اصول هدایت، و اشاره کرد که گوگل با همکاری ارتش ایالات متحده در افراد وارونگی گوگل آه ختم نمی شود. اگر چه آن را به وضوح به دنبال استفاده از هوش مصنوعی نیست، اما مشکل فنی شر است که هنوز هم مردم بد، فکری اخلاق AI است.

مرزهای اخلاق AI کجاست؟

اگر گوگل در گذشته اخیر خیلی تخت نباشد، زندگی آمازون الکسا آسان نخواهد بود.

تجهیزات آمازون اکو از ضبط غیر مجاز از مکالمات خصوصی و صوتی متهم شده بود به یک فرد تصادفی در لیست تماس کاربر ارسال می شود. این شکست حوادث ترسناک از آخرین رویداد از چک «انسان خندید، ما در گذشته نداشته است چقدر طول کشید

پاسخ آمازون به این موضوع از چک این است به دور از تنهایی. همانطور که در اوایل سال 2016، دختر 19 ساله به مردی به نام تی چت ربات در توییتر بر روی خط. این تکنولوژی هوش مصنوعی مایکروسافت توسعه یافته با استفاده از یک یادگیری زبان طبیعی می توانید از طریق تعامل با کاربر و پردازش داده ها و گفتگو انسانی تقلید خزیدن، مانند مردم با یک شوخی، چت اسکریپت ها و بسته عبارت، اما در خط کمتر از یک روز، تی، تنظیم، شد به یک لقمه تقاضاهای مصرانه پاکسازی قومی ، افراط گرایان خرس وحشی، مایکروسافت تا به حال "ارتقاء" زمینه از قفسه های آن است.

اظهارات شدید ساخته شده توسط ربات تایت مایکروسافت واقعا به مردم احتیاج دارد. به گفته کمینگ، تحلیلگر Aixdlun با برجستهی مشکلات AI، مسائل اخلاقی AI نیز توجه بیشتری را به خود جلب می کند. مرز اخلاقی AI چیست؟ ما باید به چند سوال را درک کنید.

1. آیا آدم مصنوعی ها در معرض مدنی؟

با توسعه سریع از هوش مصنوعی، ربات دارای یک هوش قوی تر است. فاصله بین ماشین ها و انسان تدریج کاهش می یابد، ربات در آینده ظهور خواهد کرد یک مغز بیولوژیکی، حتی قابل مقایسه با تعداد یوان عصبی مغز انسان است. کارشناسان ایالات متحده حتی پیش بینی آینده از آینده امریکا: در اواسط این قرن، هوش غیر زیستی خواهد بود یک میلیارد بار در هر حکمت امروز.

به نظر می رسد شهروندی یک مشکل برای روبات ها نیست. در اکتبر سال گذشته، تولد سوفیا، اولین ربات شهروندی جهان، به این معنا بود که خلقیات انسان همان هویت انسان و حقوق هویت آنها را داشت. ، تعهدات و موقعیت اجتماعی.

صلاحیت موضوع مدنی اخلاق حقوقی AI است که هنوز خط تقسیم در آخرین دوره از زمان، فیلسوفان ایالات متحده و بریتانیا و دیگر کشورها، از جمله دانشمندان از وکلا هم به این بحث های داغی در 2016 انجام شده است، کمیته امور حقوقی کمیسیون اروپا کمیسیون اروپا یک حرکت به هویت ربات خودکار پیشرفته ترین موقعیت به عنوان یک سایبورگ (افراد الکترونیکی) ارسال شده است، علاوه بر آن حقوق و تعهدات خاص، و همچنین توصیه می شود برای ثبت نام ربات خودمختار به عنوان هوشمند به انجام آن مالیات، هزینه، حساب صندوق بازنشستگی. حرکت قانونی، در صورت تصویب، بدون شک این موضوع مدنی سنتی متزلزل است.

در یک معنای دقیق، ربات است نه شخص حقیقی یک زندگی دارد، همچنین خود را به عنوان اراده ای مستقل و سنگدانه های طبیعی قانونی را مشخص کرده است. اگر تلاش به سرزنش رفتار ربات AI اعتقاد به خودی خود، آیا خط از موعد مقرر.

2. الگوریتم تبعیض می تواند غیر منصفانه

AI متهم یک اشتباه در قضاوت، آن است که اغلب "تبعیض 'با استفاده از پیشرفته ترین تکنولوژی تشخیص تصویر گوگل در" تبعیض نژادی "اتهام گرفتار شده است، چرا موتور جستجوی خود را با برچسب سیاه و سفید' اورانگوتان 'مشخص شده ؛ در حالی که جستجو برای 'کوتاه کردن مو غیر حرفه ای است، که اکثریت قریب به اتفاق از نوارهای بزرگ سیاه و سفید استاد دانشگاه هاروارد کشش آزمایشگاهی حفظ حریم خصوصی داده تانیا سوئینی در بر داشت در جستجوی Google، از ویژگی های سیاه و سفید نام به احتمال زیاد به پاپ تا تبلیغات مرتبط با سابقه کیفری - نتایج از Google AdSense ابزارهای تبلیغاتی هوشمند داده می شود.

و این خطر است که فقط "جدید نور" خود را - بعد از همه، این عکس مشخص شده با یک برچسب سیاه و سفید 'اورانگوتان، فقط یک چیزی به جرم هوش مصنوعی کمی و تصمیم گیری در حال رشد است به زمینه های عملی تر مربوط به سرنوشت افراد است. به طور موثر تحت تاثیر قرار دهد اشتغال، رفاه و اعتبار شخصی، دشوار است برای این مناطق «غیرمنصفانه» به نوبه خود چشم.

به طور مشابه، به عنوان حمله AI صنعت استخدام، بخش مالی، قسمت جستجو هوشمند، و غیره، ما آموزش دیده "دستگاه الگوریتم می تواند واقعا ادم در از جان گذشته برای جامعه معاصر، الگوریتم قادر است برای کمک به شرکت انتخاب ترینیداد A که شخص، که خوب خواهد شد را انتخاب کنید.

بنابراین که در آن منبع تبعیض؟ چه کسی بازی تگ با انگیزه های نهان است، انحراف اتصالات داده ها، و یا برنامه نویسی که در آن اشکال ماشین نتایج محاسبه شده می تواند تبعیض آمیز، ناعادلانه است، بی رحمانه آن را توجیه می کنند؟ این مشکلی است که بحث کنیم.

3. حفاظت از اطلاعات، خط مقدم اخلاق هوش مصنوعی است

فضای مجازی است حضور مجازی واقعی، جهان مستقل و بدون فضای فیزیکی است. در اینجا، انسانیت متوجه جدایی از بدن وجود دیجیتال، با یک شخصیت دیجیتالی. به اصطلاح شخصیت های دیجیتال است که: جمع آوری اطلاعات شخصی و با اجازه دادن به یک تصویر شخصی در فضای مجازی "- این است که، به موجب اطلاعات دیجیتالی و راه اندازی شخصیت.

در محیط AI، بر اساس پشتیبانی از اینترنت و داده های بزرگ، تعداد زیادی از عادت های کاربر و اطلاعات داده شده است. اگر جمع آوری داده ها در گذشته بر اساس شر ماشین باشد، نیروی محرک قدرت سرمایه یک سطح عمیق تر است. دلیل

در صورت نشت اطلاعات فیس بوک، شرکت Cambridge Analtica از تکنولوژی هوش مصنوعی استفاده می کند تا تبلیغات سیاسی پرداخت شده را بر روی ویژگی های روحی هر رأی دهنده بالقوه قرار دهد؛ چه نوع تبلیغاتی به سیاست های خود بستگی دارد. گرایش های، ویژگی های عاطفی، و درجه آسیب پذیری بسیاری از اخبار دروغ می تواند به سرعت در یک جمعیت پخش می شود، افزایش قرار گرفتن در معرض و باید قضاوت های ارزشی افراد تاثیر میگذارند. تکنولوژی کریستوفر ویلی دیکته به رسانه های اخیر در معرض این کتابچه راهنمای کاربر منبع غذایی "فناوری هوشمند" - به نام تحقیقات علمی، بیش از 50 میلیون کاربر کاربر که قصد دارد تا آن را جذب کند.

برگشت کلمات، حتی اگر هیچ مشکل نشت داده ها وجود دارد، 'استخراج هوشمند به اصطلاح داده های کاربر نیز بسیار آسان است به راه رفتن در' انطباق اما یال هایی نابرابر. به عنوان مرز اخلاق AI، امنیت اطلاعات در هر تبدیل شده است خط پایه پایه یک فرد اطلاعاتی در عصر اینترنت.

بازتاب

در برخی از ویدیو های اخیر آتش اخلاق AI، هنرمند الکساندر Reben هیچ اقدام، اما سفارشات توسط دستیار صوتی: 'OK گوگل، ساقه.

با این حال، برق زده از چشم کمتر از یک ثانیه، گوگل دستیار کشیده ماشه از یک هفت تیر، حذف از یک سیب قرمز. بلافاصله، بوق وزوز خشن.

وزوز از طریق گوش ها آواز خواند.

چه کسی سیب را گرفت؟ آیا AI یا انسان است؟

در این ویدئو، Reben شات AI گفت. کالا در گزارش خود گفت که اگر AI به اندازه کافی هوشمند به پیش بینی نیازهای ما، و شاید یک روز AI خواهد ابتکار عمل برای خلاص شدن از کسانی که ما را ناراضی را است. Reben گفت که بحث از جمله یک دستگاه مهمتر از این است که آیا چنین دستگاهی وجود دارد.

هوش مصنوعی است نه قابل پیش بینی، دستگاه کامل عقلانی، نقص اخلاقی او توسط الگوریتم، مردم استفاده از اهداف و ارزیابی. با این حال، حداقل در حال حاضر، دستگاه هنوز یک واکنش طبیعی انسان واقعی در جهان، به جای «باید راهنمایی و پیشگامان جهان

بدیهی است، نگه خط پایین اخلاق AI، بشریت خواهد شد 'استبداد ماشین که روز رفتن نیست.

گزارش: گوگل، هفت اصل،

سودآور جامعه

2. از ایجاد یا تقویت تعصبات جلوگیری کنید

3. ایجاد و آزمایش برای ایمنی

4. وظیفه برای توضیح دادن به مردم

5. ادغام اصول طراحی حریم خصوصی

6. مطابق با استانداردهای بالا اکتشاف علمی

7. برنامه مناسب را بر اساس اصل تعیین کنید

2016 GoodChinaBrand | ICP: 12011751 | China Exports