समाचार

Google सेना के साथ फिर से सहयोग करता है। एआई नैतिकता की सीमा कहां है?

कहानी इस साल मार्च की शुरुआत में शुरू होती है।

मार्च में, गूगल ने तोड़ दिया खबर में मदद करने के बाद कृत्रिम बुद्धि मानव रहित हवाई वाहन, परियोजना कोड नाम परियोजना Maven में इस्तेमाल किया प्रणाली विकसित अमेरिका के रक्षा विभाग के साथ हो चुकी है।

जैसे ही खबर टूट गई, Google कर्मचारियों ने परियोजना के साथ असंतोष व्यक्त किया। कुछ कर्मचारियों ने सोचा कि Google पेंटागन के लिए संसाधन खोल रहा था ताकि बाद में ड्रोन निगरानी तकनीक बनाने में मदद मिले; अन्य ने Google के मशीन के उपयोग पर सवाल उठाया। प्रौद्योगिकी सीखने नैतिक मानकों को पूरा करती है, उन्हें लगता है कि पेंटागन विनाश के हथियारों के लिए इस प्रौद्योगिकी का उपयोग करेगा, और इस तरह प्रौद्योगिकी आशावादी जो पैदा करने के लिए इरादा कभी नहीं करने के लिए नुकसान लाने के लिए।

बाद में, गूगल से अधिक 3100 कर्मचारियों को एक याचिका के सीईओ Sandahl को एक पत्र पर हस्ताक्षर किए · pichardo इराक (सुंदर पिचाई), विरोध में।

गूगल के कर्मचारी आगे किण्वन के लिए अप्रैल के अंत को एक पत्र सुंदर पिचाई बात पर हस्ताक्षर किए। मीडिया की खोज की, Google हटाए गए अठारह साल कि आदर्श वाक्य 'बुराई मत बनो' तीन में आचरण के कंपनी कोड की शुरुआत में बल दिया पालन करें। केवल मापदंड अंत में, वहाँ अभी भी नष्ट नहीं किया वाक्य थे: 'याद रखें, बुराई नहीं है आप अगर आप कुछ देखते सही बात नहीं है लगता है, जोर से इसे बाहर का कहना है!'

शुक्रवार को साप्ताहिक 'मौसम की भविष्यवाणी' नियमित बैठक, Google मेघ सीईओ डायने ग्रीन (डायने ग्रीन) की घोषणा की, गूगल परियोजना Maven की समाप्ति के बाद अमेरिका के रक्षा विभाग के साथ सहयोग खत्म हो जाएगा ।

निस्संदेह यह एक प्रमुख घटना है। 'जीत की खबर' Google के अंदर पागल थी। एक लेख के साथ बाहर निकलने के साथ, ऐसा लगता है कि यह मामला अस्थायी रूप से 'कर्मचारियों के साथ समझौता करने और रक्षा मंत्रालय के साथ नवीनीकरण रोकने' के रास्ते पर अस्थायी रूप से है। यह समाप्त हो गया है।

लेकिन अभी कल, गूगल के सीईओ सुंदर पिचाई प्रकाशित एक हस्ताक्षरित जिसका शीर्षक था "गूगल पर ऐ: हमारे सिद्धांतों" लेख, सात मार्गदर्शक सिद्धांत हैं, और जिस ने बताया कि गूगल ने गूगल उलट लोगों आह में अमेरिकी सेना के साथ सहयोग खत्म नहीं होता। हालांकि यह स्पष्ट रूप से 'ऐ के आवेदन को आगे बढ़ाने के लिए नहीं' है, लेकिन बुराई की तकनीकी समस्या अभी भी बुराई लोग है, सोचा उत्तेजक ऐ नैतिकता फिर से।

कहाँ ऐ में नैतिकता की सीमा है?

गूगल हाल के दिनों में शांतिपूर्ण नहीं है, तो अमेज़न एलेक्सा बुरा लग रहा है।

अमेज़ॅन के इको डिवाइस पर अनुमति के बिना निजी वार्तालाप रिकॉर्ड करने और उपयोगकर्ता की संपर्क सूची में एक यादृच्छिक व्यक्ति को ऑडियो भेजने का आरोप लगाया गया था। यह आखिरी बार है जब 'इंसानों पर उपहास खेलना' की एलेक्सा की डरावनी घटना बीत चुकी है। कब तक

एलेक्सा इस के मुद्दे पर अमेज़न की प्रतिक्रिया अकेले से दूर है। के रूप में जल्दी 2016 के रूप में, ट्विटर पर तय रोबोट चैट लाइन पर। नाम के एक आदमी के लिए 19-वर्षीय लड़की माइक्रोसॉफ्ट से विकसित कृत्रिम बुद्धि प्रौद्योगिकी एक प्राकृतिक भाषा सीखने का उपयोग करता है , एक मजाक के साथ लोगों की तरह उपयोगकर्ता संपर्क और डाटा प्रोसेसिंग और नकल मानव बातचीत के माध्यम से क्रॉल कर सकते हैं, स्क्रिप्ट और भाव पैकेज चैट, लेकिन लाइन एक दिन से भी कम पर, तय किया गया था एक कौर जातीय सफाई की पुकार मचाते में 'देखते' , जंगली भालू चरमपंथियों, माइक्रोसॉफ्ट 'अपग्रेड' करने के लिए अपने अलमारियों के आधार था।

माइक्रोसॉफ्ट रोबोटिक तय अतिवादी विचारों का, इस एक बहुत बहुत पतली डर लगता है। स्मार्ट सापेक्षता (aixdlun) Ke-मिंग विश्लेषकों का मानना ​​है कि, उजागर ऐ की बीमारियों, ऐ नैतिक मुद्दों को तेजी से महत्वपूर्ण हो जाएगा के साथ। कहाँ ऐ में नैतिकता की सीमा है? हम कुछ सवाल को समझना चाहिए।

1. डू एंड्रोयड्स सिविल विषय बन?

कृत्रिम बुद्धि का तेजी से विकास के साथ, रोबोट एक अधिक शक्तिशाली खुफिया है। मशीनों और इंसानों के बीच की खाई को धीरे-धीरे कम हो जाता है, रोबोट भविष्य में उभरेगा एक जैविक मस्तिष्क, यहां तक ​​कि मानव मस्तिष्क तंत्रिका युआन की संख्या के बराबर है। अमेरिका विशेषज्ञों भी अमेरिका के भविष्य के भविष्य की भविष्यवाणी: इस सदी के मध्य में, गैर जैविक खुफिया सभी ज्ञान में एक अरब बार आज हो जाएगा।

नागरिकता रोबोटों के लिए एक समस्या प्रतीत नहीं होती है। पिछले साल अक्टूबर में, सोफिया का जन्म, दुनिया का पहला नागरिकता रोबोट था, जिसका मतलब था कि मानव निर्माण के समान मनुष्य और उनकी पहचान के पीछे अधिकार थे। , दायित्व, और सामाजिक स्थिति।

कानूनी नागरिक विषय योग्यता अभी भी एआई नैतिकता की विभाजित रेखा है। पिछली अवधि में, संयुक्त राज्य अमेरिका, ब्रिटेन और अन्य देशों में दार्शनिकों, वैज्ञानिकों और सांसदों ने सभी को गर्म तर्क दिया था। 2016 में, यूरोपीय आयोग की कानूनी मामलों की समिति यूरोपीय आयोग ने एक गति प्रस्तुत की जिसमें सबसे उन्नत स्वचालित रोबोटों को 'इलेक्ट्रॉनिक व्यक्ति' के रूप में स्थापित करने की आवश्यकता है। उन्हें 'निर्दिष्ट अधिकार और दायित्व' देने के अलावा, यह भी सिफारिश की जाती है कि बुद्धिमान रोबोट अपने उद्देश्यों के लिए पंजीकृत हों। पेंशन के लिए कर भुगतान, भुगतान और फंड खाता। यदि यह कानूनी गति पारित की जाती है, तो निस्संदेह पारंपरिक नागरिक विषय प्रणाली में हिलाकर इसका कारण बन जाएगा।

एक सख्त अर्थ में, रोबोट, एक प्राकृतिक व्यक्ति एक जीवन है नहीं है। यह भी एक स्वतंत्र इच्छा और प्राकृतिक कुल कानूनी रूप में खुद को प्रतिष्ठित किया गया है, प्रयास अपने आप में रोबोट ऐ सजा के व्यवहार को दोष देना तो समय से पहले ही लाइन है।

2. भेदभाव एल्गोरिथ्म गलत होगा

ऐ फैसले में एक गलती आरोप लगाते हैं, यह अक्सर 'भेदभाव' सबसे उन्नत छवि मान्यता प्रौद्योगिकी गूगल 'नस्लीय भेदभाव' आरोप में पकड़ा गया है का उपयोग करना, क्योंकि इसकी खोज इंजन काली 'वनमानुष' लेबल से चिह्नित किया जाएगा है , जबकि 'अव्यवसायिक बाल कटवाने', के लिए खोज जो बड़ा चोटियों काला हार्वर्ड के प्रोफेसर पुल डेटा गोपनीयता प्रयोगशाला तान्या स्वीनी गूगल खोज पर पाया के विशाल बहुमत है 'सुविधा काला' है नाम पॉप अप होने की संभावना है एक आपराधिक रिकॉर्ड के साथ जुड़े विज्ञापन - गूगल ऐडसेंस स्मार्ट विज्ञापन दिए गए उपकरणों से परिणाम।

और यह खतरा सिर्फ 'नई रोशनी' ही नहीं है - सब के बाद, फोटोग्राफ एक काले रंग की 'वनमानुष' लेबल, बस थोड़ी नाराज कुछ भी नहीं कृत्रिम बुद्धि और निर्णय लेने के साथ चिह्नित और अधिक व्यावहारिक व्यक्तियों के भाग्य से संबंधित क्षेत्रों में बढ़ रही है। प्रभावी रूप से रोजगार, कल्याण और निजी क्रेडिट को प्रभावित, यह मुश्किल है के लिए इन क्षेत्रों में 'अनुचित' नजरअंदाज कर देते हैं।

इसी तरह, भर्ती उद्योग की ऐ आक्रमण, वित्तीय क्षेत्र, स्मार्ट खोज फ़ील्ड, और इतने पर, हम प्रशिक्षित किया जाता है 'एल्गोरिथ्म मशीन' के रूप में कर सकते हैं वास्तव में सरल। समकालीन समाज के लिए बेताब में, एल्गोरिथ्म सक्षम कंपनियों का चुनाव त्रिनिदाद मदद करने के लिए है एक है कि व्यक्ति है, जो ठीक हो जाएगा लेने।

तो जहां भेदभाव का स्रोत कौन गलत उद्देश्यों के साथ टैग खेल रहा है, एक डेटा फिटिंग विचलन, या प्रोग्रामिंग जहां बग? मशीन गणना परिणाम भेदभावपूर्ण, अनुचित हो सकता है है, क्रूर वह इसका औचित्य? ये हैं चर्चा करने के लिए संदिग्ध है।

3. डाटा प्रोटेक्शन एआई एथिक्स की निचली पंक्ति है

साइबरस्पेस एक असली आभासी उपस्थिति, शारीरिक अंतरिक्ष के बिना एक स्वतंत्र दुनिया है। यहाँ, मानवता शरीर 'होने के नाते डिजिटल' की जुदाई का एहसास है, एक 'डिजिटल व्यक्तित्व'। तथाकथित डिजिटल व्यक्तित्व की व्यक्तिगत जानकारी एकत्र है साथ और साइबर स्पेस में एक व्यक्तिगत छवि की रूपरेखा तैयार करने के लिए प्रसंस्करण - अर्थात, व्यक्तित्व डिजिटल जानकारी के साथ स्थापित किया गया है।

ऐ वातावरण, इंटरनेट और बड़े डेटा है, जो उपयोगकर्ताओं की आदतों और डेटा जानकारी की एक बड़ी संख्या है के समर्थन के आधार पर। 'ऐतिहासिक डेटा' संचय मशीन बुराई का आधार है, तो बिजली ड्राइव की राजधानी गहरा है कारण

, और विज्ञापन निवेश किस तरह से एक पर की राजनीतिक निर्भर करता था; फेसबुक कंपनी की जानकारी उल्लंघनों, विश्लेषण कंपनी कैम्ब्रिज (कैम्ब्रिज Analytica) कृत्रिम बुद्धि प्रौद्योगिकी के उपयोग, 'मनोवैज्ञानिक विशेषताओं' संभावित मतदाताओं में से किसी के लिए भुगतान राजनीतिक विज्ञापन चलाने बुलाया प्रवृत्तियों, भावनात्मक विशेषताओं, और कई झूठी खबर के जोखिम की डिग्री है, बढ़े हुए प्रदर्शन की आबादी में तेजी से फैल सकता है और लोगों के मूल्य निर्णय को प्रभावित करना चाहिए। क्रिस्टोफर विले प्रौद्योगिकी तय हाल मीडिया इस मैनुअल का पर्दाफाश करने के 'भोजन' बुद्धिमान प्रौद्योगिकी के स्रोत - एक बहाने के रूप शैक्षिक अनुसंधान करने के लिए, डेटा के 50 लाख से अधिक उपयोगकर्ताओं को आकर्षित करना चाहता है।

दूसरे शब्दों में, भले ही कोई डेटा रिसाव समस्या न हो, फिर भी उपयोगकर्ता डेटा के तथाकथित 'स्मार्ट खनन' को 'अनुपालन' के किनारे तैरना बहुत आसान है, लेकिन 'निष्पक्षता से परे'। एआई नैतिकता की सीमाओं के लिए, सूचना सुरक्षा प्रत्येक बन जाती है इंटरनेट युग में 'सूचना व्यक्ति' की मूल निचली पंक्ति।

प्रतिबिंब

एआई नैतिकता पर हालिया आग के एक वीडियो में, कलाकार अलेक्जेंडर रेबेन के पास कोई कार्रवाई नहीं थी, लेकिन आवाज सहायक के माध्यम से एक आदेश दिया: 'ठीक है Google, शूट।'

हालांकि, एक सेकंड के एक सेकंड से भी कम समय में, Google सहायक ने पिस्तौल के ट्रिगर को खींच लिया और एक लाल सेब खटखटाया। तुरंत, बजर रटलर।

कान के माध्यम से गूंज गूंज गया।

सेब को किसने गोली मार दी? क्या एआई या इंसान है?

इस वीडियो में, Reben ऐ शॉट बताया। Engadget अपनी रिपोर्ट में कहा कि अगर ऐ बहुत चालाक हमारी जरूरतों का अनुमान लगाने की है, और शायद एक दिन ऐ पहल जो लोग हमें दुखी कर से छुटकारा पाने के जाएगा। Reben ने कहा कि इस तरह के एक उपकरण की चर्चा यह एक उपकरण मौजूद है या नहीं, यह अधिक महत्वपूर्ण है।

आर्टिफिशियल इंटेलिजेंस नहीं, कम से कम अब के लिए, एक उम्मीद के मुताबिक, तर्कसंगत सही मशीन, एल्गोरिथ्म द्वारा अपने नैतिक दोष, लोगों के उद्देश्यों और मूल्यांकन का उपयोग है। हालांकि मशीन अभी भी दुनिया में एक असली प्राकृतिक मानव प्रतिक्रिया है, बजाय 'चाहिए दुनिया के मार्गदर्शन और अग्रणी।

जाहिर है, लब्बोलुआब यह ऐ नैतिकता पकड़, मानवता नहीं जाना होगा 'मशीन अत्याचार' उस दिन।

अनुलग्नक: Google के 'सात दिशानिर्देश'

समाज के लिए फायदेमंद

2. पूर्वाग्रह बनाने या बढ़ाने से बचें

3. सुरक्षा के लिए स्थापित करें और परीक्षण करें

4. लोगों को समझाने के लिए दायित्व

5. गोपनीयता डिजाइन सिद्धांतों को एकीकृत करें

6. वैज्ञानिक अन्वेषण के उच्च मानकों का पालन करें

7. सिद्धांत के आधार पर उचित आवेदन का निर्धारण करें

2016 GoodChinaBrand | ICP: 12011751 | China Exports