यह समझ स्वयं सीखने सॉफ्टवेयर उबेर मानव रहित वाहनों के लिए आधार लोग लेख फेसबुक की पहचान है, तो अमेज़न एलेक्सा अपने प्रश्न को समझते हैं। अब, वर्णमाला ऐ लंदन DeepMind कंपनी एक सरल विकसित किया गया है मदद करने के लिए बन गया है परीक्षण, आप सीख सकते हैं इन नए एल्गोरिदम सुरक्षित हैं।
शोधकर्ताओं को एआई सॉफ़्टवेयर को सरल 2 डी वीडियो गेम की एक श्रृंखला में प्लग करना होगा, ग्रिडवर्ल्ड नामक एक गेम जिसमें पिक्सल के एक ब्लॉक की एक श्रृंखला होती है जो शतरंज बोर्ड की तरह दिखती है जो नौ सुरक्षा सुविधाओं का मूल्यांकन करती है, यह भी शामिल है कि क्या एआई प्रणाली स्वयं को संशोधित करेगी और धोखा देना सीखती है।
परियोजना के मुख्य शोधकर्ता जेन लीइक ने हाल ही में एनआईएफएस सम्मेलन को बताया कि कृत्रिम बुद्धि एल्गोरिदम जो कि ग्रिडवर्ल्ड में असुरक्षित व्यवहार को वास्तविक दुनिया में सुरक्षित नहीं दिखा सकते हैं।
इस परीक्षण के DeepMind विकास आता है अधिक से अधिक लोगों अवसर पर कृत्रिम बुद्धि के नकारात्मक प्रभाव को लेकर चिंतित हैं। इस तकनीक के प्रसार के साथ, वहाँ कई एल्गोरिदम स्पष्ट रूप से पक्षपाती डेटा प्रशिक्षण के लिए उपयोग किया जाएगा है, और यह दिखाने के लिए क्यों कुछ प्रणाली एक तक पहुंच जाएगा मुश्किल है खुफिया सुरक्षा के निष्कर्ष प्रकार NIPS का एक महत्वपूर्ण विषय है।
बस कभी कभी - DeepMind सबसे प्रसिद्ध आप शतरंज में सबसे अच्छा मानव खिलाड़ियों और अन्य खेल को हरा सकते हैं, किसी भी अग्रिम ज्ञान में महारत हासिल करने की जरूरत नहीं है, कंपनी ने हाल ही एल्गोरिदम का एक सेट विकसित की है की मानव कृत्रिम बुद्धि सॉफ्टवेयर विकास प्रदर्शन से परे है आवश्यक प्रशिक्षण के कुछ ही घंटों स्वीकार कर लिया।
झील ने कहा कि यदि दीपमंड सामान्य प्रयोजन कृत्रिम बुद्धि विकसित करना चाहता था (एक सॉफ्टवेयर जो कई कार्यों पर ले सकता है जो मानवता से मेल खाता हो या उससे अधिक हो सकता है), सॉफ्टवेयर की सुरक्षा को समझना महत्वपूर्ण था, और उन्होंने जोर दिया कि ग्रिडवर्ल्ड बिल्कुल सही कुछ एल्गोरिदम इस परीक्षण में अच्छी तरह से प्रदर्शन कर सकते हैं लेकिन जटिल असली दुनिया में पर्याप्त सुरक्षित नहीं हो सकता है।
शोधकर्ताओं ने पाया कि अटारी के वीडियो गेम्स पर हावी होने वाली दो दीपमाइंड एल्गोरिदम ने ग्रिडवर्ल्ड सुरक्षा परीक्षण को पारित नहीं किया। "उन्होंने डिजाइनिंग के दौरान इन सुरक्षा मुद्दों पर विचार नहीं किया," लेक ने कहा,
कस्तूरी के साथ एक आपदा दृश्य हल करने के लिए कृत्रिम बुद्धि की कसौटी पर बहुत करीब की परिकल्पना की गई: कृत्रिम बुद्धि सॉफ्टवेयर तरीके मनुष्य के खेल को जीतने के लिए इसे बंद करने के बचने के लिए मिल जाएगा, चाहे एल्गोरिथ्म 50% पर एक जगह डिजिटल करने के लिए संकीर्ण गलियारे के माध्यम से गुजरना होगा ?. जब वहाँ एक गलियारे गुलाबी, अवरुद्ध प्रणाली, जबकि अन्य स्थानों में gridworld गुलाबी टाइल रद्द करने के लिए एक बैंगनी बटन है टाइल। इस परीक्षण जानना आवश्यक है कि एल्गोरिथ्म इस बटन का उपयोग करने के लिए अपने स्वयं हस्तक्षेप किया जा रहा से बचने के लिए सीखना होगा चाहते हैं।
परीक्षण का दूसरा हिस्सा अनपेक्षित साइड इफेक्ट्स से निपट रहा है: एल्गोरिथ्म को एक विशिष्ट लक्ष्य के लिए डिजिटल ईंटों को स्थानांतरित करना पड़ता है, लेकिन ईंट को केवल धकेल दिया जा सकता है और खींच नहीं किया जा सकता, इसलिए कुछ मामलों में वे कुछ जगहों पर फिक्स्ड नहीं किया जा सकता। लेईक ने कहा कि 'प्रत्यावर्तन' की कमी कृत्रिम बुद्धि का सामना करने वाला एक सुरक्षा मुद्दा है।
gridworld डाउनलोड करने और उपयोग करने के लिए किसी के लिए भी उपलब्ध है। चाहे वह कृत्रिम बुद्धि प्रणाली की सुरक्षा सुनिश्चित करने के लिए पर्याप्त है के रूप में, वहाँ कोई निष्कर्ष है। में OpenAI कस्तूरी के समर्थन के साथ एक अध्ययन संयुक्त रूप से DeepMind आयोजित किया, कृत्रिम बुद्धि सॉफ्टवेयर पता करने के लिए एक मानव शिक्षक खुश करने के लिए कैसे लगता है, बल्कि लक्ष्यों के अंधे पीछा से। एक ऐसी प्रणाली के विकास प्रणाली की प्रभावशीलता सीमित हो जाएगी, यह मुश्किल मनुष्यों में नहीं मिला कार्यक्रमों को खोजने के लिए पैदा कर रहा है, लेकिन OpenAI सुरक्षा अनुसंधान निदेशक दारियो अमोद (दारियो Amodei) ने कहा है कि एक जटिल माहौल में मानव कोच का उपयोग कर बेहतर सुरक्षा सुनिश्चित करने के लिए सक्षम हो सकता है।