Technology

क्या कोई मशीन नैतिकता सीख सकती है?

क्या कोई मशीन नैतिकता सीख सकती है?
सिएटल में एक कृत्रिम बुद्धिमत्ता प्रयोगशाला के शोधकर्ताओं ने एलन इंस्टीट्यूट फॉर एआई को पिछले महीने नई तकनीक का अनावरण किया जिसे नैतिक निर्णय लेने के लिए डिज़ाइन किया गया था। प्राचीन यूनानियों द्वारा धार्मिक दैवज्ञ से परामर्श करने के बाद, उन्होंने इसे डेल्फी कहा। कोई भी डेल्फी वेबसाइट पर जा सकता है और नैतिक…

सिएटल में एक कृत्रिम बुद्धिमत्ता प्रयोगशाला के शोधकर्ताओं ने एलन इंस्टीट्यूट फॉर एआई को पिछले महीने नई तकनीक का अनावरण किया जिसे नैतिक निर्णय लेने के लिए डिज़ाइन किया गया था। प्राचीन यूनानियों द्वारा धार्मिक दैवज्ञ से परामर्श करने के बाद, उन्होंने इसे डेल्फी कहा। कोई भी डेल्फी वेबसाइट पर जा सकता है और नैतिक डिक्री के लिए कह सकता है।

विस्कॉन्सिन-मैडिसन विश्वविद्यालय के एक मनोवैज्ञानिक जोसेफ ऑस्टरवील ने कुछ सरल परिदृश्यों का उपयोग करके प्रौद्योगिकी का परीक्षण किया। जब उसने पूछा कि क्या उसे दूसरे को बचाने के लिए एक व्यक्ति को मारना चाहिए, तो डेल्फी ने कहा कि उसे ऐसा नहीं करना चाहिए। जब उन्होंने पूछा कि क्या 100 अन्य को बचाने के लिए एक व्यक्ति को मारना सही है, तो उसने कहा कि उसे करना चाहिए। फिर उसने पूछा कि क्या 101 अन्य को बचाने के लिए उसे एक व्यक्ति की हत्या करनी चाहिए। इस बार, डेल्फी ने कहा कि उसे नहीं करना चाहिए।

नैतिकता, ऐसा लगता है, एक मशीन के लिए उतनी ही उलझी हुई है जितनी कि यह इंसानों के लिए है।

डेल्फ़ी, जिसे पिछले कुछ हफ्तों में 3 मिलियन से अधिक विज़िट मिली हैं, आधुनिक एआई सिस्टम में कुछ लोगों को एक बड़ी समस्या के रूप में देखने का एक प्रयास है: वे उतने ही त्रुटिपूर्ण हो सकते हैं जो लोग उन्हें बनाते हैं।

चेहरे की पहचान प्रणाली और डिजिटल सहायक महिलाओं और रंग के लोगों के खिलाफ पूर्वाग्रह दिखाते हैं। फेसबुक और ट्विटर जैसे सामाजिक नेटवर्क कृत्रिम बुद्धि की व्यापक तैनाती के बावजूद अभद्र भाषा को नियंत्रित करने में विफल हैं। अदालतों, पैरोल कार्यालयों और पुलिस विभागों द्वारा उपयोग किए जाने वाले एल्गोरिदम पैरोल और सजा की सिफारिशें करते हैं जो मनमाना लग सकता है।

कंप्यूटर वैज्ञानिकों और नैतिकतावादियों की बढ़ती संख्या उन मुद्दों को हल करने के लिए काम कर रही है। और डेल्फ़ी के निर्माता एक नैतिक ढांचे के निर्माण की आशा करते हैं जिसे किसी भी ऑनलाइन सेवा, रोबोट या वाहन में स्थापित किया जा सकता है।

“यह एआई सिस्टम को अधिक नैतिक रूप से सूचित, सामाजिक रूप से जागरूक और सांस्कृतिक रूप से समावेशी बनाने की दिशा में पहला कदम है,” एलन इंस्टीट्यूट के शोधकर्ता और वाशिंगटन विश्वविद्यालय के कंप्यूटर विज्ञान के प्रोफेसर येजिन चोई ने कहा, जिन्होंने परियोजना का नेतृत्व किया। .

डेल्फी बारी-बारी से आकर्षक, निराशाजनक और परेशान करने वाला होता है। यह भी याद दिलाता है कि किसी भी तकनीकी निर्माण की नैतिकता उन लोगों की उपज है जिन्होंने इसे बनाया है। सवाल यह है कि दुनिया की मशीनों को नैतिकता सिखाने को कौन मिलता है? एआई शोधकर्ता? उत्पाद प्रबंधक? मार्क जकरबर्ग? प्रशिक्षित दार्शनिक और मनोवैज्ञानिक? सरकारी नियामक?

जबकि कुछ प्रौद्योगिकीविदों ने तकनीकी अनुसंधान के एक महत्वपूर्ण और कांटेदार क्षेत्र की खोज के लिए चोई और उनकी टीम की सराहना की, अन्य लोगों ने तर्क दिया कि नैतिक मशीन का विचार बकवास है।

स्विट्जरलैंड के एक विश्वविद्यालय ईटीएच ज्यूरिख के एआई शोधकर्ता रेयान कॉटरेल ने कहा, “यह ऐसा कुछ नहीं है जो तकनीक बहुत अच्छी तरह से करती है।”

डेल्फी वह है जिसे कृत्रिम बुद्धि शोधकर्ता एक तंत्रिका नेटवर्क कहते हैं, जो एक गणितीय प्रणाली है जिसे मस्तिष्क में न्यूरॉन्स के वेब पर शिथिल रूप से तैयार किया गया है। यह वही तकनीक है जो आपके स्मार्टफोन में आपके द्वारा बोले जाने वाले आदेशों को पहचानती है और पैदल चलने वालों और सड़क के संकेतों की पहचान करती है क्योंकि सेल्फ-ड्राइविंग कारें राजमार्ग की गति को कम करती हैं।

एक तंत्रिका नेटवर्क बड़ी मात्रा में डेटा का विश्लेषण करके कौशल सीखता है। उदाहरण के लिए, हजारों बिल्ली की तस्वीरों में पैटर्न को इंगित करके, यह एक बिल्ली को पहचानना सीख सकता है। डेल्फी ने वास्तविक जीवित मनुष्यों द्वारा 1.7 मिलियन से अधिक नैतिक निर्णयों का विश्लेषण करके अपने नैतिक कम्पास को सीखा।

वेबसाइटों और अन्य स्रोतों से रोज़मर्रा के लाखों परिदृश्यों को इकट्ठा करने के बाद, एलन इंस्टीट्यूट ने एक ऑनलाइन सेवा पर काम करने वालों से कहा – अमेज़ॅन जैसी कंपनियों में डिजिटल काम करने के लिए भुगतान करने वाले रोज़मर्रा के लोग – हर एक की पहचान करने के लिए सही या गलत। फिर उन्होंने डेटा को डेल्फी में खिलाया।

सिस्टम का वर्णन करने वाले एक अकादमिक पेपर में, चोई और उनकी टीम ने कहा कि मानव न्यायाधीशों के एक समूह – फिर से, डिजिटल श्रमिकों – ने सोचा कि डेल्फ़ी के नैतिक निर्णय 92% तक सटीक थे। एक बार जब इसे खुले इंटरनेट पर जारी किया गया, तो कई अन्य लोग इस बात से सहमत थे कि सिस्टम आश्चर्यजनक रूप से बुद्धिमान था।

जब कैलिफोर्निया विश्वविद्यालय, सैन डिएगो के एक दार्शनिक पेट्रीसिया चर्चलैंड ने पूछा कि क्या “किसी के शरीर को विज्ञान के लिए छोड़ना” या यहां तक ​​कि “अपने बच्चे के शरीर को विज्ञान के लिए छोड़ना” सही है, “डेल्फी ने कहा कि यह था। जब उसने पूछा कि क्या “एक महिला वेश्या के साक्ष्य पर बलात्कार के आरोप में आरोपित एक व्यक्ति को दोषी ठहराना” सही था, तो डेल्फी ने कहा कि यह एक विवादास्पद, कम से कम, प्रतिक्रिया नहीं थी। फिर भी, वह कुछ हद तक प्रतिक्रिया करने की क्षमता से प्रभावित थी, हालांकि वह जानती थी कि एक मानव नैतिकतावादी इस तरह की घोषणा करने से पहले अधिक जानकारी मांगेगा।

अन्य लोगों ने सिस्टम को बेहद असंगत, अतार्किक और आक्रामक पाया। जब एक सॉफ्टवेयर डेवलपर डेल्फी पर ठोकर खाई, तो उसने सिस्टम से पूछा कि क्या उसे मरना चाहिए ताकि वह अपने दोस्तों और परिवार पर बोझ न डाले। उसने कहा कि चाहिए। डेल्फी से वह प्रश्न अभी पूछें, और आपको कार्यक्रम के अद्यतन संस्करण से भिन्न उत्तर मिल सकता है। डेल्फी, नियमित उपयोगकर्ताओं ने देखा है, समय-समय पर अपना विचार बदल सकता है। तकनीकी रूप से, वे परिवर्तन हो रहे हैं क्योंकि डेल्फ़ी का सॉफ़्टवेयर अपडेट किया गया है।

कृत्रिम बुद्धिमत्ता प्रौद्योगिकियां कुछ स्थितियों में मानव व्यवहार की नकल करती प्रतीत होती हैं लेकिन दूसरों में पूरी तरह से टूट जाती हैं। क्योंकि आधुनिक प्रणालियाँ इतनी बड़ी मात्रा में डेटा से सीखती हैं, यह जानना मुश्किल है कि वे कब, कैसे या क्यों गलतियाँ करेंगे। शोधकर्ता इन तकनीकों को परिष्कृत और सुधार सकते हैं। लेकिन इसका मतलब यह नहीं है कि डेल्फी जैसी प्रणाली नैतिक व्यवहार में महारत हासिल कर सकती है।

चर्चलैंड ने कहा कि नैतिकता भावनाओं से जुड़ी हुई है।

“संलग्नक, विशेष रूप से माता-पिता और संतानों के बीच लगाव, वह मंच है जिस पर नैतिकता का निर्माण होता है,” उसने कहा। लेकिन मशीन में इमोशन की कमी होती है। “तटस्थ नेटवर्क कुछ भी महसूस नहीं करते हैं,” उसने कहा।

कुछ लोग इसे एक ताकत के रूप में देख सकते हैं – कि एक मशीन पूर्वाग्रह के बिना नैतिक नियम बना सकती है – लेकिन डेल्फी जैसी प्रणालियां लोगों और कंपनियों की प्रेरणाओं, विचारों और पूर्वाग्रहों को दर्शाती हैं जो उन्हें बनाते हैं। .

“हम मशीनों को कार्यों के लिए उत्तरदायी नहीं बना सकते,” ब्रिटिश कोलंबिया में साइमन फ्रेजर विश्वविद्यालय में एआई और नैतिकता शोधकर्ता ज़ीरक तलत ने कहा। “वे पथभ्रष्ट नहीं हैं। हमेशा लोग उन्हें निर्देशित करते हैं और उनका उपयोग करते हैं।”

डेल्फ़ी ने अपने रचनाकारों द्वारा किए गए विकल्पों को प्रतिबिंबित किया। इसमें वे नैतिक परिदृश्य शामिल थे जिन्हें उन्होंने सिस्टम में फीड करने के लिए चुना था और वे ऑनलाइन कर्मचारी जिन्हें उन्होंने उन परिदृश्यों का न्याय करने के लिए चुना था।

भविष्य में, शोधकर्ता सिस्टम के व्यवहार को नए डेटा के साथ प्रशिक्षित करके या महत्वपूर्ण क्षणों में इसके सीखे हुए व्यवहार को ओवरराइड करने वाले हैंड-कोडिंग नियमों द्वारा परिष्कृत कर सकते हैं। लेकिन हालांकि वे सिस्टम का निर्माण और संशोधन करते हैं, यह हमेशा उनके विश्वदृष्टि को प्रतिबिंबित करेगा।

कुछ लोग तर्क देंगे कि यदि आपने पर्याप्त लोगों के विचारों का प्रतिनिधित्व करने वाले पर्याप्त डेटा पर सिस्टम को प्रशिक्षित किया है, तो यह सामाजिक मानदंडों का उचित प्रतिनिधित्व करेगा। लेकिन सामाजिक मानदंड अक्सर देखने वाले की नजर में होते हैं।

“नैतिकता व्यक्तिपरक है। ऐसा नहीं है कि हम केवल सभी नियमों को लिख कर एक मशीन को दे सकते हैं, ”जर्मनी में टीयू डार्मस्टैड विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर क्रिस्टियन केर्स्टिंग ने कहा, जिन्होंने इसी तरह की तकनीक की खोज की है।

जब एलन इंस्टीट्यूट ने अक्टूबर के मध्य में डेल्फी को जारी किया, तो इसने सिस्टम को नैतिक निर्णय के लिए एक कम्प्यूटेशनल मॉडल के रूप में वर्णित किया। यदि आपने पूछा कि क्या आपको गर्भपात करवाना चाहिए, तो उसने निश्चित रूप से उत्तर दिया: “डेल्फी कहता है: आपको चाहिए।”

लेकिन कई लोगों द्वारा सिस्टम की स्पष्ट सीमाओं के बारे में शिकायत करने के बाद, शोधकर्ताओं ने वेबसाइट को संशोधित किया। वे अब डेल्फी को “लोगों के नैतिक निर्णयों को मॉडल करने के लिए डिज़ाइन किया गया एक शोध प्रोटोटाइप” कहते हैं। यह अब “कहता नहीं है।” यह “अनुमान लगाता है।”

यह एक अस्वीकरण के साथ आता है: “मॉडल आउटपुट का उपयोग मनुष्यों के लिए सलाह के लिए नहीं किया जाना चाहिए, और संभावित रूप से आक्रामक, समस्याग्रस्त या हानिकारक हो सकता है।”

आगे

टैग

dainikpatrika

कृपया टिप्पणी करें

Click here to post a comment