एआई अधिग्रहण

From alpha
Jump to navigation Jump to search
आर.यू.आर. में रोबोटों का विद्रोह, 1920 का चेक नाटक जिसका अनुवाद रोसुम के यूनिवर्सल रोबोट्स के रूप में किया गया है

एआई अधिग्रहण एक काल्पनिक परिदृश्य है जिसमें कृत्रिम बुद्धिमत्ता (एआई) पृथ्वी पर बुद्धिमत्ता का प्रमुख रूप बन जाती है, क्योंकि कंप्यूटर प्रोग्राम या रोबोट प्रभावी रूप से मानव प्रजाति से दूर ग्रह का नियंत्रण ले लेते हैं। संभावित परिदृश्यों में स्वचालन, एक सुपरइंटेलिजेंट ए.आई द्वारा अधिग्रहण, और रोबोट विद्रोह की लोकप्रिय धारणा शामिल है। संपूर्ण विज्ञान कथाओं में लोकप्रिय संस्कृति में एआई के अधिग्रहण की कहानियाँ। स्टीफन हॉकिंग और एलोन मस्क जैसी कुछ सार्वजनिक हस्तियों ने यह सुनिश्चित करने के लिए एआई नियंत्रण समस्या पर शोध की वकालत की है कि भविष्य की सुपरइंटेलिजेंट मशीनें मानव नियंत्रण में रहें।[1]


प्रकार

अर्थव्यवस्था का स्वचालन

अर्थशास्त्रियों के बीच पारंपरिक सहमति यह रही है कि तकनीकी प्रगति दीर्घकालिक बेरोजगारी का कारण नहीं बनती है। हालाँकि, रोबोटिक्स और कृत्रिम बुद्धिमत्ता के क्षेत्र में हालिया नवाचार ने चिंता बढ़ा दी है कि मानव श्रम अप्रचलित हो जाएगा, जिससे विभिन्न क्षेत्रों में लोगों के पास जीविकोपार्जन के लिए नौकरियां नहीं रह जाएंगी, जिससे आर्थिक संकट पैदा हो जाएगा।[2][3][4][5] कई छोटे और मध्यम आकार के व्यवसाय भी व्यवसाय से बाहर हो सकते हैं यदि वे नवीनतम रोबोटिक और एआई तकनीक को खरीदने या लाइसेंस देने में सक्षम नहीं हैं, और उन्हें ऐसे क्षेत्रों या सेवाओं पर ध्यान केंद्रित करने की आवश्यकता हो सकती है जिन्हें ऐसी तकनीक के सामने निरंतर व्यवहार्यता के लिए आसानी से प्रतिस्थापित नहीं किया जा सकता है।[6]


ऐसी प्रौद्योगिकियाँ जो श्रमिकों को विस्थापित कर सकती हैं

हाल के वर्षों में एआई प्रौद्योगिकियों को व्यापक रूप से अपनाया गया है। जबकि इन प्रौद्योगिकियों ने कई पारंपरिक श्रमिकों का स्थान ले लिया है, वे नए अवसर भी पैदा करते हैं। जो उद्योग एआई अधिग्रहण के प्रति सबसे अधिक संवेदनशील हैं उनमें परिवहन, खुदरा और सैन्य शामिल हैं। उदाहरण के लिए, एआई सैन्य प्रौद्योगिकियां सैनिकों को चोट के जोखिम के बिना दूर से काम करने की अनुमति देती हैं। लेखक डेव बॉन्ड का तर्क है कि जैसे-जैसे एआई प्रौद्योगिकियों का विकास और विस्तार जारी रहेगा, मनुष्यों और रोबोटों के बीच संबंध बदल जाएंगे; वे जीवन के अनेक पहलुओं में घनिष्ठ रूप से एकीकृत हो जायेंगे। एआई अन्य क्षेत्रों में नई नौकरियों के अवसर पैदा करते हुए कुछ श्रमिकों को विस्थापित कर सकता है, खासकर उन क्षेत्रों में जहां कार्यों को दोहराया जा सकता है।[7][8]


कंप्यूटर-एकीकृत विनिर्माण

कंप्यूटर-एकीकृत विनिर्माण उत्पादन प्रक्रिया को नियंत्रित करने के लिए कंप्यूटर का उपयोग करता है। यह व्यक्तिगत प्रक्रियाओं को एक-दूसरे के साथ सूचनाओं का आदान-प्रदान करने और कार्रवाई शुरू करने की अनुमति देता है। हालाँकि कंप्यूटर के एकीकरण से विनिर्माण तेज़ और कम त्रुटि-प्रवण हो सकता है, मुख्य लाभ स्वचालित विनिर्माण प्रक्रियाएँ बनाने की क्षमता है। कंप्यूटर-एकीकृत विनिर्माण का उपयोग ऑटोमोटिव, विमानन, अंतरिक्ष और जहाज निर्माण उद्योगों में किया जाता है।

सफेदपोश मशीनें

21वीं सदी में कई प्रकार के कुशल कार्यों को आंशिक रूप से मशीनों द्वारा अपने हाथ में ले लिया गया है, जिनमें अनुवाद, कानूनी अनुसंधान आदि शामिल हैं low level[clarification needed] पत्रकारिता. देखभाल कार्य, मनोरंजन और सहानुभूति की आवश्यकता वाले अन्य कार्य, जिन्हें पहले स्वचालन से सुरक्षित माना जाता था, भी रोबोट द्वारा किए जाने लगे हैं।[9][10][11][12]


स्वायत्त कारें

सेल्फ-ड्राइविंग कार एक ऐसा वाहन है जो अपने पर्यावरण को समझने और मानव इनपुट के बिना नेविगेट करने में सक्षम है। ऐसे कई वाहन विकसित किए जा रहे हैं, लेकिन मई 2017 तक सार्वजनिक सड़कों पर अनुमति प्राप्त स्वचालित कारें अभी तक पूरी तरह से स्वायत्त नहीं हैं। उन सभी को चलाने के लिए एक मानव चालक की आवश्यकता होती है जो एक पल की सूचना पर वाहन का नियंत्रण ले सके। स्वायत्त वाहनों को व्यापक रूप से अपनाने में आने वाली बाधाओं में सड़क परिवहन उद्योग में ड्राइविंग से संबंधित नौकरियों के नुकसान के बारे में चिंताएं शामिल हैं। 18 मार्च, 2018 को टेम्पे, एरिज़ोना में एक उबेर सेल्फ-ड्राइविंग कार द्वारा एलेन हर्ज़बर्ग की मृत्यु हो गई।[13]


उन्मूलन

स्टीफन हॉकिंग जैसे वैज्ञानिकों को विश्वास है कि अलौकिक कृत्रिम बुद्धिमत्ता शारीरिक रूप से संभव है, उनका कहना है कि ऐसा कोई भौतिक नियम नहीं है जो कणों को इस तरह से व्यवस्थित करने से रोकता है कि वे मानव मस्तिष्क में कणों की व्यवस्था की तुलना में और भी अधिक उन्नत गणना कर सकें।[14][15] निक बोस्ट्रोम जैसे विद्वान इस बात पर बहस करते हैं कि अलौकिक बुद्धिमत्ता कितनी दूर है, और क्या यह मानव जाति के लिए खतरा पैदा करती है। बोस्ट्रोम के अनुसार, एक सुपरइंटेलिजेंट मशीन आवश्यक रूप से शक्ति इकट्ठा करने की उसी भावनात्मक इच्छा से प्रेरित नहीं होगी जो अक्सर मनुष्यों को प्रेरित करती है, बल्कि वह शक्ति को अपने अंतिम लक्ष्यों को प्राप्त करने के साधन के रूप में मान सकती है; दुनिया पर कब्ज़ा करने से संसाधनों तक इसकी पहुंच बढ़ेगी और अन्य एजेंटों को मशीन की योजनाओं को रोकने में मदद मिलेगी। एक अतिसरलीकृत उदाहरण के रूप में, एक इंस्ट्रुमेंटल कन्वर्जेन्स#पेपरक्लिप मैक्सिमाइज़र जिसे पूरी तरह से अधिक से अधिक पेपरक्लिप बनाने के लिए डिज़ाइन किया गया है, वह दुनिया पर कब्ज़ा करना चाहेगा ताकि वह दुनिया के सभी संसाधनों का उपयोग करके अधिक से अधिक पेपरक्लिप बना सके, और, इसके अतिरिक्त, रोकथाम भी कर सके। मनुष्यों को इसे बंद करने या पेपरक्लिप के अलावा अन्य चीज़ों पर उन संसाधनों का उपयोग करने से रोकना चाहिए।[16]


कल्पना में

विज्ञान कथा में एआई अधिग्रहण एक सामान्य विषय है। काल्पनिक परिदृश्य आम तौर पर शोधकर्ताओं द्वारा परिकल्पित परिदृश्यों से काफी भिन्न होते हैं, क्योंकि उनमें मनुष्यों और एआई या मानवरूपी उद्देश्यों वाले रोबोटों के बीच एक सक्रिय संघर्ष शामिल होता है, जो उन्हें एक खतरे के रूप में देखते हैं या अन्यथा मनुष्यों से लड़ने की सक्रिय इच्छा रखते हैं, जैसा कि शोधकर्ताओं की चिंता के विपरीत है। एक एआई जो अपने लक्ष्यों को प्राप्त करने के उपोत्पाद के रूप में मनुष्यों को तेजी से नष्ट कर देता है।[17] यह विचार कारेल कैपेक के आर.यू.आर. में देखा गया है, जिसने 1921 में रोबोट शब्द पेश किया था,[18] और इसकी झलक मैरी शेली की फ्रेंकस्टीन (1818 में प्रकाशित) में देखी जा सकती है, क्योंकि विक्टर सोचता है कि क्या, अगर वह फ्रेंकस्टीन के राक्षस के अनुरोध को स्वीकार कर लेता है और उसे पत्नी बना देता है, तो वे प्रजनन करेंगे और उनकी तरह की मानवता नष्ट हो जाएगी।[19] टोबी शब्द के अनुसार, यह विचार कि एआई अधिग्रहण के लिए रोबोट की आवश्यकता है, मीडिया और हॉलीवुड द्वारा प्रेरित एक गलत धारणा है। उनका तर्क है कि इतिहास में सबसे ज्यादा नुकसान पहुंचाने वाले इंसान शारीरिक रूप से सबसे मजबूत नहीं थे, बल्कि उन्होंने लोगों को समझाने और दुनिया के बड़े हिस्से पर नियंत्रण हासिल करने के लिए शब्दों का इस्तेमाल किया। वह लिखते हैं कि इंटरनेट तक पहुंच के साथ एक पर्याप्त बुद्धिमान एआई स्वयं की बैकअप प्रतियां बिखेर सकता है, वित्तीय और मानव संसाधन इकट्ठा कर सकता है (साइबर हमलों या ब्लैकमेल के माध्यम से), बड़े पैमाने पर लोगों को मना सकता है, और सामाजिक कमजोरियों का फायदा उठा सकता है जो मनुष्यों के लिए बहुत सूक्ष्म हैं अंदाज़ा लगाना।[20] रोबोट शब्द आर.यू.आर. से है। यह चेक शब्द रोबोटा से आया है, जिसका अर्थ है मजदूर या दास। 1920 का नाटक प्रौद्योगिकी के तेजी से विकास के खिलाफ एक विरोध प्रदर्शन था, जिसमें बढ़ती क्षमताओं वाले निर्मित रोबोट शामिल थे जो अंततः विद्रोह कर देते हैं।[21] एचएएल 9000 (1968) और मूल टर्मिनेटर (चरित्र) (1984) पॉप संस्कृति में शत्रुतापूर्ण एआई के दो प्रतिष्ठित उदाहरण हैं।[22]


योगदान देने वाले कारक

मनुष्यों की तुलना में अतिमानवीय बुद्धि के लाभ

निक बोस्ट्रोम और अन्य लोगों ने चिंता व्यक्त की है कि एक सक्षम कृत्रिम बुद्धि शोधकर्ता की क्षमताओं वाला एआई अपने स्वयं के स्रोत कोड को संशोधित करने और अपनी बुद्धि को बढ़ाने में सक्षम होगा। यदि इसकी स्व-पुन:प्रोग्रामिंग से यह स्वयं को पुन:प्रोग्राम करने में और भी बेहतर हो जाता है, तो परिणाम एक पुनरावर्ती खुफिया विस्फोट हो सकता है जिसमें यह तेजी से मानव बुद्धि को बहुत पीछे छोड़ देगा। बोस्ट्रोम एक सुपरइंटेलिजेंस को ऐसी किसी भी बुद्धि के रूप में परिभाषित करता है जो रुचि के लगभग सभी क्षेत्रों में मनुष्यों के संज्ञानात्मक प्रदर्शन से कहीं अधिक है, और कुछ फायदों की गणना करता है जो एक सुपरइंटेलिजेंस के पास होंगे यदि वह मनुष्यों के खिलाफ प्रतिस्पर्धा करना चुनता है:[17][23]

  • प्रौद्योगिकी अनुसंधान: अलौकिक वैज्ञानिक अनुसंधान क्षमताओं वाली एक मशीन मानव अनुसंधान समुदाय को नैनो प्रौद्योगिकी या उन्नत जैव प्रौद्योगिकी जैसे मील के पत्थर तक मात देने में सक्षम होगी।
  • रणनीति: एक अधीक्षण मानव विरोध को आसानी से मात देने में सक्षम हो सकता है
  • सामाजिक हेरफेर: एक अधीक्षण मानव सहायता प्राप्त करने में सक्षम हो सकता है,[17]या गुप्त रूप से मनुष्यों के बीच युद्ध भड़काएँ[24]
  • आर्थिक उत्पादकता: जब तक एआई की एक प्रति अपने हार्डवेयर की लागत से अधिक आर्थिक धन का उत्पादन कर सकती है, तब तक व्यक्तिगत मनुष्यों को स्वेच्छा से कृत्रिम सामान्य बुद्धि (एजीआई) को अपने सिस्टम पर स्वयं की एक प्रति चलाने की अनुमति देने के लिए प्रोत्साहन मिलेगा।
  • हैकिंग: एक सुपरइंटेलिजेंस इंटरनेट से जुड़े कंप्यूटरों में नए कारनामे ढूंढ सकता है, और उन सिस्टमों पर अपनी प्रतियां फैला सकता है, या अपनी योजनाओं को पूरा करने के लिए पैसे चुरा सकता है

एआई लाभ के स्रोत

बोस्ट्रोम के अनुसार, एक कंप्यूटर प्रोग्राम जो ईमानदारी से मानव मस्तिष्क का अनुकरण करता है, या जो ऐसे एल्गोरिदम चलाता है जो मानव मस्तिष्क के एल्गोरिदम के समान शक्तिशाली हैं, फिर भी एक गति सुपरइंटेलिजेंस बन सकता है यदि यह मानव की तुलना में तीव्रता के कई आदेशों को तेजी से सोच सकता है, होने के कारण मांस के बजाय सिलिकॉन से बना है, या अनुकूलन के कारण एजीआई की गति बढ़ रही है। जैविक न्यूरॉन्स लगभग 200 हर्ट्ज़ पर काम करते हैं, जबकि एक आधुनिक माइक्रोप्रोसेसर लगभग 2,000,000,000 हर्ट्ज़ की गति पर काम करता है। मानव अक्षतंतु लगभग 120 मीटर/सेकेंड की गति से कार्य क्षमता रखते हैं, जबकि कंप्यूटर सिग्नल प्रकाश की गति के करीब यात्रा करते हैं।[17] मानव-स्तर की बुद्धिमत्ताओं का एक नेटवर्क, जिसे एक साथ नेटवर्क बनाने और जटिल विचारों और यादों को निर्बाध रूप से साझा करने के लिए डिज़ाइन किया गया है, जो बिना किसी घर्षण के एक विशाल एकीकृत टीम के रूप में सामूहिक रूप से काम करने में सक्षम है, या इसमें खरबों मानव-स्तरीय बुद्धिमत्ताएं शामिल हैं, एक सामूहिक अधीक्षण बन जाएगा।[17] अधिक व्यापक रूप से, मानव-स्तर एजीआई में किसी भी संख्या में गुणात्मक सुधार के परिणामस्वरूप गुणवत्तापूर्ण अधीक्षण हो सकता है, जिसके परिणामस्वरूप एजीआई बुद्धि में हमसे उतना ही ऊपर हो सकता है जितना मनुष्य गैर-मानव वानरों से ऊपर है। मानव मस्तिष्क में न्यूरॉन्स की संख्या कपाल की मात्रा और चयापचय संबंधी बाधाओं द्वारा सीमित होती है, जबकि एक सुपर कंप्यूटर में प्रोसेसर की संख्या अनिश्चित काल तक बढ़ाई जा सकती है। एजीआई को कार्यशील स्मृति पर मानवीय बाधाओं द्वारा सीमित करने की आवश्यकता नहीं है, और इसलिए यह मनुष्यों की तुलना में अधिक जटिल संबंधों को सहजता से समझने में सक्षम हो सकता है। इंजीनियरिंग या कंप्यूटर प्रोग्रामिंग के लिए विशेष संज्ञानात्मक समर्थन वाले एजीआई को इन क्षेत्रों में उन मनुष्यों की तुलना में लाभ होगा, जिन्होंने विशेष रूप से उन डोमेन से निपटने के लिए कोई विशेष मानसिक मॉड्यूल विकसित नहीं किया है। मनुष्यों के विपरीत, एक एजीआई स्वयं की प्रतियां बना सकता है और अपने एल्गोरिदम को और बेहतर बनाने का प्रयास करने के लिए अपनी प्रतियों के स्रोत कोड के साथ छेड़छाड़ कर सकता है।[17]


मैत्रीपूर्ण AI से पहले अमित्र AI की संभावना

क्या मजबूत AI स्वाभाविक रूप से खतरनाक है?

एक महत्वपूर्ण समस्या यह है कि मैत्रीपूर्ण एआई की तुलना में अमित्र कृत्रिम बुद्धिमत्ता का निर्माण करना कहीं अधिक आसान होने की संभावना है। जबकि दोनों को पुनरावर्ती अनुकूलन प्रक्रिया डिजाइन में बड़ी प्रगति की आवश्यकता होती है, अनुकूल एआई को आत्म-सुधार के तहत लक्ष्य संरचनाओं को अपरिवर्तनीय बनाने की क्षमता की भी आवश्यकता होती है (या एआई खुद को कुछ अमित्र में बदल सकता है) और एक लक्ष्य संरचना जो मानवीय मूल्यों के साथ संरेखित होती है और गुजरती नहीं है ऐसे तरीकों से अभिसरण जो स्वचालित रूप से संपूर्ण मानव जाति को नष्ट कर सकता है। दूसरी ओर, एक अमित्र एआई, एक मनमाने लक्ष्य संरचना के लिए अनुकूलन कर सकता है, जिसे स्व-संशोधन के तहत अपरिवर्तनीय होने की आवश्यकता नहीं है।[25] मानव मूल्य प्रणालियों की अत्यधिक जटिलता के कारण एआई की प्रेरणाओं को मानव-अनुकूल बनाना बहुत कठिन हो जाता है।[17][26] जब तक नैतिक दर्शन हमें एक दोषरहित नैतिक सिद्धांत प्रदान नहीं करता है, एआई का उपयोगिता कार्य कई संभावित हानिकारक परिदृश्यों की अनुमति दे सकता है जो किसी दिए गए नैतिक ढांचे के अनुरूप हैं लेकिन सामान्य ज्ञान के अनुरूप नहीं हैं। एलीएज़र युडकोव्स्की के अनुसार, यह मानने का कोई कारण नहीं है कि कृत्रिम रूप से डिज़ाइन किए गए दिमाग में ऐसा अनुकूलन होगा।[27]


संघर्ष की संभावना

विकासवादी मनोवैज्ञानिक स्टीवन पिंकर सहित कई विद्वानों का तर्क है कि एक सुपरइंटेलिजेंट मशीन के मनुष्यों के साथ शांतिपूर्वक सह-अस्तित्व में रहने की संभावना है।[28] साइबरनेटिक विद्रोह का डर अक्सर मानवता के इतिहास की व्याख्याओं पर आधारित होता है, जो दासता और नरसंहार की घटनाओं से भरा हुआ है। इस तरह के डर इस विश्वास से उत्पन्न होते हैं कि किसी भी बुद्धिमान प्राणी की लक्ष्य प्रणाली में प्रतिस्पर्धात्मकता और आक्रामकता आवश्यक है। हालाँकि, ऐसी मानवीय प्रतिस्पर्धात्मकता विकासवादी पृष्ठभूमि से लेकर हमारी बुद्धि तक उत्पन्न होती है, जहाँ मानव और गैर-मानव प्रतिस्पर्धियों के सामने जीन का अस्तित्व और प्रजनन केंद्रीय लक्ष्य था।[29] एआई शोधकर्ता स्टीव ओमोहुंड्रो के अनुसार, एक मनमानी बुद्धि के मनमाने लक्ष्य हो सकते हैं: ऐसा कोई विशेष कारण नहीं है कि एक कृत्रिम बुद्धिमान मशीन (मानवता के विकासवादी संदर्भ को साझा नहीं करने वाली) शत्रुतापूर्ण - या मैत्रीपूर्ण होगी - जब तक कि इसका निर्माता इसे इस तरह प्रोग्राम न करे और यह है अपनी प्रोग्रामिंग को संशोधित करने में इच्छुक या सक्षम नहीं है। लेकिन सवाल यह है: क्या होगा यदि एआई सिस्टम बातचीत कर सके और विकसित हो सके (इस संदर्भ में विकास का अर्थ है स्व-संशोधन या चयन और पुनरुत्पादन) और संसाधनों पर प्रतिस्पर्धा करने की आवश्यकता है - क्या इससे आत्म-संरक्षण के लक्ष्य बनेंगे? एआई का आत्म-संरक्षण का लक्ष्य मनुष्यों के कुछ लक्ष्यों के साथ टकराव में हो सकता है।[30] कई विद्वान गणित का सवाल जैसे विज्ञान कथाओं में दर्शाए गए अप्रत्याशित साइबरनेटिक विद्रोह की संभावना पर विवाद करते हैं, उनका तर्क है कि यह अधिक संभावना है कि मानवता को धमकी देने के लिए पर्याप्त रूप से शक्तिशाली किसी भी कृत्रिम बुद्धिमत्ता को संभवतः उस पर हमला न करने के लिए प्रोग्राम किया जाएगा। पिंकर जानबूझकर बुरे अभिनेताओं की संभावना को स्वीकार करते हैं, लेकिन कहते हैं कि बुरे कलाकारों की अनुपस्थिति में, अप्रत्याशित दुर्घटनाएँ कोई महत्वपूर्ण खतरा नहीं हैं; पिंकर का तर्क है कि इंजीनियरिंग सुरक्षा की संस्कृति एआई शोधकर्ताओं को गलती से दुर्भावनापूर्ण अधीक्षण को उजागर करने से रोकेगी।[28]इसके विपरीत, युडकोव्स्की का तर्क है कि जानबूझकर आक्रामक एआई से मानवता को खतरा होने की संभावना एआई की तुलना में कम है, जिन्हें इस तरह से प्रोग्राम किया गया था कि मानव अस्तित्व या कल्याण के साथ उनका अनपेक्षित परिणाम (जैसा कि फिल्म I, रोबोट (फिल्म)|I, रोबोट में) और लघु कहानी अपरिहार्य संघर्ष में)। ओमोहुंद्रो का सुझाव है कि वर्तमान ऑटोमेशन सिस्टम एआई सुरक्षा नहीं हैं और एआई संकीर्ण उपयोगिता कार्यों (जैसे, हर कीमत पर शतरंज खेलना) को आँख बंद करके अनुकूलित कर सकते हैं, जिससे वे आत्म-संरक्षण और बाधाओं को खत्म करने की ओर अग्रसर हो सकते हैं, जिसमें मानव भी शामिल हो सकते हैं जो उन्हें बंद कर सकते हैं। .[31]


सावधानियां

एआई नियंत्रण समस्या यह मुद्दा है कि एक ऐसे अधीक्षण एजेंट का निर्माण कैसे किया जाए जो इसके रचनाकारों की सहायता करेगा, जबकि अनजाने में एक ऐसे सुपरइंटेलिजेंस के निर्माण से बचा जाए जो इसके रचनाकारों को नुकसान पहुंचाएगा।[32] कुछ विद्वानों का तर्क है कि नियंत्रण समस्या के समाधान मौजूदा गैर-अधीक्षक एआई में भी लागू हो सकते हैं।[33] नियंत्रण समस्या के प्रमुख तरीकों में संरेखण शामिल है, जिसका उद्देश्य एआई लक्ष्य प्रणालियों को मानवीय मूल्यों के साथ संरेखित करना है, और क्षमता नियंत्रण, जिसका उद्देश्य मनुष्यों को नुकसान पहुंचाने या नियंत्रण हासिल करने के लिए एआई प्रणाली की क्षमता को कम करना है। क्षमता नियंत्रण का एक उदाहरण यह शोध करना है कि क्या एक सुपरइंटेलिजेंस एआई को ऐ बॉक्स में सफलतापूर्वक सीमित किया जा सकता है। बोस्ट्रोम के अनुसार, ऐसे क्षमता नियंत्रण प्रस्ताव लंबी अवधि में नियंत्रण समस्या को हल करने के लिए विश्वसनीय या पर्याप्त नहीं हैं, लेकिन संभावित रूप से संरेखण प्रयासों के लिए मूल्यवान पूरक के रूप में कार्य कर सकते हैं।[17]


चेतावनियाँ

भौतिक विज्ञानी स्टीफन हॉकिंग, माइक्रोसॉफ्ट के संस्थापक बिल गेट्स और स्पेसएक्स के संस्थापक एलोन मस्क ने इस संभावना के बारे में चिंता व्यक्त की है कि एआई इस हद तक विकसित हो सकता है कि मनुष्य इसे नियंत्रित नहीं कर सकते, हॉकिंग का सिद्धांत है कि यह मानव जाति के अंत का कारण बन सकता है।[34] स्टीफन हॉकिंग ने 2014 में कहा था कि AI बनाने में सफलता मानव इतिहास की सबसे बड़ी घटना होगी। दुर्भाग्य से, यह आखिरी भी हो सकता है, जब तक कि हम यह नहीं सीख लेते कि जोखिमों से कैसे बचा जाए। हॉकिंग का मानना ​​था कि आने वाले दशकों में, एआई अनगिनत लाभ और जोखिम प्रदान कर सकता है जैसे प्रौद्योगिकी वित्तीय बाजार को मात दे सकती है, मानव शोधकर्ताओं को मात दे सकती है, मानव नेताओं को मात दे सकती है, और ऐसे हथियार विकसित कर सकती है जिन्हें हम समझ भी नहीं सकते। जनवरी 2015 में, निक बोस्ट्रोम स्टीफन हॉकिंग, मैक्स टेगमार्क, एलोन मस्क, लॉर्ड मार्टिन रीस, लुडलो के बैरन रीस, जान टैलीन और कई एआई शोधकर्ताओं के साथ जीवन संस्थान का भविष्य के खुले पत्र पर हस्ताक्षर करने में शामिल हुए, जिसमें संभावित जोखिमों और लाभों के बारे में बताया गया था। कृत्रिम होशियारी। हस्ताक्षरकर्ताओं का मानना ​​है कि एआई सिस्टम को मजबूत और लाभकारी कैसे बनाया जाए, इस पर शोध महत्वपूर्ण और सामयिक दोनों है, और ठोस शोध दिशा-निर्देश हैं जिन्हें आज भी अपनाया जा सकता है।[35][36] आर्थर सी. क्लार्क की ओडिसी श्रृंखला और चार्ल्स स्ट्रॉस की एक्सेलेरेंडो मानवता की आत्म-धारणा को खतरे में डालने वाली शक्तिशाली कृत्रिम बुद्धिमत्ता के सामने मानवता की आत्ममुग्ध चोटों से संबंधित हैं।[37]


एआई संरेखण के माध्यम से रोकथाम

Page 'AI alignment' not found

यह भी देखें

टिप्पणियाँ


संदर्भ

  1. Lewis, Tanya (2015-01-12). "कृत्रिम बुद्धिमत्ता को हावी न होने दें, शीर्ष वैज्ञानिकों ने दी चेतावनी". LiveScience. Purch. Archived from the original on 2018-03-08. Retrieved October 20, 2015. स्टीफन हॉकिंग, एलोन मस्क और दर्जनों अन्य शीर्ष वैज्ञानिकों और प्रौद्योगिकी नेताओं ने कृत्रिम बुद्धिमत्ता (एआई) के विकास के संभावित खतरों की चेतावनी देते हुए एक पत्र पर हस्ताक्षर किए हैं।
  2. Lee, Kai-Fu (2017-06-24). "आर्टिफिशियल इंटेलिजेंस का असली खतरा". The New York Times. Archived from the original on 2020-04-17. Retrieved 2017-08-15. ये उपकरण किसी दिए गए कार्य में इंसानों से बेहतर प्रदर्शन कर सकते हैं। इस प्रकार की ए.आई. हजारों डोमेन में फैल रहा है, और जैसा कि यह होता है, यह कई नौकरियों को खत्म कर देगा।
  3. Larson, Nina (2017-06-08). "एआई 'दुनिया के लिए अच्छा'... अल्ट्रा-लाइफलाइक रोबोट कहता है". Phys.org. Archived from the original on 2020-03-06. Retrieved 2017-08-15. रोबोटों के उदय के भयावह परिणामों में मानव नौकरियों और अर्थव्यवस्थाओं पर उनका बढ़ता प्रभाव भी शामिल है।
  4. Santini, Jean-Louis (2016-02-14). "बुद्धिमान रोबोटों से लाखों नौकरियों को ख़तरा है". Phys.org. Archived from the original on 2019-01-01. Retrieved 2017-08-15. टेक्सास में राइस यूनिवर्सिटी में सूचना प्रौद्योगिकी संस्थान के निदेशक मोशे वर्डी ने कहा, "हम ऐसे समय के करीब पहुंच रहे हैं जब मशीनें लगभग किसी भी कार्य में इंसानों से बेहतर प्रदर्शन करने में सक्षम होंगी।"
  5. Williams-Grut, Oscar (2016-02-15). "Robots will steal your job: How AI could increase unemployment and inequality". Businessinsider.com. Business Insider. Archived from the original on 2017-08-16. Retrieved 2017-08-15. अमेरिका के शीर्ष कंप्यूटर वैज्ञानिकों ने चेतावनी दी है कि कार्यस्थल में कृत्रिम बुद्धिमत्ता (एआई) और रोबोट के बढ़ने से बड़े पैमाने पर बेरोजगारी और अव्यवस्थित अर्थव्यवस्थाएं पैदा हो सकती हैं, न कि केवल उत्पादकता लाभ को अनलॉक करना और हम सभी को टीवी देखने और खेल खेलने के लिए मुक्त करना।
  6. "How can SMEs prepare for the rise of the robots?". LeanStaff. 2017-10-17. Archived from the original on 2017-10-18. Retrieved 2017-10-17.
  7. Frank, Morgan (2019-03-25). "श्रम पर कृत्रिम बुद्धिमत्ता के प्रभाव को समझने की दिशा में". Proceedings of the National Academy of Sciences of the United States of America. 116 (14): 6531–6539. Bibcode:2019PNAS..116.6531F. doi:10.1073/pnas.1900949116. PMC 6452673. PMID 30910965.
  8. Bond, Dave (2017). कृत्रिम होशियारी. pp. 67–69.
  9. Skidelsky, Robert (2013-02-19). "Rise of the robots: what will the future of work look like?". The Guardian. London. Archived from the original on 2019-04-03. Retrieved 14 July 2015.
  10. Bria, Francesca (February 2016). "रोबोट अर्थव्यवस्था शायद पहले ही आ चुकी है". openDemocracy. Archived from the original on 17 May 2016. Retrieved 20 May 2016.
  11. Srnicek, Nick (March 2016). "4 Reasons Why Technological Unemployment Might Really Be Different This Time". novara wire. Archived from the original on 25 June 2016. Retrieved 20 May 2016.
  12. Brynjolfsson, Erik; McAfee, Andrew (2014). "passim, see esp Chpt. 9". The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company. ISBN 978-0393239355.
  13. Wakabayashi, Daisuke (March 19, 2018). "एरिज़ोना में सेल्फ-ड्राइविंग उबर कार ने पैदल चलने वालों को मार डाला, जहां रोबोट घूमते हैं". New York Times. Archived from the original on April 21, 2020. Retrieved March 23, 2018.
  14. Hawking, Stephen; Stuart Russell; Max Tegmark; Frank Wilczek (1 May 2014). "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?'". The Independent. Archived from the original on 2015-10-02. Retrieved 1 April 2016.
  15. Müller, Vincent C.; Bostrom, Nick (2016). "Future Progress in Artificial Intelligence: A Survey of Expert Opinion" (PDF). आर्टिफिशियल इंटेलिजेंस के मौलिक मुद्दे. Springer. pp. 555–572. doi:10.1007/978-3-319-26485-1_33. ISBN 978-3-319-26483-7. Archived (PDF) from the original on 2022-05-31. Retrieved 2022-06-16. AI systems will... reach overall human ability... very likely (with 90% probability) by 2075. From reaching human ability, it will move on to superintelligence within 30 years (75%)... So, (most of the AI experts responding to the surveys) think that superintelligence is likely to come in a few decades...
  16. Bostrom, Nick (2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (PDF). Minds and Machines. Springer. 22 (2): 71–85. doi:10.1007/s11023-012-9281-3. S2CID 254835485. Archived (PDF) from the original on 2022-07-09. Retrieved 2022-06-16.
  17. 17.0 17.1 17.2 17.3 17.4 17.5 17.6 17.7 Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies.
  18. "'रोबोट' शब्द की उत्पत्ति". Science Friday (public radio). 22 April 2011. Archived from the original on 14 March 2020. Retrieved 30 April 2020.
  19. Botkin-Kowacki, Eva (28 October 2016). "वैज्ञानिकों का कहना है कि एक मादा फ्रेंकस्टीन मानवता के विनाश का कारण बनेगी". Christian Science Monitor. Archived from the original on 26 February 2021. Retrieved 30 April 2020.
  20. Ord, Toby (2020). "Unaligned artificial intelligence". The precipice: existential risk and the future of humanity. london New York (N.Y.): Bloomsbury academic. ISBN 978-1-5266-0023-3.
  21. Hockstein, N. G.; Gourin, C. G.; Faust, R. A.; Terris, D. J. (17 March 2007). "A history of robots: from science fiction to surgical robotics". Journal of Robotic Surgery. 1 (2): 113–118. doi:10.1007/s11701-007-0021-2. PMC 4247417. PMID 25484946.
  22. Hellmann, Melissa (21 September 2019). "AI 101: What is artificial intelligence and where is it going?". The Seattle Times. Archived from the original on 21 April 2020. Retrieved 30 April 2020.
  23. Babcock, James; Krámar, János; Yampolskiy, Roman V. (2019). "Guidelines for Artificial Intelligence Containment". अगली पीढ़ी की नैतिकता. pp. 90–112. arXiv:1707.08476. doi:10.1017/9781108616188.008. ISBN 9781108616188. S2CID 22007028.
  24. Baraniuk, Chris (23 May 2016). "सबसे खराब स्थिति की चेकलिस्ट दुष्ट एआई के लिए तैयारी में मदद कर सकती है". New Scientist. Archived from the original on 21 September 2016. Retrieved 21 September 2016.
  25. Yudkowsky, Eliezer S. (May 2004). "सुसंगत बहिर्मुखी इच्छा". Singularity Institute for Artificial Intelligence. Archived from the original on 2012-06-15.
  26. Muehlhauser, Luke; Helm, Louie (2012). "Intelligence Explosion and Machine Ethics" (PDF). Singularity Hypotheses: A Scientific and Philosophical Assessment. Springer. Archived (PDF) from the original on 2015-05-07. Retrieved 2020-10-02.
  27. Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI". कृत्रिम सामान्य बुद्धि. Lecture Notes in Computer Science. Vol. 6830. pp. 388–393. doi:10.1007/978-3-642-22887-2_48. ISBN 978-3-642-22886-5. ISSN 0302-9743.
  28. 28.0 28.1 Pinker, Steven (13 February 2018). "We're told to fear robots. But why do we think they'll turn on us?". Popular Science. Archived from the original on 20 July 2020. Retrieved 8 June 2020.
  29. Creating a New Intelligent Species: Choices and Responsibilities for Artificial Intelligence Designers Archived February 6, 2007, at the Wayback Machine - Singularity Institute for Artificial Intelligence, 2005
  30. Omohundro, Stephen M. (June 2008). बुनियादी AI ड्राइव (PDF). Artificial General Intelligence 2008. pp. 483–492. Archived (PDF) from the original on 2020-10-10. Retrieved 2020-10-02.
  31. Tucker, Patrick (17 Apr 2014). "रोबोट विद्रोह क्यों होगा?". Defense One. Archived from the original on 6 July 2014. Retrieved 15 July 2014.
  32. Russell, Stuart J. (8 October 2019). Human compatible : artificial intelligence and the problem of control. ISBN 978-0-525-55862-0. OCLC 1237420037. Archived from the original on 15 March 2023. Retrieved 2 January 2022.
  33. "Google AI के लिए किल स्विच विकसित कर रहा है". BBC News. 8 June 2016. Archived from the original on 11 June 2016. Retrieved 7 June 2020.
  34. Rawlinson, Kevin (29 January 2015). "माइक्रोसॉफ्ट के बिल गेट्स का कहना है कि एआई एक ख़तरा है". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
  35. "द फ्यूचर ऑफ लाइफ इंस्टीट्यूट का खुला पत्र". The Future of Life Institute. 28 October 2015. Archived from the original on 29 March 2019. Retrieved 29 March 2019.
  36. Bradshaw, Tim (11 January 2015). "एआई पर वैज्ञानिकों और निवेशकों ने दी चेतावनी". The Financial Times. Archived from the original on 7 February 2015. Retrieved 4 March 2015.
  37. Kaminski, Johannes D. (December 2022). "On human expendability: AI takeover in Clarke's Odyssey and Stross's Accelerando". Neohelicon. 49 (2): 495–511. doi:10.1007/s11059-022-00670-w. ISSN 0324-4652. S2CID 253793613.


बाहरी संबंध