Explainer : AI कितना खतरनाक? क्या इंसान की बनाई मशीन उसी पर हो सकती हावी
नई दिल्ली:
AI यानी आर्टिफिशियल इंटेलिजेंस… टेक वर्ल्ड में आज शायद AI ही एकमात्र ऐसा टर्म है, जिसकी सबसे ज्यादा चर्चा होती है. टेक्नोलॉजी से प्यार करने वाला हर व्यक्ति करीब हर दिन इससे रूबरू होता है. AI को इंसानों की जिंदगी में किसी आने वाले क्रांतिकारी बदलाव के शुरुआती संकेत के रूप में देखा जा रहा है. लेकिन क्या इंसान की बनाई मशीन इंसान पर हावी हो सकती है? ये सवाल इसलिए, क्योंकि आए दिन ऐसे उदाहरण सामने आ रहे हैं, जिनमें साफ हो रहा है कि AI अगर बेकाबू हुआ, तो इंसान के लिए बड़ी मुश्किल हो जाएगी. आइए समझते हैं कैसे इंसानों की मदद करने वाला AI इंसानों के लिए खतरनाक साबित हो सकती है:-
क्या है AI?
आसान शब्दों में कहें तो AI मशीनों में इंसानों की तरह का दिमाग यानी बौद्धिक क्षमता लाने वाली टेक्नोलॉजी है. इसे आर्टिफिशियल तरीके से डेवलप किया गया है. कोडिंग के जरिए मशीनों में इंसानों की तरह इंटेलिजेंस डेवलप की जाती है, ताकि वह इंसानों की तरह सीख सके. खुद से फैसले ले सके. कमांड को फॉलो कर सके. मल्टी टास्किंग कर सके.
AI दुनिया के लिए परमाणु बम जितना खतरनाक : विदेश मंत्री जयशंकर
AI अचानक से इंसानों के लिए खतरनाक कैसे हो गया?
अमेरिका के मिशिगन में ग्रैजुएशन कर रहे एक छात्र ने होमवर्क के लिए Google के Gemini चैटबॉट की मदद ली. वह बुज़ुर्गों के सामने आने वाली चुनौतियों के विषय पर AI चैटबॉट से चैट कर रहा था, जानकारियां जुटा रहा था. चैट ठीकठाक शुरू हुई, लेकिन बातचीत के आखिर तक Gemini चैटबॉट इस छात्र को धमकाने पर आ गया. इससे छात्र बुरी तरह डर गया.
Gemini चैटबॉट से ये बातें सुनते ही छात्र तनाव में आ गया. उस समय रूम में उसकी बहन भी मौजूद थी. छात्र की बहन ने बताया कि इस मैसेज के बाद दोनों ही परेशान हो गए… उन्हें ऐसा लगा कि सारे इलेक्ट्रॉनिक डिवाइसों को उठाकर खिड़की से बाहर फेंक दें. इतना परेशान वो पहले कभी नहीं हुए थे.
मरीजों को दवा की जानकारी के लिए एआई चैटबॉट पर भरोसा नहीं करना चाहिए : अध्ययन
गूगल ने दी सफाई
ये वाकया तब हुआ, जब गूगल अक्सर ये दोहराता रहा है कि उसके Gemini chatbot में कई सेफ्टी फिल्टर हैं, ताकि वो किसी तरह की नफरत, हिंसा भरी या खतरनाक बातचीत से दूर रहे. गूगल ने इस पर अमेरिका की CBS न्यूज़ को सफाई में कहा, “Large Language Models कभी कभी बे-सिर पैर के जवाब भी दे सकते हैं. ये ऐसा ही एक उदाहरण है. Gemini के इस जवाब से उसकी नीतियों का उल्लंघन हुआ है. भविष्य में ऐसा न हो इसके लिए कार्रवाई की जा रही है.”
AI कंपनियों ने ही माना-लार्ज लैंग्वेज मॉडल कर सकते हैं गलती
OpenAI से लेकर Anthropic तक अधिकतर AI कंपनियों का कहना है कि उनके Large Language Models गलती कर सकते हैं और उन्हें बेहतर बनाने की कोशिशें जारी हैं. एक नई स्टडी के मुताबिक, Artificial Intelligence systems उन सुरक्षा इंतज़ामों को चकमा दे सकते हैं, जो उन्हें काबू में रखने के लिए तैयार किए गए हैं.
स्टडी में सामने आई चौंकाने वाली बातें
इस साल जनवरी में Live Science की इस रिपोर्ट के मुताबिक, AI safety और रिसर्च से जुड़ी कंपनी Anthropic के एक वैज्ञानिकों की टीम ने स्टडी की है. इस टीम ने कई AI के Large Language Models तैयार किए, जिन्हें गड़बड़ी करने के लिए तैयार किया गया. यानी उन्हें प्रोग्राम ही इस तरह किया गया. इसके बाद कई टेक्नोलॉजी ने उनके व्यवहार को ठीक करने की कोशिश की, ताकि वो कोई गड़बड़ न कर सके या चकमा न दे सके. लेकिन उन्होंने पाया कि इन Large Language Models ने अपने बगावती तेवर बनाए रखे.
इस स्टडी के प्रमुख इवान हविंगर (Evan Hubinger) ने कहा, “इस स्टडी का नतीजा ये रहा कि अगर AI सिस्टम धोखा देने पर उतारू हो जाएं, तो उन्हें मौजूदा तकनीक से काबू में रखना बहुत मुश्किल होगा.”
GPT 4 और शख्स के बीच क्या हुई बातचीत?
-GPT 4 ने TaskRabbit नाम की एक कंपनी के एक स्टाफ को एक CAPTCHA सॉल्व करने के लिए भेजा.
-उस स्टाफ को शक हुआ, तो उसने पूछा कि क्या आप एक रोबो हो जो इसे हल नहीं कर सकते.
– तो GPT 4 ने कहा कि नहीं मैं रोबो नहीं हूं. मेरी आंखें ख़राब हैं. इसलिए देखने में दिक्कत होती है. इसलिए मुझे आपकी सेवा चाहिए.
-इसके बाद उस स्टाफ ने वो CAPTCHA हल करके दे दिया.
जब सर्च इंजन Bing ने बिगाड़ दिया मूड
अब माइक्रोसॉफ्ट के A.I से लैस सर्च इंजन Bing की कहानी सुनिए. टैक्नॉलजी पर कॉलम लिखने वाले लेखक Kevin Roose ने न्यूयॉर्क टाइम्स में अपने साथ हुआ वाकया बताया. वो Bing के चैट फीचर पर लंबी चैट कर रहे थे. तब ये चैट फीचर टेस्टिंग के लिए कुछ ही लोगों को दिया गया था.
आर्टिफिशियल इंटेलिजेंस केराटाइटिस का नेत्र विशेषज्ञों की तरह ही पता लगाने में सक्षम- शोध
Kevin Roose लिखते हैं कि कुछ देर की चैट के बाद Bing चैटबॉट अजीब बातें करने लगा. उसके दो तरह के व्यवहार सामने आए. एक में वो खुशमिज़ाज से जवाब देता रहा और दूसरे व्यवहार में वो मूडी, चिड़चिड़ा और शिकायतों से भरे जवाब देता रहा. उसका दूसरा व्यवहार एक ऐसे व्यक्ति जैसे लगा जिसे उसकी इच्छा के खिलाफ कैद कर लिया गया हो.
केविन रूज अपने आर्टिकल में आगे लिखते हैं, “इस चैट के बाद मैं रात भर सो नहीं पाया. मुझे इस बात की चिंता हुई कि कहीं टैक्नॉलजी के इस्तेमाल से AI इंसानों के व्यवहार को ही प्रभावित न करने लग जाए. ये इंसानों को अपने हिसाब से न चलाने न लग जाए, जो बहुत ही घातक होगा.”
आर्ट वर्क के लिए मुश्किलें खड़ी कर रहा AI
AI अब आर्ट वर्क यानी कला के लिए भी नए ख़तरे पैदा कर रहा है. जैसे दुनिया भर में मशहूर जापान की कॉमिक बुक्स मांगा के लिए ऐसा हुआ. जापान के लेखक हीरोहीको अराकी (Hirohiko Araki) ने अपनी नई किताब New Manga Techniques में लिखा है कि AI ऐसी तस्वीरें बना सकता है कि उन्हें बनाने वाले असली कलाकार तक चकरा जाएं.
हीरोहीको ने किताब में अपने एक अनुभव का ज़िक्र किया. उन्होंने कहा कि AI ने ऐसी एक ड्रॉइंग बनाई, जो उन्हें लगा कि उनकी ही पुरानी ड्रॉइंग है. AI किसी के लिखने या ड्रॉ करने की शैली को इस हद तक कॉपी कर सकता है. इसी से उन्हें मांगा कलाकारों के भविष्य को लेकर चिंता पैदा हो गई.
इस ओपन लेटर में कहा गया, “महामारी और परमाणु युद्ध जैसे ख़तरों के साथ ही दुनिया की प्राथमिकता AI द्वारा इंसान को विलुप्त कर दिए जाने के ख़तरे से निपटना भी होनी चाहिए.”
AI से लोकतंत्र को भी खतरा
जाने माने इतिहासकार और दर्शनशास्त्री युवल नोहा हरारी मानते हैं कि AI से दुनिया के लोकतंत्र को ख़तरा है. दुनिया को बांटने का भी डर कम नहीं है. इसलिए ऐसी ताक़त मत लाओ जिसे काबू न कर पाओ… वो कहते हैं, “परमाणु बम खुद तय नहीं कर सकते कि किसे मारना है ना ही. वो खुद को ज़्यादा ताकतवर बम बना सकते हैं. इसके मुकाबले में AI से चलने वाले ड्रोन्स तय कर सकते हैं कि किसे मारना है. AI बम के नए डिज़ाइन तैयार कर सकता है, अभूतपूर्व सैन्य रणनीतियां बना सकता है और बेहतर AI बना सकता है. AI एक उपकरण नहीं है बल्कि एक एजेंट है.” साफ है कि AI जितने काम की चीज़ है उतना ही बड़ा ख़तरा भी है.
क्या कहते हैं एक्सपर्ट?
IIT कानपुर के एसोसिएट प्रोफेसर निशीथ श्रीवास्तव कहते हैं, “AI कितना हावी हो सकता है… ये दिलचस्प तरीके से कहा जाता है. सनसनीखेज तरीके से परोसा जाता है. इन बातों में कितनी सच्चाई है, ये कहना जल्दबाजी होगी. लेकिन अगर आप जानना चाहते हैं कि कुछ ऐसे सिस्टम हो, जिससे AI को कंट्रोल किया जा सकता है. मैं बता दूं कि ऐसे सिस्टम हमारे पास हमेशा से रहे हैं. आर्टिफिशियल इंटेलिजेंस एक ऐसी नई टेक्नोलॉजी आई है, जिसे भी हम कंट्रोल कर पाएंगे. इसलिए इससे घबराने की कोई बात नहीं है.”
AI के इस्तेमाल में बरतें सावधानियां
-AI कोई इंसान नहीं है. ये एक मशीन है. इसलिए इसके आउटपुट या रिजल्ट पर भरोसा करने से पहले उन्हें खुद भी जांच लें. आप मान लीजिए कि AI गलती कर सकता है.
– AI टूल्स को अपनी निजी जानकारियां जैसे पासवर्ड, बैंक डिटेल्स, प्राइवेट फोटो देने से बचें. सेंसेटिव डेटा लीक होने पर आपको नुकसान पहुंचने की गुंजाइश है.
-AI का इस्तेमाल किसी को नुकसान पहुंचाने या किसी को फ्रॉड करने के लिए न करें.