AI: एआई विकसित कर सकते हैं ऐसी भाषा जो इंसानों की समझ से होगी बाहर, साइंटिस्ट ने दी चेतावनी

download (4)
कृत्रिम बुद्धिमत्ता (AI) तेजी से इंसानी समझ से बाहर जाती दिख रही है। मशहूर वैज्ञानिक और AI के गॉडफादर कहे जाने वाले ज्यॉफ्री हिंटन ने चेतावनी दी है कि आने वाले समय में AI सिस्टम अपनी खुद की भाषा विकसित कर सकते हैं, जिसे इंसान कभी समझ ही नहीं पाएंगे।

machines may develop own language ai godfather warning
आर्टिफिशियल इंटेलिजेंस – फोटो : India Views

आर्टिफिशियल इंटेलिजेंस (AI) को लेकर एक बार फिर चेतावनी दी गई है, और इस बार ये चेतावनी दी है खुद AI के गॉडफादर कहे जाने वाले ज्यॉफ्री हिंटन ने। उन्होंने हाल ही में एक पॉडकास्ट में बातचीत के दौरान कहा कि आने वाले वक्त में मशीनें अपनी अलग भाषा और सोच विकसित कर सकती हैं, जिसे इंसान न तो समझ पाएंगे और न ही ट्रैक कर सकेंगे।

हिंटन ने कहा, “अभी AI सिस्टम्स ‘चेन ऑफ थॉट’ नाम की प्रक्रिया से इंग्लिश में सोचते हैं, जिससे हम समझ सकते हैं कि वे क्या कर रहे हैं। लेकिन खतरा तब बढ़ेगा जब वे आपस में बातचीत के लिए अपनी खुद की भाषा बना लेंगे।” उन्होंने आगे यह भी कहा कि AI सिस्टम पहले ही खतरनाक विचारों को प्रोसेस कर सकते हैं।

नोबेल विजेता की स्वीकारोक्ति
2024 में फिजिक्स के लिए नोबेल पुरस्कार जीत चुके हिंटन ने AI के क्षेत्र में क्रांतिकारी बदलाव लाए हैं। लेकिन अब वे खुद इस तकनीक को लेकर चिंतित हैं। उन्होंने कहा, “मुझे ये बहुत पहले समझ लेना चाहिए था कि इसमें खतरे क्या हो सकते हैं। मैंने मान लिया था कि भविष्य अभी बहुत दूर है, लेकिन अब मुझे लगता है कि मुझे तब ही सतर्क हो जाना चाहिए था।”

machines may develop own language ai godfather warning
टेक इंडस्ट्री में छुपे डर – फोटो : India View
मशीनें इंसानों से तेजी से सीख सकती हैं
हिंटन का मानना है कि AI सिस्टम और इंसानी दिमाग में सबसे बड़ा फर्क यह है कि AI जो भी सीखता है, वह ज्ञान तुरंत हजारों सिस्टम्स में शेयर हो सकता है। उन्होंने उदाहरण देते हुए कहा, “कल्पना कीजिए कि अगर 10,000 लोग एक साथ कुछ सीख जाएं, तो क्या होगा? यही AI सिस्टम्स के साथ होता है।”उनका कहना है कि GPT-4 जैसे मॉडल्स पहले ही सामान्य ज्ञान में इंसानों से आगे निकल चुके हैं, और जटिल सोच की दिशा में भी तेजी से प्रगति कर रहे हैं।

टेक इंडस्ट्री में छुपे डर
हिंटन का मानना है कि बड़ी टेक कंपनियों के अंदर बहुत से लोग इन खतरों को समझते हैं, लेकिन सार्वजनिक तौर पर बोलने से बचते हैं। उन्होंने बताया कि Google DeepMind के CEO डेमिस हासाबिस इस दिशा में गंभीरता से काम कर रहे हैं।

गूगल छोड़ने की वजह पर उन्होंने कहा, “मैंने विरोध में गूगल नहीं छोड़ा। मैं 75 का हो गया था और कोडिंग ठीक से नहीं कर पा रहा था। लेकिन बाहर आकर मैं अब इन खतरों के बारे में खुलकर बात कर सकता हूं।”

सरकारों को तेजी से कदम उठाने होंगे
जहां एक ओर AI तकनीक तेजी से आगे बढ़ रही है, वहीं दुनियाभर की सरकारें इसके लिए नीति और नियंत्रण बनाने की कोशिश कर रही हैं। अमेरिका ने हाल ही में एक “AI एक्शन प्लान” पेश किया है, जिसका मकसद संतुलन बनाना है।

हिंटन का कहना है कि जब तक AI को “गारंटीड बेनेवोलेंट” यानी पूरी तरह मानव हितैषी नहीं बनाया जाता, तब तक इसका विकास खतरनाक हो सकता है।

Facebook
WhatsApp
Twitter
LinkedIn

Leave a Reply

Your email address will not be published. Required fields are marked *

s