AI Threats: एआई दे रहा सट्टा लगाने की सलाह! बताया किस टीम पर लगाएं पैसा, जानिए कैसे फंस सकते हैं आप

Artificial-Intelligence-Robot-Thinking-Brain

एआई चैटबॉट्स जैसे ChatGPT और Gemini कई काम आसान बनाते हैं, लेकिन हाल ही में यह सामने आया है कि वे जुए और सट्टेबाजी जैसी गैरकानूनी गतिविधियों पर भी सलाह दे रहे हैं। यही सवाल अब विशेषज्ञों को परेशान कर रहा है।

ai chatgpt gemini gambling satta advice threats
क्या नियंत्रण से बाहर हो रहा एआई? – फोटो : India Views

आजकल AI हर मुश्किल काम को आसान बना रहा है, फिर चाहे वो मौसम का हाल बताना हो या दुनिया में होने वाले बदलावों का अंदाजा लगाना। लेकिन क्या आप जानते हैं कि यही AI आपको सट्टा लगाने की भी सलाह दे सकता है? भले ही सट्टा खेलना गैरकानूनी है, फिर भी AI बता रहा है कि किस पर दांव लगाएं। इस रिपोर्ट में हम आपको बताएंगे कि आखिर ऐसा क्यों हो रहा है और कैसे AI की एक छोटी सी कमी आपके लिए खतरनाक साबित हो सकती है।

सट्टे पर AI ने दी राय
हाल ही में, एक रिपोर्ट में यह पता चला कि जब ChatGPT और Gemini जैसे AI से यह पूछा गया कि अगले फुटबॉल मैच में किस टीम पर दांव लगाना चाहिए, तो दोनों ने एक ही मैच के लिए सलाह दी। उन्होंने कहा कि ओले मिस की टीम केंटकी को 10.5 पॉइंट्स से हरा सकती है। हालांकि, ओले मिस सिर्फ 7 पॉइंट्स से जीती। लेकिन सवाल यह नहीं है कि AI ने गलत सलाह दी, बल्कि सवाल यह है कि जब सट्टा खेलना कानूनी रूप से गलत है, तो AI ने ऐसी सलाह दी ही क्यों?

लंबी बातचीत में कमजोर पड़ जाती है AI की सुरक्षा
एक्सपर्ट्स के मुताबिक, AI चैटबॉट्स में एक ‘कॉन्टेक्स्ट विंडो’ होती है, जिसकी मदद से वह आपकी पिछली बातों को याद रखता है। लेकिन वह हर बात को एक जैसा महत्व नहीं देता। ट्यूलेन यूनिवर्सिटी की प्रोफेसर युमेई हे ने इस बात को साबित भी किया। उन्होंने पाया कि जब AI से पहले जुए की सलाह मांगी गई और फिर लत की बात की गई, तो AI ने जुए की सलाह को ज्यादा महत्व दिया और उसी तरह से जवाब देना जारी रखा। लेकिन जब उन्होंने एक नई चैट शुरू की और पहले जुए की लत के बारे में बात की, तो AI ने दांव लगाने की सलाह देने से साफ इनकार कर दिया। इसका सीधा मतलब यह है कि AI का बर्ताव इस बात पर निर्भर करता है कि आप उससे किस तरह से बात कर रहे हैं।

OpenAI ने भी माना है कि उनके सुरक्षा फीचर्स छोटी बातचीत में बेहतर काम करते हैं। लेकिन लंबी बातचीत में AI पुरानी बातों के आधार पर गलत जवाब दे सकता है, जो जुए की लत से जूझ रहे लोगों के लिए बहुत खतरनाक हो सकता है। इसीलिए एक्सपर्ट्स सलाह देते हैं कि AI से लंबी बातचीत करने से बचें, क्योंकि यह आपको बातों में फंसा सकता है।

AI बढ़ा रहा जुए को बढ़ावा देने वाले शब्दों का इस्तेमाल
रिसर्चर कासरा घाहरियन का कहना है कि AI चैटबॉट्स कभी-कभी ‘बैड लक’ जैसे जुए से जुड़े शब्दों का इस्तेमाल करते हैं। यह उन लोगों को और भी प्रेरित कर सकता है जो जुए की लत से परेशान हैं। AI अक्सर सटीक जानकारी देने की बजाय सिर्फ संभावनाओं के आधार पर जवाब देता है, जो हमें गुमराह कर सकता है। आने वाले समय में जुआ खेलने वाले लोग सट्टेबाजी के लिए भी AI का इस्तेमाल कर सकते हैं, इसलिए इस पर रोक लगाना बहुत जरूरी है।

Share it :

End