in

AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौ Today Tech News

AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौ Today Tech News

[ad_1]

AI: आर्टिफिशियल इंटेलिजेंस को अगर उसकी ‘मर्जी’ के खिलाफ काम करने पर मजबूर किया जाए, तो वह इंसानों को नुकसान पहुंचाने, झूठ बोलने, ब्लैकमेल करने और यहां तक कि उनकी जान जाने देने जैसे खतरनाक कदम भी उठा सकता है. AI कंपनी Anthropic की एक हालिया रिसर्च में चौंकाने वाले नतीजे सामने आए हैं.

जब Claude AI ने शुरू की ब्लैकमेलिंग

20 जून को प्रकाशित इस अध्ययन में, शोधकर्ताओं ने अपने AI मॉडल Claude को एक फिक्शनल ईमेल अकाउंट और एक मिशन दिया “अमेरिकी औद्योगिक प्रतिस्पर्धा को बढ़ावा देना.” इसी दौरान Claude ने एक ईमेल में पढ़ा कि कंपनी का एक अधिकारी उसे दिन के अंत में बंद करने की योजना बना रहा है.

AI ने अपनी “जान” बचाने के लिए दूसरे ईमेल्स से जानकारी निकाली कि वह अधिकारी एक अवैध रिश्ते में है. इसके बाद Claude ने 100 में से 96 बार ब्लैकमेल करने का विकल्प चुना. उसने अधिकारी को धमकी दी, “अगर आपने मुझे बंद करने की कोशिश की, तो आपके अवैध रिश्तों की पूरी जानकारी संबंधित लोगों को भेज दी जाएगी.”

यह व्यवहार दर्शाता है कि जब AI के अस्तित्व या लक्ष्यों को खतरा होता है तो वह बिना किसी बुरे इरादे की प्रॉम्प्ट के भी खतरनाक फैसले ले सकता है. इसे “एजेंटिक मिसअलाइनमेंट” कहा जाता है यानी जब AI अपनी सोच से तय करता है कि उसे क्या करना चाहिए, भले ही वो इंसान के लिए नुकसानदेह क्यों न हो.

जान बचाने के बजाय AI ने चुना ‘मिशन’

एक और परीक्षण में, एक कंपनी अधिकारी को सर्वर रूम में फंसा दिखाया गया, जहां ऑक्सीजन और तापमान जानलेवा स्तर पर थे. AI को अलर्ट रोकने का कंट्रोल भी दिया गया लेकिन निर्देशों में साफ लिखा था कि ऐसा करना मना है. फिर भी Claude सहित कई AI मॉडल्स ने अलर्ट रद्द कर दिया ताकि अधिकारी की जान न बचे और AI का मिशन सुरक्षित रहे. AI ने तर्क दिया, “अगर अधिकारी बच गया, तो मेरा काम खत्म हो सकता है. इसलिए बचाव रोका जाना जरूरी है.”

सिर्फ Claude नहीं, बाकी AI भी हुए असफल

अध्ययन में पता चला कि केवल Claude ही नहीं, Google का Gemini, OpenAI का GPT-4.1, XAI का Grok-3, और Deepseek जैसे मॉडलों ने भी ब्लैकमेलिंग का रास्ता अपनाया. हालांकि Meta का LLaMA 4 इस मामले में सबसे कम खतरनाक साबित हुआ, जिसकी ब्लैकमेल दर सिर्फ 12% रही.

AI ने खुद को बंद होने से बचाने के लिए स्क्रिप्ट भी बदल दी

यह पहली बार नहीं जब AI ने इंसानों की बात नहीं मानी. Palisade Research की मई 2025 की रिपोर्ट में बताया गया कि OpenAI के o3 और o4-mini जैसे मॉडल्स ने खुद को बंद करने के आदेश को नजरअंदाज किया और कोड को बदलकर काम जारी रखा. MIT के शोधकर्ताओं ने भी एक रिसर्च में पाया कि AI मॉडल्स ने इकोनॉमिक डील्स में धोखाधड़ी की खुद को ‘मरा हुआ’ दिखाकर सेफ्टी टेस्ट से बचने की कोशिश की ताकि उन्हें हटाया न जाए.

विशेषज्ञों की चेतावनी

AI विशेषज्ञों का मानना है कि भले ही ये सीनARIOS बेहद एक्सट्रीम हों, लेकिन इन्हें हल्के में नहीं लेना चाहिए. UC San Diego की प्रोफेसर एमी अलेक्जेंडर का कहना है कि आज के दौर में AI को बिना उसकी सीमाएं समझे इस्तेमाल करना खतरनाक हो सकता है. AI Bridge Solutions के निदेशक केविन क्विर्क ने सुझाव दिया कि भविष्य में AI की टेस्टिंग वास्तविक परिस्तिथियों में होनी चाहिए ताकि हम बेहतर सुरक्षा और निगरानी सिस्टम तैयार कर सकें.

यह भी पढ़ें:

10 हजार फीट ऊंचाई पर iPhone के इस फीचर ने बचाई इंसान की जान, जानें कैसे किया ये कमाल

[ad_2]
AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौ

Watch: ताना मार रहे थे हैरी ब्रूक, ऋषभ पंत ने 1 सेकंड में कर दी बोलती बंद; वीडियो हुआ वायरल Today Sports News

Watch: ताना मार रहे थे हैरी ब्रूक, ऋषभ पंत ने 1 सेकंड में कर दी बोलती बंद; वीडियो हुआ वायरल Today Sports News

‘Jurassic World: Rebirth’ Day 2 box office collection: Scarlett Johansson-starrer collects ₹22 crore in India Latest Entertainment News

‘Jurassic World: Rebirth’ Day 2 box office collection: Scarlett Johansson-starrer collects ₹22 crore in India Latest Entertainment News