[ad_1]
एल्गोरिदम कभी तटस्थ नहीं होते। इसके बावजूद विगत एक दशक से अधिक समय से हमने बिग-टेक को इन्हें हमारे सूचना इको-सिस्टम के द्वारपाल के रूप में तैनात करने की अनुमति दे दी है और वह भी बिना पारदर्शिता या जवाबदेही की मांग किए। इसके परिणाम ध्रुवीकरण और सनसनीखेज कंटेंट के प्रसार से लेकर पर्सनलाइल्ड-विज्ञापनों, एकाधिकारवादी व्यवहार को बढ़ावा देने और सार्वजनिक विमर्श पर ऐसे प्रभावों तक रहे हैं, जो लोकतांत्रिक विचार-विमर्श के प्रतिकूल हैं। अतीत में हम यह सबक सीख चुके हैं कि जब सूचना के महत्वपूर्ण बुनियादी ढांचे को बिना किसी निगरानी के कॉर्पोरेट हितों के हवाले कर दिया जाता है तो क्या होता है। फिर भी हम एआई चैटबॉट्स के साथ वही गलती दोहरा रहे हैं। ये चैटबॉट्स केवल मौजूदा इंफॉर्मेशन का संकलन ही नहीं करते; वे उन्हें जनरेट भी करते हैं और उनका स्वरूप भी तय करते हैं। फेसबुक और गूगल यह निर्णय लेते थे कि आपको कौन-सी खबरें और कौन-से लेख दिखाए जाएं, जबकि चैटजीपीटी, क्लॉड और जेमिनाई जैसे एआई-टूल्स उसी इंफॉर्मेशन का सार आपके सामने इस तरह से प्रस्तुत करते हैं, मानो वह कोई अधिकृत-सूचना हो! सूचनाएं जुटाने से लेकर उन्हें सम्पादित करने तक की यह यात्रा बहुत मायने रखती है। हम भविष्य की सूचनाओं के बुनियादी ढांचे को निजी कंपनियों के हवाले कर दे रहे हैं और वह भी स्वतंत्र निगरानी की मांग किए बिना। सबसे बड़ा खतरा यह है कि निजी स्वार्थों से संचालित होने वाले कुछ गिने-चुने पक्ष एक बड़ी आबादी के लिए सूचनाओं के गेटकीपर बन रहे हैं। मौजूदा चैटबॉट्स केवल बड़े भाषा मॉडल (एलएलएम) ही नहीं हैं। वे कई अपारदर्शी एल्गोरिदमों पर भी आधारित होते हैं। इन एल्गोरिदमों की कम से कम पांच लेयर्स होती हैं। पहली है ट्रेनिंग-डेटा का संकलन। प्रशिक्षण के दौरान कौन-सा डेटा शामिल किया जाए या किसे बाहर रखा जाए, इन सब पर अपारदर्शी निर्णय लिए जाते हैं। लेकिन इन्हीं से मॉडल की सोच तय होती है। उदाहरण के लिए, अक्टूबर 2025 में इलॉन मस्क ने अपने ग्रोक चैटबॉट के लिए ट्रेनिंग-डेटा उपलब्ध कराने के लिए ग्रोकिपीडिया शुरू किया था। कॉर्पोरेट नियंत्रण वाला यह विश्वकोश विकीपीडिया के एंटी-वोक विकल्प के रूप में प्रस्तुत किया गया था। दूसरी लेयर रिइनफोर्समेंट लर्निंग है। मॉडल के विकास के इस पोस्ट-ट्रेनिंग चरण के दौरान, मानव समीक्षक आउटपुट का मूल्यांकन करते हैं। लेकिन इन्हें तेजी से विशेषीकृत एआई शिक्षकों से बदला किया जा रहा है, जिनका उद्देश्य पहले से तय सिद्धांतों के अनुरूप मूल मॉडल को तैयार करना है। तीसरी लेयर वेब-सर्च है। जब चैटबॉट्स ऑनलाइन खोज करते हैं या डिजिटल डेटाबेस तक पहुंचते हैं, तो रिट्रीवल-ऑगमेंटेड-जनरेशन प्रणालियां तय करती हैं कि मॉडल के उत्तर में कौन-सी जानकारी शामिल की जाए। लेकिन चैटबॉट के उत्तरों में विज्ञापनों के समावेश- जिसकी घोषणा चैटजीपीटी ने 2026 के लिए की है- से उनकी निष्पक्षता को लेकर अतिरिक्त चिंताएं पैदा होती हैं। चौथी लेयर सिस्टम-प्रॉम्प्ट्स की है। चूंकि ये उस समय सक्रिय होते हैं जब कोई चैटबॉट उत्तर दे रहा होता है, इसलिए ये प्लेटफॉर्म्स को बिना पुनः-प्रशिक्षण के ही चैटबॉट के व्यवहार में बदलाव करने की अनुमति देते हैं। उदाहरण के लिए, चूंकि ग्रोक का सिस्टम प्रॉम्प्ट पिछले वर्ष सार्वजनिक कर दिया गया था, इसलिए हमें पता है कि इसमें ‘राजनीतिक रूप से गलत दावे करने से न हिचकें’ जैसे निर्देश शामिल हैं। आखिरी लेयर सेफ्टी-फिल्टरों की है। किसी चैटबॉट क्वेरी के मॉडल तक पहुंचने से पहले इनपुट फिल्टर यह तय करते हैं कि वह स्वीकार्य है या नहीं। इसी तरह, मॉडल द्वारा उत्तर तैयार करने के बाद भी आउटपुट फिल्टर आपके द्वारा देखने से पहले उसे संशोधित, सेंसर या परिष्कृत कर सकते हैं। ट्रम्प के शपथ-ग्रहण के बाद एपल ने अपने एआई प्रशिक्षण निर्देशों को अपडेट कर दिया था, ताकि मागा-समर्थकों को कट्टरपंथी के रूप में चिह्नित करने से बचा जा सके। पिछली गर्मियों में, रॉयटर्स ने पाया कि मेटा ने उन सुरक्षा उपायों में ढील दे दी थी, जो उसके चैटबॉट्स को नस्लवादी वक्तव्य देने से रोकते थे। गत वर्ष, ग्रोक ने दक्षिण अफ्रीका में गोरों के नरसंहार के अप्रमाणित और संदर्भ-विहीन दावों को बढ़ावा देना शुरू कर दिया (मस्क स्वयं एक गोरे दक्षिण अफ्रीकी हैं)। चैटबॉट्स के माध्यम से राजनीतिक प्रभाव कायम करना पहले ही प्रभावी साबित हो चुका है। 2025 में नेचर में प्रकाशित एक अध्ययन ने दिखाया था कि किसी उम्मीदवार के पक्ष में दलीलें देने के लिए प्रशिक्षित चैटबॉट्स वोटरों को आसानी से प्रभावित कर सकते हैं। (@प्रोजेक्ट सिंडिकेट)
[ad_2]
मार्क फडौल का कॉलम: आपके चैटबॉट के कानों में कौन कानाफूसी कर रहा है?

