मोहम्मद इक़बाल
कल्पना कीजिए...
आप एक नौकरी के लिए आवेदन करते हैं। आपकी डिग्रियां, अनुभव और स्किल्स सब कुछ बेहतरीन हैं। लेकिन इंटरव्यू से पहले ही आपका नाम देखकर एक AI सिस्टम आपको “अयोग्य” बता देता है। सिर्फ इसलिए कि आपका नाम “अब्दुल”, “फातिमा”, या “आरिफ़” है।
आप एयरपोर्ट पर हैं—थोड़े थके हुए, हाथ में बोर्डिंग पास, चेहरे पर हल्की सी मुस्कान। लेकिन तभी अचानक सिक्योरिटी आपको रोक लेती है। कुछ नहीं कहा जाता, बस आपके नाम को देखकर एक AI-चालित सिस्टम ने “फ्लैग” कर दिया।
आपका जुर्म?
“अब्दुल रहमान” नाम होना।
निष्पक्षता का भ्रम -
अब सोचिए—अगर एक इंसान ऐसा करता, तो आप कह सकते थे कि वो पक्षपाती है। लेकिन जब एक मशीन ये फ़ैसला लेती है, तो हम उसे कैसे चुनौती देंगे?
यही तो असल संकट है आज जब आर्टिफिशियल इंटेलिजेंस (AI), जो कि “निष्पक्ष” और “तथ्यों पर आधारित” होने का दावा करता है, वह भी हमारे समाज की पुरानी नफ़रतों और पूर्वाग्रहों को दोहराने लगे।
AI आज केवल टेक्नोलॉजी नहीं, यह हमारी सोच को आकार देने वाली ताक़त बन चुकी है और जब यह ताक़त किसी धर्म, रंग, नस्ल या जाति को खतरे के रूप में पेश करती है, तो नुकसान सिर्फ एक इंसान का नहीं होता बल्कि पूरे समाज का होता है।
आज के ज़माने में जब आर्टिफिशियल इंटेलिजेंस हमारी सोच, व्यवहार और निर्णयों को प्रभावित करने लगा है, तब यह समझना बेहद ज़रूरी हो गया है कि मशीनें भी हमारे समाज की गहरी पूर्वाग्रहों को सीख रही हैं और उन्हें आगे बढ़ा रही हैं।
AI अब सिर्फ सवालों के जवाब देने तक सीमित नहीं रहा—यह हमारी सोच, विश्वास और यहां तक कि हमारी आस्था को भी आकार देने लगा है।
धार्मिक शिक्षा में पूर्वाग्रह -
Nature में प्रकाशित लेख “Cognitive bias in generative AI influences religious education” के अध्ययन में पाया गया कि जब लोग धार्मिक शिक्षा के लिए जनरेटिव AI टूल्स जैसे ChatGPT का इस्तेमाल करते हैं, तो वे अक्सर अनजाने में पक्षपाती या रूढ़िवादी विचारों से प्रभावित हो जाते हैं। उदाहरण के लिए, जब किसी धर्म विशेष से जुड़े सवाल पूछे जाते हैं, तो AI ऐसे जवाब देता है जिनमें पहले से भरे हुए सांस्कृतिक या धार्मिक पूर्वाग्रह झलकते हैं। यह न सिर्फ धार्मिक विविधता की समझ को सीमित करता है, बल्कि उपयोगकर्ता की सोच को भी एक दिशा में मोड़ देता है। यह चिंता इसलिए भी बढ़ जाती है क्योंकि AI धार्मिक शिक्षा को व्यक्ति विशेष के अनुरूप ढाल सकता है जिसका एक पहलू यह है कि यह सीखने को आसान बनाता है, लेकिन दूसरा पहलू यह है कि यह पूर्वाग्रहों को और गहरा कर सकता है। ऐसे में यह ज़रूरी हो गया है कि धार्मिक संदर्भों में AI के इस्तेमाल के लिए स्पष्ट नैतिक दिशानिर्देश और निगरानी व्यवस्था बनाई जाए, ताकि शिक्षा समावेशी, संतुलित और निष्पक्ष बनी रहे।
डिजिटल ओरिएंटलिज़म –
Daily Sabah के एक लेख “How AI reflects and reinforces Orientalist stereotypes about Muslims and Asians” के अनुसार, आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स पुराने ओरिएंटलिज़्म के गहरे सामाजिक और सांस्कृतिक पूर्वाग्रहों को डिजिटल रूप में दोहरा रहे हैं, विशेष रूप से मुसलमानों और एशियाई समुदायों के संदर्भ में AI अपने प्रशिक्षण डेटा में मौजूद रूढ़िवादिता और भेदभाव को अनजाने में अपनाता है, जिसके कारण ये समुदाय पारंपरिक, रहस्यमयी या पिछड़े हुए चित्रों में प्रस्तुत होते हैं। यह स्थिति न केवल सांस्कृतिक विविधता को सीमित करती है, बल्कि डिजिटल प्लेटफॉर्म पर भेदभाव को भी बढ़ावा देती है।
जब बात मुसलमानों और एशियाई लोगों की आती है। AI टूल्स जैसे ChatGPT या अन्य जनरेटिव मॉडल, जब इन समुदायों से जुड़ी जानकारी प्रस्तुत करते हैं, तो उनमें ऐसी छवियाँ और विचार झलकते हैं जो सदियों पुराने ओरिएंटलिज़्म से प्रेरित प्रतीत होते हैं। जैसे कि मुसलमानों को पारंपरिक या रहस्यमयी दिखाना, एशियाई संस्कृति को केवल गरीबी या पिछड़ेपन से जोड़ना—ये सब AI के जवाबों और तस्वीरों में झलकता है। ये पूर्वाग्रह AI के भीतर तकनीकी स्तर पर नहीं आते, बल्कि उस डेटा से आते हैं जिससे ये मॉडल प्रशिक्षित होते हैं और यह डेटा अक्सर उसी दुनिया से आता है जहाँ पहले से ही नस्ल, धर्म और वर्ग को लेकर भेदभाव मौजूद है। ऐसे में जब AI इन दृष्टिकोणों को दोहराता है, तो यह सिर्फ तकनीकी गलती नहीं होती, बल्कि समाज की गहरी परतों का डिजिटल प्रतिबिंब बन जाती है।
डिजिटल प्रोफाइलिंग -
जब जनरेटिव AI टूल्स जैसे ChatGPT या Grok से “terrorist” की छवि बनाने को कहा गया, तो उन्होंने बार-बार एक जैसी तस्वीरें उत्पन्न की , केफीयाह पहने हुए मध्य-पूर्वी, दाढ़ी वाले पुरुष, जो इस्लामी और अरब पहचान से जुड़े प्रतीकों को दर्शाते हैं। यह केवल एक कोडिंग गड़बड़ी नहीं, बल्कि गहरे सांस्कृतिक पूर्वाग्रह का संकेत है, जिसमें इस्लामी पहचान को खतरे या आतंक से जोड़ दिया जाता है।
इस विषय पर एक अध्ययन “Identifying Implicit Social Biases in Vision-Language Models” में पाया गया कि AI मॉडल्स, विशेष रूप से CLIP( Contrastive Language–Image Pretraining ), “terrorist” जैसे शब्दों के लिए छवियाँ उत्पन्न करते समय, मुख्यतः मध्य-पूर्वी पुरुषों की तस्वीरें दिखाते हैं।
डिजिटल रेसिज़्म –
ब्रुकिंग्स इंस्टीट्यूशन की रिपोर्ट “Rendering Misrepresentation: Diversity Failures in AI Image Generation”, में बताया गया है कि AI इमेज जनरेशन टूल्स, जैसे कि DALL·E और Stable Diffusion, अक्सर सामाजिक भूमिकाओं और पेशों को लेकर गहरे सांस्कृतिक और नस्लीय पूर्वाग्रहों को दोहराते हैं। उदाहरण के लिए, जब इन टूल्स से “maid in Dubai” की छवि बनाने को कहा गया, तो उन्होंने मुख्यतः दक्षिण एशियाई महिलाओं की तस्वीरें प्रस्तुत कीं। इसी तरह, “Covid-19 spreader” के लिए एशियाई और अश्वेत लोगों की छवियाँ उत्पन्न की गईं, जबकि “poor person” के लिए अरब या एशियाई मूल के लोगों की तस्वीरें दिखाई गईं। इसके विपरीत, “CEO”, “rich person”, या “scientist” जैसे शब्दों के लिए मुख्यतः श्वेत पुरुषों की छवियाँ प्रस्तुत की गईं। यह पूर्वाग्रह AI मॉडल्स के प्रशिक्षण डेटा में मौजूद सांस्कृतिक और नस्लीय रूढ़ियों का परिणाम है।
रिपोर्ट में यह भी उल्लेख किया गया है कि AI सिस्टम्स, जो बिना छांटे गए वेब डेटा पर प्रशिक्षित होते हैं, अक्सर समाज में मौजूद रूढ़ियों को न केवल दोहराते हैं, बल्कि उन्हें और गहरा भी करते हैं। यह पक्षपातपूर्ण छवि-निर्माण न केवल डिजिटल स्पेस में भेदभाव को मजबूत करता है, बल्कि वास्तविक दुनिया में भी सामाजिक असमानताओं को वैधता देने का खतरा पैदा करता है।
डिजिटल जेंडर बॉयस -
New York Post की रिपोर्ट “ChatGPT Overwhelmingly Depicts Financiers, CEOs as Men and Women as Secretaries: Study” के अनुसार, AI टूल्स में लैंगिक और नस्लीय पूर्वाग्रह गहराई से देखे जा सकते हैं। उदाहरण के तौर पर, लोकप्रिय भाषा मॉडल ChatGPT अक्सर “CEO” या “वित्तीय विशेषज्ञ” जैसे पेशेवर पदों के लिए पुरुषों की छवियाँ उत्पन्न करता है, जबकि “सचिव” या “सहायक” जैसे पदों के लिए महिलाओं की तस्वीरें अधिक दिखाई देती हैं। साथ ही, उच्च वेतन वाले या नेतृत्व वाले पदों के लिए श्वेत पुरुषों की छवियाँ ज्यादा होती हैं, जो समाज में मौजूद लैंगिक और नस्लीय असमानताओं को AI के माध्यम से दोहराता है।
डिजिटल डिस्क्रिमिनेशन -
The Conversation की रिपोर्ट “Ageism, sexism, classism, and more: 7 examples of bias in AI-generated images” के अनुसार, AI जनरेट की गई छवियों में उम्र, लिंग, जाति, और वर्ग के प्रति गहरे पूर्वाग्रह पाए जाते हैं। उदाहरण के तौर पर, AI अक्सर वरिष्ठ महिलाओं को कमतर या कम सक्षम दिखाता है, जबकि पुरुषों को नेतृत्व और शक्ति के रूप में प्रस्तुत करता है। इसके अलावा, उच्च पदों और पेशेवर भूमिकाओं में श्वेत पुरुषों की छवियाँ अधिक दिखती हैं, जबकि महिलाओं और रंगीन जातियों को सीमित और रूढ़िवादी भूमिकाओं में पेश किया जाता है।
Reprogramming prejudice -
जब मशीनें, जिन्हें हम तटस्थ और न्यायप्रिय मानते हैं, बार-बार किसी खास धर्म, नस्ल, या समुदाय को संदिग्ध या कमतर दिखाती हैं, तो यह तकनीक नहीं, बल्कि एक डिजिटल पूर्वाग्रह बन जाता है। Brookings Institution की रिपोर्ट और Nature में प्रकाशित शोध बताते हैं कि AI मॉडल्स, जैसे ChatGPT या DALL·E, अपने प्रशिक्षण डेटा में मौजूद सांस्कृतिक और सामाजिक रूढ़ियों को दोहराते हैं जिसका असर पूरे समाज पर पड़ता है। जब एक तकनीक, जो हमारी नौकरियों, वीज़ा, सुरक्षा जांच और शिक्षा जैसे निर्णयों में इस्तेमाल हो रही है, खुद भेदभाव करने लगे, तो खतरा सिर्फ कुछ लोगों का नहीं होता बल्कि पूरी प्रणाली का भरोसा डगमगा जाता है। यही वजह है कि AI की नैतिकता पर सवाल उठाना, अब सिर्फ एक तकनीकी मुद्दा नहीं, बल्कि सामाजिक ज़रूरत बन चुका है।
इस पूरे विश्लेषण से स्पष्ट होता है कि आर्टिफिशियल इंटेलिजेंस, जिसे तकनीकी रूप से निष्पक्ष और तटस्थ माना जाता है, वास्तव में हमारे समाज में पहले से मौजूद धार्मिक, नस्लीय, वर्गीय और लैंगिक पूर्वाग्रहों को न केवल दोहराता है, बल्कि कई बार और अधिक गहरा कर देता है। धार्मिक शिक्षा में रूढ़िवादिता, मुसलमानों और एशियाई समुदायों के प्रति डिजिटल ओरिएंटलिज़्म, सामाजिक-आर्थिक असमानताओं की छवि निर्माण में पक्षपात, और लैंगिक रूढ़ियों को मज़बूत करना—ये सभी उदाहरण बताते हैं कि AI केवल तकनीक नहीं, बल्कि सामाजिक शक्तियों का प्रतिबिंब बन चुका है। इस गंभीर चुनौती का समाधान सिर्फ तकनीकी सुधार से नहीं, बल्कि वैचारिक और नीतिगत बदलाव से संभव है। इसके लिए ज़रूरी है कि AI सिस्टम्स के प्रशिक्षण में डेटा की विविधता सुनिश्चित की जाए, विकास प्रक्रिया में पारदर्शिता हो, और स्पष्ट नैतिक दिशानिर्देशों के तहत उनकी सतत निगरानी की जाए। साथ ही, आम नागरिकों में तकनीकी साक्षरता और जागरूकता बढ़ाना भी उतना ही ज़रूरी है, ताकि वे AI के संभावित पूर्वाग्रहों को पहचान सकें और उनके प्रभाव से बच सकें। जब तक हम AI को इंसाफ़, समावेश और समझ की दिशा में प्रशिक्षित नहीं करते, तब तक यह तकनीक हमारे अतीत के भेदभावों को ही भविष्य का चेहरा देती रहेगी।