गलत डेटा न सिर्फ गलत नतीजे देता है, बल्कि समाज के विभिन्न तबकों, मसलन संवेदनशील महिलाओं और अल्पसंख्यकों के दमन का कारण भी साबित हो सकता है. नस्लभेद और लैंगिक भेदभाव के विभिन्न स्वरूपों तथा कृत्रिम बुद्धिमत्ता (एआई) के बीच संबंध पर आधारित मेरी नयी किताब कुछ यही तर्क देती है. समस्या बहुत गंभीर है. नौकरी संबंधी आवेदनों की जांच से लेकर विभिन्न मामलों में एल्गॉरिद्म की कार्य क्षमता में सुधार लाने के लिए उन्हें आमतौर पर इंटरनेट से लिया गया डेटा उपलब्ध कराया जाता है. लेकिन यह प्रशिक्षण डेटा कई तरह के भेदभाव से युक्त होता है, जो वास्तविक दुनिया में देखने को मिलते हैं. मिसाल के तौर पर, प्रशिक्षण डेटा के जरिये एल्गॉरिद्म इन निष्कर्ष पर पहुंच सकता है कि किसी विशेष कार्यक्षेत्र में कार्यरत ज्यादातर कर्मचारी पुरुष हैं और इसलिए वह उक्त क्षेत्र में नौकरी के लिए आवेदन करने वालों में पुरुषों आवेदकों को तरजीह दे सकता है.
दुनिया के उन समाज के इतिहास पर गौर फरमाने के बाद, जहां नस्लवाद ने सामाजिक और राजनीतिक व्यवस्था स्थापित करने में अहम भूमिका निभाई, उदाहरण के लिए यूरोप, उत्तरी अमेरिका और ऑस्ट्रेलिया में श्वेत पुरुषों को विशेषाधिकार प्रदान किए-यह सहज रूप से स्वीकार किया जा सकता है कि नस्लीय भेदभाव के अवशेष हमारी प्रौद्योगिकी में भी समाहित हैं. किताब के लिए किए गए अध्ययन में मैंने कुछ प्रमुख उदाहरणों का दस्तावेजीकरण किया है. मैंने पाया है कि आपराधिक न्याय प्रणाली में इस्तेमाल किए जाने वाले ‘फेस रिकग्निशन’ (चेहरों की पहचान करने वाले) सॉफ्टवेयर इस धारण पर काम करते हैं कि श्वेतों के मुकाबले अश्वेतों और एशियाई अल्पसंख्यकों के अपराध करने की दर ज्यादा होती है. इससे अमेरिका और अन्य देशों में अश्वेतों और एशियाई अल्पसंख्यकों को अक्सर झूठे मामलों में गिरफ्तारी का सामना करना पड़ता है.
स्वास्थ्य देखभाल को लेकर भी गलत फैसले लिए जाने की बात सामने आई है. एक अध्ययन में पाया गया कि अमेरिका में स्वास्थ्य प्रबंधन के लिए इस्तेमाल किए जाने वाले एल्गॉरिद्म ने श्वेत और अश्वेत मरीजों को समान स्वास्थ्य जोखिम स्कोर दिया, जबकि अश्वेत रोगी अक्सर श्वेत मरीजों के मुकाबले ज्यादा बीमार पड़ते हैं. इससे अतिरिक्त देखभाल के लिए चिह्नित किए जाने वाले अश्वेत मरीजों की संख्या आधी से भी ज्यादा घट जाती है. चूंकि, श्वेत रोगियों के समान स्वास्थ्य एवं देखभाल जरूरतें होने के बावजूद अश्वेत मरीजों के इलाज पर कम राशि खर्च की जाती है, इसलिए एल्गॉरिद्म गलत रूप से यह निष्कर्ष निकालता है कि अश्वेत मरीज अपने जैसे बीमार श्वेत रोगियों से बेहतर स्थिति में होते हैं.
ऐसे दमनकारी एल्गॉरिद्म का हमारे जीवन के लगभग हर क्षेत्र में दखल है. एआई मामले को बदतर बना रहा है, क्योंकि यह हमें अनिवार्य रूप से निष्पक्ष बताकर बेचा जाता है. हमें बताया जाता है कि मशीन कभी झूठ नहीं बोलती. ऐसे में यह दलील धड़ल्ले से दी जाती है कि किसी को दोषी नहीं ठहराया जा सकता. यह छद्म-निष्पक्षता सिलिकॉन वैली के दिग्गजों द्वारा एआई को लेकर किए जाने वाले बड़े-बड़े दावों के केंद्र में है. इसे एलन मस्क, मार्क जुकरबर्ग और बिल गेट्स के भाषणों से आसानी से समझा जा सकता है, भले ही वे कभी-कभी हमें उन परियोजनाओं के बारे में आगाह करते हैं, जिनके लिए वे खुद जिम्मेदार हैं. इस संबंध में कई अनसुलझे कानूनी और नैतिक मुद्दे दांव पर हैं। मिसाल के तौर पर, गलतियों के लिए कौन जिम्मेदार है? क्या कोई व्यक्ति किसी एल्गॉरिद्म के खिलाफ उसे जातीय पृष्ठभूमि के आधार पर पैरोल देने से इनकार करने पर मुआवजे के लिए दावा कर सकता है, जैसे कि किचन में टोस्टर फटने के मामले में किया जा सकता है? एआई तकनीक की अपारदर्शी प्रकृति कानूनी प्रणालियों के लिए गंभीर चुनौतियां खड़ी करती है, जो व्यक्तिगत या मानवीय जवाबदेही के इर्द-गिर्द केंद्रित हैं. बुनियादी मानवाधिकारों के समक्ष खतरा बढ़ा है, क्योंकि अपराधियों और भेदभाव के विभिन्न स्वरूपों के बीच मौजूद प्रौद्योगिकी के चक्रव्यूह से कानूनी जवाबदेही धुंधली हो गई है, जिससे दोष आसानी से मशीन पर मढ़ा जा सकता है.
एक ऐसी दुनिया, जहां सच-झूठ के बीच अंतर करना बेहद मुश्किल है, वहां हमारी निजता संबंधी जरूरतों को कानूनी संरक्षण मुहैया कराना जरूरी है. निजता का अधिकार और हमारे आभासी एवं वास्तविक जीवन से जुड़े डेटा के सहवर्ती स्वामित्व को एक मानवाधिकार के रूप में विधिबद्ध करने की जरूरत है, कम से कम उन वास्तविक अवसरों का लाभ उठाने के लिए, जो अच्छे एआई सॉफ्टवेयर मानव सुरक्षा के लिए प्रदान करते हैं. लेकिन, प्रौद्योगिकी जगत हमसे काफी आगे है। प्रौद्योगिकी ने कानून को पीछे छोड़ दिया है. अपराधी इससे पैदा हुई नैतिक और कानूनी शून्यता का आसानी से फायदा उठाते हैं, क्योंकि एआई की यह नयी बहादुर दुनिया काफी हद तक अराजक है. अतीत की गलतियों पर आंखें मूंदकर, हम एक ऐसे अराजक दौर में प्रवेश कर चुके हैं, जहां रोजमर्रा के जीवन को प्रभावित करने वाली डिजिटल दुनिया की हिंसा पर नजर रखने के लिए कोई अधिकारी या तंत्र नहीं है. अब समय आ गया है कि हम कानून के समर्थन में एक ठोस सामाजिक आंदोलन के साथ नैतिक, राजनीतिक और सामाजिक मुद्दों का हल तलाशें. इस दिशा में पहला कदम खुद को इस बात से वाकिफ कराना है कि मौजूदा समय में क्या हो रहा है, क्योंकि इससे हमारा जीवन पहले जैसा नहीं रह जाएगा.