17.1 C
Ranchi

BREAKING NEWS

Advertisement

AI पर आंख बंद कर भरोसा करना हो सकता है इतना खतरनाक, जानें कैसे

स्वास्थ्य देखभाल को लेकर भी गलत फैसले लिए जाने की बात सामने आई है. एक अध्ययन में पाया गया कि अमेरिका में स्वास्थ्य प्रबंधन के लिए इस्तेमाल किए जाने वाले एल्गॉरिद्म ने श्वेत और अश्वेत मरीजों को समान स्वास्थ्य जोखिम स्कोर दिया, जबकि अश्वेत रोगी अक्सर श्वेत मरीजों के मुकाबले ज्यादा बीमार पड़ते हैं.

गलत डेटा न सिर्फ गलत नतीजे देता है, बल्कि समाज के विभिन्न तबकों, मसलन संवेदनशील महिलाओं और अल्पसंख्यकों के दमन का कारण भी साबित हो सकता है. नस्लभेद और लैंगिक भेदभाव के विभिन्न स्वरूपों तथा कृत्रिम बुद्धिमत्ता (एआई) के बीच संबंध पर आधारित मेरी नयी किताब कुछ यही तर्क देती है. समस्या बहुत गंभीर है. नौकरी संबंधी आवेदनों की जांच से लेकर विभिन्न मामलों में एल्गॉरिद्म की कार्य क्षमता में सुधार लाने के लिए उन्हें आमतौर पर इंटरनेट से लिया गया डेटा उपलब्ध कराया जाता है. लेकिन यह प्रशिक्षण डेटा कई तरह के भेदभाव से युक्त होता है, जो वास्तविक दुनिया में देखने को मिलते हैं. मिसाल के तौर पर, प्रशिक्षण डेटा के जरिये एल्गॉरिद्म इन निष्कर्ष पर पहुंच सकता है कि किसी विशेष कार्यक्षेत्र में कार्यरत ज्यादातर कर्मचारी पुरुष हैं और इसलिए वह उक्त क्षेत्र में नौकरी के लिए आवेदन करने वालों में पुरुषों आवेदकों को तरजीह दे सकता है.

एशियाई अल्पसंख्यकों को अक्सर झूठे मामलों में गिरफ्तारी का सामना करना पड़ता है

दुनिया के उन समाज के इतिहास पर गौर फरमाने के बाद, जहां नस्लवाद ने सामाजिक और राजनीतिक व्यवस्था स्थापित करने में अहम भूमिका निभाई, उदाहरण के लिए यूरोप, उत्तरी अमेरिका और ऑस्ट्रेलिया में श्वेत पुरुषों को विशेषाधिकार प्रदान किए-यह सहज रूप से स्वीकार किया जा सकता है कि नस्लीय भेदभाव के अवशेष हमारी प्रौद्योगिकी में भी समाहित हैं. किताब के लिए किए गए अध्ययन में मैंने कुछ प्रमुख उदाहरणों का दस्तावेजीकरण किया है. मैंने पाया है कि आपराधिक न्याय प्रणाली में इस्तेमाल किए जाने वाले ‘फेस रिकग्निशन’ (चेहरों की पहचान करने वाले) सॉफ्टवेयर इस धारण पर काम करते हैं कि श्वेतों के मुकाबले अश्वेतों और एशियाई अल्पसंख्यकों के अपराध करने की दर ज्यादा होती है. इससे अमेरिका और अन्य देशों में अश्वेतों और एशियाई अल्पसंख्यकों को अक्सर झूठे मामलों में गिरफ्तारी का सामना करना पड़ता है.

स्वास्थ्य देखभाल को लेकर भी गलत फैसले लिए जाने की बात सामने आई

स्वास्थ्य देखभाल को लेकर भी गलत फैसले लिए जाने की बात सामने आई है. एक अध्ययन में पाया गया कि अमेरिका में स्वास्थ्य प्रबंधन के लिए इस्तेमाल किए जाने वाले एल्गॉरिद्म ने श्वेत और अश्वेत मरीजों को समान स्वास्थ्य जोखिम स्कोर दिया, जबकि अश्वेत रोगी अक्सर श्वेत मरीजों के मुकाबले ज्यादा बीमार पड़ते हैं. इससे अतिरिक्त देखभाल के लिए चिह्नित किए जाने वाले अश्वेत मरीजों की संख्या आधी से भी ज्यादा घट जाती है. चूंकि, श्वेत रोगियों के समान स्वास्थ्य एवं देखभाल जरूरतें होने के बावजूद अश्वेत मरीजों के इलाज पर कम राशि खर्च की जाती है, इसलिए एल्गॉरिद्म गलत रूप से यह निष्कर्ष निकालता है कि अश्वेत मरीज अपने जैसे बीमार श्वेत रोगियों से बेहतर स्थिति में होते हैं.

क्या मशीन झूठ नहीं बोलती?

ऐसे दमनकारी एल्गॉरिद्म का हमारे जीवन के लगभग हर क्षेत्र में दखल है. एआई मामले को बदतर बना रहा है, क्योंकि यह हमें अनिवार्य रूप से निष्पक्ष बताकर बेचा जाता है. हमें बताया जाता है कि मशीन कभी झूठ नहीं बोलती. ऐसे में यह दलील धड़ल्ले से दी जाती है कि किसी को दोषी नहीं ठहराया जा सकता. यह छद्म-निष्पक्षता सिलिकॉन वैली के दिग्गजों द्वारा एआई को लेकर किए जाने वाले बड़े-बड़े दावों के केंद्र में है. इसे एलन मस्क, मार्क जुकरबर्ग और बिल गेट्स के भाषणों से आसानी से समझा जा सकता है, भले ही वे कभी-कभी हमें उन परियोजनाओं के बारे में आगाह करते हैं, जिनके लिए वे खुद जिम्मेदार हैं. इस संबंध में कई अनसुलझे कानूनी और नैतिक मुद्दे दांव पर हैं। मिसाल के तौर पर, गलतियों के लिए कौन जिम्मेदार है? क्या कोई व्यक्ति किसी एल्गॉरिद्म के खिलाफ उसे जातीय पृष्ठभूमि के आधार पर पैरोल देने से इनकार करने पर मुआवजे के लिए दावा कर सकता है, जैसे कि किचन में टोस्टर फटने के मामले में किया जा सकता है? एआई तकनीक की अपारदर्शी प्रकृति कानूनी प्रणालियों के लिए गंभीर चुनौतियां खड़ी करती है, जो व्यक्तिगत या मानवीय जवाबदेही के इर्द-गिर्द केंद्रित हैं. बुनियादी मानवाधिकारों के समक्ष खतरा बढ़ा है, क्योंकि अपराधियों और भेदभाव के विभिन्न स्वरूपों के बीच मौजूद प्रौद्योगिकी के चक्रव्यूह से कानूनी जवाबदेही धुंधली हो गई है, जिससे दोष आसानी से मशीन पर मढ़ा जा सकता है.

नैतिक और कानूनी खालीपन

एक ऐसी दुनिया, जहां सच-झूठ के बीच अंतर करना बेहद मुश्किल है, वहां हमारी निजता संबंधी जरूरतों को कानूनी संरक्षण मुहैया कराना जरूरी है. निजता का अधिकार और हमारे आभासी एवं वास्तविक जीवन से जुड़े डेटा के सहवर्ती स्वामित्व को एक मानवाधिकार के रूप में विधिबद्ध करने की जरूरत है, कम से कम उन वास्तविक अवसरों का लाभ उठाने के लिए, जो अच्छे एआई सॉफ्टवेयर मानव सुरक्षा के लिए प्रदान करते हैं. लेकिन, प्रौद्योगिकी जगत हमसे काफी आगे है। प्रौद्योगिकी ने कानून को पीछे छोड़ दिया है. अपराधी इससे पैदा हुई नैतिक और कानूनी शून्यता का आसानी से फायदा उठाते हैं, क्योंकि एआई की यह नयी बहादुर दुनिया काफी हद तक अराजक है. अतीत की गलतियों पर आंखें मूंदकर, हम एक ऐसे अराजक दौर में प्रवेश कर चुके हैं, जहां रोजमर्रा के जीवन को प्रभावित करने वाली डिजिटल दुनिया की हिंसा पर नजर रखने के लिए कोई अधिकारी या तंत्र नहीं है. अब समय आ गया है कि हम कानून के समर्थन में एक ठोस सामाजिक आंदोलन के साथ नैतिक, राजनीतिक और सामाजिक मुद्दों का हल तलाशें. इस दिशा में पहला कदम खुद को इस बात से वाकिफ कराना है कि मौजूदा समय में क्या हो रहा है, क्योंकि इससे हमारा जीवन पहले जैसा नहीं रह जाएगा.

Prabhat Khabar App :

देश, एजुकेशन, मनोरंजन, बिजनेस अपडेट, धर्म, क्रिकेट, राशिफल की ताजा खबरें पढ़ें यहां. रोजाना की ब्रेकिंग हिंदी न्यूज और लाइव न्यूज कवरेज के लिए डाउनलोड करिए

Advertisement

अन्य खबरें

ऐप पर पढें