Loading election data...

AGI: इन क्षेत्रों में मानव का विकल्प कभी नहीं बन सकेगा ए आई, एजीआई से नहीं होगा इनपर इफेक्ट

AGI: मशीनों में ऐसी क्षमता विकसित की जाय जिससे वह समझने व किसी समस्या पर निर्णय लेने का कार्य भी कर सके. मनुष्यों की तुलना में कई गुना तेज हो जो काम मनुष्य कर सकते हैं वो मशीनें बेहतर तरीके से कर सकें. जब आर्टिफिशियल जनरल इंटेलिजेंस डेवलप हो जाएगा तो यह मशीन एआई कंट्रोल कर सकता है. इसका मानव जीवन पर अच्छा और बुरा असर हो सकता है.

By Neha Singh | May 17, 2024 11:17 AM
an image

AGI: आर्टिफिशियल इंटेलिजेंस, एक ऐसी तकनीक जिसकी बात आज हर तरफ हो रही है. इसे और एडवांस करने के लिए डेवलपर्स एजीआई विकसित करने की तैयारी कर रहे हैं. एजीआई से मशीनें मनुष्यों की तरह सीखने, सोचने व कार्यों को करने का काम कर सकती है. दूसरे शब्दों में इसे मानव का आर्टिफिशियल विकल्प भी कह सकते हैं. आगे चलकर डेवलपर्स इस कल्पना को भी हकीकत में तब्दील कर दें, जब मशीनें मानवों की तरह सोच-समझकर काम करेंगी. आज हम बात करेंगे उन तकनीकों की जहां कोई भी मशीन या एआई मानव का विकल्प नहीं बन सकती है. एआई के आने से कई नौकरियों पर प्रभाव पड़ रहे हैं. एआई कभी भी हेल्थकेयर सेक्टर में संवेदनात्मक रोल अदा नहीं कर पाएगी. इन तकनीक और एडवांसमेंट के बाद भी एआई के द्वारा मानव की तरह संवेदनात्मक बातचीत नहीं कर सकता है. एआई के पास ऑरिजिनेट यानि कि उत्पत्ति करने की शक्ति नहीं हो पाएगी. एआई कितनी भी विकसित क्यों ना हो जाए वो मानव की तरह नए आइडियाज के साथ उसके पास अनुभव, भावना और बदलाव की क्षमता नहीं होगी. इसके अलावा एआई कभी ह्यूमेन कनेक्शन की जगह नहीं ले पाएगा. एआई के आने के बाद सबसे अधिक इम्पैक्ट उन नौकरियों में हो रहा है, जिनको जेनरेट किया जाता है. उन गतिविधियों को एआई रिप्लेस नहीं कर सकता है जिनमें टच, इमोशंस और संवेदनात्मक पहलू शामिल हो.

AGI: इन सेक्टर की नहीं होगी रिप्लेसमेंट

  • हेल्थकेयर- एआई द्वारा मानसिक स्वास्थ्य, नर्सिंग, केयर , फिजिकल थेरेपी जैसी चीजें करना नामुमकिन है. ऐसा इसलिए है क्योंकि इनमें सहानुभूति, सामाजिक संपर्क और ऑन द स्पॉट निर्णय लेना जरूरी होता है.
  • शिक्षा- शिक्षा के क्षेत्र में एआई मानव को रिप्लेस नहीं कर पाएगा. ऐसा बड़े स्तर पर इसलिए नहीं हो सकता है क्योंकि इसमें एक्सपीरिएंस, समझ और भावनात्मक एहसास की जरूरत होती है.
  • मैनेजमेंट- एआई द्वारा रचनात्मक विकास औऱ समयानुसार रणनीति बनाना मुश्किल नहीं है.
  • साइबर सुरक्षा– मशीन की एक लिमिट होती है, जिसकी वजह से बढ़ती तकनीकों से साइबर सुऱक्षा की अधिक जरूरत होती है. साइबर सुरक्षा ज्यादा जटिल होने से ह्यूमन की रिप्लेसमेंट इसमें संभव नहीं है.

AGI: ऐसे कर सकेंगे खुद को सेफ

इस एआई के दौर में अपनी नौकरियों को सेफगार्ड करने के लिए कुछ जरूरी बातों का ख्याल रखना जरूरी है. अगर कोई व्यक्ति इन चीजों को कर लेता है तो नौकरी पर एआई के आने से कोई खतरा नहीं होगा.

  • निरंतर नई टेक्नोलॉजी सीखना
  • अपस्किलिंग या रीस्किलिंग
  • ऑटोमेटिंग डिफरेंट स्किल
  • लाइफलॉंग लर्निंग
  • इंटरप्रेन्योरशिप

AGI: एजीआई हॉलीवुड की साइंस फिक्शन फिल्मों की तरह

अभी एआई का प्रयोग कस्टमर सर्विस चैटबॉट, एपल सिरी-अमेजन एलेक्सा जैसे वॉइस असिस्टेंट, इमेज फेशियल रिकॉग्नीशन एप्लीकेशन के रूप में किया जा रहा है. एजीआई की बात करें तो यह एआई का ही एक उन्नत और परिवर्द्धित रूप होगा, जिसमें मशीनों में इंसानों की तरह सीखने और सोचने की क्षमता आ जाएगी. इस तरह की क्षमता आने के बाद मशीनें खुद ही कई तरह की समस्याओं का हल निकाल लेंगी. इनका कार्यक्षेत्र व्यापक हो जाएगा. संभव है कि ये अपना नियंत्रण भी खुद ही कर लें और आगे चलकर उनके संचालन के लिए मनुष्य की आवश्यकता भी न रह जाय. सुनने में तो यह हॉलीवुड की साइंस फिक्शन फिल्मों की तरह लग रहा है, पर यह असंभव भी नहीं है. अभी काफी सारे ऐसे कार्य हैं जिन्हें सिर्फ और सिर्फ मनुष्य ही कर सकता है, पर एजीआई के डेवलप हो जाने के बाद संभव है कि मनुष्यों के कार्य तो मशीनें संपादित करेंगी ही, साथ ही जो कार्य मनुष्यों के वश में नहीं है वो भी वे कर लें. फिलहाल जो स्थिति है, उससे तो एजीआई दूर की कौड़ी लगती है, पर डेवलपर्स इस पर कार्य कर रहे हैं और एजीआई को वास्तविकता में साकार करने का प्रयास कर रहे हैं.

AGI: एआई से कई गुना इंटेलिजेंट सिस्टम होगा एजीआई

  • फिलहाल एआई का दौर चल रहा है. कई मायनों में इसके प्रयोग से लोग रूबरू हो रहे हैं.
  • एजीआई कम इनपुट के बावजूद बेहतर कार्य करेगा और यह खुद की सोच-समझ के आधार पर काम कर लेगा.
  • एआई पहले से मौजूद इनपुट्स के आधार पर कार्य करता है.
  • दूसरी तरफ एजीआई एक खुद सोचने वाली मशीन के रूप में डेवलप होगी.
  • यह ह्यूमन इंटेलीजेंस से भी कई गुना आगे की चीज होगी.
  • एआई तभी काम करता है जब उसे कंप्यूटिंग निर्देश, एल्गोरिद्म आदि फीड किए जाएं, जबकि एजीआई के साथ ऐसा नहीं है. वह निर्णय लेने में खुद ही सक्षम होगा, जबकि एआई रियल टाइम डेटा पर निर्भर होता है.
  • एक्सपर्ट्स बताते हैं कि एजीआई की क्षमता हाईलेवल हो सकती है. इसका सिस्टम लर्निंग और लर्निंग एल्गोरिद्म को सुलझाएगा.
  • सॉफ्टवेयर सिंबल सिस्टम को भी यह बखूबी समझ सकेगा.
  • अलग-अलग तरह के बिलीफ सिस्टम को समझ सकता है. एजीआई वास्तव में एक ताकतवर एआई है.

AGI: सबसे बड़ा डर, यह मनुष्य के लिए ही खतरा

साइबर क्षेत्र में कई साल से काम कर रहे बोनी शर्मा बताते हैं कि एजीआई को लेकर जो सबसे बड़ा डर है वो है मनुष्य की प्रासंगिकता को खत्म करना. जब मशीनें ही सोचने-समझने का कार्य भी करने लगेंगी तो यह ह्यूमन इंटेलीजेंस के लिए सबसे बड़ा खतरा बन जाएंगी. आर्टिफिशियल जनरल इंटेलिजेंस अभी तो भविष्य की बात है, पर इसका विरोध अभी से शुरू हो चुका है. एक्सपर्ट्स कह रहे हैं कि आर्टिफिशियल जनरल इंटेलिजेंस भविष्य में मानव के लिए ही बड़ा खतरा बन सकता है. आर्टिफिशियल इंटेलिजेंस तो उसका सिर्फ एक छोटा नमूना मात्र है. आर्टिफिशियल जनरल इंटेलिजेंस का दौर आया तो मनुष्यों के बल व बुद्धि सब पर ये हावी हो सकता है. संभव है कि मनुष्यों की प्रतिस्पर्द्धा आर्टिफिशियल जनरल इंटेलिजेंस से युक्त मशीनों से ही हो और इसमें मनुष्य पिछड़ जाएं.

AGI: एआई से होंगे ये खतरे

टेस्ला के संस्थापक एलन मस्क ने 2023 के एक खुले पत्र में कहा था कि अधिकतम एआई का प्रयोग समाज और मानवता के लिए गहरा जोखिम पैदा कर सकती है. इसके अलावा इसके साथ पैदा होने वाले बड़े खतरे शामिल है.

  • एआई की ट्रांसपैरेंसी और एक्सप्लानेशन की कमी
  • ऑटोमेशन का नौकरी पर प्रभाव
  • डेटा की गोपनीयता पर प्रभाव
  • डीपफेक
  • एआई अल्गोरिथ्म से सोशल मैनिपुलेशन
  • प्राइवेसी हिंडरेंस
  • सामाजिक आर्थिक असमानता
  • वीपंस ऑटोमेशन

AGI: एजीआई अपना कंट्रोल खुद कर लेगा

आर्टिफिशियल जनरल इंटेलिजेंस के संबंध में एक्सपर्ट्स बताते हैं कि इसमें इंसानों की तरह ही सोचने-समझने व निर्णय लेने की क्षमता विकसित हो जाएंगी. फिलहाल मनुष्य अपने परिवेश में रहकर आसपास की चीजों व परिवर्तनों को देखते हुए सीखता है और उसकी सोचने-समझने की क्षमता विकसित होती है. यह एक सतत प्रक्रिया है, जो वर्षों तक चलती है और जीवनपर्यंत चलती रहती है. उसी तरह डेवलपर्स का यह टारगेट है कि वे ऐसा सॉफ्टवेयर या कंप्यूटर बनाएं जो मनुष्यों की तरह मानसिक कार्यों को भी कर सके. मशीनों में ऐसी क्षमता विकसित की जाय कि वह सोचने-समझने व किसी समस्या पर निर्णय लेने का कार्य भी कर सके. साथ ही वह मनुष्यों की तुलना में कई गुना तेज हो. जो काम मनुष्य कर सकते हैं वो मशीनें बेहतर तरीके से कर सकें. फिलहाल एआई का कंट्रोल तो मनुष्य के पास ही है, पर जब आर्टिफिशियल जनरल इंटेलिजेंस डेवलप हो जाएगा तो यह अपना कंट्रोल भी खुद ही कर लेगा.

AGI: ऑल्टमैन बोले, एजीआई के लिए कोई भी लागत लगाना उचित होगा

नवंबर 2022 में चैटजीपीटी की शुरुआत हुई थी. उसके बाद से एआई की चर्चा तेज हुई. अब एजीआई की बात की जाने लगी है. एक तरफ एआई को लोगों के लिए अच्छा बताया जा रहा है तो वहीं एजीआई को मानव सभ्यता के लिए ही खतरा बताया जा रहा है. एलन मस्क ने साफ तौर पर कहा था कि एआई भविष्य में मानवता को नष्ट कर देगा. वहीं ओपन एआई के सीईओ और मस्क के सहयोगी रहे सैम ऑल्टमैन का कहना है कि एजीआई मानवता को लाभ पहुंचाएगा. ऑल्टमैन ने कहा था कि एजीआई को विकसित करने के लिए कोई भी लागत उचित है.

AGI क्या है और इसका उद्देश्य क्या है?

AGI, या आर्टिफिशियल जनरल इंटेलिजेंस, एक ऐसी तकनीक है जिसमें मशीनें मानवों की तरह सोचने, सीखने और निर्णय लेने की क्षमता हासिल करेंगी। इसका उद्देश्य मशीनों को मानव के समान सक्षम बनाना है।

कौन से क्षेत्र हैं जहाँ AGI मानव का विकल्प नहीं बन सकता?

AGI हेल्थकेयर, शिक्षा, मैनेजमेंट और साइबर सुरक्षा जैसे क्षेत्रों में मानव का विकल्प नहीं बन सकता। इन क्षेत्रों में संवेदनशीलता, अनुभव और मानव कनेक्शन की आवश्यकता होती है।

AGI से क्या खतरे हो सकते हैं?

AGI के विकास से मानव की प्रासंगिकता खत्म हो सकती है। इसके अलावा, डेटा गोपनीयता, नौकरी पर प्रभाव और सामाजिक असमानता जैसे जोखिम भी बढ़ सकते हैं।

AGI को कैसे सुरक्षित रखा जा सकता है?

अपनी नौकरियों को सुरक्षित रखने के लिए निरंतर नई तकनीकों को सीखना, अपस्किलिंग, और जीवनभर सीखना महत्वपूर्ण है।

AGI का भविष्य क्या होगा?

विशेषज्ञों का मानना है कि AGI मानवता के लिए दोनों, खतरे और लाभ, लेकर आ सकता है। कुछ इसे मानवता के लिए खतरा मानते हैं, जबकि अन्य इसे मानवता की भलाई के लिए आवश्यक मानते हैं।

Also Read: Exclusive: 10 साल बाद स्मार्टफोन का प्रचलन हो जाएगा कम, एआर चश्मा और ब्रेसलेट ले लेगा इसकी जगह

Exit mobile version