आर्टिफिशियल इंटेलिजेंस मनुष्य जाति के लिए नुकसानदायक साबित होगी

ज्योफ्री आर्टिफिशियल इंटेलिजेंस (AI) तथा चैट जीपीटी के गाड फादर

मिथिलेश राय

 

ज्योफ्री का जन्म 1947 विम्बलडन लंदन में गणितज्ञों और वैज्ञानिक के घर में हुआ उनके परदादा जार्ज बोले जिन्होंने बुलियन एलजेब्रा (बीजगणित) की नई पद्धति को स्थापित किया जिसके आधार पर डिजिटल युग की आधारशिला तैयार हुई। उनके अंकल का नाम जार्ज एवरेस्ट था जो ज्योग्राफर थे उन्ही के नाम पर माउंट एवरेस्ट का नाम रखा गया। ज्योफ्री के पिता हावर्ड हिंटन एंटमालाजिस्ट तथा उनकी पत्नी जैकी हिंटन इतिहासकार थी। आर्टिफिशियल इंटेलिजेंस (AI) जिसकी खोज ज्योफ्री ने की तथा जिसके आधार पर चैट जीपीटी और इसके अन्य टूल्स विकसित किये गए। इसलिए आज ज्योफ्री को (AI) गाड फादर कहा जाता है।

लेकिन अब वे गूगल में एक दशक कार्य करने के बाद,  AI के बारे में अब अपनी नई चिंताओं व इसके गम्भीर जोखिमों पर ध्यान केंद्रित करने के लिए पद छोड़ रहे हैं।

GPT - 4 जैसे नए बड़े भाषा मॉडल की क्षमताओं से स्तब्ध, हिंटन उसके बारे में सार्वजनिक जागरूकता बढ़ाना चाहते हैं। वे मानते है कि यह टेक्नोलॉजी जोखिम भरी हो सकती है। जिसकी उन्होंने शुरुआत की थी।

एक रिपोर्ट के मुताबिक 75 वर्षीय कम्प्यूटर वैज्ञानिक ज्योफ्री सालों से कमर दर्द से परेशान रहते हैं बातचीत के दौरान वे बैठने की जगह टहलते रहना पसंद करते है। वे इस मामले पर दुनिया को बहुत कुछ कहना चाहते है।

उनका मानना है कि अब वे बुढ़े हो चले है अतः तकनीकी काम के लिए उतने फिट नही है क्योंकि इस काम के लिए अनेक तरह के आंकड़े याद रखने की जरूरत होती है।

लेकिन गूगल छोड़ने का यह कोई कारण नहीं है।

हिंटन आगे कहते है कि AI वास्तव में एक बड़ा खतरा है भविष्य में यह एक आपदा बन जाएगा। वे मानते है कि गूगल छोड़ कर ही अपनी बात कहने का उन्हें स्वतंत्र अवसर मिल सकेगा, जब तक गूगल उन्हें भुगतान करता रहेगा वे AI के खिलाफ नहीं बोल सकते है।

ऐसा करते हुए वे गूगल के खिलाफ नहीं है। ना ही नाखुश है, उनके इस्तीफे का कारण GPT - 4, जैसे OpenAI है जिसने उन्हें यह एहसास दिलाया है कि मशीनें जितना उन्होंने सोचा था उससे कहीं अधिक स्मार्ट होने के रास्ते पर हैं। और वे इस बारे में स्वयं डरा हुए है कि यह मानव बुद्धिमत्ता से यह नई पीढ़ी की तकनीकी कैसे खेल सकती है।

वे कहते है- "ये चीजें हमसे बिल्कुल अलग हैं," "कभी-कभी मुझे ऐसा लगता है जैसे एलियंस हमारे सामने उतर आये हैं और वे बहुत अच्छी अंग्रेजी बोलते हैं।

यह हिंटन ही थे जिन्होंने अपने स्नातक छात्रों के एक जोड़े को दिखाया कि छवियों में वस्तुओं की पहचान करने के लिए कंप्यूटर तकनीक किसी भी अन्य तकनीक से बेहतर थी। तथा एक वाक्य में अगले अक्षरों की भविष्यवाणी करने के लिए एक तंत्रिका नेटवर्क को भी विकसित किया। उनके इन्ही स्नातक छात्रों में से एक इल्या सुतस्केवर थे, जिन्होंने ओपनए आई को कोफाउंड किया और चैटजीपीटी के विकास का नेतृत्व किया। वे कहते हैं 1980 के दशक में, तंत्रिका नेटवर्क एक मजाक था उस समय का प्रमुख विचार था कि बुद्धिमत्ता में शब्दों या संख्याओं जैसे प्रसंस्करण प्रतीकों को शामिल किया जाये।

लेकिन हिंटन आश्वस्त नहीं थे उन्होंने तंत्रिका नेटवर्क व मानव मस्तिष्क के सॉफ्टवेयर सार पर काम किया जिसमें न्यूरॉन्स और उनके बीच के कनेक्शन को कोड द्वारा दर्शाया गया है। उन न्यूरॉन्स को कैसे जोड़ा जाता है, इसे बदलकर - उनका प्रतिनिधित्व करने के लिए उपयोग की जाने वाली संख्याओं को बदलकर - मक्खी पर तंत्रिका नेटवर्क को फिर से जोड़ा जा सकता है।

ज्योफ्री के पिता एक जीवविज्ञानी थे, इसलिए वह जैविक दृष्टि से सोच रहे थे कि प्रतीकात्मक तर्क स्पष्ट रूप से जैविक बुद्धि के मूल में नहीं है।

"कौवे पहेलियाँ हल कर सकते हैं, और उनके पास भाषा नहीं है। वे प्रतीकों के तारों को संग्रहित करके और उनमें हेरफेर करके ऐसा नहीं कर रहे हैं। वे ऐसा अपने मस्तिष्क में न्यूरॉन्स के बीच संबंधों की ताकत को बदलकर करते हैं। और इसलिए कृत्रिम तंत्रिका नेटवर्क में कनेक्शन की ताकत को बदलकर जटिल चीजों को सीखना संभव है।"

कृत्रिम तंत्रिका नेटवर्क को जैविक लोगों की नकल करके इस नई बुद्धि की खोज की तरफ बढ़ने का प्रयास ही आज AI है। लेकिन अब वे मान रहे है कि जैविक दिमाग क्या करते हैं, उसकी नकल करने की कोशिश में हम कुछ बेहतर लेकर आए हैं। "यह डरावना है" "यह अचानक फ्लिप है।"

बड़े भाषा मॉडल बड़े पैमाने पर तंत्रिका नेटवर्क से बना हैं जिसमें बड़ी संख्या में कनेक्शन हैं। फिर भी वे मस्तिष्क की तुलना में बहुत छोटे हैं। "हमारे दिमाग में 100 ट्रिलियन कनेक्शन हैं,"जबकि “बड़े भाषा मॉडल में आधा ट्रिलियन,एक ट्रिलियन तक ही हैं फिर भी GPT - 4 किसी एक व्यक्ति की तुलना में सैकड़ों गुना अधिक जानता है। तथा यह बेहतर सीखने वाला एल्गोरिदम भी है।"

दिमाग की तुलना में, तंत्रिका नेटवर्क को व्यापक रूप से सीखने में बड़ी मात्रा में डेटा और ऊर्जा की आवश्यकता होती है। दूसरी ओर मस्तिष्क, नए विचारों और कौशलों को जल्दी से ग्रहण करते हैं।

ज्योफ्री मानते हैं कि बड़े भाषा मॉडलों में से किसी एक को लेते हैं और उसे कुछ नया करने के लिए प्रशिक्षित करते हैं, तो पहले का तर्क दूसरे तर्क से बाहर हो जाता है।क्योंकि यह नए कार्यों को बहुत जल्दी सीख सकता है।"

इनमें से कुछ भाषा मॉडल तार्किक कथनों की एक श्रृंखला को एक साथ एक तर्क में पिरो सकते हैं, भले ही उन्हें सीधे ऐसा करने के लिए प्रशिक्षित नहीं किया गया हो।

वे कहते हैं कि किसी कार्य को सीखने की गति में एक पूर्व - प्रशिक्षित बड़े भाषा मॉडल की मानव की तुलना में सीखने की गति अधिक होती है। वे यह भी मानते है कि इन मॉडलों की कोई सच्ची समझ नहीं है कि वे क्या कहते हैं?

वे मानते है कि ये मॉडल लोगों की तरह ही बातचीत करने में सक्षम हैं। अंतर केवल यह है कि मनुष्य आमतौर पर कमोबेश सही ढंग से बातचीत करते हैं। लेकिन उन्हें इस रूप में विकसित करने के लिए सामान बनाना समस्या नहीं है। कंप्यूटर को बस थोड़े और अभ्यास की जरूरत है।

अगर ऐसा होता है तो सारी दुनिया में अनेक झूठी सच्ची खबरें आम हो जाएंगी साथ ही समय के साथ यह तकनीकी मानव रोजगार के कई बुनियादी अवसरों को भी समाप्त के देगी। तथा इसे तैयार करने वाली कम्पनियों में ग्लोबल प्रतिस्पर्धा भी बढ़ जायेगी जिसे रोक पाना सम्भव नहीं हो सकेगा।


Add Comment

Enter your full name
We'll never share your number with anyone else.
We'll never share your email with anyone else.
Write your comment

Your Comment