चैटजीपीटी, गूगल जेमिनी और मेटा एआई को शक्ति देने वाली तकनीक
नई दिल्ली:
क्या आपने कभी सोचा है कि ChatGPT कैसे काम करता है? इस जटिल प्रश्न का संक्षिप्त उत्तर बड़े भाषा मॉडल या LLM में निहित है जो मूलभूत मॉडल हैं जिन्हें बड़ी मात्रा में पाठ्य डेटा का उपयोग करके प्रशिक्षित किया जाता है। ये मॉडल मनुष्यों की तरह शब्दों को संसाधित नहीं करते हैं। इसके बजाय वे संख्याओं की एक लंबी श्रृंखला का उपयोग करते हैं, जो एक शब्द का प्रतिनिधित्व करते हैं। यह डेटा वर्ड वेक्टर के रूप में कंप्यूटर को खिलाया जाता है।
संख्याओं के इन अनुक्रमों को वर्ड वेक्टर के रूप में जाना जाता है और इन्हें एक काल्पनिक स्थान में एक बिंदु के रूप में कल्पना की जा सकती है, जिसमें समान अर्थ वाले शब्द एक दूसरे के करीब रखे गए हैं। प्रत्येक मॉडल का पैमाना बहुत बड़ा है और इसकी कल्पना करना लगभग असंभव है, लेकिन संदर्भ के लिए, GPT4 में 1.76 ट्रिलियन पैरामीटर हैं, जिसमें लाखों अनूठे शब्द वेक्टर हैं, यह बात अमेरिका स्थित स्वतंत्र AI शोध और विश्लेषण कंपनी SemiAnalysis की 28 जून, 2023 की रिपोर्ट के अनुसार है। पिछले कुछ वर्षों में कंप्यूटिंग शक्ति की नाटकीय उन्नति के कारण खरबों पैरामीटर वाले इतनी बड़ी संख्या में वेक्टरों को प्रोसेस करना संभव हो पाया है। अभी हाल ही में, 19 जून को, Nvidia अपने AI सक्षम चिपसेट की बढ़ती मांग के परिणामस्वरूप, Microsoft और Apple को पीछे छोड़ते हुए, बाजार पूंजीकरण के आधार पर दुनिया की सबसे बड़ी सार्वजनिक कंपनी बन गई
चैटजीपीटी, गूगल जेमिनी और मेटा एआई सभी एलएलएम हैं जो वर्ड वेक्टर का उपयोग करके अगले शब्द की भविष्यवाणी करके काम करते हैं। यह भविष्यवाणी ट्रांसफॉर्मर का उपयोग करके उपयोगकर्ता द्वारा “प्रॉम्प्ट” के रूप में दिए गए वर्ड वेक्टर को पूर्वानुमान में बदलकर की जाती है।
एलएलएम में पाठ्य भविष्यवाणी कैसे की जाती है?
एलएलएम बहु-स्तरित होते हैं। प्रत्येक परत में एक तंत्रिका नेटवर्क आर्किटेक्चर (कृत्रिम न्यूरॉन्स की कल्पना करें) होता है जिसे ट्रांसफॉर्मर के रूप में जाना जाता है। ये ट्रांसफॉर्मर इनपुट टेक्स्ट को प्रोसेस करते हैं – प्रत्येक शब्द वेक्टर व्यक्तिगत रूप से – और प्रत्येक ट्रांसफॉर्मर के अंदर, वेक्टर के रूप में शब्द चारों ओर देखते हैं और प्रासंगिक जानकारी के लिए इंटरैक्ट करते हैं। यह प्रक्रिया बार-बार दोहराई जाती है, न केवल एक संकेत के लिए, बल्कि अगली बार भी जब कोई उपयोगकर्ता एलएलएम में समान शब्दों के साथ एक संकेत देता है। यह अनुक्रम में “अगले शब्द” की बेहतर भविष्यवाणी के लिए भविष्य की खोजों में दक्षता को सक्षम बनाता है।
एलएलएम को कैसे प्रशिक्षित किया जाता है?
एलएलएम को अप्रशिक्षित शिक्षण का उपयोग करके प्रशिक्षित किया जाता है, जिससे डेटा के मानव लेबलिंग की आवश्यकता समाप्त हो जाती है। वेब पेजों, पुस्तकों और अन्य पाठ्य स्रोतों से डेटा का उपयोग सार्वजनिक होने से पहले एलएलएम को खिलाने के लिए किया जाता है। ये विवाद भी पैदा कर चुके हैं क्योंकि इनमें कुछ मामलों में मानवीय पूर्वाग्रहों को दर्शाया गया है। सबसे उल्लेखनीय रूप से, माइक्रोसॉफ्ट के ट्विटर चैटबॉट टे, गूगल के जेमिनी और ओपनएआई के सोरा (टेक्स्ट-टू-वीडियो कनवर्टर) ने पिछले कुछ वर्षों में कट्टर, नस्लीय और लैंगिक भेदभावपूर्ण प्रतिक्रियाएँ देने के लिए विवाद खड़ा किया है। इसके श्रेय के लिए, उद्योग ने चुनौती का जवाब दिया है और एलएलएम से मानवीय पूर्वाग्रहों को नकारने के लिए लगातार विकसित हो रहा है।