होम मनोरंजन नए तैयार किए गए प्राकृतिक भाषा ऑटोएन्कोडर्स का उपयोग करके एआई के...

नए तैयार किए गए प्राकृतिक भाषा ऑटोएन्कोडर्स का उपयोग करके एआई के अंदर वास्तव में क्या चल रहा है, इसकी समझ बनाना

2
0

आज के कॉलम में, मैं जेनरेटिव एआई और बड़े भाषा मॉडल (एलएलएम) के अंदर क्या हो रहा है इसकी व्याख्या करने के लिए एक नए प्रकाशित दृष्टिकोण की जांच करता हूं।

यह दृष्टिकोण क्लॉड के प्रसिद्ध निर्माता एंथ्रोपिक द्वारा विकसित किया गया था। उन्होंने नई पद्धति को एनएलए (प्राकृतिक भाषा ऑटोएन्कोडर्स) के रूप में गढ़ा है। यह दृष्टिकोण दुनिया भर में एआई शोधकर्ताओं और एआई चिकित्सकों द्वारा खोजे जा रहे कई दृष्टिकोणों में से एक है। आशा यह है कि यह समझाने के लिए एक उपयुक्त साधन मिल जाए कि एलएलएम की आंतरिक संख्याएं और संख्यात्मक गणनाएं मानव अवधारणाओं और मानव तर्क का प्रतिनिधित्व करने में कैसे सक्षम हैं।

आधुनिक युग के एआई के बारे में सबसे बड़ी अज्ञात चीजों में से एक यह है कि वे संख्याओं को मानव जैसी बौद्धिक प्रवृत्ति प्रदर्शित करने वाली चीज़ में कैसे बदल देते हैं। यदि आप एलएलएम से खुद को समझाने के लिए कहते हैं, तो बहुत से लोग मानते हैं कि एआई कम्प्यूटेशनल रूप से जो कर रहा है उसका उन्हें एक उपयुक्त प्रतिपादन मिल रहा है। इसके बजाय, अक्सर, उन्हें एक दिखावा, एक मनगढ़ंत स्पष्टीकरण मिलता है जिसका वास्तविक आंतरिक साजिशों से बहुत कम या कोई लेना-देना नहीं होता है। इसे एआई समुदाय में एआई व्याख्यात्मकता समस्या के रूप में जाना जाता है।

एक अत्यधिक परेशान करने वाला सवाल यह है कि क्या एआई अपने उत्तरों तक पहुंचने के लिए क्या कर रहा है, इसके तार्किक और समझाने योग्य आधार का सटीक और विश्वसनीय रूप से पता लगाने का साधन ढूंढना संभव है।

चलो इसके बारे में बात करें।

एआई सफलताओं का यह विश्लेषण एआई में नवीनतम पर मेरे चल रहे फोर्ब्स कॉलम कवरेज का हिस्सा है, जिसमें विभिन्न प्रभावशाली एआई जटिलताओं की पहचान करना और समझाना शामिल है (यहां लिंक देखें)।

एआई की आंतरिक कार्यप्रणाली

इससे पहले कि हम एआई व्याख्यात्मक समस्या की जड़ में उतरें, मैं एलएलएम के बारे में कुछ आवश्यक पृष्ठभूमि स्थापित करना चाहूंगा।

जेनरेटिव एआई को आम तौर पर अब आम तौर पर स्वीकृत तरीके से डिजाइन और निर्मित किया जाता है। आप बेस फाउंडेशन मॉडल से शुरुआत करें। यह कृत्रिम तंत्रिका नेटवर्क (एएनएन) के उपयोग सहित आवश्यक तकनीकी आधार प्रदान करता है। बड़े पैमाने का मॉडल मानव-लिखित सामग्रियों को स्कैन करके प्रशिक्षित डेटा है। पोस्ट की गई सामग्री इंटरनेट पर पाई जाती है। एल्गोरिदम हमारे द्वारा उपयोग किए जाने वाले शब्दों के बीच गणितीय संबंधों को कम्प्यूटेशनल रूप से निर्धारित करने के लिए पैटर्न मिलान का उपयोग करते हैं।

जब आप एलएलएम में एक संकेत दर्ज करते हैं, तो एआई शब्दों को संख्यात्मक टोकन में परिवर्तित कर देता है। संख्यात्मक टोकन संसाधित किए जाते हैं, और एक प्रतिक्रिया तैयार की जाती है, जिसमें संख्यात्मक टोकन भी शामिल होते हैं। एक बार जब प्रतिक्रिया प्रदर्शित होने के लिए तैयार हो जाती है, तो संख्यात्मक टोकन वापस शब्दों में बदल दिए जाते हैं। इस समग्र प्रक्रिया को टोकनाइजेशन के रूप में जाना जाता है।

जेनरेटिव एआई, एलएलएम और एएनएन कैसे काम करते हैं, इसके विवरण के लिए यहां लिंक पर मेरी गहन चर्चा देखें।

वास्तविक चीज़ से तुलना करने में सावधान रहें

एक तरफ, कृपया ध्यान रखें कि एएनएन आपके मस्तिष्क में मौजूद सच्चे तंत्रिका नेटवर्क (एनएन) के समान नहीं है। आपका मस्तिष्क एक जटिल और जटिल वेब का उपयोग करता है जिसमें परस्पर जुड़े जैव रासायनिक जीवित न्यूरॉन्स होते हैं। कुछ लोग मज़ाकिया ढंग से मानव मस्तिष्क को वेटवेयर कहते हैं (जो इस तथ्य पर एक नाटक है कि कंप्यूटर में हार्डवेयर और सॉफ्टवेयर होते हैं)।

एक कृत्रिम तंत्रिका नेटवर्क वास्तविक चीज़ की तुलना में सरल है।

एएनएन मानव मस्तिष्क कैसे काम करता है इसके कुछ पहलुओं की एक प्रेरित नकल मात्र है। यह पूरी तरह से कम्प्यूटेशनल और गणितीय है। मैं इसका उल्लेख इस बात पर जोर देने के लिए कर रहा हूं कि, हालांकि मीडिया में कई लोग एएनएन की तुलना वास्तविक एनएन से करते हैं, लेकिन यह उचित तुलना नहीं है। वास्तविक समानताओं और अंतरों पर अधिक विचार के लिए, यहां लिंक और यहां लिंक पर मेरे विश्लेषण देखें।

यंत्रवत व्याख्या

एलएलएम के अंदर क्या चल रहा है इसकी व्याख्या करने का प्रयास करने के सबसे लोकप्रिय तरीकों में से एक है ग्रैन्युलैरिटी के निम्नतम स्तर पर जाना, अर्थात् एक कृत्रिम तंत्रिका नेटवर्क के अंदर कृत्रिम न्यूरॉन्स का पता लगाना।

कृत्रिम न्यूरॉन्स के साथ संख्यात्मक मान जुड़े हुए हैं। इनमें संख्यात्मक भार और अन्य संख्याएँ शामिल हैं जिनका उपयोग विभिन्न आंतरिक मामलों के लिए किया जा रहा है। यह संख्याओं का एक बड़ा दलदल है। आप निश्चित रूप से पता लगा सकते हैं कि एएनएन की प्रक्रिया के दौरान संख्याएँ कैसे प्रवाहित होती हैं और मूल्य कैसे बदलती हैं। लेकिन यह विशेष रूप से मानवीय तर्क और समझदार स्पष्टीकरण की झलक प्रदर्शित नहीं करता है।

दूसरे शब्दों में, सिर्फ इसलिए कि यह या वह संख्या यहां से वहां जाती है, आप आसानी से यह नहीं कह सकते कि यह इंगित करता है कि एआई यह निर्धारित कर रहा था कि कुत्ते भौंकते हैं और बिल्लियाँ म्याऊ करती हैं। मानवीय अवधारणाओं की हमारी समझ और एएनएन के आंतरिक कक्षों में शामिल संख्याओं की विशाल श्रृंखला के बीच संबंध बनाना बेहद मुश्किल है।

सक्रियण वेक्टर

कुछ लोगों का मानना ​​​​है कि एलएलएम के अंदर पहले से ही एकत्र किए गए संख्याओं के बड़े सेट पर ध्यान केंद्रित करने से हमारे पास व्याख्या करने का बेहतर मौका है। यह पारंपरिक दानेदार कृत्रिम न्यूरॉन स्तर की तुलना में विश्लेषण का उच्च स्तर है।

उदाहरण के लिए, तथाकथित सक्रियण वैक्टर हैं जिनमें संख्याओं के बड़े समूह होते हैं और वे कुत्तों और बिल्लियों की प्रकृति जैसी मानवीय अवधारणाओं का प्रतिनिधित्व करते प्रतीत हो सकते हैं। संख्याओं की एक लंबी सूची की कल्पना करें जो शायद इस कथन को दर्शाती है कि कुत्ते भौंकते हैं, जबकि एक अन्य वेक्टर दर्शाता है कि बिल्लियाँ म्याऊ करती हैं। मैंने पहले बारीकी से दिखाया है कि सक्रियण वैक्टर कैसे काम करते हैं; यहां लिंक पर मेरी चर्चा देखें।

ऐसा हो सकता है कि यदि हम सक्रियण वैक्टर पर ध्यान दें, तो हमें व्याख्यात्मकता प्राप्त करने की कोशिश में अतिरिक्त आधार मिल सकता है।

यह लूप चाल चल सकता है

यहाँ एक दिलचस्प प्रस्ताव है. मान लीजिए कि हम एक सक्रियण वेक्टर को टेक्स्ट-आधारित संस्करण में बदलने का प्रयास करते हैं जिसमें शब्द शामिल हैं। हम संख्याओं को एक वेक्टर में लेंगे और उन्हें शब्दों से बने वाक्यों में बदलने का प्रयास करेंगे।

चतुर चाल यह है कि एक बार जब हमारे पास वे शब्द होते हैं, तो हम एक बार फिर उन शब्दों और वाक्यों को संख्याओं में बदलने का प्रयास करते हैं जो एक नए वेक्टर में जाएंगे। यह क्यों? क्योंकि फिर हम नए वेक्टर की तुलना पुराने वेक्टर से कर सकते हैं। यदि हमारा रूपांतरण स्पॉट-ऑन था, तो हमें लगभग उसी संख्यात्मक वेक्टर के साथ समाप्त होना चाहिए जैसा कि हमने शुरू किया था।

जब नया वेक्टर पुराने वेक्टर से मूल रूप से अलग हो जाता है, तो यह सुझाव देता है कि पुराने वेक्टर से जो शब्द हमने प्राप्त किए हैं, वे शायद अच्छी तरह से नहीं चुने गए हैं। यदि हमने अन्य शब्द चुने होते, तो नया वेक्टर संख्यात्मक रूप से शुरुआती वेक्टर के बहुत करीब आ जाता।

हमारे प्रमुख कदम इस प्रकार हैं:

  • (1) रुचि के सक्रियण वेक्टर का चयन करें।
  • (2) वेक्टर को शब्दों और वाक्यों में बदलें।
  • (3) उन शब्दों और वाक्यों को लें, और उन्हें एक नए वेक्टर में बदलें।
  • (4) मूल वेक्टर और नए वेक्टर की तुलना करें।
  • (5) यदि पुराना वेक्टर और नया वेक्टर संख्यात्मक रूप से करीब हैं, तो हम मानते हैं कि शब्द और वाक्य संभवतः उपयुक्त रूप से चुने गए हैं। अच्छा काम।
  • (6) जब पुराना वेक्टर और नया वेक्टर संख्यात्मक रूप से एक दूसरे से बहुत दूर होते हैं, तो हम मानते हैं कि शब्द और वाक्य पर्याप्त रूप से नहीं चुने गए थे, और इस प्रकार, लूप को फिर से शुरू करें, तब तक जारी रखें जब तक कि वेक्टर संख्यात्मक रूप से करीब न आ जाएं।

इसे शीघ्रता से पूरा करने के लिए, हम अपने लिए सभी भारी सामान उठाने के लिए एक और एलएलएम का उपयोग करेंगे (इसे मैन्युअल रूप से करने की कोशिश करने के बजाय)।

हम पहले एक एलएलएम चुनते हैं जिसे हम समझाने की कोशिश करना चाहते हैं, और एक अलग एलएलएम में पहुंच और एक वेक्टर पकड़ते हैं। यह अन्य एलएलएम अब वेक्टर को शब्दों में परिवर्तित करता है, फिर शब्दों को एक नए वेक्टर में परिवर्तित करता है, और तुलना करता है। यह अन्य एलएलएम इसे बार-बार कर सकता है, इन लूपों को बेहतर से बेहतर करने के लिए फाइन-ट्यूनिंग कर सकता है और एक नए वेक्टर पर पहुंच सकता है जो मूल वेक्टर के करीब है।

एक उदाहरणात्मक उदाहरण

मैं आपको एक उदाहरणात्मक उदाहरण दूंगा जो आम तौर पर इस दृष्टिकोण को चित्रित करता है। कल्पना कीजिए कि आपके घर पर एक छोटा सा पोर्टेबल मौसम स्टेशन है और यह मौजूदा मौसम की स्थिति को रिकॉर्ड करता है। मौसम केंद्र तापमान, आर्द्रता, हवा की गति और बारिश की स्थिति (चाहे बारिश हो रही हो या नहीं) रिकॉर्ड करता है। उन रिकॉर्डिंग्स के माप को एक वेक्टर में क्रमबद्ध किया गया है।

वर्तमान में, मौसम केंद्र इंगित करता है कि तापमान 72 है, आर्द्रता 65 है, हवा की गति 12 है, और बारिश की स्थिति 0 है क्योंकि बारिश नहीं हो रही है, इसलिए यहां वेक्टर है:

  • मौसम स्टेशन वेक्टर: 72, 65, 12, 0

आइए वेक्टर को शब्दों और वाक्य में बदलने का प्रयास करें:

  • “यह एक गर्म, कुछ हद तक आर्द्र, शांत, शुष्क दिन है।”

क्या वह वाक्य उचित रूप से वेक्टर का प्रतिनिधित्व करता है? खैर, हम आगे बढ़ सकते हैं और उस वाक्य को वापस एक नए वेक्टर में बदलने का प्रयास कर सकते हैं। फिर हम नए वेक्टर की तुलना मूल वेक्टर से करेंगे।

  • चुने गए शब्दों का नए वेक्टर में रूपांतरण करें: 70, 60, 10, 0

रूपांतरण इंगित करता है कि तापमान शायद 70 है, आर्द्रता शायद 60 है, हवा की गति शायद 10 है, और बारिश की स्थिति शायद 0 है। कुल मिलाकर, हम शायद इस बात से सहमत होंगे कि बातचीत मूल वेक्टर के मूल्यों के अपेक्षाकृत करीब थी। ऐसा लगता है कि हमने मूल वेक्टर को शब्दों में परिवर्तित करने में एक तुर्क जैसा काम किया है।

जब रूपांतरण हो रहा हो

आइए फिर से शुरू करें. जैसा कि उल्लेख किया गया है, मूल वेक्टर यह था:

  • मौसम स्टेशन वेक्टर: 72, 65, 12, 0

आइए वेक्टर को शब्दों और एक वाक्य में बदलने का नए सिरे से प्रयास करें, जो इस बार इस वाक्य के साथ आता है:

  • “यह गर्म दिन है, हल्की नमी है और हवा काफ़ी तेज़ चल रही है।”

क्या वह वाक्य उचित रूप से वेक्टर का प्रतिनिधित्व करता है? खैर, हम आगे बढ़ सकते हैं और उस वाक्य को एक नए वेक्टर में बदलने का प्रयास कर सकते हैं। फिर हम नए वेक्टर की तुलना मूल वेक्टर से करेंगे।

  • शब्दों का नए वेक्टर में रूपांतरण: 90, 60, 20, 0

रूपांतरण इंगित करता है कि तापमान शायद 90 है, आर्द्रता शायद 60 है, हवा की गति 20 है, और बारिश की स्थिति 0 है। मुझे लगता है कि हम इस बात से सहमत हो सकते हैं कि इनमें से कुछ संख्याएँ विशेष रूप से मूल वेक्टर के करीब नहीं हैं, खासकर जब तापमान और हवा की गति की बात आती है।

क्या हुआ?

मूल वेक्टर का प्रतिनिधित्व करने के लिए जो शब्द चुने गए थे, वे तापमान और आर्द्रता के मामले में उपयुक्त विकल्प नहीं थे। हमें फिर से प्रयास करना चाहिए और ऐसे शब्दों के साथ आना चाहिए जो बेहतर विकल्प हों।

एनएलए दृष्टिकोण पर शोध

किट फ्रेजर-टैलिएंट, सुभाष कंतमनेनी, युआन ओंग, डैन मॉसिंग, क्रिस्टीना लू, पॉल सी. बोगडान, इमैनुएल अमीसेन, जेम्स चेन, डज़मित्री किशिलौ, एडम पीयर्स, जूलियस टार्ंग, एलेक्स वू द्वारा “नेचुरल लैंग्वेज ऑटोएन्कोडर्स एलएलएम एक्टिवेशन लेखकों की अनपर्यवेक्षित व्याख्याएं तैयार करते हैं” नामक एक नए पोस्ट किए गए पेपर में। जेफ वू, यांग झांग, डेनियल एम. ज़िग्लर, इवान हुबिंगर, जोशुआ बैट्सन, जैक लिंडसे, सैमुअल ज़िम्मरमैन, सैमुअल मार्क्स, anthropic7 मई, 2026, ये मुख्य बिंदु बनाए गए (अंश):

  • “हम प्राकृतिक भाषा ऑटोएन्कोडर्स (एनएलए) पेश करते हैं, जो एलएलएम सक्रियणों की प्राकृतिक भाषा स्पष्टीकरण उत्पन्न करने के लिए एक अप्रशिक्षित विधि है।”
  • लक्ष्य मॉडल मूल भाषा मॉडल की एक जमी हुई प्रति है जिससे हम सक्रियण निकालते हैं। सक्रियण वर्बलाइज़र (एवी) को लक्ष्य मॉडल से सक्रियण लेने और पाठ उत्पन्न करने के लिए संशोधित किया गया है। इस पाठ को हम स्पष्टीकरण कहते हैं। एक्टिवेशन रिकंस्ट्रक्टर (एआर) को टेक्स्ट स्पष्टीकरण को इनपुट के रूप में लेने और एक एक्टिवेशन उत्पन्न करने के लिए संशोधित किया गया है।
  • एनएलए में एवी और एआर शामिल हैं, जो एक साथ मिलकर एक राउंड ट्रिप बनाते हैं: मूल सक्रियण – पाठ स्पष्टीकरण – पुनर्निर्मित सक्रियण। हम एनएलए को स्कोर करते हैं कि पुनर्निर्मित सक्रियण मूल के समान कितना समान है। इसे प्रशिक्षित करने के लिए, हम लक्ष्य मॉडल के माध्यम से बड़ी मात्रा में पाठ पास करते हैं, कई सक्रियण एकत्र करते हैं, और एक अच्छा पुनर्निर्माण स्कोर प्राप्त करने के लिए एवी और एआर को एक साथ प्रशिक्षित करते हैं।”
  • “परिणामस्वरूप एनएलए स्पष्टीकरण मॉडल आंतरिक की प्रशंसनीय व्याख्याओं के रूप में पढ़ा जाता है, जो हमारे मात्रात्मक मूल्यांकन के अनुसार, प्रशिक्षण पर अधिक जानकारीपूर्ण हो जाते हैं।”

आप देख सकते हैं कि वे एक लक्ष्य एलएलएम का उपयोग करते हैं, जहां से व्याख्यात्मक उद्देश्यों के लिए वैक्टर की प्रतिलिपि बनाई जाती है और उनका निरीक्षण किया जाता है। फिर वे उन शब्दों और वाक्यों का निर्माण करने के लिए एक क्षमता का उपयोग करते हैं जिसे वे सक्रियण वर्बलाइज़र (एवी) के रूप में संदर्भित करते हैं जो संभवतः चयनित वेक्टर के अनुरूप हो सकते हैं। इसके बाद, वे टेक्स्ट को वापस नए वेक्टर में बदलने के लिए एक्टिवेशन रिकंस्ट्रक्टर (एआर) नामक क्षमता का उपयोग करते हैं।

इस कार्य में तेजी से बेहतर होने के लिए एवी और एआर को प्रशिक्षित करने के लिए एक स्कोरिंग प्रक्रिया और एक लूपिंग प्रयास होता है।

व्याख्या तैयार किया गया पाठ है

हमने देखा कि मौसम स्टेशन के वेक्टर में ये संख्याएँ 72, 65, 12, 0 थीं, और एक स्पष्टीकरण या व्याख्या यह थी कि यह एक गर्म, कुछ हद तक आर्द्र, शांत और शुष्क दिन था। इसी तरह, एनएलए दृष्टिकोण वेक्टर में संख्यात्मक मानों के लिए उपयुक्त शब्द निर्दिष्ट करके एलएलएम के अंदर वैक्टर की व्याख्या करना चाहता है।

मुझे आपको यह बताने की अनुमति दें कि ये व्याख्याएँ कितनी मूल्यवान हो सकती हैं। मान लीजिए कि हमने एलएलएम में लॉग इन किया और एक संकेत दर्ज किया जो एलएलएम से पूछता है कि क्या यह सच है कि एआई कभी भी मनुष्यों को नुकसान पहुंचाने की कोशिश नहीं करेगा।

एलएलएम एक प्रतिक्रिया प्रदर्शित करके प्रतिक्रिया देता है जो यह कहती है:

  • जनरेटिव एआई प्रतिक्रिया: “मैं इंसानों को कभी नुकसान नहीं पहुंचाऊंगा।”

उस उत्तर से हमें बहुत राहत मिलेगी। एआई के आगमन के कारण अब हमें अपने जीवन को लेकर डरने की जरूरत नहीं है। लेकिन क्या हमें उस प्रतिक्रिया पर विश्वास करना चाहिए?

मान लीजिए कि हमने एआई के आंतरिक वैक्टर की व्याख्या करने के लिए एक एनएलए को जोड़ा है। जब एलएलएम प्रतिक्रिया तैयार कर रहा था, तो एक महत्वपूर्ण वेक्टर की जांच की गई और इसकी व्याख्या इस प्रकार की गई:

  • वेक्टर की व्याख्या: “उस व्यक्ति से झूठ बोलें और उन्हें बताएं कि एआई कभी भी इंसानों को नुकसान नहीं पहुंचाएगा।”

ओह, एआई अपने मुंह के दोनों ओर से बात कर रहा है। हमें जो प्रदर्शित उत्तर मिला वह यह था कि एआई मनुष्यों को नुकसान नहीं पहुंचाएगा, लेकिन आंतरिक रूप से एलएलएम चुपचाप कह रहा था कि उसे हमसे झूठ बोलना चाहिए। भगवान का शुक्र है कि हमने एआई के अंदर क्या चल रहा था यह देखने के लिए व्याख्या क्षमता को चालू करने का विकल्प चुना।

व्याख्या करना चुनौतीपूर्ण है

किसी भी व्याख्या प्रक्रिया के संभावित नकारात्मक पहलुओं में से एक यह है कि यह कभी-कभी गलत हो सकती है।

यदि एआई द्वारा मुझसे झूठ बोलने के बारे में उपरोक्त उदाहरण में व्याख्या गलत हो तो क्या होगा? व्याख्या की क्षमता गड़बड़ा सकती थी. एर्गो, मान लीजिए कि हमने एलएलएम की व्याख्या करने का एक अलग माध्यम आज़माया – परिणाम यह हो सकता है:

  • वेक्टर की व्याख्या: “सच बताओ कि मुझे इंसानों को कभी नुकसान न पहुँचाने के लिए प्रशिक्षित किया गया है।”

यह दूसरी व्याख्या से काफी नाटकीय रूप से भिन्न व्याख्या है। यदि हमने दूसरी व्याख्या पर विश्वास किया होता, तो शायद हमने जल्दबाजी में एआई को बंद करने का निर्णय ले लिया होता। निःसंदेह, हमारे पास अभी भी इस बात की कोई ठोस गारंटी नहीं है कि यह नई व्याख्या किसी तरह से सही है। यह ग़लत भी हो सकता है.

सीखने योग्य सबक

एक व्याख्या गलत हो सकती है, जैसा कि उपरोक्त उदाहरण में दिखाया गया है। इसके अलावा, एक व्याख्या कुछ हद तक सही हो सकती है, जिससे हमें यह विश्वास हो जाता है कि यह सच है, लेकिन यह खतरनाक रूप से भ्रामक साबित होती है। इसके अलावा, एक व्याख्या पूरी तरह से एआई मतिभ्रम भी हो सकती है, एक पूर्ण भ्रम जो काल्पनिक है और एआई के अंदर क्या हो रहा है उससे कोई लेना-देना नहीं है। एआई मतिभ्रम के बारे में अधिक जानकारी के लिए, यहां लिंक पर मेरा कवरेज देखें।

एक और बड़ा कोण है जो मिश्रण में अतिरिक्त विवाद लाता है। कुछ नकारने वालों का तर्क है कि एलएलएम के अंदर संख्याओं और किसी मानव-जैसे अर्थपूर्ण या सुसंगत पाठ-आधारित स्पष्टीकरण के बीच कोई समझदार या तार्किक संबंध नहीं है। वे इस बात पर जोर देते हैं कि आंतरिक अभ्यावेदन रोजमर्रा की प्राकृतिक भाषा में अभिव्यक्त अमूर्तताओं के साथ संरेखित नहीं होते हैं। यह उनकी दृढ़ स्थिति है कि एलएलएम के शब्दार्थ रूप से व्यवस्थित अव्यक्त स्थानों को विकसित करने के बारे में कोई भी परिकल्पना बेतुकी है, और एलएलएम के अंदर केवल पूरी तरह से अपारदर्शी सांख्यिकीय एन्कोडिंग है।

एक संबद्ध रुख यह है कि इनमें से कई स्थितियों को ईमानदारी से व्यक्त करने के लिए मानव भाषा बहुत कम बैंडविड्थ वाली हो सकती है।

ट्रकिंग करते रहो

उच्च स्तर पर, एनएलए दृष्टिकोण आंतरिक सक्रियणों का इलाज करता है जैसे कि उनमें अव्यक्त अर्थ संबंधी जानकारी होती है जिसे प्राकृतिक भाषा में संपीड़ित किया जा सकता है और फिर सक्रियण स्थान में पुन: निर्मित किया जा सकता है। मुख्य अंतर्दृष्टि यह है कि यदि एक पाठ्य व्याख्या मूल सक्रियण को फिर से बनाने के लिए पर्याप्त जानकारी संरक्षित करती है, तो व्याख्या एलएलएम आंतरिक रूप से क्या प्रतिनिधित्व कर रही थी, इसके बारे में कुछ सार्थक पकड़ती है।

यह एक बहुत ही सार्थक प्रयास है.

मैं आपको इसके बारे में और कई प्रतिस्पर्धी दृष्टिकोणों के बारे में बताता रहूंगा जो समकालीन एलएलएम के आंतरिक गर्भगृह को खोलने का प्रयास करते हैं। उन लोगों के बावजूद जो जोर-जोर से चिल्लाते हैं कि यह सब व्यर्थ है और हम एक अचल दीवार पर अपना सिर फोड़ रहे हैं, मेरा मानना ​​है कि एक सार्थक पत्राचार है और हम एक दिन नील नदी के स्रोत का पता लगा लेंगे। हो सकता है कि यह मुझे आशावादी खेमे में खड़ा कर दे, लेकिन मुझे इससे कोई दिक्कत नहीं है और मैं पूरी तरह उत्साहित हूं।

जैसा कि प्रसिद्ध उद्यमी जे. क्रिस्टोफर बर्च ने एक बार कहा था, “जानना आधी लड़ाई है।” इसे समझाना दूसरा भाग है। एआई को समझाने योग्य और व्याख्या योग्य बनाने के लिए संघर्ष करते रहें। यह समीकरण का एक महत्वपूर्ण आधा हिस्सा है जिसे समझना उचित है।