
एजेन्सी । एप्पल कम्पनीले हालै सार्वजनिक गरेको एउटा शोधपत्रमा कृत्रिम बुद्धिमत्ता अर्थात् एआईले आफैं सोच्न सक्ने क्षमता विकसित नगरिसकेको दाबी गरिएको छ ।
‘दी इल्युजन अफ थिंकिङ: अन्डरस्ट्यान्डिङ द स्ट्रेन्थ्स यान्ड लिमिटेसन्स अफ रीजनिङ मोडल्स भाया द लेन्स अफ प्रब्लम कम्प्लेक्सिटी’ शीर्षकको शोधपत्रमा यस्तो दाबी गरिएको हो ।
एआईका मोडलहरू जसमा अत्याधुनिक लार्ज रीजनिङ मोडल्स (एलआरएम) पनि पर्छन्, तिनको आफैं बुद्धि लगाउने क्षमता विकसित भइसकेको छैन । ती वास्तवमा क्षमतावान सुगा मात्र हुन् ।
उनीहरूलाई बौद्धिक भन्न मिल्दैन किनकि तिनले कुरा बुझेर भन्दा पनि मानिसले फीड गरेको सूचनालाई बान्की मिलाएर दोहोर्याउने मात्र गरेका छन् ।
एप्पलले प्रकाशन गरेको शोधपत्रले बुझ्न खोजेको कुरा सरल थियो । के तर्क क्षमता भएका भनिएका एआई मोडलले स्वयं तर्क गर्न सक्छन् ? उनीहरूले मान्छेबाट फीड नपाएका विषयमा उठ्ने समस्याको आफैं समाधान गर्न सक्छन् ? यसको सटीक उत्तर छ: सक्दैनन् ।
यसको एउटा उदाहरण शोधपत्रमा दिइएको छ । कल्पना गर्नुहोस्, तीनजना मान्छे र तिनका तीनजना सहायकहरू सानो डुंगा चढेर नदी तर्न खोज्दैछन् तर त्यस डुंगामा एकपटकमा दुईजनालाई मात्र बोक्न मिल्छ । यसमा एउटा शर्त के पनि छ भने कुनै पनि व्यक्तिलाई अर्को व्यक्तिको सहायकसँग राख्न मिल्दैन र डुंगालाई खाली राखेर नदी तर्न पनि मिल्दैन । कसै न कसैले त्यसलाई खियाएर फेरि किनारामा ल्याउनैपर्छ ।
यस्तो किसिमको पहेली बालबालिकालाई दिमाग खियाउनका लागि लेखिएका पुस्तकमा पनि भेटिन्छन् । त्यसमा सबैजनालाई नदी तर्नका लागि यात्राको सही सिलसिला पत्ता लगाउनुपर्ने चुनौती दिइएको हुन्छ । यसको समाधानका लागि ११ वटा मात्र कदम आवश्यक हुन्छन् ।
तर यस्तो सरल बौद्धिक अभ्यास पनि अत्याधुनिक बुद्धिमत्ता भएको भनिएको क्लाउड ३.७ सोनेट एआई मोडलले पनि पूरा गर्न सकेन । उसले चौथो चरणमा पुगेपछि अवैध कदम चालेर नियम भत्कायो ।
तर त्यही एआईले पाँचवटा डिस्क भएको टावर अफ हनोई नामक पहेलीलाई त्रुटिरहित रूपमा समाधान गरिदियो जबकि त्यो डुंगा सम्बन्धी पहेलीभन्दा बढी जटिल थियो । टावर अफ हनोई पहेली समाधान गर्नका लागि सिलसिलाबद्ध रूपमा ३१ वटा त्रुटिरहित कदम चाल्नुपर्ने हुन्छ ।
कसरी यस्तो विशाल अन्तर देखियो त ? एप्पलका अनुसन्धाताहरूले त्यसलाई पत्ता लगाए । टावर अफ हनोई प्रसिद्ध कम्प्युटर साइन्स पहेली हो र इन्टरनेटभरि त्यो छताछुल्ल रूपमा पाइन्छ । त्यसैले एआईले त्यसको बारेमा सिक्दै गर्दा हजारौं उदाहरणहरू कण्ठस्थ बनायो । तर तीनजना मान्छेले नदी तरेको पहेली समाधान गर्ने सवालमा एआई चिप्लियो किनकि त्यो पहेली इन्टरनेटमा सहजै उपलब्ध छैन ।
यसबाटै थाहा हुन्छ: यी एआई मोडलहरूसँग स्वतन्त्र तर्कक्षमता छैन । यी मोडलहरूसँग आफैं तर्कक्षमता हुन्थ्यो भने यिनले उस्तै किसिमका तार्किक सोच भएका तर फरक परिदृश्य भएका पहेलीको समाधान गरिदिन्थे । तर एआईले नदी पार गर्ने पहेली सिक्दै नसिकेकाले त्यसको समाधान गर्नै सकेन ।
यो कुनै एक कम्प्युटरको सीमितताको मात्र सवाल हैन । अनुसन्धाताहरूले एआई मोडललाई असीमित टोकन बजेटका साथ काम गर्न दिएका थिए । तर नदी तर्ने पहेली जस्ता सामान्य कठिनाइको समाधान गर्ने सवालमा पनि मोडलहरूले खासै बुद्धि लगाएनन् । उनीहरूले कमै मात्र टोकन उपयोग गरे र छिट्टै हार माने ।
कुनै व्यक्तिले यसभन्दा कठिन पहेली समाधान गर्नका लागि बढी समय खर्चेर सोचविचार गर्थ्यो होला तर यी रीजनिङ मोडलले त्यसको ठीक विपरीत काम गरे । उनीहरूले इन्टरनेटबाट सिकेको कुरा दोहोर्याउन मात्र सक्थे तर त्यसलाई उनीहरूले बुझेका हुँदैनथिए । वास्तविक तर्कक्षमता भएको मानिसले यसरी दोहोर्याउने काम मात्र गर्दैन ।
यसको अर्थ हुन्छ: एआई मोडलहरू क्षमतावान सुगा मात्र हुन् । ठाडै भन्नुपर्दा, यी कपीपेस्ट मशिन मात्र हुन् ।
एआईको भविष्यका विषयमा हामीलाई बढाइचढाइ गरी बताइएको कुरा हौवा मात्र हो भन्ने कुरा यस अनुसन्धानको निष्कर्षबाट थाहा हुन्छ ।
सबभन्दा ठूलो कुरा त, मानिसकै स्तरको बुद्धिमत्ता भएको आर्टिफिसियल जनरल इन्टेलिजेन्स (एजीआई) त अहिलेसम्म बनेकै छैन । त्यसको हल्ला मात्र चलेको हो । त्यस्तो प्रविधि आउन अझै कैयौं वर्ष लाग्छ । त्यसैले एआईले अहिल्यै मानिसको जागिर खोसिदिन्छ भन्ने कुरा हौवा मात्र हो ।
तर भविष्यमा एआई मोडलहरूलाई कुनै पनि पहेलीको समाधान प्राप्त नहुन्जेलसम्मका लागि हार नमान्ने तालिम दिन सकिने सम्भावनालाई चाहिँ नकार्न सकिन्न ।








प्रतिक्रिया