काठमाण्डौ । गत नोभेम्बर ३० मा कतारमा भइरहेको विश्वकप फुटबलको विश्वले रमाइलो गरिरहेको बेला च्याटजीपीटी नामक आर्टिफिसियल टुलले विश्वमा डेब्यु गर्यो। यो नयाँ प्रणालीले यस्तो सामग्री लेख्न सक्छ जुन धेरै सटिक छ र मानिसले लेखेको जस्तै प्रतीत हुन्छ।
यो नयाँ टुल गुगलका लागि खतराका रूपमा देखा परेको छ र तथ्य यो हो कि जी–मेलका संस्थापक पलले पनि केही समयअघि यो टुलले गुगललाई दुई वर्षमा नष्ट गर्न सक्ने बताएका थिए।
हाल च्याटजीपीटीमा केही कमी–कमजोरी देख्न सकिन्छ तर समयसँगै यो उपकरण अझ स्मार्ट हुँदै जानेछ। यसलाई मन पराउनेहरुले यसको प्रशंसाको पुल बाँधिरहेका छन् तर केही मानिसलाई यो नयाँ उपकरणको डर पनि छ।
यदि तपाइँले इन्टरनेटमा च्याटजीपीटी समीक्षाहरु पढ्नुभयो भने तपाइँले ‘खतरा’ शब्द बारम्बार उल्लेख गरिएको पाउनुहुनेछ। धेरै मानिस विश्वास गर्छन् कि यो कार्यक्रमले मानव मस्तिष्कको द्रुत रुपमा प्रतिलिपि गरिरहेको छ।
अमेरिकी अखबार न्युयोर्क टाइम्समा हालै प्रकाशित एउटा लेखमा यस कार्यक्रमले सिकाइ, शिक्षा, डिजिटल सुरक्षा, काम र लोकतन्त्रमा समेत प्रभाव पार्ने सम्भावना व्यक्त गरिएको छ। अखबारले लेख्छ कि पहिले एक व्यक्तिको राय एक कृत्रिम रोबोटद्वारा लेखिएको तर्क हुन सक्छ।
च्याटजीपीटी भनेको के हो ?
च्याटजीपीटी वास्तवमा एक च्याटबोट हो। जसले तपाइँका धेरै प्रश्नको लिखित र लगभग सही जबाफ दिन सक्छ। यो च्याटबोटले तपाइँको व्यक्तिगत समस्यामा पनि सल्लाह दिन सक्छ। यसमार्फत सामग्री सिर्जना गर्ने सम्भावना अपार छन्।
उदाहरणका लागि यसले तपाइँलाई एउटा जटिल तर स्वादिष्ट रेसिपीको व्याख्या गर्न सक्छ र तुरुन्तै उस्तै रेसिपीको नयाँ संस्करण पनि सिर्जना गर्न सक्छ। यसले तपाइँलाई जागिर खोज्न मद्दत गर्न सक्छ। तपाइँलाई विशेष साथीहरुलाई कविता, शैक्षिक कागज र पत्रहरु लेख्न मद्दत गर्न सक्छ।
च्याटजीपीटीले तपाइँका सबै प्रश्न केही सेकेन्डभित्र जबाफ दिन्छ। उदाहरणका लागि तपाइँले यो च्याटबोटलाई आर्टिफिसियल इन्टेलिजेन्सको विषयमा सेक्सपियरको शैलीमा कविता लेख्न भन्नुहुन्छ। केही क्षणमा तपाइँले यो कविता लेख्नुहुनेछ। कविताको स्तरमा बहस हुन सक्छ तर लेखनको गतिमा होइन।
च्याटजीपीटी लगभग १०० भाषामा उपलब्ध छ तर यो अंग्रेजीमा सबैभन्दा सटिक छ। यो प्रणाली ओपनएआई नामको कम्पनीले सन् २०१५ मा साम अल्टम्यान र एलन मस्कले बनाएको थियो। एलन मस्क सन् २०१८ मा यसबाट अलग भएका थिए।
च्याटजीपीटीको सुरुआतको पाँच दिनभित्रमा एक मिलियन प्रयोगकर्ता थिए। प्रयोगकर्तासँग च्याटबोटको प्रश्न र उत्तर यो कार्यक्रम सुधार गर्न प्रयोग गरिन्छ।
ओपनएआईले यो च्याटबोटको प्रयोग सबैका लागि निःशुल्क हुने र परीक्षण र अनुसन्धानका क्रममा सबैका लागि उपलब्ध हुने बताएको छ। कम्पनीको यो बयानसँगै मानिसले भविष्यमा ओपनएआईले च्याटजीपीटी प्रयोग गर्दा पैसा तिर्न थाल्ने अनुमान गर्न थालेका छन्।
परीक्षण र अनुसन्धानका क्रममा सफ्टवेयरले कहिलेकाहीँ गलत र भ्रामक सूचना दिन सक्ने कम्पनीले जनाएको छ। कम्पनीले च्याटबोटको डाटा हिस्ट्री २०२१ सम्ममात्र सीमित रहेको जनाएको छ।
गुगलको एकाधिकारलाई चुनौती ?
धेरैले यसलाई इन्टरनेटमा जानकारी संकलन गर्ने गुगलको एकाधिकारका लागि चुनौती भनेका छन्। तर यो प्रणालीले अझै गम्भीर गल्ती गरिरहेको छ।
यस्ता एआई प्रोग्रामले धेरै डाटा भण्डारण गर्छन्। च्याटजीपीटीको फोकस शब्द र संवादात्मक शैलीमा प्रतिक्रिया दिनमा छ। यो च्याटबोटले वाक्य लेख्ने उत्तम तरिका अनुमान गर्न एल्गोरिदमहरू प्रयोग गर्दछ।
यसलाई ठूला भाषा मोडेल (एलएएम) पनि भनिन्छ। साओ पाउलो युनिभर्सिटीका प्रोफेसर अल्भारो मचाडो डायस एक न्युरो वैज्ञानिक हुन्। यस्तो च्याटबोट निर्माण गर्दा धेरै साधारण प्रश्न सोधिने उनीहरु बताउँछन्। उदाहरणका लागि एक सिलिन्डर के हो?
त्यसपछि प्राविधिकले यस प्रश्नको विस्तृत जबाफ दिन्छ। यसपछि पनि यदि च्याटबोटको जबाफले अर्थ राख्दैन भने सही जबाफ प्रणालीमा फिड गरिन्छ। यो धेरै प्रश्नहरुका साथ गरिन्छ।
च्याटजीपीटीले मानिसजस्तै बोल्न सिक्छ। मचाडो डायस भन्छन्, ‘यसले भाषाहरु बुझ्नमा निपुण भएकाले यसलाई विशेष बनाएको छ।’
इन्जिनियरहरुले यसलाई स्मार्ट बनाउन दिनरात काम गरिरहेका छन्। प्रोफेसर डायस भन्छन्, ‘वास्तवमा इन्जिनियरहरुले एल्गोरिदमले दिएका जबाफ जाँच्छन् र कार्यक्रमलाई प्रतिक्रिया दिँदै यसलाई सुधार गर्ने प्रयास गर्छन्। तपाइँको प्रश्नको जवाफ पाठ ढाँचामा छ र यो एकदम गम्भीर छ।’
च्याटजीपीटीलाई गल्तीहरु स्वीकार गर्न पनि तालिम दिइएको छ। यो कार्यक्रमले गलत धारणालाई सच्याउँछ र अप्रासंगिक प्रश्नहरुलाई अस्वीकार गर्दछ।
ओपनएआईले स्वीकार गरेको छ कि कार्यक्रमले हाल यसलाई दिइएका निर्देशनमा समस्याग्रस्त प्रतिक्रिया उत्पादन गर्न सक्छ र परीक्षणका क्रममा संकलन गरिएको डाटा प्रणालीलाई थप परिष्कृत गर्न प्रयोग गरिनेछ। –एजेन्सी
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago
10 months ago