OpenAI, ChatGPTकोनिर्माण गर्ने, सुरक्षित AI प्रणाली विकास गर्ने बारेमा वाद गर्दछ

चित्र १.पीएनजी

OpenAIले एक नयाँ ब्लग पोस्ट प्रकाशित गरेको छ जसमा गोपनीयतापूर्वक र व्यापक लाभकारी आर्टिफिसियल इन्टेलिजेन्स (AI) विकास गर्ने गरेको छ।

ओपनएआईका नवीनतम मोडेल जीपीटी-४ले प्रदर्शनक्षमता बढाउँछ, सृजनशीलतालाई बढाउँछ, र विविधतापूर्ण शिक्षण अनुभव प्रदान गर्न सक्छ।

तथापि, OpenAIले चिन्ता गर्दछ कि AI उपकरणहरूमा पूर्वनिर्धारित आपत्तिहरू छन् जुन सुरक्षा उपायहरूमार्फत सम्पन्न गर्नुपर्छ र जिम्मेवारीपूर्वक प्रयोग गर्नुपर्छ।

यहाँ कम्पनीले उन जोखिमहरूलाई कम गर्न गरिरहेको कुरा छ।

ए.आइ. प्रणालीहरूमा सुरक्षा सुनिस्चित गर्दै

ओपनएआइ नयाँ सिस्टम जारी गर्नु अघि गहिरो परीक्षण गर्दछ, विशेषज्ञहरूबाट बाह्य मार्गदर्शनको खोजी गर्दछ र मानव प्रतिक्रिया सहितको एआई माेडेलहरूलाई सुधार्नु गर्दछ।

उदाहरणका लागि, GPT-4 को बाहिरीकरणमा प्रयोगकर्ता आवश्यकताहरू सँग सुरक्षा र सामंजस्य सुनिश्चित गर्नका लागि छ महिनाभन्दा बढीको समयलाई अगाडि बढाईएको थियो।

OpenAI ले मान्यता पाउनुपर्ने हो कि प्रबल AI प्रणालीहरूलाई परिश्रमी सुरक्षामूलक मा मापमाप गरिनुपर्छ र विनियमनको आवश्यकतामा समर्थन गर्दछ।

वास्तविक जगतबाट सिक्ने

वास्तविक जग्गा मा प्रयोग भएर सुरक्षित AI प्रणालीको विकासमा एक महत्वपूर्ण घटक हो । अनुमान गर्न नसकिने समस्याहरूलाई समाधान गर्न यसरी नयाँ मोडलहरूलाई निरन्तर बढ्दो सदस्य आधारमा किसिमले जारी गर्ने मार्ग द्वारा OpenAI महत्वपूर्ण सुधार गर्न सक्छ ।

हामीले हाम्रो एपीआई र वेवसाइट मार्फत एआई मोडेलहरू प्रदान गर्दा, ओपेनएआईले गलत प्रयोगका लागि निगरानी गर्न सक्छ, उचित कार्यवाही गर्न सक्छ, र जोखिमको सन्तुलनका लागि न्यांसिक नीतिहरू विकास गर्न सक्छ।

बालहरुको सुरक्षा र गोपनीयता मान्यता गर्नुहोस्

OpenAI बालहरूको सुरक्षा उच्चतामा राख्छ जसलाई उम्र प्रमाणित गर्नुपर्छ र यसको प्रयोग द्वारा हानिकारक सामग्री उत्पन्न गर्न निषेध गर्दछ।

गोपनीयता अन्य एक महत्वपूर्ण पहलु हो OpenAI को कामको। संगठनले प्रयोगकर्ताहरूको सुरक्षा रख्ने भर्सनीसहितको डाटा प्रयोग गर्दछ जसले आफूलाई अधिक सहयोगी बनाउने मोडेलहरू बनाउने।

साथै, OpenAIले तालिम डाटासेटहरूबाट व्यक्तिगत जानकारीहरू हटाउँछ र व्यक्तिगत जानकारीका निवेदनलाई अस्वीकार गर्ने लगातार माडेको मोडेलहरूमा रुपान्तरण गर्दछ।

OpenAI तपाईंको प्रणालीबाट व्यक्तिगत जानकारी हटाउनका अनुरोधहरूको प्रतिक्रिया दिनेछ।

तथ्यात्मक सत्यता सुधार

तथ्यात्मक सटिकता ओपेनएआईको महत्त्वपूर्ण ध्यानकेन्द्र हो। GPT-4ले आफ्नो पूर्ववत GPT-3.5 भनी गणना गर्ने छात्रुलाईभने 40% बढी प्रमाणमा सटिक सामग्री प्रदान गर्छ।

संगठनले AI उपकरणहरूको सीमाहरू र अशुद्धिको सम्भावनाको बारेमा प्रयोगकर्ताहरूलाई शिक्षित गर्ने प्रयास गर्दछ।

तिनले जारी गरिएको अनुसन्धान र सहभागितालाई जारी राख्ने

OpenAI मान्छेलाई समय र स्रोत उद्योगमा प्रभावी न्यूनिकरण र समन्वय तालिमहरूमा समर्पित गर्दछ।

तथापि, यसले एकबद्धताको काम थाहा पाउँदैन। सुरक्षा समस्याहरूलाई समाधान गर्ने लागि बिस्तृत बहस, प्रयोग र हितधारकहरूमध्ये संलग्नता आवश्यक छ।

OpenAIले सुरक्षित AI परिप्रेक्ष्यमा सहयोग र खुला संवाद संयामबद्ध गर्नमा अग्रिम छ।

अस्तित्विक जोखिमहरूमा आलोचना

नेपालीमा नेपालको OpenAI ले आफ्नो AI प्रणालीको सुरक्षा र विश्वासघातक लाभ सुनिश्चित गर्ने वारेमा छलफलमा लागेको छ, तर यसको ब्लग पोस्टले सामाजिक मिडियामा आलोचना उत्पन्न गरेको छ।

ट्विटर प्रयोगकर्ताहरूले निराशा व्यक्त गर्नुभयो, जसमा AI विकाससँग सम्बन्धित मौलिक जोखिमहरूलाई पुरस्कृत नगरेर OpenAI नै असफल भएको भनेर।

एक ट्विटर प्रयोगकर्ता ने अपने निराशाजनक भावना व्यक्त गर्दै, खुदाईको आधारमा खुलाईबाट बारम्बार व्यापारीकरणमा ध्यान केन्द्रित गर्ने ओपन एआईलाई दण्डित गर्नुभयो।

प्रयोगकर्ताले सितको सुरक्षाको दृष्टिकोणलाई खाल्डिन्छ र आत्महन्य जोखिमहरूलाई संगरोध गर्नेमा गमान बाट बढी माया गर्दछ।

यसले खोक्छ, खाली प्रभावहीन, स्वाधीन पीआर विंडो-ड्रेसिंग हो।

तपाइँले त एन्साइटीको अस्तित्विता झन्झट हेर्दैनुहुन्छ, जसले धेरै नागरिक, तकनिकज्ञ, एआइ शोधकर्ता तथा एआइ उद्योगका नेता, तपाइँको आफूले पनि चाहीं एसईओ @sama साथै। @OpenAI आफूलाई त्यसका संगै विश्वासघात गर्दै जादेओ…

— Geoffrey Miller (@primalpoly) April 5, २०२३

अर्को प्रयोगकर्ता घोषणाको सन्तुष्टीहीनतासंगै व्यक्त गरेछन्, जसले यसलाई वास्तविक समस्याहरूलाई छनौट गरिरहेको छ र अस्पष्ट छ भनेर बताउछ । प्रयोगकर्ताले बुझाउँदैनन् कि रिपोर्टले AI स्वयं-ज्ञानलाई सम्बद्ध नैतिक समस्याहरू र जोखिमहरू नजरअवगत छोड्छ, जसले संगठनमा सुरक्षा समस्याहरूको दृष्टिबिन्दुलाई अपर्याप्त ठान्छ भन्ने उल्लेख गर्दछ ।

GPT-4को एक प्रशंसकको रूपमा, म उपलब्धि गर्छु तपाईंको लेखलाई यसले निराशा दिलाइरहेको छु।

यसले वास्तविक समस्याहरूको आवृत्ति छाड्छ, अस्पष्ट रहन्छ, र AI स्व-ज्ञानसम्बन्धी महत्त्वपूर्ण नैतिक समस्या र जोखिमलाई नजरअवस्थामा राख्छ।

म अविष्कारलाई महत्व दिन्छु, तर सुरक्षा समस्याहरूलाई जोखिममुक्ती गर्ने यो सही दृष्टिकोण होइन।

— फ्रांकील्याब्स (@FrankyLabs) ५ अप्रिल २०२३

त्रुटिको मुख्य बातचित, याई विकासबाट पैदा हुने AIद्वारा अस्तित्विकता सम्बन्धी जोखिमहरू र सदायतान्त्रित बहस लाई उज्यालो छान्दै छ।

जे गोल्डमैन हारिस पायदानबाट घोषणा गर्नुभट्टेका उत्साहित के उनी नै ध्यान दिएका हुन्, त्यो महत्वपूर्ण हो कि थप छलफल गर्नुपर्दछ यात्राका संबन्धमा गर्न धेरै माथी चिन्ता गर्नुपर्छ।

सम्बन्धित लेखहरू

थप हेर्नुहोस् >>

HIX.AI सँग AI को शक्ति अनलक गर्नुहोस्!