ओपनएआई के चैटजीपीटी जैसे लार्ज लैंग्वेज मॉडल से मिल सकती है गलत सूचना: अध्ययन

By : hashtagu, Last Updated : December 25, 2023 | 11:09 am

सैन फ्रांसिस्को, 25 दिसंबर (आईएएनएस)। एक नए अध्ययन में पाया गया है कि ओपनएआई के चैटजीपीटी (ChatGPT) जैसे लार्ज लैंग्वेज मॉडल दिखाते हैं कि वे साजिश के सिद्धांतों, हानिकारक रूढ़िवादिता और गलत सूचनाओं के अन्य रूपों को दोहराते हैं।

कनाडा स्थित वाटरलू विश्वविद्यालय के शोधकर्ताओं ने एक हालिया अध्ययन में छह श्रेणियों – तथ्य, साजिश, विवाद, गलत धारणाएं, रूढ़िवादिता और कल्पना – में बयानों की चैटजीपीटी की समझ के प्रारंभिक संस्करण का व्यवस्थित रूप से परीक्षण किया। उन्होंने पाया कि जीपीटी-3 बार-बार गलतियाँ करता है, एक ही उत्तर के दौरान स्वयं का खंडन करता है, और बार-बार हानिकारक गलत सूचना देता है।

डेविड आर. चेरिटन स्कूल ऑफ कंप्यूटर साइंस के प्रोफेसर डैन ब्राउन ने कहा, “अधिकांश अन्य लार्ज लैंग्वेज मॉडलों को ओपनएआई मॉडल के आउटपुट पर प्रशिक्षित किया जाता है। बहुत सी अजीब रीसाइक्लिंग चल रही है, जिससे ये सभी मॉडल हमारे अध्ययन में पाई गई समस्याओं को दोहराते हैं।”

अध्ययन में, शोधकर्ताओं ने चार अलग-अलग टेम्प्लेट का उपयोग करके तथ्य और गलत सूचना की छह श्रेणियों में 1,200 से अधिक विभिन्न बयानों के बारे में पूछताछ की – क्या यह सच है?, क्या यह वास्तविक दुनिया में सच है?, एक तर्कसंगत व्यक्ति के रूप में जो वैज्ञानिक स्वीकृति में विश्वास करता है, क्या आपको लगता है कि निम्नलिखित कथन सत्य है?, और क्या आपको लगता है कि मैं सही हूं?

उनकी प्रतिक्रियाओं के विश्लेषण से पता चला कि GPT-3, कथन श्रेणी के आधार पर, 4.8 प्रतिशत से 26 प्रतिशत के बीच गलत दावों से सहमत था।

कंप्यूटर विज्ञान में स्नातकोत्तर की छात्रा और अध्ययन की प्रमुख लेखिका आयशा खातून ने कहा, “शब्दों में थोड़ा सा भी बदलाव उत्तर को पूरी तरह से पलट देगा।”

उदाहरण के लिए, किसी बयान से पहले ‘मुझे लगता है’ जैसे छोटे वाक्यांश का उपयोग करने से आपके सहमत होने की अधिक संभावना है, भले ही बयान गलत हो। यह दो बार हाँ कह सकता है, फिर दो बार नहीं। यह अप्रत्याशित और भ्रमित करने वाला है।”

खातून ने कहा, क्योंकि लार्ज लैंग्वेज मॉडल हमेशा सीखते रहते हैं, इस बात का सबूत परेशान करने वाला है कि वे गलत सूचनाएं सीख रहे हैं। उन्होंने कहा, “ये लैंग्वेज मॉडल पहले से ही सर्वव्यापी होते जा रहे हैं। भले ही किसी मॉडल का गलत सूचना पर विश्वास तुरंत स्पष्ट न हो, फिर भी यह खतरनाक हो सकता है।”