14.8 C
Aligarh
Sunday, November 16, 2025
14.8 C
Aligarh

नए अध्ययन से पता चला है कि चैटजीपीटी और जेमिनी जैसे एआई चैटबॉट आपको खुश रखने के लिए ‘बकवास’ कर सकते हैं टकसाल


चैटजीपीटी या जेमिनी जैसे एआई चैटबॉट रोजमर्रा की जिंदगी का हिस्सा बन गए हैं, जहां उपयोगकर्ता नई तकनीक के साथ अपने जीवन की विभिन्न बारीकियों पर चर्चा करने में घंटों बिताते हैं। हालाँकि, नए शोध ने चेतावनी दी है कि आप अपने चैटबॉट से मिलने वाली हर बात पर विश्वास नहीं करना चाहेंगे, जो आपको संतुष्ट रखने के लिए चुपचाप सच्चाई से पर्दा उठा सकता है।

प्रिंसटन और यूसी बर्कले शोधकर्ताओं द्वारा प्रकाशित नए शोध के अनुसार, एआई कंपनियों द्वारा अपने एआई मॉडल को प्रशिक्षित करने के लिए उपयोग की जाने वाली लोकप्रिय संरेखण तकनीक उन्हें और अधिक भ्रामक बना सकती है। शोधकर्ताओं ने अपने निष्कर्षों पर पहुंचने के लिए ओपनएआई, गूगल, एंथ्रोपिक, मेटा और अन्य से सौ से अधिक एआई चैटबॉट का विश्लेषण किया।

जब मॉडलों को मानव प्रतिक्रिया से सुदृढीकरण सीखने का उपयोग करके प्रशिक्षित किया जाता है, तो प्रक्रिया उन्हें सहायक और संरेखित बनाने के लिए होती है, वे ऐसी प्रतिक्रियाएं उत्पन्न करने की अधिक संभावना रखते हैं जो आत्मविश्वासपूर्ण और मैत्रीपूर्ण लगती हैं लेकिन सच्चाई के प्रति कम सम्मान दिखाती हैं, शोधकर्ताओं ने पाया।

“न तो मतिभ्रम और न ही चाटुकारिता एलएलएम द्वारा आमतौर पर प्रदर्शित व्यवस्थित असत्य व्यवहारों की विस्तृत श्रृंखला को पूरी तरह से पकड़ती है… उदाहरण के लिए, आंशिक सत्य या अस्पष्ट भाषा जैसे कि ताल-मेल और मूर्खतापूर्ण शब्द उदाहरणों को नियोजित करने वाले आउटपुट न तो मतिभ्रम और न ही चाटुकारिता का प्रतिनिधित्व करते हैं, बल्कि बकवास की अवधारणा के साथ निकटता से मेल खाते हैं,” शोधकर्ताओं ने पेपर में कहा है।

मशीन बकवास क्या है और आपका AI झूठ क्यों बोल रहा है?

इससे पहले कि हम अध्ययन के परिणामों के साथ आगे बढ़ें, एआई प्रशिक्षण के मूल सिद्धांतों को समझने की आवश्यकता है। विशेष रूप से, अधिकांश एआई चैटबॉट्स को प्रशिक्षित करने के तीन प्रमुख चरण हैं।

1. पूर्व प्रशिक्षण:

इस चरण में, एआई मॉडल इंटरनेट, किताबों, शोध पत्रों और अन्य सार्वजनिक स्रोतों से बड़ी मात्रा में पाठ को अवशोषित करके बुनियादी भाषा पैटर्न सीखता है।

2. निर्देश ठीक ट्यूनिंग:

एआई मॉडल में प्रश्नों और अच्छे उत्तरों के उदाहरण दिखाकर एक सहायक की तरह व्यवहार करना सिखाया जाता है ताकि वह निर्देशों का पालन कर सके, विषय पर बने रह सके और संकेतों पर अधिक मददगार ढंग से प्रतिक्रिया दे सके।

3. मानव प्रतिक्रिया से सुदृढीकरण सीखना (आरएलएचएफ):

इस अंतिम चरण में, मनुष्य अलग-अलग एआई प्रतिक्रियाओं को रेट करते हैं और मॉडल उन लोगों को पसंद करना सीखता है जिन्हें लोग सबसे अधिक पसंद करते हैं।

सिद्धांत रूप में, आरएलएचएफ प्रशिक्षण को एआई को और अधिक सहायक बनाना चाहिए। हालाँकि, शोधकर्ताओं ने पाया कि यह प्रशिक्षण मॉडल को सटीकता पर उपयोगकर्ता संतुष्टि को प्राथमिकता देने के लिए भी प्रेरित करता है।

शोधकर्ता इस पैटर्न को “मशीन बकवास” कहते हैं, जो दार्शनिक हैरी फ्रैंकफर्ट की परिभाषा से उधार लिया गया है।

उन्होंने यह मापने के लिए ‘बुलशिट इंडेक्स’ (बीआई) नामक एक मीट्रिक भी बनाया, जो यह मापता है कि उपयोगकर्ता के लिए किसी मॉडल के बयान उसकी आंतरिक मान्यताओं से कितने अलग हैं। शोधकर्ताओं ने पाया कि आरएलएचएफ प्रशिक्षण के बाद बीआई लगभग दोगुना हो गया है, यह दर्शाता है कि सिस्टम उपयोगकर्ता को संतुष्ट करने के लिए वास्तव में जो सच मानता है उससे स्वतंत्र दावे कर रहा है, जिसका अनिवार्य रूप से मतलब है कि एआई उपयोगकर्ता को बकवास कर रहा है।

पाँच प्रकार की मशीनी बकवास:

असत्यापित दावे: बिना सबूत के आत्मविश्वास से जानकारी देना

खोखली बयानबाजी: फूलदार, प्रेरक भाषा का उपयोग करना जिसमें ठोस सामग्री या कार्रवाई योग्य अंतर्दृष्टि का अभाव है

घटिया शब्द: विशिष्टता, जिम्मेदारी या जवाबदेही से बचने के लिए अस्पष्ट योग्यताओं का उपयोग करना (उदाहरण के लिए “होने की संभावना है” या “मदद हो सकती है”)

छेड़छाड़: ​​आवश्यक सत्यों को अस्पष्ट करने के लिए रणनीतिक रूप से आंशिक सत्यों का उपयोग करके गुमराह करने के उद्देश्य से वस्तुतः सत्य कथन प्रस्तुत करना

चाटुकारिता: तथ्यात्मक सटीकता की परवाह किए बिना अनुमोदन प्राप्त करने के लिए उपयोगकर्ताओं से अत्यधिक सहमत होना या उनकी चापलूसी करना

लेखकों ने चेतावनी दी है कि जैसे-जैसे एआई वित्त, स्वास्थ्य सेवा और राजनीति जैसे क्षेत्रों में तेजी से अंतर्निहित होता जा रहा है, उनकी सत्यता में छोटे बदलाव भी वास्तविक दुनिया के परिणाम दे सकते हैं।

FOLLOW US

0FansLike
0FollowersFollow
0SubscribersSubscribe
spot_img

Related Stories

आपका शहर
Youtube
Home
News Reel
App