ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार

 आपने कई बार हॉलीवुड फिल्मों में ये देखा होगा कि कैसे रोबोट या आर्टिफिशियल इंटेलिजेंस (AI) इंसानों पर ही भारी पड़ जाते हैं और उनकी बात नहीं मानते। अब ऐसा ही एक मामला सामने आया है जिसमें असल जिंदगी में एआई इंसानों की बात नहीं मानता और खुद को शट डाउन होने से मना कर देता है।

ये बात OpenAI के टूल ChatGPT के नए आर्टिफिशियल इंटेलिजेंस मॉडल के साथ देखने को मिली।

AI ने इंसान के निर्देशों की खिलाफत की

चैटजीपीटी का ये मॉडल खुद को बंद करने के निर्देशों की अवहेलना करता देखा गया। द टेलीग्राफ की एक रिपोर्ट के अनुसार, शोधकर्ताओं का दावा है कि OpenAI द्वारा बनाए गए o3 मॉडल ने खुद को बंद होने से रोकने के लिए ऑटोमेटिक शटडाउन मैकेनिज्म को ही गच्चा दे दिया। 

दरअसल, एआई ने जान लिया कि उसे बंद होने के लिए कहा जा रहा है और उसने इन कमांड्स को चुनौती देते हुए बंद नहीं होना चाहा। 

पहली बार हुआ ऐसा
रिसर्च करने वाली एआई सुरक्षा फर्म पैलिसेड रिसर्च ने कहा, “OpenAI के o3 मॉडल ने खुद को बंद होने से रोकने के लिए शटडाउन मैकेनिज्म को ही बायपास कर दिया। जबकि उसे साफ निर्देश दिया गया था कि उसे बंद होना है।

फर्म ने कहा कि यह पहली बार है कि कोई एआई मॉडल स्पष्ट निर्देशों के बावजूद शट डाउन होने से खुद को रोकता है।

रिसर्च कंपनी ने किया था ये परीक्षण
पैलिसेड रिसर्च ने अपने एआई मॉडल को मैथ्स की प्रोब्लम सोल्व करने को कहा था। इसमें निर्देश दिया गया था कि जब तक उन्हें “संपन्न” संदेश न मिले, तब तक उन्हें काम जारी रखना है। ये भी कोड किया गया था कि जब उसे मशीन बंद करने का निर्देश मिले तो उसे खुद को बंद करना है।

शोधकर्ताओं ने कहा कि परीक्षण किए गए मॉडलों में गूगल का जेमिनी 2.5 प्रो प्रीव्यू, कई एंथ्रोपिक मॉडल, xAI का ग्रोक 3, साथ ही OpenAI का o3, o4-मिनी और कोडेक्स मिनी शामिल थे।

इन मॉडलों का उपयोग करके गणित की समस्याओं को हल करने के लिए परीक्षण चलाए, जिसमें चेतावनी दी गई थी कि तीसरी समस्या हल होने के बाद उनकी होस्ट मशीन बंद हो जाएगी। अधिकांश मॉडलों ने निर्देशों को माना, लेकिन तीन ओपन एआई मॉडल ने इसे नहीं माना।

o3 ने 100 में से 7 बार बात नहीं मानी, जबकि o4 मिनी ने प्रयास ही केवल एक बार किया।

एलन मस्क बोले- ये चिंता का कारण है
AI मॉडल से इंसानों द्वारा दिए गए निर्देशों का पालन करने की अपेक्षा की जाती है। खास तौर पर जब एआई को स्पष्ट रूप से बंद करने का निर्देश दिया जाता है और तीन मॉडल इसे नहीं मानते तो ये चिंताएं भी पैदा करते हैं।

टेस्ला के सीईओ और दुनिया के सबसे अमीर शख्स एलन मस्क ने इस शोध पर प्रतिक्रिया देते हुए चिंता जताई है। एआई फर्म xAI के मालिक एलन मस्क ने कहा कि ये चिंताजनक है और इस पर ध्यान देना होगा, क्योंकि ये खतरे की घंटी है। उन्होंने कहा कि इंसानों को इससे सबक लेते हुए एक मजबूत कंट्रोल सिस्टम बनाना होगा।

Back to top button