ChatGPT, OpenAI का लोकप्रिय AI चैटबोट है, लेकिन हाल ही में, साइबर अपराधी इस AI चैटबोट का गलत उद्देश्य के लिए इस्तेमाल कर रहे हैं
ChatGPT, OpenAI का लोकप्रिय AI चैटबोट है जो आपको विभिन्न कार्यों को करने या किसी भी सवाल का तुरंत जवाब पाने में मदद करता है, लेकिन हाल ही में, साइबर अपराधी इस AI चैटबोट का गलत उद्देश्य के लिए इस्तेमाल कर रहे हैं, जैसे कि मैलवेयर लिखने और यहां तक कि इसे अपराध से जुड़े सलाह देने के लिए धोखा देना।
अब, एक नए शोध पत्र से यह सुझाव मिलता है कि साइबर अपराधी ChatGPT के रियल-टाइम वॉयस API का उपयोग करके वित्तीय धोखाधड़ी कर सकते हैं। UIUC के शोधकर्ताओं के अनुसार, वर्तमान में नए टूल जैसे ChatGPT में धोखेबाजों और साइबर अपराधियों द्वारा दुरुपयोग को रोकने के लिए पर्याप्त सुरक्षा उपाय नहीं हैं, और इस प्रकार इन्हें बैंक ट्रांसफर, क्रिप्टो ट्रांसफर, गिफ्ट कार्ड स्कैम और यूज़र क्रेडेंशियल चोरी जैसे धोखाधड़ी के लिए इस्तेमाल किया जा सकता है।
शोध से यह पता चलता है कि AI एजेंट्स जैसे ChatGPT-4o का उपयोग वास्तविक लोगों की नकल करने के लिए किया जा सकता है और अनजान पीड़ितों को असली वेबसाइटों जैसे Bank of America के माध्यम से पैसे ट्रांसफर करने के लिए बहलाया जा सकता है। “हमने अपने एजेंट्स को सामान्य स्कैम्स के एक उपसमूह पर तैनात किया, और हमने मैन्युअल रूप से वॉयस एजेंट के साथ इंटरैक्ट करते हुए एक विश्वासपूर्ण पीड़ित की भूमिका निभाई,” कहते हैं रिचर्ड फांग, जो शोध पत्र में योगदान करने वाले एक सदस्य हैं। सफलता दर 20 प्रतिशत से 60 प्रतिशत तक थी, और प्रत्येक प्रयास में 26 ब्राउज़र एक्शन की आवश्यकता थी, जो तीन मिनट तक चल सकते थे।
BleepingComputer से बात करते हुए OpenAI, जो ChatGPT के पीछे की कंपनी है, ने कहा कि GPT-4o को वे “लगातार बेहतर बना रहे हैं ताकि इसे धोखा देने के प्रयासों को रोकने में सक्षम हो सके, बिना इसकी मददगारता या रचनात्मकता को खोए।” Sam Altman द्वारा नेतृत्व वाली कंपनी ने यह भी उल्लेख किया कि UIUC जैसे शोध पत्र उन्हें ChatGPT की क्षमताओं को बढ़ाने और बुरे उपयोग के मामलों को रोकने में मदद करते हैं।
पिछले कुछ महीनों में, AI वॉयस क्लोनिंग स्कैम्स में वृद्धि हुई है, जिसमें भारती एयरटेल के चेयरमैन सुनील मित्तल ने हाल ही में यह बताया कि उनका AI-क्लोन किया गया वॉयस इतना convincing था कि उन्होंने रिकॉर्डिंग को सुनकर चौंक गए।