मुंबई, 10 अक्टूबर, (न्यूज़ हेल्पलाइन) हाल के वर्षों में, कृत्रिम बुद्धिमत्ता के उदय ने न केवल प्रौद्योगिकी में क्रांति ला दी है, बल्कि साइबर सुरक्षा और चुनाव अखंडता में नई चुनौतियाँ भी खड़ी की हैं। OpenAI ने हाल ही में ऐसे खतरनाक उदाहरणों को उजागर किया है जहाँ साइबर अपराधियों ने अमेरिकी चुनावों को प्रभावित करने के लिए AI टूल, विशेष रूप से ChatGPT का शोषण किया है। यह विकास गलत सूचना, हेरफेर और लोकतांत्रिक प्रक्रियाओं के समग्र स्वास्थ्य के बारे में महत्वपूर्ण चिंताएँ पैदा करता है।
साइबर अपराधियों ने पाया है कि ChatGPT जैसे AI मॉडल अभूतपूर्व पैमाने पर सुसंगत, प्रेरक पाठ उत्पन्न कर सकते हैं। इस तकनीक का लाभ उठाकर, दुर्भावनापूर्ण अभिनेता फर्जी समाचार लेख, सोशल मीडिया पोस्ट और यहाँ तक कि मतदाताओं को गुमराह करने के लिए डिज़ाइन की गई धोखाधड़ी वाली अभियान सामग्री भी बना सकते हैं। बुधवार को सामने आई रिपोर्ट में, कंपनी ने पाया कि उसके AI मॉडल का इस्तेमाल फर्जी सामग्री बनाने के लिए किया गया है, जिसमें चुनावों को प्रभावित करने के उद्देश्य से लंबे-फॉर्म लेख और सोशल मीडिया टिप्पणियाँ शामिल हैं। ये AI-जनरेटेड संदेश वैध समाचार आउटलेट की शैली की नकल कर सकते हैं, जिससे आम नागरिक के लिए सच और झूठ में अंतर करना मुश्किल हो जाता है।
इस प्रवृत्ति के सबसे चिंताजनक पहलुओं में से एक साइबर अपराधियों की अपने संदेशों को विशिष्ट जनसांख्यिकी के अनुरूप ढालने की क्षमता है। डेटा माइनिंग तकनीकों का उपयोग करके, वे मतदाता व्यवहार और वरीयताओं का विश्लेषण कर सकते हैं, ऐसे संदेश तैयार कर सकते हैं जो लक्षित दर्शकों के साथ प्रतिध्वनित हों। वैयक्तिकरण का यह स्तर गलत सूचना अभियानों की प्रभावशीलता को बढ़ाता है, जिससे बुरे अभिनेता मौजूदा राजनीतिक विभाजन का फायदा उठा सकते हैं और सामाजिक कलह को बढ़ा सकते हैं।
OpenAI ने इस वर्ष प्रभाव संचालन के लिए ChatGPT का दुरुपयोग करने के 20 से अधिक प्रयासों को विफल कर दिया है। अगस्त में, कंपनी ने चुनाव-संबंधी लेख बनाने वाले खातों को ब्लॉक कर दिया। इसके अतिरिक्त, जुलाई में, रवांडा के खातों को उस देश के चुनावों को प्रभावित करने के उद्देश्य से सोशल मीडिया टिप्पणियाँ बनाने के लिए प्रतिबंधित कर दिया गया था।
इसके अलावा, जिस गति से AI सामग्री उत्पन्न कर सकता है, उसका मतलब है कि गलत सूचना तेजी से फैल सकती है। पारंपरिक तथ्य-जांच और प्रतिक्रिया तंत्र झूठी सूचनाओं की बाढ़ के साथ तालमेल बिठाने के लिए संघर्ष करते हैं। यह गतिशीलता एक ऐसा वातावरण बनाती है जहाँ मतदाताओं पर परस्पर विरोधी आख्यानों की बौछार होती है, जिससे उनकी निर्णय लेने की प्रक्रिया और जटिल हो जाती है।
OpenAI के निष्कर्ष स्वचालित सोशल मीडिया अभियानों में ChatGPT के उपयोग की क्षमता को भी रेखांकित करते हैं। यह हेरफेर जनता की धारणा को प्रभावित कर सकता है, जिससे वास्तविक समय में मतदाता की भावना प्रभावित हो सकती है, खासकर चुनावों से पहले के महत्वपूर्ण क्षणों में। हालाँकि, OpenAI के अनुसार, ChatGPT द्वारा जनित सामग्री के माध्यम से वैश्विक चुनावों को प्रभावित करने के प्रयास अब तक महत्वपूर्ण गति प्राप्त करने में विफल रहे हैं, जिनमें से कोई भी वायरल प्रसार या बड़े दर्शकों को बनाए रखने में सफल नहीं हुआ है। लेकिन यह सभी के लिए एक बड़ा खतरा है।
यूएस डिपार्टमेंट ऑफ होमलैंड सिक्योरिटी ने भी रूस, ईरान और चीन द्वारा आर्टिफिशियल इंटेलिजेंस से संचालित गलत सूचना रणनीति के माध्यम से आगामी नवंबर के चुनावों को प्रभावित करने के प्रयास के बारे में चिंता जताई है। कथित तौर पर ये देश नकली या विभाजनकारी जानकारी फैलाने के लिए AI का उपयोग कर रहे हैं, जो चुनाव की अखंडता के लिए एक बड़ा खतरा है।