Technology, OpenAI का दावा: अमेरिकी चुनाव को प्रभावित करने के लिए हो रहा ChatGPT का इस्तेमाल — INA

हाल के वर्षों में आर्टिफिशियल इंटेलिजेंस (AI) का विकास न केवल प्रौद्योगिकी में क्रांति लाया है, बल्कि साइबर सुरक्षा और चुनावी में ईमानदारी को लेकर भी नई चुनौतियां पैदा की हैं। OpenAI ने हाल ही में एक बड़ा दावा किया है जो कि चिंताजनक है।ओपनएआई ने कहा है कि साइबर अपराधियों ने AI टूल्स, विशेष रूप से ChatGPT का इस्तेमाल करके अमेरिकी चुनावों को प्रभावित करने की कोशिश की। ओपनएआई के इस दावे ने एआई के गलत इस्तेमाल को लेकर एक बड़ा और गंभीर मुद्दा पैदा कर दिया है।


रिपोर्ट के मुताबिक ChatGPT का इस्तेमाल साइबर अपराधी गलत और भ्रामक कंटेंट को तैयार करने में कर रहे हैं। इसकी मदद से फेक न्यूज, फर्जी सोशल मीडिया पोस्ट और यहां तक कि गलत चुनाव प्रचार कंटेंट भी बना रहे हैं। इन सबके जरिए मतदाताओं को भ्रमित किया जा रहा है।

एआई से तैयार किए जा रहे सोशल मीडिया पोस्ट


बुधवार को जारी एक रिपोर्ट में कंपनी ने पाया कि उसके AI मॉडल का इस्तेमाल फर्जी सामग्री, जैसे कि लंबे लेख और सोशल मीडिया कॉमेंट बनाने के लिए किया गया था, जिनका उद्देश्य चुनावों को प्रभावित करना था। ये AI जेनरेटेड मैसेज वास्तविक समाचार स्रोतों की शैली की नकल कर सकते हैं, जिससे आम नागरिकों के लिए सत्य और झूठ के बीच अंतर करना कठिन हो जाता है।

कई अकाउंट किए गए ब्लॉक


सबसे चिंताजनक पहलू यह है कि साइबर अपराधी डेटा माइनिंग तकनीकों का इस्तेमाल करके मतदाताओं के व्यवहार और प्राथमिकताओं का विश्लेषण कर सकते हैं और ऐसे मैसेज तैयार कर सकते हैं जो उन्हें आकर्षित करे। OpenAI ने इस वर्ष ChatGPT के दुरुपयोग के 20 से अधिक प्रयासों को विफल किया है। अगस्त में कंपनी ने चुनाव से संबंधित लेखों को बनाने वाले खातों को ब्लॉक किया। इसके अलावा जुलाई में रवांडा के कुछ अकाउंट को उस देश के चुनावों को प्रभावित करने वाले सोशल मीडिया कॉमेंट को बनाने के लिए प्रतिबंधित किया गया था।


अमेरिकी गृह सुरक्षा विभाग (DHS) ने भी इस बात पर चिंता जताई है कि रूस, ईरान, और चीन एआई द्वारा किए गए कंटेंच और गलत सूचना के माध्यम से आगामी नवंबर चुनावों को प्रभावित करने की कोशिश कर रहे हैं। इन देशों पर AI का इस्तेमाल करके फर्जी या विभाजनकारी जानकारी फैलाने का आरोप है, जिससे चुनावी के लिए गंभीर खतरा पैदा होता है।

Source link

Back to top button