पिछले साल नवंबर में मुरलीकृष्णन चिन्नादुरै ब्रिटेन में तमिल भाषा के एक कार्यक्रम का यू-ट्यूब पर लाइव प्रसारण देख रहे थे. मुरलीकृष्णन को लग रहा था कि इस लाइवस्ट्रीम में कुछ तो गड़बड़ी है.
उस कार्यक्रम में दुवारका नाम की एक महिला भाषण दे रही थी, जिसे तमिल उग्रवादी संगठन लिट्टे के प्रमुख वेलुपिल्लै प्रभाकरण की बेटी बताया गया था.
दिक़्क़त ये थी कि दुवारका की मौत एक दशक पहले ही हो चुकी थी. 2009 में श्रीलंका में चल रहे गृह युद्ध के दौरान दुवारका एक हवाई हमले में मारी गई थी.
हालांकि, उसके बाद से 23 बरस की दुवारका का शव कभी बरामद नहीं हुआ. और अब, यहां ब्रिटेन में वो मध्यम उम्र की एक महिला के तौर पर पूरी दुनिया के तमिलों से अपील कर रही थी कि वो अपनी सियासी लड़ाई को आगे बढ़ाएं.
मुरलीकृष्णन चिन्नादुरै, दक्षिण भारत के तमिलनाडु राज्य में रहने वाले एक फैक्ट चेकर हैं. उन्होंने वो वीडियो बड़ी बारीक़ी से देखा. उस वीडियो के अटक अटककर चलने से उन्होंने तुरंत भांप लिया कि दुवारका की जिस तस्वीर को असली बताया जा रहा था, वो असल में आर्टिफ़िशियल इंटेलिजेंस (एआई) की मदद से तैयार की गई है.
इस वीडियो के ज़रिए जो गड़बड़ी पैदा करने की कोशिश की जा रही थी, वो मुरलीकृष्णन को तुरंत समझ में आ गई हैं. उन्होंने बताया कि, “तमिलनाडु के लोग इस मसले को लेकर बेहद जज़्बाती हैं. और, चुनावों के बीच ये ग़लत जानकारी बड़ी तेज़ी से फैल सकती है.”
आज जब भारत में चुनाव हो रहे हैं, तो आर्टिफ़िशियल इंटेलिजेंस की मदद से तैयार कंटेंट की भरमार की अनदेखी नहीं की जा सकती है. प्रचार के वीडियो, तमाम भारतीय भाषाओं में लोगों के लिए निजी ऑडियो संदेश और यहां तक कि उम्मीदवार की आवाज़ में मतदाताओं को की जाने वाली स्वचालित फोन काल तक इसमें शामिल हैं.
शाहिद शेख़ जैसे कंटेंट तैयार करने वालों के लिए एआई की मदद से ऐसी सामग्री तैयार करना मज़ेदार रहा, जिसमें वो राजनेताओं को ऐसे अवतार में दिखा रहे थे, जो इससे पहले कभी नहीं देखे गए: मसलन वर्ज़िश के कपड़े पहने हुए, संगीत सुनते हुए और नाचते गाते हुए.
लेकिन, जैसे जैसे आर्टिफ़िशियल इंटेलिजेंस के टूल और उन्नत होते जा रहे हैं, वैसे वैसे इन्हें लेकर जानकारों की चिंता बढ़ती जा रही है. ख़ास तौर से फ़ेक न्यूज़ को असली बताकर पेश करने के मामले में.
भारत के पूर्व मुख्य चुनाव आयुक्त, एस वाई क़ुरैशी कहते हैं कि, “अफ़वाहें तो हमेशा से चुनावी प्रक्रिया का हिस्सा रही हैं. लेकिन, सोशल मीडिया के इस दौर में अफ़वाहें जंगल की आग की तरह फैल सकती हैं.”
वो कहते हैं कि, “सच तो ये है कि इनसे पूरे देश में आग भड़क उठने का डर है.”
तकनीक से शब्दों और संदेशों की हेरा-फेरी
हाल में हुई तकनीकी तरक़्क़ी का फ़ायदा उठाने के मामले में भारत के सियासी दल कोई पहले नहीं हैं. सीमा के उस पार पाकिस्तान में इसी तकनीक ने जेल में बंद इमरान ख़ान को एक रैली संबोधित करने का मौक़ा दिया था.
और ख़ुद भारत में भी प्रधानमंत्री नरेंद्र मोदी, उभरती हुई तकनीकों का इस्तेमाल असरदार चुनाव अभियान चलाने के लिए पहले से करते आए हैं. वो लोगों को हिंदी मे संबोधित करते हैं, और इसके साथ साथ उनके भाषण को सरकार द्वारा निर्मित एआई के टूल भाषिणी की मदद से तमिल भाषा में अनुवाद करके सुनाया जा रहा होता है.
लेकिन, इन तकनीकों का इस्तेमाल शब्दों और संदेशों की हेरा-फेरी के लिए भी किया जा सकता है.
अभी पिछले महीने वायरल हुए दो वीडियो में बॉलीवुड के सितारों रणवीर सिंह और आमिर ख़ान को विपक्षी दल कांग्रेस का प्रचार करते हुए दिखाया गया था.
दोनों ही अभिनेताओं ने इन वीडियो को डीपफेक बताते हुए पुलिस में शिकायत दर्ज कराई कि इन्हें उनकी इजाज़त के बग़ैर बनाया गया है.
इसके बाद 29 अप्रैल को ख़ुद प्रधानमंत्री मोदी ने एआई की मदद से उनके अपने और बीजेपी के दूसरे नेताओं के भाषणों को तोड़-मरोड़कर पेश करने को लेकर चिंता जताई थी.
अगले ही दिन पुलिस ने दो लोगों को गिरफ़्तार किया था.
इनमें से एक कांग्रेस पार्टी का तो दूसरा आम आदमी पार्टी का कार्यकर्ता था. इन दोनों को गृह मंत्री अमित शाह के वीडियो को काट-छांटकर पेश करने के आरोप में गिरफ़्तार किया गया था.
विपक्षी दल, नरेंद्र मोदी की भारतीय जनता पार्टी पर भी इसी तरह के इल्ज़ाम लगाते आए हैं.