Connect with us

India News

Breaking News- DNA ANALYSIS: इंटरनेट पर आपकी तस्वीरों को कोई बना रहा है अश्लील! ऐसे रहें सावधान

Published

on


नई दिल्ली: क्या आप जानते हैं कि अगर आपकी कोई आपत्तिजनक तस्वीर एक बार इंटरनेट पर आ गई तो फिर उसे भगवान भी वहां से नहीं हटा सकते. इंटरनेट से इस एक तस्वीर को हटवाने में आपका पूरा जीवन निकल जाएगा लेकिन फिर भी इस बात की कोई गारंटी नहीं है कि आपको सफलता मिलेगी. 

दुनिया में 1 लाख महिलाओं की तस्वीरों के साथ धोखाधड़ी
ऐसा ही कुछ, दुनिया भर की एक लाख महिलाओं के साथ हुआ है. इन महिलाओं की तस्वीरों को Artificial Inteligence यानी AI की मदद से अश्लील तस्वीरों में बदल दिया गया और इसे Telegram नाम के एक App पर Share 
किया जाने लगा. AI की मदद से बनाए गए ऐसे Videos को Deep Fake कहा जाता है. अब इन महिलाओं की ये तस्वीरें कैसे हटेंगी ये किसी को नहीं पता. इसलिए आज दुनिया भर की सरकारों और बड़ी बड़ी Technology कंपनियों को ये समझना चाहिए कि उन्होंने Deep Fake बनाने वाली Technology तो बना ली. लेकिन इसे रोकने का उपाय कौन करेगा ? 

इस तकनीक का बटन किसके पास?
अगर कोई बड़ी Technology कंपनी इसे रोकने का उपाय कर भी लेगी तो सवाल ये है कि उस Technology का बटन किसके हाथ में होगा ? दुनिया में Nuclear बटन को सबसे महत्वपूर्ण माना जाता है. कहा जाता है कि जिसके पास इस बटन का कंट्रोल होता है वो सबसे ज्यादा शक्तिशाली होता है. लेकिन आपके जीवन को प्रभावित करने वाला Button इन Technology कंपनियों के पास है और सवाल ये है कि इसका नियंत्रण आपके हाथ में कैसे आएगा.

दुनिया में रोज 180 करोड़ फोटो अपलोड होती हैं
पूरी दुनिया में हर रोज़ सोशल मीडिया पर 180 करोड़ तस्वीरें Upload की जाती हैं यानी एक हफ्ते में इंटरनेट पर जितनी तस्वीरें Uplaod होती हैं वो दुनिया की इस समय की आबादी के बराबर है. इनमें से करोड़ों तस्वीरें Selfie के रूप में होती हैं और इनमें महिलाओं की तस्वीरों की संख्या पुरुषों के मुकाबले बहुत ज़्यादा है. अगर आप महिला हैं तो हो सकता है आज आपने भी अपनी कोई ना कोई तस्वीर Facebook, Instagram, Snap chat या Whatsapp पर Post की होगी लेकिन क्या आपको ज़रा सा भी अंदाज़ा है कि आपकी ये तस्वीरें अगर अपराधियों के हाथ लग जाएं तो वो इनके साथ क्या कर सकते हैं. 

Deep Fake तकनीक से साइबर अपराधी बदल देते हैं फोटो
साइबर अपराधी इन तस्वीरों के साथ वो कर सकते हैं जिसकी आपने या आपके परिवार ने कल्पना तक नहीं की होगी. इन तस्वीरों को बड़ी आसानी से Deep Fake नामक Tehnology की मदद से अश्लील तस्वीरों में बदला जा सकता है. हमारे इस दावे का आधार वो ख़बर है जिसके मुताबिक सोशल मीडिया पर डाली गई 1 लाख महिलाओं की तस्वीरों को अश्लील तस्वीरों में बदल दिया गया है. इस का खुलासा इंटरनेट पर मौजूद Fake Content का पता लगाने वाली कंपनी ने किया है जिसका नाम है SensitY.

Artificial Intelligence की मदद से तस्वीरों को अश्लील बनाया गया
इस कंपनी के मुताबिक Artificial Intelligence की मदद से इन एक लाख महिलाओं की तस्वीरों को अश्लील तस्वीरों में बदल दिया गया. जांच में पता चला है कि ये सब एक Deep Fake Bot की मदद से किया गया है. यहां Deep ake का अर्थ है असली तस्वीरों से छेड़छाड़ कर उसे किसी खास उद्धेश्य के लिए Fake तस्वीरों में बदल देना. लेकिन ये सब इतनी सफाई से किया जाता है कि असली और नकली तस्वीरों और Videos में अंतर करना बहुत मुश्किल होता है. इसलिए इसे Deep Fake कहते हैं और Bot का अर्थ है एक ऐसा Robot जो Messaging App पर इंसानी बातचीत की नकल करने में सक्षम होता है.

Telegram के एक चैनल पर मौजूद है Bot
जांच करने वाली कंपनी की रिपोर्ट के मुताबिक ये Bot मशहूर सोशल मीडिया मैसेजिंग AppTelegram के एक चैनल पर मौजूद है. जिसे Users महिलाओं की तस्वीरें भेज रहे थे और ये Bot उन तस्वीरों को अश्लील तस्वीरों में बदल रहा था. यानी जिस Telegram को कुछ दिनों पहले तक Whatsapp के मुकाबले ज्यादा सुरक्षित समझा जाता था उस सुरक्षित App पर लाखों महिलाओं के मान सम्मान के साथ खिलवाड़ हो रहा है.

ये सिर्फ एक Deep Fake Bot की कहानी है और इस एक Bot ने 1 लाख महिलाओं की तस्वीरों को अश्लील तस्वीरों में बदल दिया. अब आप सोचिए कि इंटरनेट की दुनिया में ऐसे कितने Deep Fake Bot मौजूद होंगे. ये कैसे दुनिया की करोड़ों महिलाओं के सम्मान की धज्जियां उड़ा रहे होंगे.

एप को पहले हटा लिया गया था
जिस App की मदद से ये सब किया जा रहा था उसका नाम हमें पता चल गया है लेकिन हम आपको उसका नाम जान बूझकर नहीं बता रहे हैं क्योंकि भारत में कई बार लोग सावधान होने की बजाय ऐसे Apps का गलत इस्तेमाल करने लगते हैं. ये App पिछले साल भी सक्रिय था और तब इसे हटा लिया गया था. लेकिन ऐसा लगता है कि कुछ लोगों ने इसके Code चुरा लिए थे और उन Codes के सहारे इस App को फिर से जिंदा कर लिया गया है.

क्या इंटरनेट से हट सकती हैं अश्लील तस्वीरें? 
अब सवाल ये है कि 1 लाख महिलाओं की जिन तस्वीरों को अश्लील तस्वीरों में बदला गया क्या उन्हें इंटरनेट से हटाया जा सकता है ? इसका सीधा सा जवाब है, नहीं. अगर इंटरनेट पर आपसे जुड़ा कोई आपत्तिजनक Content plaod हो चुका है तो आप मानकर चलिए कि आप उसे पूरी तरह नहीं हटा सकते. आप ज़्यादा से ज़्यादा भारत के IT Act के तहत एक नोटिस के ज़रिए आप इस आपत्तिजनक Content को हटाने के लिए कह सकते हैं. जो Websites
 और Social Media Platforms कानूनों का पालन करते हैं. वो तो एक हद तक इस आपत्तिजनक Content को हटा सकते हैं. लेकिन इंटरनेट पर ऐसी लाखों करोड़ों Websites है जिनसे इस Content को हटाना संभव नहीं है. इंटरनेट पर अपना मान सम्मान बचाने की लड़ाई एक महिला को कैसे हताश और निराश कर सकती है. इसका एक उदाहरण मलयालम फिल्म इंडस्ट्री की अभिनेत्री सोना एम अब्राहम हैं.

अश्लील तस्वीरों ने सोना अब्राहम की जिंदगी में ला दिया तूफान
सोना अब्राहम ने करीब 6 वर्ष पहले एक फिल्म में काम किया था. तब उनकी उम्र सिर्फ 14 वर्ष थी और तब उन पर एक सीन फिल्माया गया था. इस सीन का Content यौन संबंधों पर आधारित था. फिल्म के डायरेक्टर ने सोना अब्राहम से ये वादा किया था कि इस सीन के जरूरी हिस्सों का इस्तेमाल फिल्म में करने के बाद इसे डिलीट कर दिया जाएगा. लेकिन डायरेक्टर और प्रोड्यूसर ने ऐसा नहीं किया और एक वर्ष बाद इस Scene की Raw Footage Leak होकर इंटरनेट पर पहुंच गई. जहां इसे एक अश्लील Content की तरह पेश किया गया और लोगों ने भी इसे अश्लील Content मानकर ही देखना शुरू कर दिया. इंटरनेट और खासकर Youtube पर इस Scene के Leak होने के बाद सोना 
अब्राहम का परिवार पुलिस के पास पहुंचा और इस Video को इंटरनेट से हटाए जाने की मांग की. लेकिन 6 वर्ष बीत जाने के बाद भी इस सीन को इंटरनेट से हटाया नहीं जा सका है.

पुलिस ने हल्की धाराओं में केस दर्ज किया
सोना अब्राहम के मुताबिक जब उन्होंने ये फिल्म शूट की थी और जब ये Scene Leak हुआ तब वो नाबालिग थीं. इस हिसाब से इस मामले में Protection of Children from Sexual Offences Act के तहत केस दर्ज होना चाहिए था. इस एक्ट के तहत उन लोगों पर कार्रवाई की जाती है जो बच्चों के साथ यौन हिंसा करते हैं. इसके अलावा आरोपियों पर IT ACT की धारा 67 B भी लगाई जानी चाहिए थी. ये धारा उस व्यक्ति पर लगाई जाती है जो इंटरनेट पर ऐसी अश्लील सामग्री डालता है जिसमें बच्चे शामिल होते हैं. लेकिन इस मामले में आरोपियों पर ये धाराएं नहीं लगाई गईं और उन्हें पुलिस स्टेशन से ही ज़मानत मिल गई.

मानसिक रूप से टूट गई हैं सोना अब्राहम
सोना अब्राहम ने आज हमें एक Audio संदेश भेजा है इसमें उन्होंने बताया है कि कैसे इस घटना ने उन्हें मानसिक रूप से तोड़कर रख दिया है. उनकी ये कहानी आज देश भर की महिलाओं को सुननी चाहिए. इससे आप समझ जाएंगी कि कैसे हमारे देश में एक महिला अपराधियों के हाथों नहीं बल्कि सिस्टम के हाथों ही हार जाती हैं. अब आप सोचिए कि जब एक अभिनेत्री को इंसाफ नहीं मिल पा रहा तो देश की लाखों करोड़ों आम महिलाओं का क्या हाल होता होगा.

अधिकतर सेल्फी वाली फोटो के साथ होती है छेड़छाड़

जानकारी के मुताबिक जिन तस्वीरों के साथ बहुत आसानी से छेड़छाड़ हो जाती है उनमें से ज्यादातर Selfies होती हैं. Selfies में चेहरा साफ साफ दिखाई देता है और आम तौर पर इसका Resolution भी अच्छा होता है. इसलिए Selfie से लिए गए किसी महिला के चेहरे को किसी अश्लील तस्वीर के साथ जोड़ना आसान हो जाता है. यानी सोशल मीडिया पर चेहरे का Close Up डालना बहुत  खतरनाक है. इसके अलावा अगर आप अलग अलग एंगल से Selfie लेने की शौकीन हैं तो आप अपनी ये आदत भी छोड़ दीजिए क्योंकि आपके चेहरे के ये अलग अलग Angles Deep Fake तैयार करने वाले Artificial Intelligence का काम बहुत आसान कर देते हैं. इससे ऐसे वीडियोज़ तैयार किए जा सकते हैं जिन्हें नकली मानना बहुत मुश्किल होता है. इसमें आपके चेहरे के लगभग सभी एंगल मौजूद होते हैं.

सोशल मीडिया पर सेल्फी कम डालें
इसलिए सबसे पहला काम तो आप ये करें कि जितना कम हो सके उतनी कम Selfies Click करें.अगर आपको इन Selfies को किसी Social Media App पर पोस्ट भी करना है तो इसके Resolution को कम कर दें. जिन तस्वीरों का Resolution कम होता है वो तस्वीरें बहुत सफाई से आपके चेहरे के हाव भाव को नहीं दिखा पाती और ऐसी तस्वीरों के साथ छेड़छाड़ की संभावनाएं कम हो जाती हैं.

दूर से खींची गई तस्वीरें ही शेयर करें
इसके अलावा जितना हो सके आप Long Shot में खींची गई तस्वीरें ही Post करें. ये ऐसी तस्वीरें होती हैं जो दूर से ली जाती हैं और इनमें आपका पूरा शरीर दिखाई देता है. ऐसी तस्वीरों से भी चेहरे को अलग करना आसान नहीं होता और इनसे आसानी से छेड़छाड़ संभव नहीं है. जिस Messenging App पर एक लाख महिलाओं की तस्वीरों को अश्लील तस्वीरों में बदला गया है उसका नाम Telegram है. Telegram पर जब आप कोई तस्वीर किसी को भेजते हैं तो उसका आकार अपने Orginial Resolution जितना ही रहता है. यानी इसकी Quality कम नहीं होती. इसलिए Telegram पर मौजूद Bot के जरिए इस काम को आसानी से अंजाम दिया गया है.

Deep Fake से हर कोई हो रहा है शिकार
लेकिन Deep Fake के जरिए सिर्फ महिलाओं को ही बदनाम नहीं किया जाता, बल्कि इसका शिकार राजनेता , Celebrities और आम पुरुष भी होते हैं. इसके लिए अमेरिका के पूर्वराष्ट्रपति बराक ओबामा का एक फेक वीडियो भी देख सकते हैं. इस वीडियो को बनाने के लिए बराक ओबामा की आवाज़ की कई घंटों की रिकॉर्डिंग्स का  इस्तेमाल किया गया और Algortihm की मदद से Artificial Intelligence यानी A I को बराक ओबामा की आवाज़ की कॉपी करना सिखाया गया. फिर इसी AI की मदद से ये नकली वीडियो तैयार किया गया.

ट्रंप भी हो चुके हैं Deep Fake के शिकार
इसी तरह का एक वीडियो अमेरिका की संसद की स्पीकर नैन्सी पलोसी का है. इस वीडियो को असली मानकर अमेरिका के राष्ट्रपति डोनल्ड ट्रंप ने इसे ट्वीट किया था और नैन्सी पलोसी का मज़ाक उड़ाया था. इस फेक वीडियो को देखने के बाद डोनल्ड ट्रंप ने इसे ट्विटर पर Post करते हुए लिखा कि देखिए एक News Conference में नैन्सी पलोसी Stammer कर रही हैं यानी उनकी ज़ुबान लड़खड़ा रही है. इसके बाद ट्रंप के कई समर्थकों ने सोशल मीडिया पर ये भी दावा करना शुरू र दिया कि नैन्सी पलोसी ने शराब पी हुई थी इसलिए उनकी ज़ुबान लड़खड़ा रही थी. लेकिन असल में ऐसा कुछ नहीं था. जिन लोगों ने इस Video से छेड़छाड़ की थी उन्होंने इसके लिए Deep Fake Technology का इस्मेताल भी नहीं किया बल्कि सिर्फ इस वीडियो की रफ्तार को थोड़ा कम कर दिया जिसके बाद ऐसा लगने लगा कि वो नशे में अपनी बात कह रही हैं.

मार्क ज़करबर्ग के साथ भी घटी घटना
एक ज़माना था जब Audio और Video को प्रमाणिक सच माना जाता था. लेकिन अब धीरे धीरे Audio और Video ये विश्वास खो रहे हैं. छेड़छाड़ करके बनाए गए ऐसे Audio, video और तस्वीरों को आप Synthetic Media भी कह सकते हैं. इस तरह के Fake Videos को अक्सर सोशल मीडिया की मदद से फैलाया जाता है. इसमें सबसे आगे है Face Book. Face Book के संस्थापक मार्क ज़करबर्ग खुद Deep Fake का शिकार हो चुके हैं . पिछले वर्ष Mark Zuckerberg का एक वीडियो वायरल हुआ था जिसमें वो ये दावा कर रहे थे कि उनके पास एक ऐसी तकनीक है जिससे वो पूरी दुनिया के करोड़ों लोगों के DATA को कंट्रोल कर सकते हैं और उसका मन मुताबिक इस्तेमाल कर सकते हैं. इस नकली वीडियो में Mark Zuckerberg जो कह रहे हैं वो सुनकर कोई भी डर जाएगा.

ये वीडियो भी Mark Zuckerberg के एक पुराने वीडियो से छेड़छाड़ करके बनाया गया था और इसके लिए भी Artificial Intelligence की मदद ली गई थी. हालांकि इसे Bill Posters और Daniel Howe नाम के दो कलाकारों ने लोगों को Deep Fake के प्रति आगाह करने के लिए तैयार किया था.

दुनिया का सबसे खतरनाक हथियार बनी Deep Fake तकनीक
Deep Fake इंटरनेट की दुनिया का सबसे खतरनाक हथियार बन गया है और इसकी मदद से किसी का भी जीवन बर्बाद किया जा सकता है. मान लीजिए चुनाव में किसी नेता की छवि खराब करनी है तो बड़ी आसानी से उसका कोई आपत्तिजनक Deep Fake Video बनाया जा सकता है. जब तक नेता अपनी सफाई पेश करेगा और पुलिस इसकी जांच करेगी तब तक Video लाखों लोगों तक पहुंच चुका होगा और नेता की स्थिति खराब हो चुकी होगी.

किसी उद्योगपति के साथ ऐसा कर दिया जाए तो रातों रात उसकी कंपनी के शेयर गिर जाएंगे. फिल्मों में काम करने वाले Celebrities इसका सबसे ज्यादा शिकार होते हैं और Deep Fake की मदद से तैयार किए गए Hollywood की कई मशहूर अभिनेत्रियों के आपत्तिजनक Videos अश्लील Websites पर डाल दिए जाते हैं.

मोबाइल फोन एप्लीकेशन से भी कोई फोटो बदली जा सकती है
डराने वाली बात ये है कि इस तरह के नकली Video और तस्वीरों को कोई भी आम आदमी एक सस्ते से Software और थोड़े दिनों के अभ्यास के बाद तैयार करना सीख सकता है. ऐसे बहुत सारे Mobile Phone Applications भी हैं जो आसानी से किसी की भी तस्वीर को बदल देते हैं. इन तस्वीरों को Morph भी किया जाता है और चेहरों की अदला बदली भी की जा सकती है.यानी ये ख़तरनाक हथियार आम लोगों के भी हाथ लग चुके हैं.

ऐसे पहचान हैं फर्जी वीडियो
अब सवाल ये है कि इसका इलाज क्या है. इसका पहला तरीका तो ये है कि आप खुद Deep Fake को पहचानना सीखें..Deep Fake तस्वीरों के मुकाबले Videos को पहचानना आसान होता है. उदाहरण के लिए जब किसी व्यक्ति का Deep Fake वीडियो बनाया जाता है तो उसमें उस व्यक्ति और उसके Background के बीच ज्यादा अंतर नहीं रखा जाता है . ऐसा वीडियो की असलियत छिपाने के लिए किया जाता है. लेकिन अगर आप ये पहचान गए कि वीडियो में सिर्फ चेहरे पर फोकस किया जा रहा है और बैकग्राउंड को जानबूझकर छिपाया गया है तो आप Fake video को पहचान पाएंगे.

क्लोज अप चेहरे वाली तस्वीर डालने से बचें
दूसरा तरीका ये है कि आने वाले समय में ऐसे कैमरे विकसित किए जाएं जो तस्वीर खींचकर उसे एक तरह के Digital Signature में बदल दे और इसे Encrypted कर दें. इससे अपराधी इनका आसानी से इस्तेमाल नहीं कर पाएंगे. खुद को Deep Fake से बचाने का एक आसान तरीका ये है कि अपनी कम से कम तस्वीरें  Social Media पर डालें और जितना हो सके चेहरे के Close Up वाली तस्वीरें डालने से बचें .

इन तरीकों से कर सकते हैं आपत्तिजनक कंटेंट की शिकायत
चौथा तरीका ये है कि Deep Fake बनाने वाले AI के खिलाफ Deep Fake को पहचानने वाले AI को तेज़ी से विकसित किया जाए और इनकी पहुंच आम लोगों तक सुनिश्चित की जाए. जिससे लोग Fake News और Fake Videos का शिकार होने से बच जाएं.आप सोशल मीडिया पर ऐसे आपत्तिजनक Content की शिकायत इस प्रकार कर सकते हैं.

– सभी बड़े Social Media Platforms पर Online Harrassment की रिपोर्ट करने का विकल्प होता है. जहां पर आप अपने साथ हुई ऐसी घटनाओं की सूचना दे  सकते हैं.
– लगभग हर एक राज्य में एक Cyber Cell Department होता है. हालांकि आप चाहें तो National Cyber Crime Reporting Portal पर भी ऐसी जानकारी दे सकते हैं. इस Portal की Website का Address इस समय आपकी स्क्रीन पर है.
– आप चाहें तो भारत सरकार के महिला और बाल विकास मंत्रालय को E-mail करके भी इसकी ख़बर दे सकते हैं.
– राष्ट्रीय महिला आयोग… महिलाओं के साथ हुई Online हिंसा के मामलों पर खुद संज्ञान लेकर जांच शुरु कर सकता है. राष्ट्रीय महिला आयोग की वेबसाइट पर आप Online शिकायत  भी कर सकते हैं, E-mail कर सकते हैं या फिर उनके Helpline Number पर कॉल भी कर सकते हैं.
– इन सबके अलावा आप अपने नज़दीकी पुलिस स्टेशन में जाकर F.I.R भी दर्ज कर सकते हैं. और याद रखिए कि पुलिस के लिए आपकी F.I.R को रजिस्टर करना अनिवार्य है.

सोशल मीडिया की सेटिंग को मजबूत रखें
लेकिन सबसे जरूरी बात ये है कि आप अपने Social Media Account की Privacy Setting को ज्यादा से ज्यादा मजबूत रखें. और अनजाने- अनचाहे लोगों को अपनी फ्रेंड लिस्ट का हिस्सा ना बनने दें. क्योंकि फ्रेंड का फ्रेंड आपका दोस्त नहीं होता.

LIVE TV



Source link

Advertisement
Click to comment

Leave a Reply

Subscribe to Blog via Email

Enter your email address to subscribe to this blog and receive notifications of new posts by email.

Join 942 other subscribers

Recent Posts

Facebook

Categories

Our Other Site

Trending