जिन लड़कियों के साथ हम रहते हैं, देखना चाहते थे कि बिना कपड़ों के वो कैसी दिखेंगी। यही कारण था कि AI की मदद से उनके न्यूड वीडियो-फोटो बना लिए। सोशल मीडिया पर भी अपलोड कर दिया। यह चौंकाने वाला कबूलनामा, उन 15-16 साल के लड़कों का है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले। दोनों पुलिस गिरफ्त में हैं। हैरानी की बात यह है कि यह सब उन लोगों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृत इसका कारण बनी। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस को भी स्तब्ध कर दिया। टेक्नोलॉजी का गलत इस्तेमाल… जानकारी लगते ही दैनिक भास्कर की टीम ने पुलिस, पीड़ित के साथ ही आरोपियों के बारे में पड़ताल की, पढ़िए रिपोर्ट… AI से एडिट कर अश्लील फोटो-वीडियो अपलोड किए
24 जनवरी को छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं। उन्होंने बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें जानकारी मिली है। मामला गंभीर होने से तुरंत साइबर टीम की मदद से जांच शुरू की। मोबाइल से मिले साक्ष्यों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान हुई। दोनों आरोपी नाबालिग निकले। पीड़ित बोलीं- आरोपियों के मोबाइल पर मिले न्यूड फोटो-वीडियो
पीड़ित लड़की ने पुलिस को बताया कि मैंने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने मुझे बुलाया और अपने मोबाइल में टेलीग्राम एप पर मेरी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए। फोटो देखते ही मैंने उसे डांटा। पूछा- तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? हमें बदनाम क्यों रहे हो? मैंने उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे। मैंने सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद थाने पहुंची। आरोपी बोले – टेलीग्राम पर न्यूड कंटेंट सर्च किया
पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी। शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया। उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है। पुलिस के लिए बड़ा चैलेंज यह था कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है। पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए। हम ये वीडियो सिर्फ अपनी लस्ट (हवस) के लिए बनाते थे। देखना चाहते थे कि जिन लड़कियों के साथ हम हर समय रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी। जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे। कुछ समय पहले ग्रुप में पॉड के माध्यम से वीडियो बनाने का ऑप्शन मैसेज आया। इस लिंक पर क्लिक करने पर 549 रुपए की डिमांड आई। यह भी मैसेज आया कि लिंक से कोई भी फोटो देकर न्यूड फोटो और उसके वीडियो मिल जाएंगे। इंस्टाग्राम पर हमारे साथ जुड़ी लड़कियों के फोटो स्क्रीनशॉट लेकर उसमें डाले तो उन्हीं की जैसी लड़कियों के शरीर पर चेहरा लगकर वीडियो बनाकर हमारे पास आ गया। यह वीडियो सिर्फ हम अपने लिए बनाते थे, इसे देखकर हमें लस्ट (हवस) होता था। हम इसके माध्यम से किसी के भी फोटो बना लिया करते थे। पूछताछ में लड़कों ने बताया कि 8 से 9 लड़कियों के फोटो के माध्यम से वीडियो बनाए। हालांकि, मोबाइल से तीन लड़कियों के अब तक फोटो-वीडियो मिले हैं। आरोपियों ने अकाउंट डिलीट कर दिया, इसलिए डेटा रिकवर करने में साइबर सेल जुटी है। कैसे बनाते थे फर्जी न्यूड फोटो और वीडियो
आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था। तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था। उन्होंने बताया कि 549 रुपए देने पर 30 दिन तक आप लॉग-इन कर सकते हैं। आरोपियों के मुताबिक, वे 2024 से इस तरह की हरकतें कर रहे थे। हाल में दो लड़कों के बीच गर्लफ्रेंड को लेकर हुए विवाद ने इस राज से पर्दा उठा दिया। झगड़े के दौरान यह बात सामने आई कि कुछ आपत्तिजनक फोटो-वीडियो इनके नाबालिग दोस्तों के मोबाइल में हैं। अपना बचाव करने एक आरोपी खुद पीड़ित के पास पहुंचा। दूसरे का नाम लेते हुए यह बात बताई। उसे लगा कि अपनी ऐसी तस्वीर देखकर लड़की डर जाएगी और मामला दब जाएगा, लेकिन हुआ इसका उलटा। वीडियो देखकर पीड़ित ने हिम्मत दिखाई। उसने आरोपी के मोबाइल में मौजूद अन्य लड़कियों की तस्वीरें और वीडियो देखे, संबंधितों से संपर्क किया। इसके बाद तीनों पीड़ितों ने एक साथ कोतवाली थाने पहुंचकर शिकायत दर्ज कराई। डिजिटल दुनिया में सतर्कता विकल्प नहीं, अब जरूरत
टीआई आशीष कुमार का कहना है कि पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है। पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है। असली और नकली में फर्क करते आना जरूरी
सायबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है। AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बाॅडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं। AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता। वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है। जानें क्या है डीपफेक
डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।
₹549 में बनाए 9 लड़कियों के न्यूड AI वीडियो-फोटो:आरोपी बोले- देखना चाहते थे कि जिनके साथ रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी
