AI DeepFake Porn Video | सावधान! महिलांची चिंता वाढणार, AI तंत्रज्ञानामुळे महिलांचे डीपफेक पॉर्न व्हिडिओ बनवणं सहज शक्य होणार

AI DeepFake Porn Video | सध्या जगभरात ‘आर्टिफिशियल इंटेलिजन्स’ची चर्चा सुरू आहे. या तंत्रज्ञानाच्या मदतीने अशा अनेक गोष्टी शक्य होत आहेत, ज्याचा लोकांनी कधी विचारही केला नसेल. प्रत्येक नाण्याच्या दोन बाजू असतात. कारण आर्टिफिशिअल इंटेलिजन्सने आधीच भीषण टेन्शन देण्यास सुरुवात केली आहे. त्याचा गैरवापर होता कामा नये जेणेकरून लोकांचे वैयक्तिक जीवन समस्यांनी वेढले जाईल. पोर्नोग्राफीमध्ये या तंत्राचा गैरवापर होण्याची शक्यताही वाढली आहे, अशी परिस्थिती आहे. त्याचा सर्वाधिक त्रास आणि मानसिक यातना स्त्रियांना होतील आणि त्यामुळे काहीही संबंध नसताना कोणत्याही महिलेचा पॉर्न व्हिडिओ बनवला जाऊ शकतो अशी चिंता तज्ज्ञांनी व्यक्त केली आहे.
डीपफेक व्हिडिओ म्हणजे काय?
डीपफेक व्हिडिओ हे डिजिटल पद्धतीने तयार केलेले व्हिडिओ असतात. आर्टिफिशियल इंटेलिजन्सच्या मदतीने यात काहीही बदल केले जाऊ शकतात. अनेक वर्षांपासून असे व्हिडिओ बनवले जात आहेत जे इंटरनेटवर मोठ्या प्रमाणात प्रसारित केले जातात. काही वर्षांपूर्वी एका रेडिट युजरने अशी क्लिप शेअर केली होती, ज्यात एका सेलिब्रिटीचा चेहरा खांद्यापासून लावण्यात आला होता. किंबहुना पोर्टअॅक्टरच्या खांद्यावरील चेहरा आर्टिफिशियल इंटेलिजन्सच्या मदतीने बदलला जातो. विशेष म्हणजे ते अगदी हुबेहूब खरे देखील वाटतात. अशा प्रकारचे तंत्रज्ञान प्रत्येकासाठी आणि विशेषत: महिलांसाठी एक मोठी समस्या बनू शकते.
आता डीपफेक क्रिएटर्सही लोकांना टार्गेट करण्यासाठी आणि इंटरनेट युजर्सना आकर्षित करण्यासाठी असे व्हिडिओ बनवतात. यात पत्रकार, राजकारणी, अभिनेते यांचे चेहरेही वापरले जातात. इंटरनेटवर असे हजारो व्हिडिओ आहेत. असे काही व्हिडिओ देखील आहेत जे युजर्सला स्वतःचा किंवा इतर कोणाचाही चेहरा ठेवण्याचा पर्याय देतात. आपल्या प्रेयसीला किंवा एकतर्फी प्रेम असलेल्या महिलेला किंवा समाज माध्यमांवर उपलब्ध असलेल्या माहितीवरून कोणत्याही महिलेला त्रास देण्यासाठी आणि तिची प्रतिमा मलीन करण्यासाठीही या तंत्राचा वापर केला जाऊ शकतो असं तंत्रज्ञान तज्ज्ञांनी म्हटले आहे.
तज्ज्ञांचे म्हणणे आहे की, आजकाल डीपफेक पॉर्न व्हिडिओ बनवणे खूप सोपे झाले आहे. योग्य गोष्ट म्हणजे तंत्रज्ञान सतत पुढे जाईल आणि त्याबरोबर अशा गोष्टीही पुढे जातील. ऑनलाइन लैंगिक हिंसाचार, डीपफेक, डीपफेक इमेजच्या माध्यमातूनही लोकांना त्रास दिला जाऊ शकतो.
ऑस्ट्रेलियन तज्ज्ञ नोएला मार्टिन म्हणतात की, जेव्हा एका 28 वर्षीय महिलेने गुगलवर तिचा फोटो सर्च करण्याचा प्रयत्न केला तेव्हा तिला डीपफेक सापडला. हा व्हिडिओ कोणी बनवला हे ही आपल्याला माहित नसल्याचे मार्टिन यांनी सांगितले. यानंतर त्याने अनेक संकेतस्थळांशी संपर्क साधून व्हिडिओ काढण्याचा प्रयत्न केला. अनेक ठिकाणी संपर्क होऊ शकला नाही. ती व्हिडिओ डिलीट व्हायचा आणि काही दिवसांनी तो पुन्हा दिसू लागला. यानंतर मुलीने न्यायालयात धाव घेतली.
महत्वाचं : तुम्हाला हा लेख/बातमी आवडली असेल तर नक्की शेअर करा आणि महाराष्ट्रनामाला फॉलो करा. तसेच शेअर बाजारातील गुंतवणुकीसंदर्भात तज्ज्ञांनी दिलेल्या सल्ल्याशी आमचा काहीही संबंध नाही. शेअर मार्केटमध्ये गुंतवणूक करण्यापूर्वी तुमच्या आर्थिक सल्लागाराचा सल्ला नक्की घ्या. शेअर खरेदी/विक्री हा बाजार तज्ज्ञांचा सल्ला आहे. म्युच्युअल फंड आणि शेअर बाजारातील गुंतवणूक ही जोखमींवर आधारित असते. त्यामुळे कोणत्याही आर्थिक नुकसानीस महाराष्ट्रनामा डॉट कॉम जबाबदार राहणार नाही.
News Title: AI Deep Fake Porn Video effect in future check details on 18 April 2023.
Disclaimer: म्युच्युअल फंड आणि शेअर बाजारातील गुंतवणूक ही जोखमींवर आधारित असते. शेअर मार्केटमध्ये गुंतवणूक करण्यापूर्वी तुमच्या आर्थिक सल्लागाराचा सल्ला नक्की घ्या. कोणत्याही आर्थिक नुकसानीस महाराष्ट्रनामा डॉट कॉम जबाबदार राहणार नाही.
संबंधित बातम्या
व्हिडिओ
-
VIDEO | सोमैयांच्या भंपक आरोपांचा इतिहास | ५'वी दिवाळी आली तरी अजित पवार-तटकरे बाहेरच
-
VIDEO | अमेरिकेत बायडन तर महाराष्ट्रात पवार यांची पावसातील सभा | पहा..
-
VIDEO | जलयुक्त शिवार योजना | फडणवीसांची फिरवाफिरवी | राज ठाकरेंकडून वास्तव
-
पेट्रोल डिझेलचे भाव गगनाला भिडले तरी मोदी गप्प?
-
कोरोना रुग्णांच्या आरोग्य सेवांवरून राज्य सरकार गोधळलंय
-
महाराष्ट्रनामा कोरोना डॅशबोर्ड
-
महाराष्ट्र...कोरोना रुग्ण...बेड्स...राज्य सरकारचं वास्तव उघड
-
सोनू सूद लॉकडाउन दरम्यानचा खरंच देव आहे? जाणून घ्या सत्य
-
सरकारने पोलिसांवरील उपचारासाठी मरोळ PTS ताब्यात घ्यावं