IoT Worlds
कृत्रिम होशियारीब्लॉग

डीपफेक – आपको क्या जानना चाहिए

डीपफेक एक नई तकनीक है जिसका उपयोग झूठी मीडिया सामग्री बनाने के इरादे से वीडियो और ऑडियो में हेरफेर करने के लिए किया जा सकता है। राजनीतिक उद्देश्यों के लिए इसके उपयोग के मामले में यह हाल ही में बहुत चर्चा में रहा है-लेकिन उद्योग और मनोरंजन दोनों में इसके कई अन्य संभावित उपयोग हैं।

डीपफेक क्या है और यह कैसे काम करता है

एक डीपफेक तब बनाया जाता है जब कोई एआई प्रोग्राम का उपयोग किसी ऐसी चीज की छवि, वीडियो या ऑडियो क्लिप बनाने के लिए करता है जो वास्तव में कभी नहीं हुई थी। ये अक्सर पहचानने में काफी आसान होते हैं क्योंकि नकली सामग्री में आमतौर पर गलतियाँ या विरोधाभास होते हैं जब प्रामाणिक मीडिया के साथ क्रॉस-रेफर किया जाता है

अच्छे के लिए डीपफेक का उपयोग कैसे करें

लोगों ने अब तक इस तकनीक का इस्तेमाल व्यंग्य वीडियो के लिए किया है

दुर्भावनापूर्ण उद्देश्यों के लिए डीपफेक का उपयोग करने के खतरे

इस तकनीक का उपयोग गलत सूचना बनाने के लिए किया जा सकता है कि लोग बिना किसी सवाल के विश्वास करेंगे जिससे भविष्य में विनाशकारी परिणाम हो सकते हैं। उदाहरण के लिए, कल्पना करें कि अगर किसी राष्ट्राध्यक्ष का यह कहते हुए फ़ुटेज जारी किया गया था कि वे परमाणु हमला करना चाहते हैं

राजनीति, पत्रकारिता और समाज पर फेक न्यूज के भविष्य के निहितार्थ

भविष्य में, झूठे मीडिया को उत्पन्न करना पहले से कहीं अधिक आसान होगा कि लोग बिना किसी प्रश्न के विश्वास करेंगे जिसके भविष्य में विनाशकारी परिणाम हो सकते हैं। उदाहरण के लिए, कल्पना करें कि अगर किसी राष्ट्राध्यक्ष का यह कहते हुए फ़ुटेज जारी किया गया था कि वे परमाणु हमला करना चाहते हैं

भविष्य में इन मुद्दों से निपटने के उपाय

पत्रकारों सहित सभी संभावित पृष्ठभूमि के लोगों के लिए यह महत्वपूर्ण होता जा रहा है कि किसी भी चीज़ को सच बताने से पहले या सोशल मीडिया पर कुछ साझा करने से पहले कई स्रोतों के माध्यम से सामग्री को सत्यापित करना। यह YouTube या Facebook जैसी प्रौद्योगिकी कंपनियों के लिए भी फायदेमंद हो सकता है कि वे सामग्री को किसी तरह की समस्या के रूप में फ़्लैग करने वाले उपयोगकर्ताओं पर भरोसा करने के अलावा और भी बहुत कुछ करें

समाज पर इस तकनीक के संभावित प्रभाव के महत्व के बारे में समापन टिप्पणी

भविष्य में, झूठे मीडिया को उत्पन्न करना पहले से कहीं अधिक आसान होगा कि लोग बिना किसी प्रश्न के विश्वास करेंगे जिसके भविष्य में विनाशकारी परिणाम हो सकते हैं। उदाहरण के लिए, कल्पना कीजिए कि अगर किसी राष्ट्राध्यक्ष का यह कहते हुए फ़ुटेज जारी किया गया था कि वे परमाणु हमला करना चाहते हैं।

डीपफेक, ठगे जाने से कैसे बचें?

“डीपफेक” एक ऐसा शब्द है जो उन लोगों के संपादित वीडियो या छवियों को संदर्भित करता है जो ऐसा लगता है कि वे कुछ ऐसा कर रहे हैं जो उन्होंने वास्तव में नहीं किया। ये गहरे नकली वीडियो और चित्र कृत्रिम बुद्धिमत्ता (AI) सॉफ़्टवेयर, जैसे FakeApp का उपयोग करके बनाए जा सकते हैं। डीपफेक वीडियो और इमेज का इस्तेमाल गहरी फर्जी खबरें बनाने के लिए या किसी भी तरह के दुर्भावनापूर्ण उद्देश्यों के लिए किया जा सकता है। अपनी सुरक्षा के लिए, लोगों को यह सुनिश्चित करना चाहिए कि उनके पास अप-टू-डेट सॉफ़्टवेयर है, उनके द्वारा देखी जाने वाली प्रत्येक साइट पर अद्वितीय पासवर्ड का उपयोग करें, कभी भी अपने ब्राउज़र में पासवर्ड संग्रहीत न करें, यदि आवश्यक न हो तो फ़्लैश को अक्षम करें, वेब पर पॉप अप के माध्यम से ऑफ़र किए गए ब्राउज़र एक्सटेंशन इंस्टॉल करने से बचें जिन साइटों पर आप भरोसा नहीं करते हैं, यदि संभव हो तो पायरेटेड सॉफ़्टवेयर डाउनलोड करने से बचें, और नीचे दिए गए डीपफेक वीडियो और छवियों से बचने के लिए हमारे सुझावों की जाँच करें।

कुछ ऐसे कारक हैं जिनकी मदद से आप किसी गहरे नकली वीडियो या छवि द्वारा ठगे जाने से बच सकते हैं। सबसे पहले, आपको अपने सॉफ़्टवेयर को अद्यतित रखना चाहिए क्योंकि इसमें अक्सर सुरक्षा अद्यतन शामिल होंगे। यदि आपका सॉफ़्टवेयर अद्यतित नहीं है, तो हो सकता है कि कोई व्यक्ति आपकी जानकारी के बिना आपके सिस्टम तक पहुँच प्राप्त करने के लिए सॉफ़्टवेयर के पुराने संस्करणों में सुरक्षा कमजोरियों का फायदा उठा सके। दूसरा, यदि आप अद्वितीय पासवर्ड का उपयोग करते हैं (और उन्हें नियमित रूप से बदलते हैं), तो भले ही एक वेबसाइट हैक हो जाए, यह भविष्य में आपके द्वारा देखी जाने वाली किसी भी अन्य वेबसाइट को उसी पासवर्ड से प्रभावित नहीं करेगा। एक तीसरा कारक यह सुनिश्चित कर रहा है कि फ्लैश तब स्थापित हो जब आपको इसकी आवश्यकता हो।

डीपफेक वीडियो की पहचान कैसे करें

डीपफेक वीडियो ऐसे वीडियो होते हैं जिन्हें एआई का उपयोग करके हेरफेर किया गया है ताकि यह प्रकट हो सके कि कोई ऐसा कह रहा है या कुछ कर रहा है जो उन्होंने नहीं किया। डीपफेक वीडियो का इस्तेमाल कई कारणों से किया जा सकता है, जिसमें प्रचार, मनोरंजन और दुष्प्रचार शामिल हैं।

डीपफेक वीडियो की पहचान करने के लिए, आप कुछ चीजें देख सकते हैं। डीपफेक की पहचान करने के सबसे आसान तरीकों में से एक यह है कि अगर वीडियो में व्यक्ति आमतौर पर दिखने वाले व्यक्ति से अलग दिखता है। इसके अतिरिक्त, आप व्यक्ति के चेहरे की विशेषताओं या अप्राकृतिक होंठों की गतिविधियों में असामान्य हलचल देख सकते हैं। आप ऑडियो विकृतियों या विसंगतियों के लिए भी सुन सकते हैं।

यदि आप सुनिश्चित नहीं हैं कि कोई वीडियो असली है या नकली, तो अपने आप से यह पूछना मददगार हो सकता है कि वीडियो का उद्देश्य क्या है। इस वीडियो को फेक करने से किसे फायदा होगा? यदि वीडियो को फेक करने के लिए कोई स्पष्ट प्रेरणा नहीं लगती है, तो इस बात की अधिक संभावना है कि वीडियो सटीक है।

एक और चीज जो आप कर सकते हैं यदि आप यह पता लगाने की कोशिश कर रहे हैं कि क्या किसी व्यक्ति ने एक निश्चित तरीके से कुछ कहा है (उदाहरण के लिए, भ्रामक रूप से) उनके उच्चारण को सुनना और उनके द्वारा किए गए अन्य भाषणों के साथ तुलना करना होगा। उदाहरण के लिए, अगर किसी ने पहले किसी मुद्दे के बारे में सार्वजनिक रूप से बात की है, लेकिन कभी भी उसी तरह से एक शब्द का उच्चारण नहीं किया है जैसा कि उन्होंने इस नए भाषण में किया था – वह संकेत धोखा है।

सबसे पहले डीपफेक एडोब आफ्टर इफेक्ट्स का उपयोग करके बनाए गए थे, जिसके लिए उपयोगकर्ताओं को वीडियो संपादन का ज्ञान होना आवश्यक है। हालाँकि, हाल ही में AI का उपयोग बिना किसी उपयोगकर्ता इनपुट के डीपफेक बनाने के लिए किया गया है। यह वीडियो बनाने के लिए आवश्यक पोस्ट-प्रोडक्शन कार्य की मात्रा को कम करता है, लेकिन किसी को पूरी तरह से ज्ञात नकली वीडियो बनाने से रोकने के लिए बहुत कम करता है।

एक तरह से आप खुद को डीपफेक वीडियो से प्रभावित होने से बचा सकते हैं, वह है न्यूज मीडिया को देखते या पढ़ते समय संदेह करना। अगर कुछ गलत लगता है, तो उस पर तब तक विश्वास न करें जब तक कि आप पुष्टि न कर लें कि यह सच है। उदाहरण के लिए, टेलीविजन पर सुनी गई किसी बात पर विश्वास करने से पहले कई स्रोतों की जांच करें क्योंकि डीपफेक वीडियो ऑनलाइन गलत सूचना फैलाने का एक आम तरीका होता जा रहा है। और याद रखें: सिर्फ इसलिए कि कुछ सच लगता है इसका मतलब यह नहीं है।

पिछले डीपफेक वीडियो के कुछ उदाहरणों में एक शामिल है जहां पूर्व राष्ट्रपति ओबामा ने नस्लवादी लहजे में बात की थी और दूसरा जहां अभिनेत्री गैल गैडोट यह कहते हुए दिखाई दी थीं कि वह “इस्लामिक स्टेट” (आईएसआईएस) से संबंधित हैं। ये वीडियो दिखाते हैं कि सही तकनीक और विशेषज्ञता तक पहुंच रखने वाले किसी भी व्यक्ति के लिए वास्तविक लगने वाले डीपफेक बनाना कितना आसान हो सकता है। जिस आसानी से ये वीडियो बनाए जा सकते हैं, उससे कई लोगों के लिए यह भेद करना चुनौतीपूर्ण हो जाता है कि क्या वास्तविक है और क्या नहीं।

इन वीडियो को कैसे बनाया जाता है, इसकी समझ हासिल करने के साथ-साथ कुछ ऐसे तरीके जानना जिनसे आप उनकी पहचान कर सकते हैं, यदि आप खुद को पीड़ित होने से बचाना चाहते हैं, या अनजाने में ऑनलाइन झूठी जानकारी को बढ़ावा देना चाहते हैं।

सत्य के बाद के समाज में सूचित कैसे रहें

यदि आप सूचित रहना चाहते हैं, तो आप कुछ कदम उठा सकते हैं। पहला कदम उन सूचनाओं को पढ़ने से बचना है जिनकी कई विश्वसनीय स्रोतों द्वारा पुष्टि नहीं की गई है। आपको यह भी विचार करना चाहिए कि इस तरह की जानकारी साझा करने के लिए प्रेरणा क्या हो सकती है। यदि स्रोत पक्षपाती लगता है या यदि कोई स्पष्ट स्पष्टीकरण नहीं है कि वे कुछ क्यों साझा कर रहे हैं, तो आपको इस बात पर पुनर्विचार करना चाहिए कि प्रस्तुत जानकारी पर आपको कितना भरोसा है। इसके अलावा, याद रखें कि सिर्फ इसलिए कि कुछ सच लगता है इसका मतलब यह नहीं है कि वह है। झूठी जानकारी पर अपनी राय को आधार बनाना नासमझी हो सकती है, इसलिए किसी निष्कर्ष पर न पहुंचने का प्रयास करें जब तक कि आपके पास ऑनलाइन जो कुछ भी आप देखते हैं उसकी तथ्यात्मक जांच करने का समय न हो। यदि आप सुनिश्चित नहीं हैं कि वीडियो असली है या नकली, तो अपने आप से पूछें कि वीडियो का उद्देश्य क्या है। इस वीडियो को फेक करने से किसे फायदा होगा? आप व्यक्ति के चेहरे की विशेषताओं या अप्राकृतिक होंठों की गतिविधियों में असामान्य हलचल भी देख सकते हैं। और अंत में, यदि आप यह पता लगाने की कोशिश कर रहे हैं कि क्या किसी व्यक्ति ने एक निश्चित तरीके से कुछ कहा है (उदाहरण के लिए, भ्रामक रूप से) तो उनके उच्चारण को सुनना और उनके द्वारा किए गए अन्य भाषणों के साथ उनकी तुलना करना मददगार होगा। उदाहरण के लिए, अगर किसी ने पहले किसी मुद्दे के बारे में सार्वजनिक रूप से बात की है, लेकिन कभी भी उसी तरह से एक शब्द का उच्चारण नहीं किया है जैसा कि उन्होंने इस नए भाषण में किया था – वह संकेत धोखा है।

गहरी नकली क्रांति का चेहरा

डीपफेक क्रांति एक चल रही घटना है जहां लोग ऐसे लोगों के वीडियो बना सकते हैं जो ऐसा कहते या करते हैं जो उन्होंने कभी नहीं किया। डीपफेक के पीछे की तकनीक को “डीप लर्निंग” कहा जाता है, जो एक प्रकार की मशीन लर्निंग है जो कंप्यूटर को उदाहरण के द्वारा चीजों को करने का तरीका सीखने की अनुमति देती है।

मशहूर हस्तियों के नकली वीडियो बनाने के लिए इस तकनीक का इस्तेमाल पहले ही किया जा चुका है, और यह केवल यहां से खराब होने वाला है। हमें इस तकनीक से अवगत होने और परिणामों के लिए तैयार रहने की जरूरत है।

इस तरह की तकनीक के परिणाम बहुत बड़े हैं। एक के लिए, लोगों को यह सोचकर मूर्ख बनाना बहुत आसान है कि ये वीडियो वास्तविक हैं। मैं एक सबरेडिट खोजने में सक्षम था जहां लोग सापेक्ष आसानी से नकली वीडियो बनाते हैं और गुणवत्ता पागल होती है। इस सबरेडिट पर किसी व्यक्ति द्वारा बनाए गए एक वीडियो को लगभग 11,000 अपवोट मिले हैं। यह परेशान करने वाला है क्योंकि इसका मतलब है कि एक पूरा समुदाय नकली वीडियो साझा करने के लिए तैयार है जैसे कि वे असली थे। इसके अलावा, डीपफेक के खिलाफ कोई कानून नहीं हैं, इसलिए यह देखना दिलचस्प होगा कि आने वाले वर्षों में इस तरह की चीजें कैसे आगे बढ़ती हैं।

एक और परिणाम यह है कि हम समग्र रूप से डिजिटल मीडिया में अपना विश्वास खो सकते हैं और शिक्षा और प्रलेखन जैसी चीजों के लिए डिजिटल मीडिया का उपयोग करना बंद कर सकते हैं। एक उदाहरण बराक ओबामा का “फर्जी समाचार” के बारे में बात करने वाला वीडियो है जो वास्तव में किसी और द्वारा बनाया गया था। इससे पता चलता है कि लोगों को बुरा दिखाना कितना आसान है, लेकिन यह तकनीक तब और भी खतरनाक हो जाएगी जब राजनीतिक भाषणों के साथ इसका इस्तेमाल किया जाए, जिसका लोगों के जीवन पर वास्तविक प्रभाव पड़ता है।

मुझे एक ऐसी वेबसाइट मिली जो सिर्फ फेसबुक फोटो का इस्तेमाल करके नकली वीडियो बना सकती है। बस अपने चेहरे की 3-20 तस्वीरें अपलोड करें और सॉफ्टवेयर उन्हें एक यथार्थवादी दिखने वाले वीडियो में जोड़ देगा जहां आप जो चाहें कह रहे हैं। लोग पहले से ही इन वीडियो का उपयोग अपने पूर्व से बदला लेने के लिए या उन लोगों पर वापस आने के लिए शुरू कर रहे हैं जिन्होंने उन्हें गलत किया था। मुझे लगता है कि यह खतरनाक है क्योंकि इसका मतलब है कि अगर डीपफेक अधिक लोकप्रिय हो जाता है तो हम इंसानों के रूप में एक-दूसरे पर भरोसा खो सकते हैं।

यह तकनीक व्यसनी है और इसमें हमें उन चीजों के प्रति जुनूनी बनाने की क्षमता है जो मौजूद नहीं हैं। बहुत से लोग पहले ही इस तकनीक द्वारा बनाए गए वीडियो को नष्ट करने में अपना समय बर्बाद कर चुके हैं, जिसका अर्थ है कि उन्हें हर समय बरगलाया जा रहा है। एक उदाहरण एक वीडियो है जिसमें बराक ओबामा कहते हैं, “हमने ओसामा बिन लादेन को मार डाला” जिसे किसी ने बनाया था। यह दिखाता है कि इस प्रकार की तकनीक का उपयोग करके लोगों को बरगलाना कितना आसान है, इसलिए मुझे लगता है कि आप जो ऑनलाइन देखते हैं उसके आधार पर किसी भी प्रकार का निर्णय लेने से पहले हर किसी को इसके अस्तित्व के बारे में पता होना चाहिए। हमें डीपफेक के खिलाफ कानूनों की आवश्यकता है क्योंकि मेरा मानना है कि ये वीडियो समाज में लोगों के बीच संबंधों के लिए विनाशकारी साबित होंगे अगर उन्हें बिना किसी सीमा के प्रगति की अनुमति दी गई। यह हमारे समाज को दो समूहों में विभाजित करेगा क्योंकि जो लोग जानते हैं वे हर उस चीज़ से सावधान रहेंगे जो वे ऑनलाइन देखते हैं और जो नहीं देखते हैं। इसका समग्र रूप से हमारे समाज पर नकारात्मक प्रभाव पड़ेगा क्योंकि लोग इस पर भरोसा नहीं कर पाएंगे कि क्या वास्तविक है और क्या नहीं, जिसका अर्थ है कि हम एक दूसरे के साथ संवाद करने या दस्तावेज़ीकरण और शिक्षा जैसी महत्वपूर्ण चीजों को साझा करने की संभावना कम होंगे। डिजिटल मीडिया।

डीपफेक, आपका डेटा बेकार क्यों है?

तीन प्रकार के डेटा हैं जिनका कोई मूल्य नहीं है: डीपफेक, आपका डेटा, आपका भविष्य।

डीपफेक आर्टिफिशियल इंटेलिजेंस से बनाए गए वीडियो हैं। वे आम तौर पर एक व्यक्ति के चेहरे को दूसरे व्यक्ति के शरीर पर, या अन्य भ्रामक उद्देश्यों के लिए मॉर्फ करके फिल्में बनाने के लिए उपयोग किए जाते हैं। इस प्रकार की तकनीक का उपयोग नकली वीडियो सामग्री बनाने के लिए किया जा सकता है जो संभावित रूप से हमारे समाज को अस्थिर कर सकती है। डीपफेक की तरह, आपका डेटा भी कुछ भी नहीं है क्योंकि इसे किसी भी उद्देश्य की पूर्ति के लिए हेरफेर किया जा सकता है। अंतिम प्रकार का डेटा जिसका कोई मूल्य नहीं है वह आपका भविष्य है क्योंकि इसे देखा नहीं जा सकता है। लोग हमेशा भविष्य की भविष्यवाणी करने की कोशिश कर रहे हैं लेकिन यह काफी मुश्किल है।

डीपफेक – इस डिजिटल दुःस्वप्न के बारे में आपको क्या जानना चाहिए

डीपफेक एक प्रकार का डिजिटल हेरफेर है जो लोगों के वीडियो बनाने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करता है जो ऐसा लगता है जैसे वे कह रहे हैं या ऐसा काम कर रहे हैं जो उन्होंने कभी नहीं कहा या किया। नकली वीडियो बनाने के लिए अक्सर डीपफेक वीडियो का उपयोग किया जाता है, लेकिन उनका उपयोग नकली समाचार बनाने या जनता की राय में हेरफेर करने के लिए भी किया जा सकता है।

डीपफेक वीडियो एक डिजिटल दुःस्वप्न हैं क्योंकि उनका इस्तेमाल झूठ और दुष्प्रचार फैलाने के लिए किया जा सकता है। उनका इस्तेमाल लोगों को ब्लैकमेल करने या उनकी प्रतिष्ठा को नुकसान पहुंचाने के लिए भी किया जा सकता है। डीपफेक वीडियो का पता लगाना बहुत मुश्किल है, इसलिए उनके बारे में जागरूक होना और किसी भी ऐसे वीडियो पर संदेह करना महत्वपूर्ण है जो सच होने के लिए बहुत अच्छा लगता है।

डीपफेक वीडियो मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस के संयोजन से बनाए जाते हैं। पहला कदम एक डेटासेट बनाना है जिसमें उस व्यक्ति का वीडियो शामिल है जिसे आप कहना चाहते हैं या कुछ ऐसा करना चाहते हैं जो उन्होंने कभी नहीं किया। आप इस प्रशिक्षण सेट को बनाने के लिए स्वतंत्र रूप से उपलब्ध टूल का उपयोग कर सकते हैं, जिसमें आपके लक्ष्य के सैकड़ों या हजारों लघु वीडियो शामिल होंगे। मशीन लर्निंग एल्गोरिदम का उपयोग तब इन व्यक्तिगत वीडियो को लेने के लिए किया जाता है और “सीखना” होता है कि जब चेहरा अलग-अलग भाव बना रहा हो या अलग-अलग शब्द कह रहा हो तो उसे कैसा दिखना चाहिए। एक बार पर्याप्त डेटा एकत्र हो जाने के बाद, मशीन लर्निंग एल्गोरिदम नए नकली वीडियो उत्पन्न कर सकता है जो बहुत यथार्थवादी और स्वाभाविक लगते हैं।

डीपफेक शब्द एक गुमनाम रेडिट उपयोगकर्ता द्वारा गढ़ा गया था।

डीपफेक ऑडियो क्या है?

डीपफेक ऑडियो एक उभरती हुई तकनीक है जो नकली रिकॉर्डिंग बनाने की अनुमति देती है। यह इस तरह से कार्य करता है कि यह किसी की आवाज से आवाज या वीडियो बनाकर दूसरे व्यक्ति के शरीर पर डालता है। यह आमतौर पर लोगों द्वारा दूसरों को शर्मिंदा करने के लिए उपयोग किया जाता है, लेकिन डीपफेक का उपयोग नकली वीडियो और रिकॉर्डिंग बनाने के लिए भी किया जा सकता है ताकि राजनेताओं और मशहूर हस्तियों को बदनाम किया जा सके या उन्हें धमकाया जा सके।

डीपफेक ऑडियो एक अपेक्षाकृत नई तकनीक है जो पिछले कुछ वर्षों में सामने आई है, लेकिन इसके उपयोग में आसानी के कारण यह अधिक लोकप्रिय हो रही है। ऑनलाइन कई वेबसाइटें हैं जहां लोग ध्वनि अपलोड करते हैं और अन्य उपयोगकर्ता वीडियो बनाने के लिए उन्हें किसी और के मुंह पर डाल सकते हैं। यह प्रक्रिया कृत्रिम बुद्धिमत्ता (एआई) द्वारा संभव बनाई गई है जिसका उपयोग कई उद्देश्यों के लिए किया जा सकता है, जिसमें वीडियो संपादित करना या नकली बनाना शामिल है। यह किसी प्रकार के ऑडियो स्रोत से डेटा लेकर और वीडियो कार्य को पूरा करने के लिए आगे की प्रक्रिया के लिए इसका उपयोग करके काम करता है। लोगों ने उन्हें बदनाम करने के लिए राजनेताओं के भाषणों के साथ डीपफेक का इस्तेमाल किया है या उन्हें अपमानित करने के लिए मशहूर हस्तियों के अश्लील ऑडियो का इस्तेमाल किया है।

डीपफेक के संभावित निहितार्थ क्या हैं?

डीपफेक एक प्रकार का एआई-जनरेटेड वीडियो है जो हाल ही में इंटरनेट पर सामने आया है। ये वीडियो एल्गोरिदम द्वारा बनाए गए हैं और लोगों को वे बातें कहने के लिए मजबूर करते हैं जो उन्होंने कभी नहीं कहा या ऐसा कुछ करते हुए दिखाई देते हैं जो उन्होंने कभी नहीं किया। इस तरह, लोगों की वास्तविकता के प्रति धारणा को बदलने के लिए डीपफेक का उपयोग दुष्प्रचार के रूप में किया जा सकता है। यह बहुत संभव है कि समय बीतने के साथ डीपफेक का प्रसार जारी रहेगा और अधिक प्रेरक हो जाएगा क्योंकि एल्गोरिदम पिछले डीपफेक वीडियो से सीख सकते हैं और समय के साथ सुधार कर सकते हैं। यह एक ऐसे बिंदु की ओर ले जा सकता है जहां अब किसी भी वीडियो फुटेज में विश्वसनीयता नहीं रह जाएगी, जिससे हम जो कुछ भी देखते या सुनते हैं उस पर विश्वास करना असंभव हो जाता है।

सबसे महत्वपूर्ण निहितार्थों में से एक का संबंध प्रामाणिकता का मुद्दा है। नकली समाचार जारी करना एक अधिक से अधिक आसान और आम बात हो गई है, इतना अधिक कि यह जानना मुश्किल है कि क्या कोई वीडियो फुटेज या तस्वीरें वास्तविक हैं क्योंकि हम कभी भी पूरी तरह से निश्चित नहीं हो सकते हैं। इंटरनेट इस समस्या में महत्वपूर्ण योगदान देता है। जब आप Google पर कुछ भी खोजते हैं, तो आपको ऐसी कई वेबसाइटों का सामना करना पड़ता है, जो परस्पर विरोधी जानकारी प्रस्तुत करती हैं, जिससे यह और भी भ्रमित हो जाती है क्योंकि आप यह जानने का प्रयास करते हैं कि क्या सही है और क्या नहीं। यदि डीपफेक को व्यापक रूप से सूचना के विश्वसनीय स्रोतों के रूप में देखा जाता है, तो तत्काल प्रभाव उनकी अनिश्चितता के कारण अन्य सभी प्रकार की सामग्री में विश्वास का नुकसान होगा। यह हमें हर उस चीज़ पर सवाल खड़ा कर सकता है जो हम सुनते हैं या देखते हैं – यहाँ तक कि वे चीज़ें भी जो हमारी अपनी आँखों से दर्ज की गई हैं।

विशेष रूप से, डीपफेक की बढ़ती उपस्थिति से पत्रकार प्रभावित हो सकते हैं। यह तकनीक उनके लिए यह जानना असंभव बना सकती है कि वे जो साक्षात्कार करते हैं वे वास्तविक हैं या नहीं, जो उनकी विश्वसनीयता को खतरे में डालता है। यदि लोग अब विश्वास नहीं करते हैं कि वे जो रिपोर्ट करते हैं वह सटीक है, तो एक अच्छा मौका है कि उनकी दर्शकों की संख्या घट जाएगी और लोग ऐसे स्रोतों की ओर रुख करेंगे जो ऐसी सामग्री पेश करते हैं जो इसकी वैधता की परवाह किए बिना अधिक वैध प्रतीत होती है। जब तक दर्शकों का मानना है कि उन्हें कहीं और से सच्चाई मिल रही है, मुख्यधारा के मीडिया आउटलेट्स में उनका विश्वास कम होता रहेगा।

इसके अलावा, व्यापक दुष्प्रचार के निहितार्थ अंतरराष्ट्रीय संबंधों में बदलाव का कारण बन सकते हैं यदि कुछ देश इस समस्या का शीघ्र समाधान नहीं करते हैं। उदाहरण के लिए, यदि कोई डीपफेक वीडियो पोस्ट किया जाता है जिससे ऐसा लगता है कि दोनों देशों के नेता एक-दूसरे का अपमान कर रहे हैं, तो उनकी संबंधित आबादी एक-दूसरे के प्रति शत्रुतापूर्ण हो सकती है और शत्रुता की झूठी भावना विकसित कर सकती है। यदि मूल फुटेज जारी नहीं किया जाता है और काफी तेजी से अस्वीकृत किया जाता है, तो लोगों को वास्तविकता का अनुभव करना जारी रहेगा क्योंकि यह उनके लिए नकली वीडियो द्वारा विकृत किया गया है, जो नागरिकों के बीच हिंसक आदान-प्रदान को और अधिक संभावित बनाता है क्योंकि उन्हें इसके आधार पर कार्रवाई करने के लिए प्रोत्साहित किया जाएगा। एक ऐसे व्यक्ति के प्रति उनका गुस्सा जो वास्तव में मौजूद नहीं है।

हम हॉलीवुड में भी एक बड़ी गिरावट देख सकते हैं क्योंकि दर्शक सिनेमाघरों में जाना बंद कर देते हैं क्योंकि वे वास्तविक दृश्य प्रभावों के बजाय घर पर डीपफेक के साथ फिल्में देखना पसंद करते हैं। यदि उद्योग फिल्मों के निर्माण में लगने वाले समय की तुलना में तेजी से विकसित होता है, तो उद्योग प्रौद्योगिकी के साथ नहीं रह पाएगा, जिससे राजस्व में काफी गिरावट आएगी। हम ऐसी फिल्में भी देखना शुरू कर सकते हैं जो पूरी तरह से कंप्यूटर जनित हों क्योंकि अभिनेताओं की अब बिल्कुल भी जरूरत नहीं है।

हालांकि डीपफेक का कला पर सकारात्मक प्रभाव पड़ सकता है, लेकिन नकारात्मक परिणामों की बहुत अधिक संभावना है क्योंकि एआई विभिन्न उद्योगों में आगे बढ़ रहा है और फैल रहा है। यह अभिन्न है कि लोग समस्या के बारे में जागरूक हो जाएं ताकि वे यह निर्धारित कर सकें कि इसे कैसे हल किया जाए, इससे पहले कि गलत सूचना को रोकना असंभव हो जाए या अपने स्वयं के भले के लिए बहुत प्रेरक हो जाए। इस कारण से, डेवलपर्स को लगातार एल्गोरिदम का परीक्षण करना चाहिए और जानकारी को विकृत होने से बचाने के लिए अपनी क्षमताओं को सीमित करने के तरीके खोजने चाहिए। इसमें कुछ सामग्री को साझा करने के लिए वास्तविक वीडियो कैसे दिख सकते हैं या प्रमाणीकरण प्रमाणपत्र की आवश्यकता को सीमित करना शामिल हो सकता है। उदाहरण के लिए, फेसबुक पर डीपफेक वीडियो पोस्ट करने के लिए, कंपनी द्वारा समीक्षा के बाद उन्हें सत्यापित के रूप में चिह्नित करने की आवश्यकता होगी।

एक समय ऐसा भी आ सकता है जब हम आभासी वास्तविकता और संवर्धित वास्तविकता को उन्नत तकनीकों के रूप में मानना बंद कर देते हैं क्योंकि एआई कितना उन्नत हो गया है। सभी डिजिटल सामग्री एक साथ मिल सकती हैं इसलिए यह बताना मुश्किल है कि क्या प्रामाणिक है और क्या नहीं, जो मीडिया के कई रूपों में हमारे विश्वास को नष्ट कर देगा। इसे होने से रोकने का एकमात्र तरीका यह है कि यदि हम सभी एक समाज के रूप में इन प्रथाओं को समाप्त करने के लिए मिलकर काम करें, इससे पहले कि उनके सफल होने का कोई मौका न हो। हमें पता नहीं है कि डीपफेक तकनीक कितनी दूर जाएगी, यह हमारे लिए अच्छी होगी या बुरी, लेकिन हम इसे वास्तविकता को समझने की अपनी क्षमता से समझौता नहीं करने दे सकते।


हम डीपफेक के बड़े पैमाने पर उपयोग को कब देखने की उम्मीद करते हैं?

डीपफेक ऐसे वीडियो होते हैं जो आर्टिफिशियल इंटेलिजेंस या मशीन लर्निंग एल्गोरिदम द्वारा बनाए जाते हैं। डीपफेक उपयोगकर्ता कुछ सेकंड का वीडियो ले सकते हैं और इसे मिनटों की तरह दिखने वाली किसी चीज़ में बदल सकते हैं। डीपफेक एक औसत व्यक्ति को आश्वस्त करने वाले चेहरे की अदला-बदली, आवाज प्रतिरूपण, या किसी अन्य प्रकार के हेरफेर को बनाने की अनुमति देता है जो आप फिल्मों में देख सकते हैं।

हम शायद किसी बिंदु पर डीपफेक के बड़े पैमाने पर उपयोग देखेंगे क्योंकि एआई चेहरों, आवाजों और अन्य चीजों को पहचानने में बेहतर हो रहा है जिससे इस प्रकार की तकनीकों के उपयोग को मुख्यधारा में लाना संभव हो जाता है।

जनता डीपफेक वीडियो के उन्नत उपयोग को तब देखना शुरू कर देगी जब वे वास्तविक समय में प्रस्तुत किए जाने वाले टेबल होंगे। इसका मतलब है, जब एक वास्तविक वीडियो बनाने के लिए एल्गोरिदम के लिए कुछ मिनट से भी कम समय लगता है। इसमें जितना अधिक समय लगेगा, उतनी ही कम संभावना है कि लोग इसके उत्पन्न होने की प्रतीक्षा करने को तैयार हों। अधिकांश लोग परवाह नहीं करेंगे या ध्यान नहीं देंगे कि यह वास्तव में वास्तविक समय प्रतिपादन नहीं है क्योंकि अधिकांश लोगों ने ध्यान देना बंद कर दिया है क्योंकि उन्हें पता है कि कुछ नकली है – जब तक कि एक एल्गोरिदम सफलतापूर्वक बिना अधिक प्रयास किए उनकी आंखों से उन्हें धोखा दे सकता है। चेहरे की पहचान, मशीन लर्निंग एल्गोरिदम और डिजिटल रेंडरिंग में तकनीकी प्रगति से औसत उपभोक्ता को डीपफेक वीडियो पर ध्यान देना शुरू हो सकता है, लेकिन ऐसा होने में शायद कई साल लगेंगे।

हम तीन से पांच वर्षों में इस प्रकार के वीडियो देखना शुरू कर देंगे क्योंकि हाल ही में बहुत अधिक तकनीकी प्रगति नहीं हुई है और यह एक अपेक्षाकृत नई अवधारणा है। हम पहले से ही पारंपरिक नकली वीडियो बना सकते हैं जो एडोब प्रीमियर प्रो और आफ्टर इफेक्ट्स जैसे संपादन सॉफ्टवेयर का उपयोग करके वास्तविक दिखते हैं। उन और डीपफेक वीडियो के बीच एकमात्र अंतर यह है कि हम यह नियंत्रित नहीं कर सकते हैं कि लोग क्या कहते हैं या वे अपना मुंह कैसे घुमाते हैं, इसलिए हमें उदाहरण के लिए FakeApp जैसे सॉफ़्टवेयर की आवश्यकता होती है, जो फेस स्वैप और इसी तरह की चीजों को करने के लिए मशीन लर्निंग एल्गोरिदम का उपयोग करता है। मशीन लर्निंग वीडियो को वास्तविक रूप में स्वीकार करने के लिए जनता के लिए पर्याप्त सामग्री बनाने में बहुत समय और पैसा लगेगा। हमें सस्ते, उच्च-रिज़ॉल्यूशन वाले 3D प्रिंटर जैसी और अधिक तकनीकी प्रगति की भी आवश्यकता है जो बहुत अधिक स्पष्टता खोए बिना जीवन आकार के सिर बना सकते हैं। साथ ही, मुझे लगता है कि सोशल मीडिया पर लोकप्रिय होने से पहले हम शायद फिल्मों में इस प्रकार के वीडियो देख रहे होंगे क्योंकि फिल्मों में कुछ ही मिनटों की तुलना में लंबी उम्र होती है और लोग उनके लिए अधिक खुले होंगे यदि वे उन्हें सिनेमाघरों में या बड़ी उत्पादन कंपनियों द्वारा कम से कम विज्ञापित।

मुझे व्यक्तिगत रूप से नहीं लगता कि हम कभी उस बिंदु पर पहुंचेंगे जहां हम पारंपरिक लोगों से डीपफेक वीडियो नहीं जान पाएंगे, लेकिन यह निश्चित रूप से बदल जाएगा कि हम साक्षात्कार और भाषण जैसी चीजों को कैसे देखते हैं। मेरी राय में, इस प्रकार की तकनीक के बारे में कोई बहुत कुछ नहीं कर सकता है। नकली वीडियो बनाना अवैध नहीं है, उन्हें ऑनलाइन पोस्ट करना अवैध नहीं है, और किसी और के लिए यह बताना असंभव है कि वीडियो नकली है या नहीं, अगर इसे बनाने वाला व्यक्ति चाहता है कि वह वीडियो वास्तविक हो।

मुझे नहीं लगता कि औसत फेसबुक उपयोगकर्ता तब तक डीपफेक वीडियो देखना शुरू कर देंगे, जब तक कि वे वास्तविक समय में रेंडर करने में सक्षम नहीं हो जाते। हालाँकि FakeApp जैसी साइटें पारंपरिक संपादन सॉफ़्टवेयर के बजाय मशीन लर्निंग एल्गोरिदम का उपयोग करके नकली वीडियो बनाती हैं, इस प्रकार के वीडियो बनाना बेहद मुश्किल है क्योंकि आपको प्रत्येक सेकंड के फुटेज के लिए कितनी कंप्यूटिंग शक्ति की आवश्यकता होती है। आवश्यक शक्ति सर्वर और नेटवर्क पर अत्यधिक दबाव डालेगी जिसका अर्थ है कि उच्च स्तर की प्रामाणिकता के साथ वीडियो बनाने में बहुत लंबा समय लगेगा।

डीपफेक वीडियो की प्रकृति के कारण, मुझे नहीं लगता कि हम उनके निर्माण के तुरंत बाद उनके उपयोग में तेज वृद्धि देखेंगे। उन्हें ऑनलाइन पोस्ट करना या उनका पुनर्वितरण करना गैर-कानूनी नहीं है, इसलिए यदि कोई अपने द्वारा बनाई गई किसी चीज़ को साझा करना चाहता है तो बहुत कुछ नहीं किया जा सकता है। मेरी राय में, जब फेसबुक जैसी सोशल मीडिया साइट्स इस प्रकार के वीडियो को होस्ट करने के लिए विज्ञापनदाताओं के साथ समस्याओं का सामना करना शुरू कर देंगी, क्योंकि वे नकली वीडियो का सामना किए बिना अपने दैनिक जीवन के बारे में जाने की कोशिश कर रहे दर्शकों के बीच नाराजगी पैदा कर सकते हैं। दोस्तों या परिवार के सदस्यों से। अतीत में पारंपरिक सीजीआई तकनीक द्वारा लोगों को सफलतापूर्वक मूर्ख बनाया गया है, इसलिए यह बताना कठिन होगा कि कब किसी को मशीन लर्निंग एल्गोरिथम द्वारा मूर्ख बनाया जा रहा है या संपादन सॉफ्टवेयर के कारण मूर्ख बनाया गया है। मुझे लगता है कि यह एक मुद्दा बन जाएगा जब लोग मीडिया आउटलेट्स से जो देखते और सुनते हैं, उस पर से विश्वास खोना शुरू हो जाता है, जिससे सार्वजनिक आंकड़ों में विश्वास की कमी हो सकती है।

मुझे नहीं लगता कि हम वास्तव में नोटिस डीपफेक पर तब तक भरे रहेंगे जब तक कि किसी प्रकार की तकनीकी प्रगति नहीं हो जाती। अभी, इन वीडियो को बनाने में अभी भी बहुत समय लगता है और कंप्यूटिंग शक्ति बहुत अधिक है, इसलिए आप कल्पना कर सकते हैं कि प्रत्येक को प्रस्तुत करने में कितना समय लगता है। यह उन लोगों के लिए बहुत श्रमसाध्य काम होगा जो लाखों प्रतियां चाहते हैं क्योंकि उन्हें इसे एक-एक करके करना होगा, लेकिन एक बार ऐसा कुछ है जो उन्हें बड़े पैमाने पर उत्पन्न कर सकता है, तो मुझे लगता है कि हम ईमानदारी से देखेंगे कि कितना मुद्दा है यह बन सकता है।

मुझे नहीं लगता कि लोग वास्तव में तब तक ध्यान देंगे जब तक वे कैमरे के कोणों को ध्यान में रखना शुरू नहीं करते। यदि नकली वीडियो बनाने वाला व्यक्ति वीडियो पर किसी के बोलने या इधर-उधर घूमते हुए पर्याप्त फुटेज प्राप्त करने में सक्षम है, तो इससे कोई फर्क नहीं पड़ता कि वे पारंपरिक संपादन उपकरण या मशीन लर्निंग एल्गोरिदम का उपयोग कर रहे हैं क्योंकि तैयार उत्पाद प्रामाणिक के रूप में पारित होने के लिए पर्याप्त वास्तविक लगेगा इसके बारे में ज्यादा सोचे बिना। हालांकि डीपफेक वीडियो वर्तमान में बेहद कठिन हैं और बनाने में समय लगता है, तकनीक में प्रगति जो वास्तविक समय में अधिक काम करने की अनुमति देती है, इसे बहुत आसान बना देगी। अभी, डीपफेक शब्द किसी भी वीडियो को संदर्भित करता है जिसे मशीन लर्निंग एल्गोरिदम और पारंपरिक संपादन सॉफ्टवेयर के साथ नकली किया गया है, लेकिन अगर कुछ एक ही बार में दोनों करने में सक्षम थे तो हमारे हाथों में बहुत बड़ी समस्या होगी।

मुझे लगता है कि नकली वीडियो तब तक बहुत लोकप्रिय नहीं होंगे जब तक कि लोगों को बड़े बजट के साथ किसी और को काम पर रखने के बजाय उन्हें उनके लिए काम करने का आसान तरीका न मिल जाए। कोई फर्क नहीं पड़ता कि ये चीजें कितनी सस्ती या महंगी होने वाली हैं, अधिकांश लोगों को अभी भी किसी और को काम पर रखे बिना अपना खुद का नकली बनाने से पहले पर्याप्त मात्रा में समय और धन की आवश्यकता होगी। वहाँ कुछ लोग हैं जो अपने घरेलू व्यवसायों से बाहर निकलेंगे जहाँ वे डीपफेक वीडियो बेचते हैं, लेकिन अधिकांश भाग के लिए मुझे लगता है कि जब तक यह कुछ ऐसा नहीं कर सकता है तब तक इसका समाज पर बहुत अधिक प्रभाव नहीं पड़ेगा।

मुझे नहीं लगता कि लोग इन वीडियो का व्यापक रूप से उपयोग करना शुरू कर देंगे जब तक कि ऐसा करने में बड़ी मात्रा में वित्तीय प्रोत्साहन न हो। अभी, यदि आप बिना किसी पहचानने योग्य या विशिष्ट लक्ष्य के नकली फुटेज वाला वीडियो बनाते हैं तो किसी भी प्रकार का ध्यान आकर्षित करना कठिन होगा क्योंकि पहली जगह में आलोचना करने लायक कुछ भी नहीं होगा। यहां तक कि अगर कोई मनोरंजन के लिए एक का उत्पादन करना चाहता है, तब भी इसे बनाने के लिए समय और कंप्यूटिंग शक्ति की आवश्यकता होती है, इसलिए यदि उनके मन में कोई उद्देश्य नहीं होता तो कोई बात नहीं होती। अगर ये वीडियो बड़े पैमाने पर बेहद आश्वस्त करने में सक्षम होते हैं तो मुझे लगता है कि लोग पैसा बनाने के लक्ष्य के साथ नकारात्मक उद्देश्यों के लिए इनका इस्तेमाल करना शुरू कर देंगे।

मुझे नहीं लगता कि नकली वीडियो वास्तव में तब तक लोकप्रिय होंगे जब तक कि लोग स्वचालित रूप से बातचीत-आधारित क्लिप नहीं बना सकते। अभी के लिए, अधिकांश नकली मूल चित्र होते हैं जिन्हें या तो संशोधित किया जाता है या पूरी तरह से फिर से व्यवस्थित किया जाता है ताकि वे जिस उद्देश्य के लिए बनाए गए हों। यदि डीपफेक एल्गोरिदम अधिक वास्तविक जीवन की गतिविधियों जैसे लिप सिंकिंग या जेस्चर शॉर्टकट की नकल करने में सक्षम थे, तो मुझे लगता है कि यह संभावनाओं की एक पूरी नई दुनिया खोलेगा जहां लोग बहुत अधिक ठोस अंतिम उत्पाद बना सकते हैं। यदि वीडियो वास्तविक जीवन की गतिविधियों की नकल करने में सक्षम है जो बोल रहे हैं तो मैं कल्पना कर सकता हूं कि वे बिना किसी परिणाम के किसी को गलत सूचना देने या बदनाम करने के तरीके के रूप में बहुत लोकप्रिय हो जाएंगे क्योंकि कोई भी वास्तव में यह जांच नहीं कर सकता है कि यह वास्तविक है या नहीं।

Related Articles

WP Radio
WP Radio
OFFLINE LIVE