प्रेमानंद महाराज भी AI डीपफेक के शिकार! वृंदावन केलि कुंज आश्रम ने कहा- भक्त सावधान रहें
वृंदावन के संत प्रेमानंद महाराज भी आर्टिफिशियल इंटेलिजेंस के डीपफेक का शिकार हो गए हैं। एआई से बनाई उनकी वीडियो, फोटो, ऑडियो को सोशल मीडिया पर डाला गया है। इसे लेकर केलिकुंज आश्रम ने भक्तों को सावधान किया है।

देश में कई सम्मानित हस्तियां एआई यानी आर्टिफिशियल इंटेलिजेंस के कारण डीपफेक का शिकार हुए हैं। उनके वीडियो, फोटो, ऑडियो वायरल किए गए हैं। अब ऐसा ही कुछ वृंदावन के संत प्रेमानंद महाराज के साथ भी हो गया है। एआई के डीपफेक का इस्तेमाल कर प्रेमानंद महाराज के वीडियो, फोटो सोशल मीडिया पर डाला गया है। इसे लेकर प्रेमानंद के वृंदावन स्थित केलि कुंज आश्रम से भक्तों को सावधान किया है। उनसे अपील की गई है कि केवल महाराज के अधिकृत सोशल मीडिया प्लेटफार्म पर डाले गए वीडियो, फोटो पर ही विश्वास करें। डीपफेक बनाने वालों से भी ऐसा नहीं करने की अपील की गई है।
महाराज के आश्रम की ओर से बुधवार की रात एक्स पर इसे लेकर संदेश जारी किया गया। इसमें लोगों को सावधान करते हुए कहा गया कि कई लोग पूज्य गुरुदेव श्री हित प्रेमानंद गोविंद शरण जी महाराज की फोटो, वीडियो और ऑडियो को आर्टिफिशियल (AI) के माध्यम से मनमाने ढंग से सोशल मीडिया पर डाल रहे हैं। यह बिल्कुल ही मर्यादा और कानून के खिलाफ है। यह भक्तों की धार्मिक भावनाओं को ठेस पहुंचाने वाली भी है।
डीपफेक बनाने वालों से कहा गया है कि कोई भी किसी भी प्रकार से AI का प्रयोग कर पूज्य महाराज जी की मनमाने ढंग से फोटो, वीडियो और ऑडियो ना बनाएं, ना प्रभावित हों, ना समर्थन करें और ना ही कहीं शेयर करें। केवल हमारे अधिकृत एवं सत्यापित सोशल मीडिया माध्यमों से प्रसारित फोटो, वीडियो, ऑडियो और जानकारी पर ही विश्वास करें। हम किसी भी अनधिकृत सोशल मीडिया पर बने चैलन, पेज या हैंडल से प्रसारित की गई किसी भी प्रकार की फोटो, वीडियो, ऑडियो या जानकारी के लिए उत्तरदायी नहीं होंगे। कृपया सावधान और सतर्क रहें।
क्या है डीपफेक तकनीक
डीपफेक एक ऐसी तकनीक है जो आर्टिफिशियल इंटेलिजेंस (एआई) का प्रयोग करके वीडियो, फोटो या ऑडियो रिकॉर्डिंग में हेरफेर करती है। इससे वे वास्तविक लगते हैं, लेकिन वास्तव में उनमें छेड़छाड़ की गई होती है। डीपफेक के माध्यम से किसी व्यक्ति को कुछ ऐसा कहते या करते हुए दिखाया जा सकता है जो उसने कभी नहीं किया। डीपफेक में किसी व्यक्ति के चेहरे को बदलना, चेहरे के भावों में हेरफेर करना या पूरी तरह से नए चेहरे बनाना शामिल हो सकता है।
इसमें किसी व्यक्ति की आवाज की नकल करना या उसे ऐसा कुछ कहने के लिए प्रेरित करना शामिल हो सकता है जो उसने कभी नहीं कहा। डीपफेक से गलत सूचना फैलाने, मानहानि करने या किसी व्यक्ति को बदनाम करने के लिए इस्तेमाल किया जा सकता है। डीपफेक को असली से अलग करना मुश्किल हो सकता है, खासकर जब वे उच्च गुणवत्ता वाले हों। डीपफेक तकनीक के दुरुपयोग को रोकने के लिए कई देशों में कानून बनाए जा रहे हैं।