भारत सरकार से लेकर कंपनियों ने आई का दुरुपयोग करने को लेकर और इसे रोकने के लिए कमर कस ली है अब जल्द ही इस पर सख्त कानून लागू किए जाएंगे। डीपफेक मामले में सरकार सख्त है, लिहाजा इसे लेकर वह कड़े नियम लाने की कवायद में है। अब केंद्र सरकार ने इस मामले में बड़ा फैसला लिया है। सरकार 7-8 दिन के भीतर इस संबध में आईटी एक्ट के नए नियम जारी करेगी। नए नियम आने के बाद डीपफेक के आरोपियों के खिलाफ आईटी एक्ट के तहत कार्रवाई होगी।
सूचना प्रौद्योगिकी एवं इलेक्ट्रॉनिक्स राज्यमंत्री राजीव चंद्रशेखर ने मंगलवार को कहा कि नए नियमों में डीपफेक से जुड़े प्रावधानों को क्लियर किया जाएगा। सरकार अगले सात से आठ दिनों में संशोधित आईटी नियम जारी करने जा रही है। मंत्री की प्रतिक्रिया सचिन तेंदुलकर के डीपफेक वीडियो के सोशल मीडिया पर वायरल होने के बाद आई है। केंद्रीय मंत्री ने आगे कहा कि सरकार ने इसके लिए एक एडवाइजरी जारी की है और यदि सरकार को लगेगा कि इस एडवाइजरी का पालन नहीं किया जा रहा है तो इसको लेकर स्पष्ट प्रावधानों के साथ संशोधित नया आईटी नियम भी लाया जाएगा।
ओपन AI को लेकर सरकारी होने वाली है सख्त:-
केंद्रीय सूचना प्रौद्योगिकी और इलेक्ट्रॉनिक राज्य मंत्री राजीव चंद्रशेखर ने मंगलवार को कहा है कि डीप फेक से निपटने के लिए 7 दिन में सख्त आईटी नियम जारी हो सकते हैं। आजकल Deepfake के कई मामले सामने आ रहे हैं , जो की सही नहीं है। अभी तक इनको लेकर कोई सख्त कानून नहीं बनाए गए हैं, जिससे कि ऐसा करने वाले बिना डर के डीप फेक बना रहे हैं।
भारत अमेरिका समेत 50 देश में इस साल चुनाव को देखते हुए ओपन ए ने नई नीति जारी की है से आर्टमैन के नेतृत्व वाले स्टार्टअप ने कहा है कि डिफेक्ट तस्वीर की पहचान के लिए भी टूल जारी किया जाएगा। ओपन ए लोगों को सीआरसी प्रचार लोगों के लिए ऐप बनाने की अनुमति नहीं देगा ऐसे ऐप को मंजूरी नहीं मिलेगी जो लोगों को लोकतांत्रिक प्रक्रिया में भाग लेने से रोक डीप फेक इमेज का पता लगाने के लिए प्रोविंस क्लासीफाइड का परीक्षण कर रही है।
सरकार ने पहले ही सोशल मीडिया का ऑनलाइन प्लेटफॉर्म को स्पष्ट कर दिया था कि दीप फेक पर सलाह क्या पूरी तरह पालन नहीं किया तो नए आईटी नियम ले जाएंगे। और अब ऐसा ही हो रहा है सरकार द्वारा यह साफ कर दिया गया है कि अगले आने वाले 7 दिनों में आईटी नियम जारी होंगे और सख्त कानून बनेंगे जिससे कि लोग डिफेक्ट बनाकर गलत प्रचार ना कर सके।
संदिग्ध वीडियो ,ऑडियो पर जांच कर के ही करें भरोसा:-
अभी सख्त कदम सिर्फ ओपन आई ए ने उठाए हैं ए ए इतना इंटेलिजेंट है कि किसी भी नेता की आवाज में कुछ भी गढ़ सकता है। सतर्क हमें ही रहना होगा और इन संदिग्ध वीडियो पर या ऑडियो पर सीधे भरोसा करने से बचना होगा। हमें ठान लेना चाहिए कि हर ऑडियो वीडियो को तीन स्तर पर जांचेंगे पहले 2 मिनट के लिए ठहरेंगे दूसरा उसे शक की निगाह से देखेंगे यानी क्या यह सही है तीसरा वेरीफाई करेंगे यानी उसका स्रोत जांचेंगे कि वह कहां से आया है।
बड़ी हस्तियों के कई Deepfake मामले सामने आए हैं:-
एआई और ओपनएआई का इस्तेमाल कर लोग बड़ी-बड़ी हस्तियों के कई डीप फेक वीडियो और ऑडियो बनाकर सोशल मीडिया पर अपलोड करते हैं। जिसे कई लोग सच समझ लेते हैं ऐसा दुरुपयोग जब से एआई लोगों के सामने इंटेलिजेंस के रूप में आया है, तब से कई लोग इसका दुरुपयोग इसी तरह कर रहे हैं ऐसे कई मामले सामने आए हैं।
क्रिकेटर सचिन तेंदुलकर का डीपफेक वीडियो सामने आया था। वीडियो सामने आने के बाद क्रिकेटर ने स्पष्टीकरण जारी किया और फैंस से गलत सूचना के झांसे में न आने का आग्रह किया था और उन्होंने प्रौद्योगिकी के दुरुपयोग पर चिंता व्यक्त की थी। उन्होंने कहा यह भी कहा था कि गलत सूचना और डीपफेक के प्रसार को रोकने के लिए सोशल मीडिया प्लेटफॉर्म की ओर से तत्काल कार्रवाई महत्वपूर्ण है। बता दें कि इससे पहले अभिनेत्री रश्मिका मंदाना का डीपफेक वीडिया वायरल हुआ था।