भारत सरकार से लेकर कंपनियों ने आई का दुरुपयोग करने को लेकर और इसे रोकने के लिए कमर कस ली है अब जल्द ही इस पर सख्त कानून लागू किए जाएंगे। डीपफेक मामले में सरकार सख्त है, लिहाजा इसे लेकर वह कड़े नियम लाने की कवायद में है। अब केंद्र सरकार ने इस मामले में बड़ा फैसला लिया है। सरकार 7-8 दिन के भीतर इस संबध में आईटी एक्ट के नए नियम जारी करेगी। नए नियम आने के बाद डीपफेक के आरोपियों के खिलाफ आईटी एक्ट के तहत कार्रवाई होगी।

सूचना प्रौद्योगिकी एवं इलेक्ट्रॉनिक्स राज्यमंत्री राजीव चंद्रशेखर ने मंगलवार को कहा कि नए नियमों में डीपफेक से जुड़े प्रावधानों को क्लियर किया जाएगा। सरकार अगले सात से आठ दिनों में संशोधित आईटी नियम जारी करने जा रही है। मंत्री की प्रतिक्रिया सचिन तेंदुलकर के डीपफेक वीडियो के सोशल मीडिया पर वायरल होने के बाद आई है। केंद्रीय मंत्री ने आगे कहा कि सरकार ने इसके लिए एक एडवाइजरी जारी की है और यदि सरकार को लगेगा कि इस एडवाइजरी का पालन नहीं किया जा रहा है तो इसको लेकर स्पष्ट प्रावधानों के साथ संशोधित नया आईटी नियम भी लाया जाएगा।

ओपन AI को लेकर सरकारी होने वाली है सख्त:-

केंद्रीय सूचना प्रौद्योगिकी और इलेक्ट्रॉनिक राज्य मंत्री राजीव चंद्रशेखर ने मंगलवार को कहा है कि डीप फेक से निपटने के लिए 7 दिन में सख्त आईटी नियम जारी हो सकते हैं। आजकल Deepfake के कई मामले सामने आ रहे हैं , जो की सही नहीं है। अभी तक इनको लेकर कोई सख्त कानून नहीं बनाए गए हैं, जिससे कि ऐसा करने वाले बिना डर के डीप फेक बना रहे हैं।

भारत अमेरिका समेत 50 देश में इस साल चुनाव को देखते हुए ओपन ए ने नई नीति जारी की है से आर्टमैन के नेतृत्व वाले स्टार्टअप ने कहा है कि डिफेक्ट तस्वीर की पहचान के लिए भी टूल जारी किया जाएगा। ओपन ए लोगों को सीआरसी प्रचार लोगों के लिए ऐप बनाने की अनुमति नहीं देगा ऐसे ऐप को मंजूरी नहीं मिलेगी जो लोगों को लोकतांत्रिक प्रक्रिया में भाग लेने से रोक डीप फेक इमेज का पता लगाने के लिए प्रोविंस क्लासीफाइड का परीक्षण कर रही है।

सरकार ने पहले ही सोशल मीडिया का ऑनलाइन प्लेटफॉर्म को स्पष्ट कर दिया था कि दीप फेक पर सलाह क्या पूरी तरह पालन नहीं किया तो नए आईटी नियम ले जाएंगे। और अब ऐसा ही हो रहा है सरकार द्वारा यह साफ कर दिया गया है कि अगले आने वाले 7 दिनों में आईटी नियम जारी होंगे और सख्त कानून बनेंगे जिससे कि लोग डिफेक्ट बनाकर गलत प्रचार ना कर सके।

संदिग्ध वीडियो ,ऑडियो पर जांच कर के ही करें भरोसा:-

अभी सख्त कदम सिर्फ ओपन आई ए ने उठाए हैं ए ए इतना इंटेलिजेंट है कि किसी भी नेता की आवाज में कुछ भी गढ़ सकता है। सतर्क हमें ही रहना होगा और इन संदिग्ध वीडियो पर या ऑडियो पर सीधे भरोसा करने से बचना होगा। हमें ठान लेना चाहिए कि हर ऑडियो वीडियो को तीन स्तर पर जांचेंगे पहले 2 मिनट के लिए ठहरेंगे दूसरा उसे शक की निगाह से देखेंगे यानी क्या यह सही है तीसरा वेरीफाई करेंगे यानी उसका स्रोत जांचेंगे कि वह कहां से आया है।

बड़ी हस्तियों के कई Deepfake मामले सामने आए हैं:-

एआई और ओपनएआई का इस्तेमाल कर लोग बड़ी-बड़ी हस्तियों के कई डीप फेक वीडियो और ऑडियो बनाकर सोशल मीडिया पर अपलोड करते हैं। जिसे कई लोग सच समझ लेते हैं ऐसा दुरुपयोग जब से एआई लोगों के सामने इंटेलिजेंस के रूप में आया है, तब से कई लोग इसका दुरुपयोग इसी तरह कर रहे हैं ऐसे कई मामले सामने आए हैं।

क्रिकेटर सचिन तेंदुलकर का डीपफेक वीडियो सामने आया था। वीडियो सामने आने के बाद क्रिकेटर ने स्पष्टीकरण जारी किया और फैंस से गलत सूचना के झांसे में न आने का आग्रह किया था और उन्होंने प्रौद्योगिकी के दुरुपयोग पर चिंता व्यक्त की थी। उन्होंने कहा यह भी कहा था कि गलत सूचना और डीपफेक के प्रसार को रोकने के लिए सोशल मीडिया प्लेटफॉर्म की ओर से तत्काल कार्रवाई महत्वपूर्ण है। बता दें कि इससे पहले अभिनेत्री रश्मिका मंदाना का डीपफेक वीडिया वायरल हुआ था।

Leave a Reply

Your email address will not be published. Required fields are marked *