Meta ने इंस्टाग्राम से 1.35 लाख अकाउंट्स को बच्चों की सुरक्षा के मद्देनज़र डिलीट किया। जानें क्या है इसका कारण, मेटा की नई सुरक्षा नीति और अमेरिका के KOSA कानून का असर।
इंस्टाग्राम ने हाल ही में बच्चों की सुरक्षा को ध्यान में रखते हुए 1.35 लाख से ज्यादा अकाउंट्स को डिलीट कर दिया है। Meta (इंस्टाग्राम की पेरेंट कंपनी) ने बताया कि ये अकाउंट्स आपत्तिजनक कमेंट्स कर रहे थे या बच्चों की ओर से वयस्कों द्वारा ऑपरेट किए जा रहे फेक अकाउंट्स से यौन सामग्री की मांग कर रहे थे। ये अकाउंट्स बच्चों को निशाना बना रहे थे, जो कि प्लेटफॉर्म की पॉलिसी का गंभीर उल्लंघन है।
इतिहास का सबसे बड़ा सफाई अभियान
Meta ने इंस्टाग्राम और फेसबुक से ऐसे लगभग 5 लाख अतिरिक्त अकाउंट्स को भी हटाया है, जो इन आपत्तिजनक गतिविधियों से जुड़े थे। यह अब तक का सबसे बड़ा “Social Media Clean-Up Operation” माना जा रहा है, जिसका उद्देश्य है – बच्चों और किशोरों को ऑनलाइन प्लेटफॉर्म पर सुरक्षित बनाना।
बच्चों की सुरक्षा को लेकर बढ़ा दबाव
अमेरिका में सोशल मीडिया प्लेटफॉर्म्स पर बच्चों की मानसिक और डिजिटल सुरक्षा को लेकर तीखी बहस चल रही है। कानून निर्माता लगातार यह कह रहे हैं कि Instagram और अन्य एप्स न सिर्फ लत लगाने वाले (Addictive) हैं, बल्कि इनमें मौजूद साइबरबुलिंग, ग्रोमिंग और अवास्तविक सौंदर्य मानक बच्चों के मानसिक स्वास्थ्य पर नकारात्मक प्रभाव डाल रहे हैं।
Meta की नई सुरक्षा पहल
Meta ने अब नए Default Security Settings लागू करने शुरू कर दिए हैं, जो खासतौर पर किशोर और बच्चों द्वारा इस्तेमाल किए जाने वाले अकाउंट्स पर लागू होंगे:
अनजान लोगों के मैसेज सीमित किए जाएंगे
आपत्तिजनक भाषा वाले मैसेज ब्लॉक होंगे
प्रोफाइल सेटिंग्स अधिक प्राइवेट रहेंगी
यह सुरक्षा पहल सोशल मीडिया पर युवाओं को बेहतर और सुरक्षित अनुभव देने की दिशा में एक जरूरी कदम है।
Kids Online Safety Act (KOSA) की भूमिका
Meta की यह सख्ती अमेरिका में प्रस्तावित Kids Online Safety Act (KOSA) से जुड़ी हो सकती है। यह बिल सोशल मीडिया कंपनियों को बच्चों के लिए सुरक्षा मानक लागू करने के लिए कानूनी रूप से बाध्य करता है। यह बिल सीनेट से पास हो चुका है और अब हाउस में फिर से पेश किया जा रहा है। Meta द्वारा उठाए गए ये कदम इसी कानून के लागू होने से पहले की प्रत्याशित तैयारी माने जा रहे हैं।


