Aile ve Sosyal Hizmetler Bakanlığı, çocukların dijital ortamda maruz kaldığı riskleri azaltmak amacıyla kapsamlı bir sosyal medya düzenlemesi üzerinde çalışıyor. Bu düzenlemeye dair hazırlanan son rapor, özellikle zararlı içeriklerin hızla kaldırılması, yaş doğrulama sistemlerinin güçlendirilmesi ve dijital platformların sorumluluklarının artırılması gibi önemli adımlar içeriyor. Çalışmalar, Ulaştırma ve Altyapı Bakanlığı ile diğer ilgili kurumların katılımıyla ilerliyor.
Yasaklamadan Çok Güvenlik Odaklı Yeni Yaklaşım
Hazırlanan düzenlemenin temel amacı çocukları dijital dünyanın olumsuz etkilerinden korurken, “yasaklama” yerine “güvenli kullanım” yaklaşımını öne çıkarmak. Bu çerçevede, sosyal medya platformlarının zararlı içeriklere karşı daha güçlü denetim mekanizmaları kurması ve çocukların kişisel verilerinin daha etkin biçimde korunması hedefleniyor. Böylece hem güvenli bir dijital ortam oluşturulması hem de platformların sorumluluğunun artırılması amaçlanıyor.
Dünya Ülkelerinde Benzer Düzenlemeler Artıyor
Türkiye’nin yürüttüğü çalışmalar, küresel eğilimlerle paralel ilerliyor. Dünyanın pek çok ülkesinde çocukların sosyal medya kullanımıyla ilgili yeni kısıtlamalar gündemde. Avustralya’da 16 yaş altına sosyal medya erişimi tamamen yasaklanmış durumda. İngiltere’de benzer bir adım için tartışmalar sürerken; Fransa’da 15, İtalya’da 14 ve Danimarka ile Belçika’da 13 yaşın altındaki çocuklar ebeveyn izni olmadan hesap açamıyor. Türkiye ise bu ülkelerin uygulamalarını inceleyerek kendi şartlarına uygun bir model geliştirmeye çalışıyor.
15 Yaş Altına Hizmet Verilmemesi Öneriliyor
Bakanlığın hazırladığı rapor, dijital platformlara 15 yaşından küçük çocuklara kesin hizmet sunmama ve hesap açmama yükümlülüğü getirilmesini öneriyor. Buna ek olarak, platformlardan etkili yaş tahmini ve doğrulama sistemleri kullanmaları isteniyor. Böylece çocukların yaşlarını saklayarak yetişkinlere yönelik içeriklere erişmesinin önüne geçilmesi hedefleniyor.
Zararlı İçerik İçin Mahkeme Kararı Beklenmeyecek
Raporda öne çıkan önemli düzenlemelerden biri de yasa dışı, şiddet içeren ya da çocuklar için zararlı içeriklere karşı uygulanacak hızlı müdahale mekanizması. Buna göre, böyle içerikler ortaya çıktığında platformların mahkeme ya da idari kurum kararını beklemeden, kendi denetim sistemleri üzerinden içeriği en hızlı şekilde kaldırması bekleniyor. Bu adım, çocukların zararlı içeriklere maruz kalmasını minimuma indirmeyi amaçlıyor.
Risk Analizi ve Düzenli Raporlama Yükümlülüğü
Dijital platformlara sadece içerik kaldırma değil, aynı zamanda risk yönetimi konusunda da yeni sorumluluklar veriliyor. Raporda, platformların yasadışı ve zararlı içerikleri barındırma kapasitesine ilişkin düzenli “risk analizi” yapması ve bu analizlerin sonuçlarını kamuoyuyla paylaşması öneriliyor. Böylece platformların şeffaf şekilde denetlenmesi ve toplumsal farkındalığın artması hedefleniyor.
Ebeveyn Denetim Araçlarının Genişletilmesi
Sistemik gözetim modelinin bir parçası olarak, platformların ebeveyn denetim araçlarını daha çeşitli, erişilebilir ve anlaşılır biçimde sunması tavsiye ediliyor. Bu sayede ebeveynlerin çocuklarının dijital aktivitelerini daha etkin kontrol etmesi mümkün olacak.
Oyun Sektöründe de Düzenleme Planlanıyor
Raporda ayrıca, Türkiye’de hızla büyüyen oyun pazarına yönelik de yeni yasal düzenleme önerileri yer alıyor. Oyun şirketlerinin geniş kitlelere ulaşması ve çocukların oyunlarla yoğun etkileşimi göz önüne alındığında, bu alanda da kişisel veri güvenliği ve içerik kontrolü açısından yeni kuralların gerekliliği vurgulanıyor.