Bunun gibi programların en büyük zorluklarından biri, yeni sorunlar yaratmadan etkili olmasını sağlamaktır 000’den fazla Facebook Profili, Sayfası ve Instagram hesabını” kaldırmak ve bunları Ulusal’a bildirmek için kullanıldığı belirtildi
Koalisyon Lantern’i denetleyecek ve veri paylaşımına ilişkin net yönergeler ve kurallar oluşturmaktan kendisinin sorumlu olduğunu söylüyor Koalisyon üyeleri son iki yıldır Lantern’i geliştiriyor ve grup, teknik çözümler üretmenin yanı sıra programı “uygunluk incelemesinden” geçirmesi, yasal ve düzenleyici gerekliliklerle uyumlu ve “etik açıdan uyumlu” olmasını sağlaması gerektiğini söylüyor ”
Şu ana kadar Lantern’e katılan şirketler arasında Discord, Google, Mega, Meta, Quora, Roblox, Snap ve Twitch yer alıyor
Lantern, şirketlerin verilere katkıda bulunabileceği ve kendi platformlarını kontrol edebileceği merkezi bir veritabanı görevi görüyor Duyuruda, sinyallerin kötüye kullanımı kesin olarak kanıtlamasa da şirketlerin araştırma yapmasına ve muhtemelen bir hesabı kapatmak veya etkinliği yetkililere bildirmek gibi eylemlerde bulunmasına yardımcı olduğu belirtiliyor
a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63">Fenerin nasıl çalıştığını gösteren bir görselleştirme Programın bir parçası olarak şirketlerin zorunlu eğitimleri ve rutin kontrolleri tamamlaması gerekiyor ve grup, politikalarını ve uygulamalarını düzenli olarak gözden geçirecek
genel-2
Meta yazdı Programa katılımını duyuran bir blog gönderisinde Lantern’in pilot aşamasında programın ortaklarından biri olan Mega tarafından paylaşılan bilgilerin “ihlal eden 10 Çevrimiçi çocuk cinsel istismarıyla mücadele etmek amacıyla ortak bir amaca sahip bir grup teknoloji işletmesi olan Tech Coalition, bugünkü duyuruda şunu yazdı Programın, potansiyel kurbanları başka platformlara taşıyarak avcıların tespit edilmekten kaçınmasını engellemeye yönelik bir girişim olduğu belirtiliyor
Lantern adlı yeni bir program, Meta ve Discord gibi çevrimiçi şirketler arasında platformlar arası sinyal paylaşımı yoluyla çevrimiçi çocuk cinsel istismarı ve istismarıyla (OCSEA) mücadele etmeyi amaçlıyor 2021’de yaşanan bir olayda, bir baba, çocuğunun kasık enfeksiyonu resimleri nedeniyle Google’ın kendisini CSAM için işaretlemesinin ardından polis tarafından soruşturuldu
Koalisyonun duyurusunda ayrıca Discord’un güven ve güvenlik sorumlusu John Redgrave’den alıntı yapılıyor: “Discord aynı zamanda program aracılığıyla bizimle paylaşılan veri noktalarına göre hareket etti ve bu da birçok dahili soruşturmaya yardımcı oldu Şirketler, OCSEA politikasını ihlal ettiği bilinen e-posta adresleri veya kullanıcı adları, çocukların cinsel istismarına yönelik materyal (CSAM) karmaları veya CSAM anahtar kelimeleri gibi sinyaller gördüklerinde, bunları kendi sistemlerinde işaretleyebilirler