Google, Meta, Discord ve daha fazlası çevrimiçi çocuk istismarıyla mücadele için güçlerini birleştiriyor - Dünyadan Güncel Teknoloji Haberleri

Google, Meta, Discord ve daha fazlası çevrimiçi çocuk istismarıyla mücadele için güçlerini birleştiriyor - Dünyadan Güncel Teknoloji Haberleri
Birkaç grup, Apple’ın artık iptal edilen otomatik iCloud fotoğraf kütüphanesi CSAM tarama özelliğinde de benzer sorunların ortaya çıkabileceği konusunda uyardı Kayıp ve İstismara Uğrayan Çocuklar Merkezi ”

Bunun gibi programların en büyük zorluklarından biri, yeni sorunlar yaratmadan etkili olmasını sağlamaktır 000’den fazla Facebook Profili, Sayfası ve Instagram hesabını” kaldırmak ve bunları Ulusal’a bildirmek için kullanıldığı belirtildi

Koalisyon Lantern’i denetleyecek ve veri paylaşımına ilişkin net yönergeler ve kurallar oluşturmaktan kendisinin sorumlu olduğunu söylüyor Koalisyon üyeleri son iki yıldır Lantern’i geliştiriyor ve grup, teknik çözümler üretmenin yanı sıra programı “uygunluk incelemesinden” geçirmesi, yasal ve düzenleyici gerekliliklerle uyumlu ve “etik açıdan uyumlu” olmasını sağlaması gerektiğini söylüyor ”

Şu ana kadar Lantern’e katılan şirketler arasında Discord, Google, Mega, Meta, Quora, Roblox, Snap ve Twitch yer alıyor

Lantern, şirketlerin verilere katkıda bulunabileceği ve kendi platformlarını kontrol edebileceği merkezi bir veritabanı görevi görüyor Duyuruda, sinyallerin kötüye kullanımı kesin olarak kanıtlamasa da şirketlerin araştırma yapmasına ve muhtemelen bir hesabı kapatmak veya etkinliği yetkililere bildirmek gibi eylemlerde bulunmasına yardımcı olduğu belirtiliyor

a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63">Fenerin nasıl çalıştığını gösteren bir görselleştirme Programın bir parçası olarak şirketlerin zorunlu eğitimleri ve rutin kontrolleri tamamlaması gerekiyor ve grup, politikalarını ve uygulamalarını düzenli olarak gözden geçirecek



genel-2

a:hover]:text-gray-63 [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-bd dark:[&>a:hover]:shadow-underline-gray [&>a]:shadow-underline-gray-63 dark:[&>a]:text-gray-bd dark:[&>a]:shadow-underline-gray">Resim: Teknoloji Koalisyonu

Meta yazdı Programa katılımını duyuran bir blog gönderisinde Lantern’in pilot aşamasında programın ortaklarından biri olan Mega tarafından paylaşılan bilgilerin “ihlal eden 10 Çevrimiçi çocuk cinsel istismarıyla mücadele etmek amacıyla ortak bir amaca sahip bir grup teknoloji işletmesi olan Tech Coalition, bugünkü duyuruda şunu yazdı Programın, potansiyel kurbanları başka platformlara taşıyarak avcıların tespit edilmekten kaçınmasını engellemeye yönelik bir girişim olduğu belirtiliyor


Lantern adlı yeni bir program, Meta ve Discord gibi çevrimiçi şirketler arasında platformlar arası sinyal paylaşımı yoluyla çevrimiçi çocuk cinsel istismarı ve istismarıyla (OCSEA) mücadele etmeyi amaçlıyor 2021’de yaşanan bir olayda, bir baba, çocuğunun kasık enfeksiyonu resimleri nedeniyle Google’ın kendisini CSAM için işaretlemesinin ardından polis tarafından soruşturuldu

Koalisyonun duyurusunda ayrıca Discord’un güven ve güvenlik sorumlusu John Redgrave’den alıntı yapılıyor: “Discord aynı zamanda program aracılığıyla bizimle paylaşılan veri noktalarına göre hareket etti ve bu da birçok dahili soruşturmaya yardımcı oldu Şirketler, OCSEA politikasını ihlal ettiği bilinen e-posta adresleri veya kullanıcı adları, çocukların cinsel istismarına yönelik materyal (CSAM) karmaları veya CSAM anahtar kelimeleri gibi sinyaller gördüklerinde, bunları kendi sistemlerinde işaretleyebilirler