TikTok moderatörleri çocuk cinsel istismarı içeriği ile eğitildiklerini söylüyor


A Forbes rapor soruları gündeme getiriyor TikTok’un denetleme ekibinin çocuklara yönelik cinsel istismar materyallerini nasıl ele aldığı hakkında – bunun yasadışı fotoğraf ve videolara geniş, güvenli olmayan erişim sağladığını iddia ederek.

Diğer şirketler arasında TikTok ile birlikte çalışan Teleperformance adlı üçüncü taraf bir denetleme ekibinin çalışanları, onlardan DRR veya TikTok denetleme standartlarında Günlük Gerekli Okuma adlı rahatsız edici bir elektronik tabloyu incelemelerini istediğini iddia ediyor. E-tablonun, çıplak veya istismara uğrayan çocukların “yüzlerce resmi” de dahil olmak üzere TikTok’un yönergelerini ihlal eden içerik barındırdığı iddia edildi. Çalışanlar, TikTok ve Teleperformance’daki yüzlerce kişinin içeriğe hem ofis içinden hem de dışından erişebileceğini söylüyor ve bu da daha geniş bir sızıntıya kapı açıyor.

Teleperformans reddedildi Forbes çalışanlara cinsel istismar içerikli içerik gösterdiğini söyledi ve TikTok, eğitim materyallerinin “sıkı erişim kontrollerine sahip olduğunu ve CSAM’in görsel örneklerini içermediğini” söyledi, ancak tüm üçüncü taraf satıcıların bu standardı karşıladığını doğrulamadı.

Çalışanlar farklı bir hikaye anlatıyor ve Forbes ortaya koyuyor, yasal olarak riskli bir şey. İçerik moderatörleri rutin olarak birçok sosyal medya platformunda yayınlanan CSAM ile uğraşmak zorunda kalıyor. Ancak çocuk istismarı görüntüleri ABD’de yasa dışıdır ve dikkatle ele alınmalıdır. Şirketlerin, içeriği Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) bildirmesi, ardından 90 gün boyunca saklaması, ancak onu gören insan sayısını en aza indirmesi gerekiyor.

Buradaki iddialar bu sınırın çok ötesine geçiyor. Teleperformance’ın, TikTok’ta nelerin etiketleneceğine örnek olarak, bu içeriğe erişimle hızlı ve gevşek bir şekilde oynarken, çalışanlara grafik fotoğraflar ve videolar gösterdiğini belirtiyorlar. Bir çalışan, uygulamanın CSAM’ı suç olarak yayma teşkil edip etmediğini sormak için FBI ile temasa geçtiğini, ancak birinin açılıp açılmadığı net değil.

Dolu Forbes bildiri moderatörlerin TikTok’un patlayıcı büyümesine ayak uyduramadıkları ve çocuklara karşı suçları izlemelerini söyledikleri bir durumu özetleyen okumaya değer. Çevrimiçi çocuk güvenliği konusundaki karmaşık tartışma standartlarına göre bile, bu garip – ve eğer doğruysa, korkunç – bir durum.



Kaynak : https://www.theverge.com/2022/8/5/23294017/tiktok-teleperformance-employees-shown-csam-moderation-report

Yorum yapın