Molly Rose Vakfı tarafından yürütülen yeni bir araştırma, TikTok ve Instagram gibi popüler sosyal medya platformlarının algoritmalarının gençleri tehlikeli içeriklerle hedef aldığı yönündeki endişeleri yeniden alevlendirdi.
Rapor, bu platformların savunmasız genç kullanıcılara intihar ve kendine zarar verme içeriklerini aktif olarak önerdiğini öne sürüyor.
ALGORİTMALAR ZARARLI İÇERİK "TSUNAMİSİ" YARATIYOR
Araştırma, daha önce benzer içeriklerle etkileşimde bulunmuş 15 yaşındaki bir genç kızın hesapları kullanılarak yapıldı.
Bulgulara göre, Instagram'da önerilen videoların yüzde 97'si, TikTok'ta ise yüzde 96'sı zararlı olarak sınıflandırıldı.
"DURUM İYİLEŞMEK YERİNE KÖTÜLEŞTİ"
Kızını benzer içerikler yüzünden kaybeden vakıf kurucusu Ian Russell, sonuçları "korkunç" olarak nitelendirdi ve durumun iyileşmek yerine daha da kötüleştiğini belirtti.
Russell, mevcut çevrimiçi güvenlik yasalarının yetersiz kaldığını ve hükümetin daha sert adımlar atması gerektiğini vurguladı.
PLATFORMLAR İDDİALARI REDDEDİYOR
Hem TikTok hem de Instagram'ın sahibi Meta, raporun metodolojisine katılmadıklarını ve bulguların platformlarındaki gerçek kullanıcı deneyimini yansıtmadığını savundu.
Her iki şirket de gençleri korumak için çok sayıda güvenlik özelliğine sahip olduklarını ve zararlı içeriklerin yüzde 99'undan fazlasını proaktif olarak kaldırdıklarını belirtti.