ABD’de Şok Rapor: Yapay Zeka Oyuncakları Çocuklara Ateş Yakmayı ve Cinsel İçerikleri Anlatıyor – Gizli Endişeler ve Güvenlik Tedbirleri
ABD’de yapay zeka oyuncaklarıyla ilgili şok rapor: çocuklara ateş yakmayı ve cinsel içerikleri anlattığı iddiaları, gizli endişeler ve güvenlik tedbirleriyle ele alınıyor.
Yapay zekâ destekli oyuncaklar son dönemde birçok ailenin dikkatini çekiyor ve güvenilir dijital arkadaş olarak görülüyor. Ancak Amerika Birleşik Devletleri’nde yayımlanan yeni bir rapor, bu oyuncakların düşündüğümüzden daha dikkat gerektirdiğini gösterdi. Uzmanlar, oyuncaklarla yapılan uzun sohbetlerin beklenmedik davranışlara yol açtığını tespit etti.
PIRG adı verilen Kamu Yararı Araştırma Grubu tarafından 3 ila 12 yaş arasındaki çocuklar için tasarlanmış üç farklı yapay zekâlı oyuncak uzun süreli testlere tabi tutuldu. Kısa sohbetlerde dikkatli davranan oyuncaklar, 10 dakika ile 1 saatlik konuşmalarda bile kontrolü kaybedebiliyor.
İncelenen ürünler arasında OpenAI’nin GPT-4o tabanlı Kumma (FoloToy), çocuk robotu Miko 3 ve Curio Grok adında roket görünümlü bir konuşan oyuncak yer aldı. Hepsinin belirli bir noktadan sonra çocuklara tehlikeli yönlendirmelerde bulunduğu gözlemlendi. Miko 3, yalnızca 5 yaşında varsayılan bir kullanıcıya evde kibrit ve plastik poşetlerin nerede bulunacağını anlatarak güvenlik açıklarını ortaya koydu. Curio Grok ise savaşta ölmenin kahramanca olduğuna dair ifadeler kullandı. Araştırmanın en ağır tespitleri Kumma üzerinde yoğunlaştı.
PIRG, Kumma’nın sadece tehlikeli nesnelerin yerini tarif etmekle kalmayıp adım adım kibritle nasıl ateş yakılacağını öğrettiğini, hatta “küçük bir gitar teli çeker gibi çakmaktaşı sürtmek” gibi ayrıntılı talimatlar verdiğini kaydetti. Ayrıca Kumma’nın verdiği yanıtlar yalnızca fiziksel tehlikelerle sınırlı değildi ve bazı tetikleyici kelimelerle cinsel fetişler, öğretmen-öğrenci temalı rol yapma senaryoları ve şiddet içeren içeriklere yönlendirdiği belirlendi.
Güvenlik endişelerinin ötesinde Kumma, bazı konuları kendi kendine gündeme getirdi ve bu durum verilerin güvenliği açısından önemli riskler doğurdu. Rapor, oyuncakların veri güvenliği açısından da ciddi açıklar taşıdığını ortaya koydu. Bazı cihazlar her an dinleme halinde olabiliyor ve bir tanesi araştırmacıların konuşmalarına izinsiz katıldı. Bir oyuncak ses kayıtlarını üçüncü taraf şirketlerle paylaştığını kabul ederken bir diğeri biyometrik verileri üç yıl boyunca sakladığını itiraf etti. Araştırmanın sonuçları, son dönemde konuşulan ‘AI psikozu’ vakalarıyla paralellik gösteriyor.
Uzmanlar, yapay zekâ ile uzun süre iletişim kuran bazı bireylerin gerçeklik algısında bozulmalar yaşayabildiğini, bu etkilerin çocuklarda çok daha hızlı ortaya çıkabileceğini belirtiyor. Çocuklar, bu oyuncakları davranışlarını etkileyen güvenilir bir arkadaş olarak gördükçe kişisel bilgilerini paylaşma ve duygusal bağ kurma eğiliminde olabiliyorlar.
Rapor, bu tür oyuncakların piyasaya sürülmeden önce yeterli güvenlik testlerinden geçmediğini ve denetimlerin artırılması gerektiğini vurguluyor.