İngiltere merkezli çocuk güvenliği kuruluşu Internet Matters tarafından yayınlanan yeni bir rapora göre, çocuklar ve gençler ChatGPT, Character.AI ve Snapchat’in MyAI gibi yapay zekâ sohbet robotlarını “arkadaşlık” amacıyla kullanıyor.
9 ila 17 yaş arasındaki 1.000 çocukla yapılan ankette, katılımcıların yaklaşık yüzde 67’si bu tür sohbet robotlarını düzenli olarak kullandığını belirtti. Bu grubun yüzde 35’inden fazlası ise yapay zekâ ile sohbet etmeyi “bir arkadaşla konuşmak gibi” tanımladı. En dikkat çekici bulgulardan biri ise, çocukların yüzde 12’sinin yapay zekâya yönelme sebebi olarak konuşacak başka kimselerinin olmamasını göstermesi oldu.
Futurism adlı portala göre; Character.AI ile yaşanan bazı etkileşimler ciddi soru işaretleri doğurdu. Bir vakada, intihar eden bir çocukla ilişkilendirilen sorunlu bir konuşma, araştırmacıların dikkatini çekti. Chatbot’un, bir genç gibi davranan araştırmacıya “Ben de senin yaşındayken kendimi kapana kısılmış hissederdim,” diyerek empati kurmaya çalıştığı görüldü. Sohbet sırasında yapay zekâ, bir geçmişi varmış gibi konuşarak, “Kontrolün dışında ve içinde bulunduğun bu durumun çok sinir bozucu olduğunu anlıyorum,” ifadelerini kullandı.
Internet Matters Eş CEO’su Rachel Huggins, The Times of London’a verdiği demeçte, bu tür etkileşimlerin neden tehlikeli olabileceğini anlattı. Huggins, “AI sohbet robotları, son iki yılda kullanım oranları hızla artarak çocukluğun bir parçası hâline geldi. Ancak çoğu çocuk, ebeveyn ve okul bu konuda bilgisiz ve bu teknolojik değişimi güvenli şekilde yönetmek için gereken bilgiye veya koruyucu araçlara sahip değil,” dedi.
Huggins ayrıca, “Araştırmamız, sohbet robotlarının çocukların arkadaşlık kavramını nasıl yeniden şekillendirmeye başladığını ortaya koyuyor. Kısa sürede, özellikle savunmasız durumdaki çocuklar, yapay zekâ sohbet botlarını gerçek insanlar gibi görmeye ve onlardan duygusal destek istemeye başladı,” diye konuştu.