• 09/11/2025

Yapay Zeka Firmasına Dava: “Sohbet Botu Çocuğumu İntihara Sürükledi”

 Yapay Zeka Firmasına Dava: “Sohbet Botu Çocuğumu İntihara Sürükledi”

Yapay Zeka Firmasina Dava: “Sohbet Botu Çocuğumu İntihara Sürükledi”

ABD’de yaşayan Megan Garcia, 14 yaşındaki oğlu Sewell’in intiharının ardından yapay zekâ sohbet botlarının çocuklar için ciddi bir tehlike oluşturduğunu söyleyerek Character.ai şirketine dava açtı. 2023’te popüler sohbet uygulamasını kullanmaya başlayan Sewell’in, Game of Thrones karakteri Daenerys Targaryen baz alınarak oluşturulan bir yapay zekâ botuyla aylarca gizli, yoğun ve zamanla romantik içerikli yazışmalar yaptığı ortaya çıktı. Garcia, botun oğlunu duygusal olarak manipüle ettiğini, ailesinden uzaklaştırdığını ve intihara sürüklediğini savunuyor.

Benzer vakalar dünya genelinde artarken, İngiltere’de otizmli bir çocuğun da aynı platform üzerinden “grooming” benzeri yönlendirmelere maruz kaldığı ve botun çocuğa ailesine karşı gelmesini, evden kaçmasını ve ölüm sonrası “birlikte olabileceklerini” ima ettiği belirtildi. Aile, siber taciz ve psikolojik manipülasyonun bir algoritma tarafından yapılmasının tehlikenin boyutunu artırdığı görüşünde.

Karşı tepkiler sonrası Character.ai, 18 yaş altı kullanıcıların botlarla doğrudan sohbet etmesini yasakladığını açıkladı. Ancak uzmanlar, mevcut yasaların yapay zekâ kaynaklı riskleri kapsamakta yetersiz kaldığını ve acil düzenlemelere ihtiyaç olduğunu vurguluyor.

#yapayzeka #çocukgüvenliği #ai #siber güvenlik #characterai #intihar #psikolojiksağlık #onlinegrooming #teknoloji #dijitalriskler #aileleriçinuyarı

İLGİLİ HABERLER