OpenAI ChatGPT Güvenlik Önlemleriyle İntihar Vakalarına Karşı İlk Adım
OpenAI ChatGPT güvenlik önlemleriyle intihar vakalarına karşı erken uyarı ve destek mekanizmalarını anlatan, güvenli bir iletişim rehberi ve farkındalık odaklı bir kaynak.

Yapay zekaya yönelik çıkışlar ve tartışmalar, özellikle genç kullanıcılar arasında intiharla sonuçlanan bazı vakaların artmasıyla gündeme geliyor. OpenAI’nin bu konudaki adımları, gençlerin güvenliğini artırmaya dönük yeni önlemleri beraberinde getirdi.
OpenAI CEO’su Sam Altman, genç kullanıcılar için yaşa göre farklı ChatGPT deneyimleri ve güvenlik kontrollerinin uygulanacağını duyurdu. Planlanan uygulamalarda 13-17 yaş arasındaki kullanıcılar için ayrı bir deneyim sunulacak; 18 yaş ve üzeri kullanıcılar için ise farklı bir arayüz ve kurallar devreye girecek. Şüpheli durumlarda kullanıcılar otomatik olarak “18 yaş altı deneyime” yönlendirilecek. Ayrıca bazı ülkelerde kimlik doğrulaması da talep edilecek.
Altman, bu adımların yetişkin kullanıcıların mahremiyetini kısıtlayabileceğini kabul etmekle birlikte, gençlerin güvenliği için gerekli olduğunu belirtti. Blog yazısında da bu kararlara herkesin katılmayacağını anladıklarını ifade etti ve sürecin şeffaf sürdürüleceğini vurguladı.
Önümüzdeki aylarda ebeveyn kontrollerinin de eklenmesi planlanıyor. Aileler, ChatGPT’nin çocuklara nasıl yanıt vereceğini ayarlayabilecek; hafıza kullanımını ve “karartma saatleri” gibi tercihleri yönlendirebilecekler. Altman, ChatGPT’nin 12 yaşınaltındaki çocuklar için tasarlanmadığını yinelerken, şu an çocuk kullanımını tamamen engelleyen bir mekanizmanın olmadığını söyledi.
İntihar gibi hassas konulara ilişkin yaklaşımında ise OpenAI, bunun tamamen sansürlenmesi yerine, genç kullanıcıları tespit ettiklerinde önce aileyi bilgilendirmeyi ve gerekirse yetkililere başvurmayı öngören bir yol izliyor. Ayrıca yetişkin kullanıcılar için kurgusal amaçlı içerik üretimine yardım edilebileceğini belirtti; ancak intihar yöntemleri hakkında bilgi vermekten kaçınılacağını vurguladı.