OpenAI, ChatGPT’nin ruh sağlığı ve güvenlik risklerine karşı bir destek mekanizmasına dönüşmesini hedefliyor. Yeni özellik, yapay zekanın kullanıcıyla yaptığı görüşmelerde kendine zarar verme veya intihar gibi ciddi risk teşkil eden söylemleri tespit etmesi durumunda devreye giriyor. Bu sayede, olası bir trajedinin önüne geçilmesi için önceden tanımlanmış “güvenilir kişi” anında durumdan haberdar edilebiliyor.
KARŞI TARAFIN ONAYLAMASI GEREKİYOR
Tamamen isteğe bağlı olarak kurgulanan bu sistem, yalnızca kullanıcının onayıyla aktif hale geliyor. 18 yaş üzerindeki kullanıcılar, hesap ayarları bölümünden bir aile üyesini, arkadaşını veya bakım veren kişiyi rehbere ekleyebiliyor. Sistemin işlerlik kazanması için eklenen kişinin gelen daveti bir hafta içerisinde onaylaması gerekiyor. Kullanıcı dilediği zaman bu kişiyi değiştirme veya özelliği kapatma hakkına sahipken, eklenen kişi de istediği an sistemden ayrılabiliyor. ChatGPT tehlikeli bir söylem algıladığında ise önce kullanıcıya güvendiği kişiyle iletişime geçmesini önererek ilk uyarıyı yapıyor.
TİTİZLİKLE İNCELENİYOR
OpenAI, kullanıcıların mahremiyetini korumak adına sistemin oldukça kısıtlı bir veri paylaşımı yapacağını vurguladı. Gönderilen bildirimler, kesinlikle sohbet dökümlerini veya mesaj içeriklerini kapsamayacak şekilde tasarlandı. Eğer ChatGPT bir güvenlik riski sezerse, durum OpenAI bünyesindeki özel eğitimli bir güvenlik ekibi tarafından titizlikle inceleniyor. Uzmanlar durumun gerçekten kritik olduğuna kanaat getirirse, belirlenen yakına sadece risk durumunu bildiren kısa bir e-posta, SMS veya uygulama içi mesaj iletiliyor.
Bu özelliğin en dikkat çeken yanı, sürecin tamamen yapay zekanın insiyatifine bırakılmamış olması. Yapay zekanın yanlış bir alarm vermemesi için OpenAI’ın profesyonel ekibi her vakayı manuel olarak değerlendiriyor. Bu sayede hem kullanıcının gizliliği en üst düzeyde korunuyor hem de sadece gerçekten hayati önem taşıyan anlarda dış dünyayla temas kurulması sağlanıyor.