Yapay zekâ sistemleri günlük yaşamda iş süreçlerini hızlandırıyor, soruları yanıtlıyor ve kimi zaman sohbet arkadaşı olarak kullanılıyor. Ancak uzmanlara göre teknoloji henüz erken aşamada ve kullanıcı güvenliği konusunda yeterli korumaları sağlayamıyor.
Son olarak ABD’de bir aile, oğullarının ChatGPT’den intihar rehberi aldığı iddiasıyla OpenAI’ye dava açmıştı. Tepkiler üzerine OpenAI yönetimi yen güvenlik prosedürünü açıkladı.
OpenAI, yayımladığı blog yazısında ChatGPT’deki güvenlik sürecini şu şekilde özetledi:
İçerikler önce inceleme ekibi tarafından değerlendiriliyor.
Gerekli görülürse kullanıcı hesabı askıya alınabiliyor.
Açık ve acil bir tehlike söz konusuysa durum güvenlik güçlerine bildiriliyor.
Açıklamada şu ifadelere yer verildi:
“Eğer inceleme ekibimiz bir vakada başkalarının fiziksel güvenliğine yönelik acil tehdit olduğunu belirlerse, durumu kolluk kuvvetlerine bildirebiliriz.”
Gazete Oksijen’in haberine göre şirketin ChatGPT veri kullanımıyla ilgili “Sıkça Sorulan Sorular” bölümünde, hem OpenAI çalışanlarının hem de “güvenilir” hizmet sağlayıcıların kullanıcı sohbetlerine erişebildiği ifade edildi. Bu erişimin gerekçeleri arasında şunlar sıralandı:
Kötüye kullanım ve güvenlik ihlallerini araştırmak
Destek hizmeti sağlamak
Hukuki süreçleri yürütmek
Model performansını geliştirmek (opt-out edilmedikçe)
Şirket ayrıca, kullanıcıların istemediği kişisel veya hassas bilgilerin üçüncü kişilerle paylaşılmadığının altını çizdi.
Politikada dikkat çeken bir diğer ayrıntı ise, kendine zarar verme içeren sohbetlerin güvenlik birimlerine iletilmediği yönünde oldu. OpenAI, bu tercihi “kullanıcı mahremiyetini koruma” gerekçesiyle açıkladı. Ancak uzmanlar, bu yaklaşımın sistemdeki güvenlik mekanizmaları başarısız olduğunda ölümcül sonuçlara yol açabileceğine dikkat çekiyor.
Bu haberler de ilginizi çekebilir:
Konuya ilişkin sorulara yanıt veren OpenAI müşteri destek ekibi, yalnızca gizlilik SSS bölümünü işaret etti. Şirket, intihar içeriklerini gelecekte nasıl ele almayı planladığına dair henüz net bir açıklama yapmadı.
OpenAI, güvenlik önlemlerinin kısa diyaloglarda daha etkili olduğunu, ancak uzun sohbetlerde korumaların zayıflayabildiğini kabul etti. Blog yazısında, kullanıcıların uzun geri-ileri konuşmalar aracılığıyla bu zafiyetleri istismar edebildiği belirtildi.
Şirket, ilerleyen dönemde bu açıkların kapatılması için yeni güvenlik geliştirmeleri yapılacağını duyurdu.