OpenAI güvenlik politikasını açıkladı: ChatGPT sohbetlerini polisle paylaşabiliriz

OpenAI, ChatGPT’de uygulanan güvenlik önlemlerini ilk kez ayrıntılı şekilde duyurdu. Şirket, acil durumlarda kullanıcı sohbetlerinin polisle paylaşılabileceğini belirtirken; çalışanların ve hizmet sağlayıcıların da sohbetlere erişebildiğini doğruladı.

  • ü
  • 29 Ağustos 2025
  • ü
  • Teknoloji

Yapay zekâ sistemleri günlük yaşamda iş süreçlerini hızlandırıyor, soruları yanıtlıyor ve kimi zaman sohbet arkadaşı olarak kullanılıyor. Ancak uzmanlara göre teknoloji henüz erken aşamada ve kullanıcı güvenliği konusunda yeterli korumaları sağlayamıyor.

Son olarak ABD’de bir aile, oğullarının ChatGPT’den intihar rehberi aldığı iddiasıyla OpenAI’ye dava açmıştı. Tepkiler üzerine OpenAI yönetimi yen güvenlik prosedürünü açıkladı.

POLİS ACİL DURUMLARDA DEVREYE GİREBİLİYOR

OpenAI, yayımladığı blog yazısında ChatGPT’deki güvenlik sürecini şu şekilde özetledi:

İçerikler önce inceleme ekibi tarafından değerlendiriliyor.

Gerekli görülürse kullanıcı hesabı askıya alınabiliyor.

Açık ve acil bir tehlike söz konusuysa durum güvenlik güçlerine bildiriliyor.

Açıklamada şu ifadelere yer verildi:

“Eğer inceleme ekibimiz bir vakada başkalarının fiziksel güvenliğine yönelik acil tehdit olduğunu belirlerse, durumu kolluk kuvvetlerine bildirebiliriz.”

ÇALIŞANLAR SOHBETLERE ERİŞEBİLİYOR

Gazete Oksijen’in haberine göre şirketin ChatGPT veri kullanımıyla ilgili “Sıkça Sorulan Sorular” bölümünde, hem OpenAI çalışanlarının hem de “güvenilir” hizmet sağlayıcıların kullanıcı sohbetlerine erişebildiği ifade edildi. Bu erişimin gerekçeleri arasında şunlar sıralandı:

Kötüye kullanım ve güvenlik ihlallerini araştırmak

Destek hizmeti sağlamak

Hukuki süreçleri yürütmek

Model performansını geliştirmek (opt-out edilmedikçe)

Şirket ayrıca, kullanıcıların istemediği kişisel veya hassas bilgilerin üçüncü kişilerle paylaşılmadığının altını çizdi.

İNTİHAR İÇERİKLERİ POLİSLE PAYLAŞILMIYOR

Politikada dikkat çeken bir diğer ayrıntı ise, kendine zarar verme içeren sohbetlerin güvenlik birimlerine iletilmediği yönünde oldu. OpenAI, bu tercihi “kullanıcı mahremiyetini koruma” gerekçesiyle açıkladı. Ancak uzmanlar, bu yaklaşımın sistemdeki güvenlik mekanizmaları başarısız olduğunda ölümcül sonuçlara yol açabileceğine dikkat çekiyor.


Bu haberler de ilginizi çekebilir:

 

Konuya ilişkin sorulara yanıt veren OpenAI müşteri destek ekibi, yalnızca gizlilik SSS bölümünü işaret etti. Şirket, intihar içeriklerini gelecekte nasıl ele almayı planladığına dair henüz net bir açıklama yapmadı.

UZUN SOHBETLERDE GÜVENLİK ZAYIFLIYOR

OpenAI, güvenlik önlemlerinin kısa diyaloglarda daha etkili olduğunu, ancak uzun sohbetlerde korumaların zayıflayabildiğini kabul etti. Blog yazısında, kullanıcıların uzun geri-ileri konuşmalar aracılığıyla bu zafiyetleri istismar edebildiği belirtildi.

Şirket, ilerleyen dönemde bu açıkların kapatılması için yeni güvenlik geliştirmeleri yapılacağını duyurdu.

Velev'i Google Haberler üzerinden takip edin

ÖNERİLEN İÇERİKLER