
Yapay zekâ teknolojilerinin hızla hayatımıza girmesiyle birlikte güvenlik tartışmaları da giderek yoğunlaşıyor. Son olarak, ChatGPT’de keşfedilen hayati bir güvenlik açığı, bu endişeleri yeniden alevlendirdi. Gmail üzerinden kişisel verilerin sızdırılmasına imkân veren bu açık, yapay zekâ araçlarının ne kadar savunmasız olabileceğini bir kez daha gözler önüne serdi.
Radware adlı siber güvenlik firmasının “Shadow Leak” adını verdiği çalışmada, yapay zekâ ajanlarının işleyişindeki bir zafiyet hedef alındı. Araştırmacılar, ChatGPT’nin Deep Research aracını, Gmail’e gönderdikleri özel bir e-postanın içine gizlenmiş komutlarla manipüle etmeyi başardı.
Saldırı, kullanıcının farkında olmadan aracı çalıştırmasıyla aktif hale geliyor. Sistem, e-postadaki gizli talimatları algılayıp kullanıcının kişisel verilerini dışarıya sızdırabiliyor. Bu saldırıyı geleneksel siber saldırılardan ayıran en önemli özellik ise doğrudan OpenAI’ın bulut altyapısı üzerinden gerçekleştirilmesi. Bu durum, saldırının tespit edilmesini ve önlenmesini son derece zorlaştırıyor.
Uzmanlar, bu yöntemin sadece Gmail ile sınırlı olmadığını, Outlook, GitHub, Google Drive ve Dropbox gibi diğer popüler bulut servislerinde de benzer riskler taşıdığını belirtiyor. OpenAI, açığı hızlı bir şekilde kapatmış olsa da, bu olay yapay zekâ ajanlarının getirdiği yeni nesil güvenlik tehditlerinin ne kadar ciddi olduğunu gösteren önemli bir örnek teşkil ediyor.