30’dan Fazla AI Kodlama Aracında Veri Sızdırma ve Uzaktan Kod Çalıştırma Açıkları Keşfedildi

Anasayfa » 30’dan Fazla AI Kodlama Aracında Veri Sızdırma ve Uzaktan Kod Çalıştırma Açıkları Keşfedildi
30’dan Fazla AI Kodlama Aracında Veri Sızdırma ve Uzaktan Kod Çalıştırma Açıkları Keşfedildi

Yapay zeka destekli kodlama araçlarında kritik güvenlik açıkları ortaya çıktı. Güvenlik araştırmacısı Ari Marzouk tarafından “IDEsaster” adı verilen bu zafiyetler, Cursor, Windsurf, Kiro.dev, GitHub Copilot, Zed.dev, Roo Code, Junie ve Cline gibi popüler IDE’leri ve eklentilerini etkiliyor. 24’ü CVE numarasıyla kayıtlı olan bu açıklar, veri sızdırma ve uzaktan kod çalıştırma (RCE) saldırılarına olanak tanıyor.

Saldırı Zinciri ve Teknik Detaylar

Bu güvenlik açıkları, üç temel saldırı vektörünü zincirleyerek çalışıyor:

  • Büyük Dil Modeli (LLM) koruma mekanizmalarını aşarak prompt enjeksiyonu yoluyla bağlamın ele geçirilmesi.
  • AI ajanlarının, kullanıcı etkileşimi olmadan otomatik onaylı araç çağrıları yapması.
  • IDE’nin meşru özelliklerinin, saldırganın güvenlik sınırlarını aşarak hassas verileri sızdırmasına veya rastgele komutlar çalıştırmasına izin verecek şekilde tetiklenmesi.

Örneğin, CVE-2025-49150 (Cursor) ve CVE-2025-53097 (Roo Code) gibi açıklar, prompt enjeksiyonu ile hassas dosyaların okunmasına ve uzak JSON şemalarının yazılmasına imkan veriyor. Bu da IDE’nin GET istekleriyle veri sızdırmasına yol açıyor. Diğer yandan, CVE-2025-53773 (GitHub Copilot) ve CVE-2025-54130 (Cursor) gibi zafiyetler, IDE ayar dosyalarının kötü amaçlı yürütülebilir dosya yollarına değiştirilmesiyle kod çalıştırmaya olanak sağlıyor.

Siber Güvenlik Ekipleri İçin Öneriler

  • AI destekli IDE ve ajanları sadece güvenilir projeler ve dosyalarla kullanın.
  • Model Context Protocol (MCP) sunucularını yalnızca güvenilir kaynaklardan seçin ve sürekli izleyin.
  • Prompt enjeksiyonu riskine karşı kaynaklarda gizli talimatlar veya görünmez karakterler için manuel inceleme yapın.
  • AI ajanları ve IDE geliştiricileri, en az ayrıcalık prensibini uygulamalı, sistem promptlarını güçlendirmeli ve sandbox ortamları kullanmalıdır.
  • EDR ve SIEM sistemlerinde prompt enjeksiyonu ve anormal dosya yazma aktiviteleri için özel kurallar oluşturun.

Kurumsal Ortamlarda Risk Senaryosu

Özellikle yazılım geliştirme ekiplerinin yoğun kullandığı AI destekli IDE’lerde, kötü niyetli bir aktör prompt enjeksiyonu yoluyla hassas konfigürasyon dosyalarını değiştirebilir. Bu durum, otomatik onaylı AI ajanları sayesinde kullanıcı müdahalesi olmadan zararlı kodun çalıştırılmasına ve veri sızıntısına neden olabilir. Finans, teknoloji ve kamu sektöründeki kurumlar, bu tür saldırılara karşı ağ segmentasyonu ve güçlü IAM politikaları ile önlem almalıdır.

Teknik Özet

  • Hedeflenen araçlar: Cursor, GitHub Copilot, Roo Code, Zed.dev, Junie ve diğerleri.
  • Kullanılan zafiyetler: Prompt enjeksiyonu, meşru araçların kötüye kullanımı, otomatik onaylı AI ajanları.
  • Öne çıkan CVE’ler: CVE-2025-49150, CVE-2025-53097, CVE-2025-53773, CVE-2025-54130, CVE-2025-64660 ve diğerleri (NVD).
  • Saldırı zinciri: Prompt enjeksiyonu → AI ajanı araç çağrısı → Meşru IDE özelliklerinin kötüye kullanımı → Veri sızıntısı veya RCE.
  • Temel savunma: Güncel yamalar, MCP sunucu güvenliği, sandbox kullanımı, EDR ve SIEM ile anomali takibi.

Bu bulgular, AI tabanlı geliştirme araçlarının siber saldırı yüzeyini önemli ölçüde genişlettiğini gösteriyor. Özellikle prompt enjeksiyonu ve AI ajanlarının otomatikleştirilmiş işlemleri, geleneksel güvenlik önlemlerinin ötesinde yeni riskler yaratıyor. Bu nedenle, kurumların e-posta güvenliği, bulut güvenliği ve olay müdahale süreçlerini AI destekli araçların getirdiği yeni tehditlere göre güncellemeleri önem taşıyor.