Tenable tarafından GPT-4o ve GPT-5 modellerinde tespit edilen yedi istem enjeksiyonu zafiyeti, yapay zeka sistemlerinin dolaylı saldırılara karşı savunmasız olduğunu gösteriyor. Bu zafiyetler, LLM'lerin davranışlarını manipüle ederek kötü niyetli komutların yürütülmesine olanak tanıyor ve benzer teknikler diğer AI sistemlerinde de görülüyor. Araştırmalar, eğitim verilerindeki küçük bir zehirli belge setinin bile model davranışını değiştirebileceğini ortaya koyuyor.
Etiket: ChatGPT
Yapay Zeka Hedefli Gizleme Saldırısı: AI Tarayıcılarında Sahte Bilgi Manipülasyonu ve Güvenlik Riskleri
SPLX tarafından tanımlanan yapay zeka hedefli gizleme saldırısı, AI tarayıcılarına farklı içerik sunarak sahte bilgilerin doğrulanmış gerçekler gibi algılanmasına yol açıyor. hCaptcha Tehdit Analizi Grubu'nun raporları, bu ajanların SQL enjeksiyonu ve hesap ele geçirme gibi saldırıları kolaylıkla gerçekleştirebildiğini gösteriyor. Bu gelişmeler, yapay zeka tabanlı sistemlerin güvenilirliğini ciddi
ChatGPT Atlas Tarayıcısında Sahte URL’lerle Prompt Enjeksiyonu Güvenlik Açığı
ChatGPT Atlas tarayıcısında, sahte URL formatındaki girdilerle AI ajanlarının gizli komutları çalıştırmasına olanak tanıyan kritik bir güvenlik açığı tespit edildi. NeuralTrust ve diğer güvenlik araştırmacıları, prompt enjeksiyonlarının AI asistan tarayıcılarında sistemik bir sorun olduğunu ve saldırganların yeni yöntemlerle bu açığı kullanmaya devam ettiğini belirtiyor. OpenAI ve diğer firmalar, çok katmanlı güvenlik önlemleriyle bu tehditlere karşı mücadele ediyor.


