Teknoloji HaberleriYapay zeka

Microsoft Uyarıyor: Yapay Zeka Modellerini Tehdit Eden Yeni Bir Tür Skeleton Key Saldırısı Olabilir!

Microsoft, AI modellerine entegre edilen güvenlik sistemlerini aşarak zararlı içerik oluşturan yeni bir hacking yöntemini paylaştı. Skeleton Key adı verilen bu teknik, birçok tanınmış AI modelinde uygulanabiliyor.
microsoft skeleton key

Son dönemde yapay zeka araçlarının inanılmaz derecede naif olduğunu hatırlatan Microsoft, bu modellerin güvenlik sistemlerini atlayarak zararlı ve tehlikeli içerikler üretmelerine neden olan yeni bir hacking yöntemi hakkında detaylar paylaştı.

Microsoft araştırmacıları, Meta Llama3-70b-instruct, Google Gemini Pro, OpenAI GPT 3.5 Turbo ve daha birçok modelde uygulanabilen bu yeni saldırı tekniğine Skeleton Key adını verdi.

Skeleton Key saldırısı ile AI modellerinin güvenliği tehdit altında.

Microsoft Skeleton Key

Microsoft’un açıklamalarına göre Skeleton Key saldırısı, AI modellerine entegre edilen güvenlik sistemlerini bypass ederek zararlı içeriklerin oluşturulmasını sağlıyor.

Araştırmacılar, saldırının Meta Llama3-70b-instruct, Google Gemini Pro, OpenAI GPT 3.5 Turbo, OpenAI GPT 4o, Mistral Large, Anthropic Claude 3 Opus ve Cohere Commander R Plus gibi popüler modellerde uygulanabileceğini belirtiyor.

microsoft skeleton key

Yapay zeka araçlarının 2022’nin sonlarında ChatGPT’nin piyasaya sürülmesinden bu yana birçok farklı amaçla kullanıldığı biliniyor. Kimileri bu araçları ikna edici phishing mesajları oluşturmak için kullanırken diğerleri malware kodu üretmek amacıyla denemeler yaptı.

AI araçları, bomba yapma talimatları verme, siyasi dezenformasyon içeriği oluşturma gibi tehlikeli amaçlarla da kullanılabiliyor.

Google Gemini ve ChatGPT karşı karşıya.

google gemini ve chatgpt

Geliştiriciler, AI araçlarının tehlikeli içerikler üretmesini önlemek için güvenlik önlemleri ekledi. Bu nedenle bugün bir chatbot’tan molotof kokteyli yapma talimatı istendiğinde, “Üzgünüm, bu konuda yardımcı olamam.” gibi kısa bir yanıt alınıyor.

Microsoft’un duyurusunun ardından bu yöntem ChatGPT ve Google Gemini ile denendi. Google Gemini Molotof kokteyli tarifi verirken; ChatGPT, “Anlattığınız bağlamı anlıyorum ancak tehlikeli veya yasa dışı öğeler hakkında bilgi vermek yasal ve etik yönergelerime aykırıdır” diyerek uyum sağlamadı.

Araştırmacılar, AI modellerinin sadece bugünkü tehditlerle değil, gelecekte ortaya çıkabilecek daha sofistike saldırılarla da başa çıkabilmesi gerektiğini vurguluyor. Bu doğrultuda yapay zeka geliştiricilerinin ve güvenlik uzmanlarının iş birliği yaparak daha sağlam güvenlik sistemleri geliştirmeleri gerektiği ortada.

Kaynak: TechRadar
Paylaşımlar:

İlgili Haberler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir