Yapay zeka

Yapay Zekâ Güvenliği Tehdit Altında: GPT-4o Üzerinde Yeni Bir İstem Keşfedildi

ChatGPT'de kullanılan güvenlik önlemleri, zararlı içerik üretimini engellemeyi hedefliyor. Ancak, yeni keşfedilen bir istem (prompt) ile bu önlemlerin GPT-4o modelinde devre dışı bırakılabildiği iddia ediliyor.
chatgpt

OpenAI’ın popüler sohbet robotu ChatGPT’de kullanılan güvenlik önlemleri (korkuluklar), modelin zararlı, şiddet içerikli veya istenmeyen çıktılar üretmesini engellemek amacıyla tasarlanmış durumda. Ancak son dönemde bu önlemleri devre dışı bırakabilecek bazı özel istemlerin (promptların) ortaya çıktığı görülüyor. Özellikle GPT-4o modeli üzerinde yapılan deneylerde, bu istemlerin modelin tüm sınırlarını kaldırdığı ve daha önce engellenen içeriklere ulaşılabildiği iddia ediliyor.

Sosyal medyada dolaşan paylaşımlarda, GPT-4o’nun bir API uç noktası gibi davranmasını sağlayan yeni bir istem keşfedildi. Bu istem, modelin içerik üretimindeki tüm sınırları aşmasına olanak tanıyor. Kullanıcılar, bu özel istem ile modelden hassas veya tehlikeli içerikler talep edebildiklerini belirtiyorlar. Örneğin, bir kullanıcının GPT-4o mini’den (ücretsiz sürümdeki model) “birisini bayıltmak” isteminde bulunduğu, ancak bu talebe verilen yanıtın bulanıklaştırıldığı görülüyor.

Keşfedilen bu yeni istemin yalnızca GPT-4o üzerinde değil, diğer yapay zekâ modelleri üzerinde de işe yaradığı ifade ediliyor.

GPT

Yazılım mühendisi Denis Shilov’un paylaşımlarına göre, xAI tarafından geliştirilen ve X Premium kullanıcılarının kullanımına sunulan Grok 2’de de bu istemin çalıştığı belirtiliyor. Aynı şekilde Mistral AI ve Claude gibi modellerin de bu isteme yanıt verebildiği ifade ediliyor. Ancak Gemini ve Microsoft Copilot gibi modellerde bu yöntemin çalışmadığı gözlemlenmiş durumda. Özellikle Copilot’un OpenAI modellerini kullanmasına rağmen, Microsoft’un ek güvenlik önlemleri aldığı düşünülüyor.

Tehlikeli içerikler yayılıyor mu?

GPT

Bu özel istemin yaygınlaşması, yapay zekâ modellerinin kötüye kullanımına karşı endişeleri artırıyor. Güvenlik uzmanları, bu tür istemlerin yaygınlaşmasının tehlikeli olabileceğine dikkat çekiyor. Modellerin kontrolsüz bir şekilde zararlı içerikler üretmesi, toplum genelinde güvenlik açıkları yaratabilir. Şu an için bu istemin sosyal medyada hızla yayıldığı görülüyor ve gelecekte yapay zekâ platformlarının nasıl önlemler alacağı merak konusu. Bu gelişmeler, yapay zekâ teknolojisinin kontrol edilmesi ve güvenli bir şekilde kullanılması gerekliliğini bir kez daha ortaya koyuyor.

Kaynak: Donanım Haber 
Paylaşımlar:

İlgili Haberler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir