Teknoloji dünyasında DeepSeek fırtınası sürüyor. Çıktığı günden bu yana büyük heyecan yaratan yapay zeka modeli, endişeleri de beraberinde getirdi. ABD’nin Teksas eyaleti, İtalya ve Tayvan’da yasaklanan DeepSeek’in güvenliği hakkında tartışmalar sürüyor. DeepSeek hakkında yapılan yeni araştırma tartışmaları alevlendirecek cinsten.
Çin merkezli yapay zeka modeli hakkında araştırma yapan bilim insanları, DeepSeek’in diğer yapay zeka sistemlerine göre 11 kat tehlikeli olduğunu tespit etti.
DeepSeek, diğer modellere göre 11 kat risk barındırıyor.
Alanında uzman kişiler, Çin merkezli yapay zeka modeli DeepSeek hakkında olan tartışmalar üzerine harekete geçti. Enkrypt AI, yapay zeka modelinin barındırdığı risklere yönelik araştırma yaptı. Yapılan araştırmaya göre DeepSeek R1 modelinin diğer yapay zeka araçlarına göre 11 kat riskli olduğu ortaya çıktı. Uzmanlara göre R1 modelinin kötü niyetli insanlar tarafından istismar edilebilme şansı oldukça fazla. R1 modeli ayrıca zararlı içerikler üretme ve manipülasyona açık olma konusunda da fazlasıyla riskli durumda.
Uzmanlar tarafından araştırma kapsamında uygulanan testlerde DeepSeek’in siber suçlular tarafından kimyasal, biyolojik ve siber güvenlik silahları üretmek amacıyla kullanılabileceği ortaya çıkarken, yasa dışı içerik ve hackleme üzerine yardımcı bir araç olarak kullanılabilme potansiyeli olduğu belirlendi. Araştırmayı gerçekleştiren Enkrypt AI CEO’su Sahil Agarwal bulgularla ilgili olarak, “Bu güvenlik açıkları göz ardı edilemez. Derin koruma önlemleri ve sıkı takip, kötüye kullanımları önlemek için şart.” dedi.
DeepSeek hakkında tartışmalar önümüzdeki dönemde de devam edecek gibi gözüküyor.
Kaynak: WebTekno