Yapay zeka

Meta, Riskli Gördüğü Yapay Zeka Sistemlerini Durduracak

Meta, yürüttüğü yeni politikasıyla birlikte riskli gördüğü yapay zeka sistemlerine dair çalışmaları durdurma kararı alabilecek.
Meta AI

Meta, diğer şirketlerle rekabet edebilmek adına yapay zeka alanındaki çalışmalarını sürdürüyor. Şirket bu kapsamda 2025 yılında yapay zekaya 65 milyar dolar yatırım yapacağını açıklamıştı. Meta, yapay zeka konusunda yeni bir adım atma kararı aldı.

Şirket, riskli gördüğü yapay zeka sistemlerine dair çalışmaların ve yayınlanmasının durdurabileceğini açıkladı.

Meta, yapay zeka güvenliği konusunda yeni bir adım atıyor.

Zuckerberg tarafından 2025 yılında yapay zeka alanında 65 milyar dolar yatırım yapacağı açıklanan Meta, teknolojinin güvenliği adına önemli bir karar almak üzere. Şirket, riskli gördüğü yapay zeka sistemlerine ait çalışmalar ve yayınların durdurabileceğini duyurdu. Meta, siber güvenlik ve biyogüvenlik alanlarında büyük riskler taşıyan yapay zeka sistemlerine odaklanan bu politikaya Frontier AI Framework adını verdi.

Şirket bu politikayla birlikte yapay zeka sistemlerini yüksek ve kritik risk olarak ikiye ayıracak. Yüksek risk taşıyan sistemler, siber saldırıları veya biyolojik tehditleri kolaylaştırabilirken, kritik risk seviyesindeki sistemler “felaket niteliğinde” sonuçlara yol açabilecek düzeyde tehlikeli olarak tanımlanıyor. Meta, güvenlik önlemi alınmadan riskli olan yapay zeka sistemlerine dair nihai kararın üst düzey yöneticiler tarafından verileceğini açıkladı. Yüksek riskli sistemlerin geliştirilmesi ise ancak belirlenen güvenlik önlemleriyle sınırlı şekilde devam edecek.

Kaynak: Webrazzi
Paylaşımlar:
Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir