Yapay zekaGündem Haberleri

OpenAI ve Google DeepMind Çalışanlarından Uyarı: Yapay Zeka Kontrolden Çıkıyor mu?

OpenAI ve Google DeepMind’in eski ve mevcut çalışanları, şirketlerin iç işleyişine dair çarpıcı detayları açıklayan bir mektupla kamuoyunu uyardı.
OpenAI ve Google DeepMind Çalışanlarından Uyarı: Yapay Zeka Kontrolden Çıkıyor mu?

Teknoloji dünyasında büyük yankı uyandıran önemli bir gelişme yaşandı. Yapay zeka devleri OpenAI ve Google DeepMind’in eski ve mevcut çalışanları, şirketlerin iç işleyişine dair çarpıcı detayları ortaya koyan bir açık mektupla kamuoyunu uyardı.

Mektup, yedi eski OpenAI çalışanı, dört mevcut OpenAI çalışanı, bir eski Google DeepMind çalışanı ve bir mevcut Google DeepMind çalışanı tarafından imzalandı. Bu açık mektup, yapay zeka teknolojilerinin potansiyel riskleri ve bu risklerin yönetimi konusundaki ciddi endişeleri dile getiriyor.

OpenAI ve Google DeepMind çalışanları, gelişmiş yapay zekanın yaratabileceği risklere karşı herkesi uyardı.

OpenAI ve Google DeepMind Çalışanlarından Uyarı: Yapay Zeka Kontrolden Çıkıyor mu?

Yayınlanan açık mektupta, yapay zeka teknolojilerinin mevcut eşitsizlikleri daha da derinleştirebileceği, manipülasyon ve yanlış bilgilendirme yayılmasına yol açabileceği ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlık için varoluşsal tehditler oluşturabileceği vurgulandı.

Çalışanlar, şirketlerin bu riskleri kabul ettiklerine dikkat çekerek, mevcut kurumsal yönetim yapılarının bu sorunları çözmede yetersiz olduğunu belirtiyor. Ayrıca, yapay zeka şirketlerinin risk seviyeleri hakkında bilgi paylaşmaktan ve denetimden kaçınmak için güçlü mali teşviklere sahip olduklarını da ifade ediyorlar.

İşte çalışanların yayınladığı açık mektup:

OpenAI ve Google DeepMind Çalışanlarından Uyarı: Yapay Zeka Kontrolden Çıkıyor mu?

İleri Yapay Zeka Hakkında Uyarı Yapma Hakkı

Bizler ileri yapay zeka şirketlerinde çalışan veya çalışmış kişiler olarak, yapay zeka teknolojisinin insanlığa benzeri görülmemiş faydalar sunma potansiyeline inanmaktayız.

Aynı zamanda, bu teknolojilerin yarattığı ciddi risklerin de farkındayız. Bu riskler, mevcut eşitsizliklerin daha da pekişmesinden, manipülasyon ve yanlış bilgi yayılımına kadar uzanmakta ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlığın yok olmasına kadar varan sonuçlar doğurabilir.

Yapay zeka şirketleri ise bu riskleri kabul etmektedir [OpenAI, Anthropic, Google DeepMind], dünya genelindeki hükümetler [ABD, Birleşik Krallık, Bletchley Deklarasyonu’ndaki 26 ülke] ve diğer yapay zeka uzmanları da bu risklerin farkındadır.

Bu risklerin; bilim camiası, politikacılar ve kamuoyunun yeterli yönlendirmeleri ile uygun bir şekilde azaltılabileceği konusunda ümitliyiz. Ancak yapay zeka şirketlerinin etkili denetimden kaçınmak için güçlü finansal teşvikleri var ve özel kurumsal yönetim yapılarının bunu değiştirmeye yeterli olacağına inanmıyoruz.

Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerin yeterliliği ve farklı türlerdeki zararların risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahipler. Ancak şu anda hükümetlerle bu bilgilerin bir kısmını paylaşma konusunda zayıf yükümlülüklere sahipler, sivil toplumla ise hiçbirini paylaşmıyorlar. Tüm bilgileri gönüllü olarak paylaşacakları konusunda hepsinin güvenilebileceğini de düşünmüyoruz.

Yapay zeka şirketleri üzerinde etkin bir hükümet denetimi yapılmadığı sürece, mevcut ve eski çalışanlar bahsi geçen şirketleri kamuya karşı sorumlu tutabilecek çok az sayıdaki kişiler arasındadır. Ancak geniş gizlilik anlaşmaları, endişelerimizi sadece bu sorunları ele almayan şirketlere iletmemize izin vermektedir.

Mevcut ihbarcı (whistleblower) korumaları, yasa dışı faaliyetlere odaklandıkları için yeterli değildir çünkü endişe duyduğumuz birçok risk henüz düzenlenmemiştir. Sektördeki benzer vakaların geçmişi göz önüne alındığında bazılarımız çeşitli misillemelerden haklı olarak korkmaktadır. Bu sorunlarla karşılaşan veya bunları dile getiren ilk kişiler de biz değiliz.

Bu nedenle ileri yapay zeka şirketlerine aşağıdaki ilkelere bağlı kalmaları çağrısında bulunuyoruz:

  • Şirket, riskle ilgili endişeler nedeniyle şirketin eleştirilmesini veya aşağılanmasını yasaklayan herhangi bir anlaşmaya girmeyecek veya uygulamayacak veya riskle ilgili eleştiriler nedeniyle hiçbir ekonomik kazancı engelleyerek misilleme yapmayacaktır;
  • Şirket, mevcut ve eski çalışanlarının riskle ilgili endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerini sağlamak için bir süreç başlatacaktır;
  • Şirket, ticari sırlar ve diğer fikri mülkiyet çıkarları uygun şekilde korunmak koşuluyla mevcut ve eski çalışanlarının riskle ilgili endişelerini kamuya, şirketin yönetim kuruluna, düzenleyicilere veya ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerine izin veren açık eleştiri kültürünü destekleyecektir;
  • Şirket, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açıklayan mevcut ve eski çalışanlara misilleme yapmayacaktır. Riskle ilgili endişeleri bildirme çabalarının gereksiz yere gizli bilgileri ifşa etmemesi gerektiğini kabul ediyoruz. Bu nedenle çalışanların endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa bildirebilecekleri yeterli bir süreç var olduğunda, endişelerin öncelikle bu süreçle iletilmesi gerektiğini kabul ediyoruz. Ancak, böyle bir süreç mevcut olmadığı sürece, mevcut ve eski çalışanların endişelerini kamuya bildirme özgürlüğünü korumaları gerektiğine inanıyoruz.”

Bu mektuba imza atanlar arasında eski OpenAI çalışanları Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Wainwright ve Daniel Ziegler ile eski Google DeepMind çalışanı Ramana Kumar ve eski Anthropic mevcut Google DeepMind çalışanı Neel Nanda yer alıyor. Ayrıca 4 mevcut 2 eski OpenAI çalışanı da anonim bir şekilde açık mektubu imzaladı.

Mektubun aslını righttowarn.ai buradan okuyabilirsiniz.

Paylaşımlar:

İlgili Haberler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir