OpenAI Çalışanlarından Kritik Uyarı: Yapay Zeka İnsanlık İçin Varoluşsal Tehdit Oluşturabilir




Çeviren: Özlem Karabulut

OpenAI, Anthropic ve Google’s DeepMind gibi öncü yapay zeka firmalarının mevcut ve eski çalışanlarından oluşan bir koalisyon, yapay zekanın gelişmiş formunun yaratabileceği varoluşsal tehditler konusunda ciddi bir uyarı yayımladı. Bu uyarı, insan neslinin tükenmesi potansiyelini de içeren geniş bir risk yelpazesine dikkat çekiyor. Koalisyon, 4 Haziran tarihinde yayımladıkları ayrıntılı bir mektupta, yapay zekanın sunduğu muazzam faydaların yanı sıra, bu teknolojinin doğurabileceği çeşitli tehditlere de odaklandı.

Mektupta, “Bizler, öncü yapay zeka şirketlerinin mevcut ve eski çalışanlarıyız ve yapay zeka teknolojisinin insanlığa eşi benzeri görülmemiş faydalar sağlama potansiyeline inanıyoruz,” ifadesine yer veriliyor. Bununla birlikte, çalışanlar mevcut endişelere de dikkat çekiyor: “Bu riskler, mevcut eşitsizliklerin daha da derinleşmesinden, manipülasyon ve yanlış bilgilendirmeye, otonom yapay zeka sistemlerinin kontrolünü kaybetmesine ve potansiyel olarak insan neslinin tükenmesine kadar uzanmaktadır.”

Mektubun imzacıları arasında, DeepMind’da Mekanistik Yorumlanabilirlik lideri olarak görev yapan ve daha önce AnthropicAI‘de çalışan Neel Nanda da yer alıyor. Neel Nanda, X platformunda yaptığı açıklamada, “Bunun nedeni şu anda mevcut ya da eski işverenlerim hakkında uyarmak istediğim bir şey olması ya da onların ihbarcılara karşı tutumlarına yönelik özel eleştirilerim olması değil,” dedi. “Ancak AGI’nin (Genel Yapay Zeka) inanılmaz derecede önemli olacağına ve tüm laboratuvarların kabul ettiği gibi varoluşsal bir tehdit oluşturabileceğine inanıyorum. AGI yapmak isteyen herhangi bir laboratuvar, halkın güvenine layık olduğunu kanıtlamalıdır ve çalışanların sağlam ve korunan bir ihbar hakkına sahip olması önemli bir ilk adımdır.”

Bu koalisyonun mektubu, yapay zeka teknolojilerinin toplumsal ve küresel düzeyde yaratabileceği olası olumsuz etkileri gözler önüne seriyor ve bu alanda çalışan firmaların daha şeffaf ve sorumlu davranmaları gerektiğini vurguluyor. Yapay zekanın gelişimi ile birlikte ortaya çıkabilecek bu tür risklerin ciddiye alınması, insanlığın geleceği açısından hayati öneme sahiptir. AGI’nin potansiyel tehlikeleri ve yapay zeka teknolojilerinin güvenli bir şekilde geliştirilmesi konusunda kamuoyunun bilinçlendirilmesi, bu tür girişimlerin temel amaçlarından biri olarak öne çıkmaktadır.

Yapay zekanın hesap verebilirliğinin ve düzenlenmesinin olmaması

Yapay zeka (YZ) şirketlerinin etkili gözetimden kaçınmak için güçlü finansal teşviklere sahip olduğunu belirten destekçiler, mevcut kurumsal ve düzenleyici önlemlerin bu tehlikeleri önlemek için yetersiz olduğunu vurguluyor. Bu bağlamda, YZ şirketlerinin etkili denetimden kaçınmak adına ciddi finansal teşviklere sahip olduğunu ve mevcut kurumsal yönetişim yapılarının bu durumu değiştirmek için yeterli olmadığını ifade ediyorlar.

YZ şirketlerinin şeffaflık eksikliğini eleştiren grup, bu şirketlerin sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve çeşitli zarar türlerinin risk seviyeleri hakkında kamuya açık olmayan kritik bilgilere sahip olduğunu iddia ediyor. Ayrıca, bu tür önemli bilgileri kamuya ifşa etme yükümlülüğünün bulunmadığını belirterek, YZ şirketlerinin şu anda hükümetlerle bazı bilgileri paylaşma konusunda yalnızca zayıf yükümlülüklere sahip olduğunu, sivil toplumla ise hiçbir yükümlülüklerinin bulunmadığını vurguluyorlar.

İşçiler, daha fazla hükümet denetimi ve kamusal hesap verebilirliğe duyulan acil ihtiyacı dile getirerek, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar onları halka karşı sorumlu tutabilecek az sayıdaki kişi arasında yer alıyor” dediler. Ayrıca, yapay zeka teknolojilerinin yarattığı düzenlenmemiş riskleri tam olarak kapsayamayan mevcut ihbarcı korumalarının sınırlamalarını da gözler önüne serdiler.

Bu açıklamalar, YZ şirketlerinin daha şeffaf ve hesap verebilir olmaları gerektiğini, hükümetlerin ve kamuoyunun ise bu şirketler üzerinde daha sıkı denetim ve kontrol mekanizmaları kurması gerektiğini açıkça ortaya koymaktadır. Yapay zekanın potansiyel tehlikelerine karşı daha etkin düzenleyici önlemler alınması, hem mevcut hem de gelecekteki risklerin azaltılması açısından büyük önem taşımaktadır.

OpenAI’nin başı dertte

Açık mektup, insanlarla canlı sesli konuşmalar yapabilen ve video akışları veya yazılı matematik problemleri gibi görsel girdilere yanıt verebilen gelişmiş özelliklere sahip yapay zeka asistanlarını piyasaya süren OpenAI başta olmak üzere önde gelen yapay zeka şirketlerinin sarsıldığı bir dönemde geldi.

Bir zamanlar “Her” filminde bir YZ asistanını canlandıran Scarlett Johansson, böyle bir teklifi açıkça reddetmesine rağmen OpenAI’yi ürünlerinden birini kendi sesinden modellemekle suçladı. OpenAI CEO’su sesli asistanın lansmanı sırasında “her” kelimesini tweetlemiş olsa da, şirket o zamandan beri Johansson’un sesini model olarak kullandığı iddialarını yalanladı.

Mayıs ayında OpenAI, kuruluşundan bir yıldan kısa bir süre sonra yapay zeka ile ilgili uzun vadeli tehditleri araştırmak üzere oluşturulan özel bir ekibi de feshetti. Geçtiğimiz Temmuz ayında OpenAI’nin güven ve güvenlikten sorumlu başkanı

RSS abonesi olun
Etkinliklerimizden haberdar olun
YouTube kanalımıza abone olun
Pinterest\\\
fb-share-icon
LinkedIn\\\
Share
Instagram\\\
Bizi Telegram kanalımızdan izleyin