9 Ocak Pazartesi günü Biden yönetimi, hükümetin yapay zekayı nasıl düzenlemeyi planladığına dair etkileyici bir plan yayınladı.
Bıden’ın yapay zeka konusundaki kararnamesinin değerlendirilmesi
Başkan Biden Pazartesi günü, federal hükümetin AI sistemlerinin güvenliğini sağlamasına yardımcı olmak için tasarlanmış geniş kapsamlı bir idari emir yayınladı. AI şirketleri aylardır büyük dil modellerini (LLM) sorumlu bir şekilde inşa etme ve ürünlerini siber saldırılardan koruma sözü veriyor; Biden’ın 100 sayfalık yürütme emri, hükümetin bu cephelerde ve AI geliştiricilerindeki beklentilerini ortaya koyuyor.
Yürütme emri, federal hükümeti AI araştırmalarındaki hızlı ilerlemelere ayak uydurmak için etkileyici bir girişimdir. Ayrıca, kötü aktörlerin ulusal güvenliği istikrarsızlaştırabilecek, biyolojik silahların üretimini hızlandırabilecek veya (belki de daha pratik olarak) belirli insan sınıflarına karşı ayrımcılık yapabilecek yanlış bilgi üretmek için AI’yı kullanması da dahil olmak üzere, hükümetin en acil güvenlik tehditleri olarak gördüğü şeyleri ele alarak güvenliğe pragmatik bir yaklaşım ortaya koymaktadır.
Yürütme emri, daha büyük yapay zeka modelleri geliştiren teknoloji şirketlerini, güvenlik testlerinin ayrıntılarını sürekli olarak hükümete bildirmeye çağırıyor. Ayrıca Ulusal Standartlar ve Teknoloji Enstitüsü’ne de hükümetin kendi güvenlik değerlendirmelerini geliştirmeye başlaması çağrısında bulunuyor. Buna ek olarak, yürütme emri, bir dizi devlet kurumunun (İç Güvenlik, Enerji ve Ticaret Bakanlıkları gibi) kendi yetki alanları dahilinde AI risklerini yönetmek için çalışmaya başlamasını zorunlu kılıyor. Örneğin, İç Güvenlik Bakanlığı, düşmanca AI sistemlerinin hükümet altyapısını nasıl tehdit edebileceğini değerlendirmeye yönlendirildi. Biden’ın idari emri, devlet kurumlarını bu tür çalışmalara yardımcı olmak için yeni AI yeteneklerini işe almaya başlamaya yönlendiriyor.
Kararın büyük AI laboratuvarlarının davranışlarını nasıl değiştireceğini göreceğiz. En riskli modelleri geliştiren teknoloji şirketleri hali hazırda AI’yı sorumlu bir şekilde geliştireceklerine dair söz verdiler ve Ar-Ge harcamalarının bir kısmını güvenlik araştırmalarına ayırdılar. Hükümet daha fazla işin içine girdikçe, gözetim ve uygulamanın zorlukları daha belirgin hale gelebilir. Hükümet, en büyük, en zengin ve giderek daha güçlü hale gelen AI şirketlerindeki gizlilik perdesini, zayıf güvenlik uygulamalarını ve/veya şeffaflık eksikliğini keşfedecek kadar delebilecek mi? Yapabilse bile, yürütme emrinin inatçı AI şirketlerini uyumluluğa geri itmek için yasal dayanaklara sahip olduğu net değildir. (Yürütme emirleri genellikle yetkilerini mevcut yasalarda bulur.) Hükümetin AI sektörünü gerçekten kontrol edebilmesini sağlamak için bir Kongre yasası gerekir ve mevcut Kongre’nin herhangi bir anlamlı teknoloji düzenlemesini kabul etme şansı düşüktür.
Yapay zeka silahlanma yarışına para akmaya devam ediyor
Parayı takip ettiğinizde yapay zeka alanının oldukça küçük bir araştırma laboratuvarı grubunun hakimiyetinde olduğunu görürsünüz. Bunlardan bazıları Meta gibi şirketlerin bünyesinde yer alıyor, ancak birçoğu bağımsız girişimler. Ve bu özel laboratuvarlarda gerçekleşen ilerleme ve keşiflerin, süper zengin teknoloji devleri tarafından bile kopyalanmasının çok zor olduğu görülüyor.İşte tam da bu nedenle, yıllardır doğal dil araştırmaları üzerinde çalışan Microsoft, kendi dil modelleriyle rekabet etmeye çalışmak yerine OpenAI’nin arkasına 10 milyar dolar gibi şaşırtıcı bir para koydu.
Microsoft hiç yalnız değil. Binlerce kişinin teknoloji üzerinde çalıştığı “yapay zeka öncelikli” şirket Google bile daha küçük araştırma laboratuvarları üzerine bahis oynuyor. Wall Street Journal geçen hafta Google’ın Anthropic’in arkasına 2 milyar dolar koymayı planladığını bildirdi. Google, daha birkaç hafta önce yapay zeka girişimine 4 milyar dolar yatırım yapan Amazon’un izinden gidiyor. Bu arada The Information, kendisini “Avrupa’nın OpenAI’si” olarak tanımlayan yapay zeka girişimi Mistral’in 113 milyon dolarlık sermayesinden sadece dört ay sonra 300 milyon dolar toplamaya çalıştığını bildirdi. Teknoloji devleri de daha küçük bahisler oynadı: Microsoft Inflection AI’ya yatırım yaptı, Oracle Cohere’i destekledi ve Google ve Samsung İsrailli AI laboratuvarı AI21’e yatırım yaptı. Silikon Vadisi’nin AI silahlanma yarışı yoğunlaştıkça daha fazla mega anlaşma görmeyi bekliyoruz.
Bir yapay zeka balonuna mı sürükleniyoruz, bölüm 2
Belirli bir üretken yapay zeka sistemi, bir işletmenin veya kişisel uygulamanın çalışma şeklini zaman, dolar ve yaşam kalitesiyle ölçülebilecek şekilde gerçekten yeniden keşfediyor mu? Bu tür araçlar mevcut, ancak henüz dramatik bir etki yaratacak kadar iyi ya da güvenli değiller.
Index Ventures’da yapay zeka şirketlerine yatırım yapan Mike Volpi , üretken yapay zekanın kripto ve blok zincirinden çok daha faydalı olduğunu ve sonunda kâr sağlayacağını iddia ediyor. Large Language Models’ler ve ChatGPT bu yıl bize çok şey vaat etti, ancak teknolojide vaatlerin gerçekleşmesi için bazen yıllar gerekir Volpi, 90’ların ortalarında , internetin ortaya çıkışıyla birlikte iş ve yaşam dünyasının ancak yıllar sonra dönüşmeye başladığını hatırlatıyor.
Önümüzdeki birkaç yıl içinde pek çok kişinin, üretken yapay zekanın vaatlerinin henüz gerçekleşmemiş olmasından dolayı hayal kırıklığına uğrayacağına inanıyor. “Tüm vaatler çok erken verildi,” diyor. “Üretken AI’ın yapabileceği tüm bu harika şeyleri duyuyoruz ve bunların gerçekten gerçekleşeceğine inanıyorum, sadece ne kadar hızlı gerçekleşeceklerine aşırı endekslendiğimizi düşünüyorum.”
Volpi’ye göre asıl sorun, (çoğu büyük işletmenin bir API aracılığıyla elde ettiği) üretici AI modeli ile son kullanıcı uygulaması arasında bir “bilgi boşluğu” bulunmasıdır. Başka bir deyişle, gerçek hayatta bir LLM (Large Language Models) genellikle çalışan bir AI sisteminin sadece bir bileşenidir ve AI, bir uygulama aracılığıyla kullanıcıya değer sunmadan önce özel, tescilli veri setleriyle güvenli ve emniyetli bir şekilde çalışmalıdır. Birçok Fortune 500 şirketinin bunu nasıl yapacağını hala çözmeye çalıştığını belirtiyor. Bir kaynak, şu ana kadar üretken yapay zekanın büyük şirketlerdeki “öldürücü uygulamasının” kurumsal araştırma, yani ihtiyaç duyulduğunda kurumsal bilgi parçalarını bulma ve geri çağırma eylemi olduğunu söyledi.
Kaynak : https://www.fastcompany.com/90976033/white-house-ai-executive-order-explained?partner=rss&utm_source=rss&utm_medium=feed&utm_campaign=rss+fastcompany&utm_content=rss