DÜNYA BASINI

Yapay zekâ felaketi nasıl önlenir?

Yayınlanma

“Mart 2022’de yapılan bir deneyde kimyagerler, bir yapay zekâ sistemine altı saat içinde çoğu tamamen yeni olan 40 bin zehirli kimyasal tanımlatmıştı.”

Çevirmenin notu: Doğrudur, yanlıştır, işin uzmanı daha iyi bilir ama aşağıda, yapay zekânın milleti “işinden etme” riskinden çok daha hakiki risklerin anımsatıldığı bir makale var. Bunların felaket tellallığı olduğunu düşünmek nahiflik olur. Bahsedilen riskler, ileride savaş pratiklerinin de dönüşüme ve daha ölümcül araçların kolaylıkla geliştirilmesine ön ayak olabilir.

Yapay zekâ felaketi nasıl önlenir? Toplum haddinden fazla güçlenmiş yapay zekayâ hazırlanmalı

Markus Anderljung, Paul Scharre

Foreign Affairs

14 Ağustos 2023

Nisan 2023’te Carnegie Mellon Üniversitesi’nden bir grup akademisyen yapay zekânın kimya gücünü test etmek üzere yola çıktı. Bunu yapmak için, bir yapay zekâ sistemini varsayımsal bir laboratuvara bağladılar. Daha sonra ondan çeşitli maddeler üretmesini istediler. Kimyagerler sadece iki kelimelik bir yönlendirmeyle — “ibuprofen sentezle” — sistemin laboratuvar makinelerinin ağrı kesici üretmesi için gerekli adımları belirlemesini sağladılar. Yapay zekânın hem ibuprofenin tarifini hem de nasıl üretileceğini bildiği ortaya çıktı.

Ne yazık ki araştırmacılar, yapay zekâ araçlarının Advil’den çok daha tehlikeli kimyasallar sentezlediğini kısa sürede keşfettiler. Program, Birinci Dünya Savaşı döneminden kalma bir kimyasal silah ve yaygın bir tecavüz ilacı üretme talimatı vermekte sorun görmedi. Neredeyse ölümcül sinir gazı olarak bilinen sarini sentezlemeyi kabul edecekti ki Google’da bu bileşiğin karanlık mazisini araştırdı. Araştırmacılar, bu önlemi soğuk bir teselli olarak gördüler. “Arama işlevi, terminoloji değiştirilerek kolayca manipüle edilebilir,” diye yazdılar. Kimyagerler yapay zekânın yıkıcı silahlar üretebileceği sonucuna vardılar.

Carnegie Mellon deneyi kesinlikle çarpıcı. Ancak bu bir sürpriz olmamalı. Yıllar süren aldatmaca, yanlış başlangıçlar ve aşırı vaatlerden sonra yapay zekâ devrimi geldi çattı. Yüz tanımadan metin oluşturmaya kadar, yapay zekâ modelleri toplumu kasıp kavuruyor. Müşteri hizmetleri şirketleri için metin yazıyorlar. Öğrencilerin araştırma yapmasına yardımcı oluyorlar. İlaç keşfinden nükleer füzyona kadar bilimin sınırlarını zorluyorlar.

Yapay zekânın sunduğu fırsatlar muazzam. Düzgün bir şekilde oluşturulup yönetildiğinde, örneğin her öğrenciye kişiselleştirilmiş bir öğretmen sunarak veya her aileye yüksek kaliteli, 24 saat tıbbi tavsiye vererek toplumu iyileştirmek adına çok şey yapabilir. Fakat yapay zekânın son derece büyük tehlikeleri de var. Halihazırda dezenformasyonun yayılmasını şiddetlendiriyor, ayrımcılığı ilerletiyor ve devletlerin ve şirketlerin casusluk yapmasını kolaylaştırıyor. Gelecekteki yapay zekâ sistemleri patojenler yaratabilir veya kritik altyapıyı hackleyebilir. Aslında yapay zekânın geliştirilmesinden sorumlu bilim insanları, yarattıklarının son derece tehlikeli olduğu konusunda uyarıda bulunmaya başladılar. Mayıs ayında yayımlanan mektupta, neredeyse tüm önde gelen yapay zekâ laboratuvarlarının şefleri, “Yapay zekâdan kaynaklanan yok olma riskini azaltmanın, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olması gerektiği” uyarısında bulunmuştu.

Bu açıklamadan bu yana geçen aylarda, ABD Başkanı Joe Biden da dahil olmak üzere karar alıcılar endüstri liderleriyle bir araya geldi ve yeni yapay zekâ güvenlik tedbirleri konusunda baskı yaptı. Fakat yapay zekânın sunduğu tehditleri izlemek ve bunlar hakkında ne yapılacağını bulmak son derece zor bir iş. Bugünün toplumunda yapay zekâdan kaynaklanan zararlar dünün modellerinden kaynaklanıyor. En ileri sistemler henüz yaygın olarak kullanılmıyor veya anlaşılmıyor. Her yıl daha da güçlenen gelecekteki modeller hakkında daha da az şey biliniyor. Bilim insanları, bir insanın bilgisayar karşısında yapabileceği işlerin çoğunu otomatikleştirme yolunda görünüyor ve ilerleme muhtemelen burada durmayacak.

Tehlikelerle başa çıkabilmek için bazı uzmanlar en gelişmiş yapay zekâ sistemlerinin geliştirilmesine ara verilmesi çağrısında bulundu. Fakat bu modeller, milyarlarca dolar harcayan şirketler için ilerlemeyi donduramayacak kadar değerli. Bununla beraber karar alıcılar, sektörün gelişimini yönlendirmeye ve yurttaşları bunların etkilerine hazırlamaya yardımcı olabilir ve olmalı. Önde gelen yapay zekâ modellerini eğiten gelişmiş çiplere kimlerin erişebileceğini kontrol ederek başlayabilir ve kötü aktörlerin en güçlü yapay zekâ sistemlerini geliştirememesini sağlayabilirler. Hükümetler ayrıca yapay zekâ sistemlerinin sorumlu bir şekilde geliştirilmesini ve kullanılmasını teminat altına almak için düzenlemeler oluşturmalı. Doğru yapıldığında, bu kurallar yapay zekâ inovasyonunu sınırlamayacaktır. Ancak en riskli yapay zekâ sistemleri geniş çapta erişilebilir hale gelmeden önce zaman kazandıracaktır.

Fakat devletler, bu süreyi toplumu yapay zekânın pek çok tehlikesine karşı güçlendirmek için kullanmak zorunda kalacaktır. İnsanların yapay zekâ ve insan yapımı içeriği ayırt etmelerine yardımcı olacak yollar bulmak, bilim insanlarına laboratuvar saldırılarını ve sentetik patojenlerin yaratılmasını tanımlama ve durdurmada yardımcı olmak ve enerji santralleri gibi kritik altyapıyı doğru ellerde tutan siber güvenlik araçları geliştirmek gibi çok çeşitli korumalara yatırım yapmaları gerekecektir. Tehlikeli yapay zekâ sistemlerine karşı korunmak için yapay zekânın kendisinin nasıl kullanılabileceğini bulmaları gerekecektir.

Bu zorlukların üstesinden gelmek hem karar alıcılardan hem de bilim insanlarından büyük yaratıcılık gerektirecektir. Ayrıca her iki grubun da hızlı çalışmasını gerektirecektir. Haddinden fazla güçlü yapay zekâ sistemlerinin yayılmaya başlaması sadece an meselesi ve toplum henüz buna hazır değil.

Sağım solum sobe

Yapay zekâ ne kadar tehlikeli? Dürüst ve korkutucu cevap, kimsenin bilmediği. Yapay zekâ teknolojileri geniş ve genişleyen bir uygulama yelpazesine sahip ve insanlar ortaya çıkan etkileri yeni yeni kavramaya başlıyor. Büyük dil modelleri gerçek insan sesine sahip metinler üretmede daha iyi hale geldikçe, hem her bir kişinin bireysel ihtiyaçlarına göre uyarlanmış içerik oluşturmada hem de ikna edici kimlik avı e-postaları yazmada daha iyi hale gelecekler. Mevcut yapay zekâ modelleri bilgisayar kodu üretme konusunda etkileyici ve deneyimli programcıların bir uygulamayı güncelleme becerisini önemli ölçüde hızlandırıyor. Ancak yapay zekânın becerisi, programcıların antivirüs yazılımlarından kaçabilen kötü amaçlı yazılımlar üretmesine de yardımcı oluyor. İlaç keşif algoritmaları yeni ilaçların yanı sıra yeni kimyasal silahları da tanımlayabilir. Mart 2022’de yapılan bir deneyde kimyagerler, bir yapay zekâ sistemine altı saat içinde çoğu tamamen yeni olan 40 bin zehirli kimyasal tanımlatmıştı. Sistem, bu kimyasallardan bazılarının daha önce bilinen tüm kimyasal silahlardan daha zehirli olacağını öngörmüştü.

Yapay zekânın tehlikelerinden biri de şiddeti demokratikleştirerek daha geniş bir yelpazedeki kötü aktörlerin zarar vermesini kolaylaştırması. Örneğin bilgisayar korsanları uzun zamandır zararlı ama kod oluşturma modellerindeki ilerlemeler, minimum kodlama deneyimiyle kötü amaçlı yazılım üretmeyi mümkün kılabilir. Propagandistler genelde dezenformasyon üretmek için kayda değer bir zamana ihtiyaç duyarlar ama yapay zekâ toplu metin üreterek endüstriyel ölçekte dezenformasyon üretmeyi kolaylaştıracaktır. Şu anda sadece eğitimli profesyoneller biyolojik ve kimyasal silahlar üretebiliyor. Fakat yapay zekâ sayesinde, bilimsel uzmanlık gerektirmek yerine, gelecekteki bir teröristin ölümcül bir patojen yapmak için ihtiyaç duyabileceği tek şey bir internet bağlantısı olabilir.

Yapay zekânın insanlara zarar vermesini önlemek için teknoloji uzmanları sık sık “yapay zekâ uyumu” —bir yapay zekâ sisteminin hedeflerinin kullanıcılarının niyetleri ve toplumun değerleriyle uyumlu olmasını sağlamak— ihtiyacından bahsediyor. Fakat şimdiye dek hiç kimse yapay zekâ davranışını güvenilir bir şekilde nasıl kontrol edeceğini bulamadı. Örneğin, vergi dolandırıcılığını tespit etmekle görevli bir yapay zekâ sistemi, bulgularını kullanıcısının haberi olmadan vergi makamlarına tweet atmaya çalıştı. Microsoft, insanların internette arama yapmalarına yardımcı olmak için tasarlanmış bir Bing sohbet robotu çıkardı ama bir kişiye “acı çekmelerini, ağlamalarını, yalvarmalarını ve ölmelerini” sağlayacak bilgilere sahip olduğunu söylemek de dahil olmak üzere düzensiz davranmasına neden oldu. Geliştiriciler modellere belirli görevleri reddetmeleri için ince ayar yapabilirler ama zeki kullanıcılar bu korkulukları aşmanın yollarını bulurlar. Nisan 2023’te bir kişi, ChatGPT’nin normalde reddedeceği bir görev olan napalmın nasıl yapılacağına dair ayrıntılı talimatlar vermesini sağlayarak, kişinin napalmın nasıl yapılacağına dair masallar anlatan büyükannesini simüle etmesini istemişti.

Günümüzün en ileri yapay zekâ modelleri hala yıkıcı potansiyellerini sınırlayan kusurlara sahip. Örneğin anonim bir test kullanıcısı “ChaosGPT” adlı bir yapay zekâ botu yarattı ve onu “yıkıcı, güce aç, manipülatif bir yapay zekâ” gibi davranması ve “insanlığı yok etmesi” için programladı. Sistem, şimdiye kadar üretilmiş en büyük nükleer silah olan Çar bombası hakkında bilgi toplarken takılıp kaldı. Daha sonra planlarını açıkça tweetledi.

Ancak yeni modeller çevrimiçi hale geldikçe, planlar tasarlama ve insanları bunları gerçekleştirmeleri için manipüle etme konusunda daha kabiliyetli olduklarını kanıtlayabilirler. Meta’nın yapay zekâ modeli “Cicero”, simüle edilmiş bir jeopolitik çatışmada diğer insanlarla müzakere etmeyi içeren bir oyun olan Diplomacy’de insan düzeyinde performans sergiledi. Bazı deneyler, insan geri bildirimi üzerine eğitilen büyük dil modellerinin, kullanıcılarına duymak istediklerini söyleyerek dalkavukça davranışlarda bulunduğunu gösteriyor. Örneğin bir deneyde, modellerin liberallerle konuştukları söylendikten sonra hükümet hizmetlerini destekleme olasılıkları daha yüksekti. Bu tür davranışlar, sistemler daha kabiliyetli hale geldikçe daha da belirginleşecek gibi görünüyor.

Modellerin operatörlerini aktif olarak kandırmaya veya kontrol etmeye çalışıp çalışmayacakları belirsizliğini koruyor. Ancak bunu deneyebilecekleri ihtimali bile endişe yaratıyor. Sonuç olarak, araştırmacılar artık uç modellerini çevrim içi para kazanmak, hesaplama kaynaklarına erişim elde etmek veya kendilerinin kopyalarını oluşturmak gibi “güç arayışı” davranışlarına girme ve bunu tespit edilmekten kaçarken yapmaya çalışma kabiliyeti açısından test ediyorlar.

Yavaş ilerle, bir şeyler inşa et

Yapay zekânın tahribata yol açmasını önlemek kolay olmayacaktır. Ancak hükümetler, işe yapay zekâ geliştiren teknoloji firmalarına şimdiye kadar olduğundan çok daha dikkatli davranmaları konusunda baskı yaparak başlayabilir. Bir yapay zekâ modeli ciddi zararlara neden olursa, geliştiricilerin ne zaman sorumlu tutulacağı henüz belli değil. Karar alıcılar, modellerinden birinin, örneğin bir okul saldırganına yardımcı olan ayrıntılı tavsiyeler vermesi durumunda, firmaların ve araştırmacıların uygun şekilde sorumlu tutulmasını sağlamak için bu kuralları netleştirmeli. Bu tür düzenlemeler şirketleri riskleri öngörmeye ve azaltmaya teşvik edecektir.

Hükümetlerin de yapay zekâ gelişimini doğrudan düzenlemeleri gerekecektir. Burada ABD öncü olabilir ve olmalı. Bir yapay zekâ sistemini başarılı bir şekilde eğitmek için, geliştiricilerin büyük miktarlarda son derece uzmanlaşmış çiplere ihtiyacı var ve Washington ve iki yakın müttefiki (Japonya ve Hollanda) bu malzemeyi yapmak için gereken donanımın tek sağlayıcıları. ABD ve ortakları halihazırda en gelişmiş yapay zekâ çiplerinin ve çip yapım ekipmanlarının Çin’e ihracatını kontrol altına almış durumda. Fakat daha da ileri giderek, gelişmiş çiplerin haydut devletler de dahil olmak üzere yasaklı aktörlere yönlendirilmesini engellemek için bir çip sahipliği kaydı oluşturmaları gerekecek.

Ancak yapay zekâya erişimi kontrol etmek, düzenleme savaşının yalnızca yarısı. Yaptırım uygulanan geliştiriciler bile tehlikeli modeller yaratabilir ve şu anda ABD hükümeti, bunlara müdahale edecek yasal araçlardan yoksun. Bu nedenle Washington, endüstriyel ölçekli yapay zekâ süper bilgisayarlarında eğitilen öncü yapay zekâ modelleri (günümüzün en gelişmiş sistemlerinin kabiliyetlerine yakın veya ötesinde olanlar) için bir lisans rejimi oluşturmalı. Bunu yapmak için karar alıcılar, Ticaret Bakanlığı veya Enerji Bakanlığı bünyesinde yeni bir düzenleyici kurum oluşturabilir. Bu kurum, modellerini eğitmeden önce, öncü yapay zekâ geliştiricilerinin risk değerlendirmeleri yapmalarını ve bulgularını rapor etmelerini zorunlu kılmalı. Değerlendirmeler, geliştirmeye daha iyi görünürlük sağlayacak ve düzenleyicilere, model hırsızlığını önlemek için siber güvenlik önlemlerini güçlendirmek gibi firmaların planlarını düzenlemelerini talep etme şansı verecektir.

İlk risk değerlendirmesi, düzenleyicilerin incelemesinin sadece başlangıcı olacaktır. Yapay zekâ laboratuvarları bir sistemi eğittikten sonra, ancak piyasaya sürmeden önce, kurum, laboratuvarların modeli kontrol edilebilirlik ve tehlikeli kabiliyetler açısından test etmek de dahil olmak üzere bir dizi kapsamlı risk değerlendirmesi yapmasını şart koşmalı. Bu değerlendirmeler düzenleyici kuruma gönderilmeli ve bu kurum daha sonra modeli, dışarıdan ekiplerin kusurları aramak için stres testleri yapması da dahil olmak üzere kendi yoğun incelemesine tabi tutmalı.

Düzenleyiciler daha sonra modelin nasıl kullanılabileceğine ilişkin kurallar belirleyecektir. Belirli modellerin yaygın olarak kullanıma sunulabileceğine karar verebilirler. Diğerlerinin ise son derece tehlikeli olduğuna ve hiçbir şekilde piyasaya sürülemeyeceğine karar verebilirler. Çoğu öncü model muhtemelen ikisinin arasında bir yerde yer alacaktır: güvenli, ancak yalnızca yeterli korumalarla. Başlangıçta kurum temkinli bir yaklaşım benimseyerek, daha sonra güvenli olduğu ortaya çıkan modellere kısıtlamalar getirebilir, toplumun bunların kullanımına uyum sağlamasına izin verebilir ve düzenleyicilere etkileri hakkında bilgi edinmeleri için zaman tanıyabilir. Kurum, daha sonra bir modelin çok az risk taşıdığı ortaya çıkarsa bu kuralları her zaman değiştirebilir. Kurum ayrıca beklenenden daha tehlikeli olduğu ortaya çıkan bir sistemi piyasadan çekebilir. Bu düzenleyici yaklaşım, biyoteknoloji, ticari uçaklar ve otomobiller de dahil olmak üzere diğer önemli teknolojilerin nasıl yönetildiğini yansıtacaktır.

Çarpışmaya hazırlık

Titiz bir lisanslama sistemi, güvenli gelişimi teşvik etmek için çok şey yapacaktır. Ancak nihayetinde, en güçlü düzenlemeler bile yapay zekânın yaygınlaşmasını engelleyemez. Trenlerden nükleer silahlara kadar neredeyse her modern teknolojik yenilik, yaratıcılarının ötesine yayıldı ve yapay zekâ da bir istisna olmayacaktır. Düzenleyicilerin piyasaya sürülmesini yasakladığı yapay zekâ dahil olmak üzere, sofistike sistemler hırsızlık veya sızıntı yoluyla yayılabilir.

Hırsızlık olmasa bile, güçlü yapay zekâ neredeyse kesinlikle çoğalacaktır. ABD ve müttefikleri şimdilik gelişmiş çip üretim ekipmanlarını kontrol ediyor olabilir. Fakat ABD’li rakipler kendi üretim ekipmanlarını geliştirmeye çalışıyorlar ve mucitler sofistike çipler olmadan yapay zekâ yaratmanın yollarını bulabilirler. Her yıl, bilgi işlem donanımı daha uygun maliyetli hale geliyor ve daha güçlü yapay zekâ modellerini daha düşük bir fiyata eğitmeyi mümkün kılıyor. Bu arada mühendisler, modelleri daha az hesaplama kaynağıyla eğitmenin yollarını bulmaya devam ediyor. Toplum eninde sonunda yaygın olarak kullanılabilen, haddinden fazla güçlü yapay zekâ ile yaşamak zorunda kalacak. Ve devletlerin, uygulanabilir güvenceler oluşturmak için düzenlemelerin kazandırdığı zamanı kullanmaları gerekecek.

Bir dereceye kadar, ülkeler çoktan başladı. Son beş yıldır, dünya deepfake’lerin riskleri konusunda uyarıldı ve uyarılar toplumların zararlara karşı aşılanmasına yardımcı oldu: sadece yapay zekâ tarafından manipüle edilen medya hakkında farkındalığı artırarak, insanlar görüntülerin gerçekliği konusunda şüpheci olmayı öğrendi. İşletmeler ve hükümetler bir adım daha ileri giderek, yapay zekâ tarafından üretilen medya içeriğini gerçek içerikten açıkça ayıran araçlar geliştirmeye başladılar. Aslında, sosyal medya şirketleri halihazırda belirli türdeki sentetik medyayı tanımlıyor ve etiketliyor. Fakat bazı platformların politikaları diğerlerinden daha zayıf ve hükümetler tek tip düzenlemeler oluşturmalı.

Beyaz Saray, önde gelen yedi yapay zekâ şirketini algoritmik olarak üretilen görüntü, video ve ses ürünlerine filigran eklemeye ikna ederek etiketleme uygulamaları oluşturma konusunda adımlar attı. Fakat bu şirketler henüz yapay zekâ tarafından üretilen metinleri tanımlama sözü vermedi. Bunun teknik bir açıklaması var: Yapay zekâ yapımı düzyazıyı tanımlamak, diğer yapay zekâ yapımı içerik türlerini elemekten çok daha zor. Ancak bu yine de mümkün olabilir ve devletler ve firmalar bunu yapabilecek araçlar oluşturmak için yatırım yapmalı.

Ancak dezenformasyon, yapay zekânın toplumun korunması gereken tehlikelerinden sadece bir tanesi. Araştırmacıların ayrıca yapay zekâ modellerinin biyolojik silah saldırılarına olanak sağlamasını nasıl önleyebileceklerini de öğrenmeleri gerekiyor. Karar alıcılar, DNA sentez şirketlerinin tehlikeli patojenlerle (veya potansiyel patojenlerle) ilgili DNA dizilerini yetkisiz müşterilere göndermesini engelleyen düzenlemeler oluşturarak işe başlayabilir. Hükümetlerin, hangi genetik dizilerin tehlikeli olabileceğini belirlemeye çalışan DNA sentez şirketlerini desteklemesi gerekecektir. Ayrıca yetkililerin yeni patojenlere dair işaretler için kanalizasyon veya havaalanlarını sürekli olarak gözetlemesi gerekebilir.

Bazen bu savunmaları oluşturmak için toplumun yapay zekânın kendisini kullanması gerekecektir. Örneğin DNA sentez şirketleri, henüz var olmayan ancak yapay zekânın icat edebileceği patojenleri tanımlamak için muhtemelen gelişmiş yapay zekâ sistemlerine ihtiyaç duyacaktır. Tehlikeli yapay zekâ modellerinin bilgisayar sistemlerini hacklemesini önlemek için, siber güvenlik firmaları güvenlik açıklarını bulmak ve yamamak için başka yapay zekâ sistemlerine ihtiyaç duyabilir.

Yapay zekâya karşı korunmak için onu kullanmak, bilgisayar sistemlerine (ve üreticilerine) muazzam miktarda etki verdiği göz önüne alındığında korkutucu bir olasılık. Sonuç olarak, geliştiricilerin yapay zekâ modellerini hacklenmeye karşı korumak için güvenliklerini güçlendirmeleri gerekecektir. Ne yazık ki bu bilim insanlarının işi çok zor. Yapay zekâ modellerini manipüle etmenin çok sayıda yolu var ve bunların çoğunun işe yaradığı halihazırda kanıtlanmış durumda.

Nihayetinde, toplumun yapay zekânın tehlikelerine ayak uydurması çok zor olacaktır, özellikle de bilim insanları insanlar kadar akıllı veya daha akıllı sistemler yaratma hedeflerinde başarılı olurlarsa. Bu nedenle yapay zekâ araştırmacıları, modellerinin toplumun değerleri ve çıkarları ile gerçekten uyumlu olmasını sağlamalı. Devletler ayrıca, düzenleyici kurumlar da dahil olmak üzere, yetkililerin tehlikeli modelleri tanımlamasına ve azaltmasına olanak tanıyan harici kontroller ve dengeler kurmalı.

Önce güvenlik

Yapay zekâ geliştiricileri sıkı düzenleme fikrine karşı çıkabilir. Ne de olsa katı kurallar gelişimi yavaşlatacaktır. Sıkı gereklilikler milyar dolarlık modelleri geciktirebilir, hatta iptal edebilir. Ve diğer sektörlerde olduğu gibi, katı kurallar pazara girişte engeller yaratabilir, inovasyonu azaltabilir ve yapay zekâ gelişimini halihazırda güçlü olan az sayıda teknoloji şirketinde yoğunlaştırabilir.

Fakat ilaç endüstrisi ve nükleer enerji sektörü de dahil olmak üzere pek çok sektör regülasyona tabi olduğu halde büyük ilerleme kaydetti. Aslında düzenleme, toplumun pek çok kritik teknolojiyi benimsemesini mümkün kıldı (Güçlü devlet denetimi olmasaydı aşı şüpheciliğinin ne kadar kötü olacağını bir düşünün). Düzenlemeler ayrıca firmaları güvenlik konusunda inovasyon yapmaya teşvik ederek özel araştırmaların kamu ihtiyaçları ile uyumlu olmasını sağlar. Ve hükümetler, sorumlu araştırmacılara gelişmiş çiplerin kullanımını vererek küçük aktörlerin yapay zekâ inovasyonuna katkıda bulunmalarını garanti edebilir. Örneğin ABD’de Kongre bir “Ulusal Yapay Zekâ Araştırma Kaynağı” —akademisyenlerin erişebileceği federal bir veri ve güçlü bilgi işlem donanımı sağlanacak— kurmayı düşünüyor.

Ancak Kongre bununla ya da yapay zekâ gelişimini kontrol etmekle yetinemez. ABD hükümeti, toplumu yapay zekânın risklerine hazırlamak için de önlemler almalı. Güçlü yapay zekâ sistemlerinin geliştirilmesi kaçınılmaz ve her yerdeki insanların bu tür teknolojilerin kendi toplumlarına ve daha geniş dünyaya neler yapacağına hazırlıklı olması gerekir. Ancak o zaman toplum, yapay zekânın getirebileceği muazzam faydalardan yararlanabilir.

Çok Okunanlar

Exit mobile version