Amerika

AI terapistler yasal hale gelebilir

Yayınlanma

Geçen hafta, Meta CEO’su Mark Zuckerberg’in, yapay zeka iş modelini yaygınlaştırmanın bir parçası olarak “kişisel AI terapistler” konusunu gündeme getirdiğini yazmıştık.

Zuckerberg, katıldığı bir podcast yayınında şöyle diyordu:

“Şahsen, herkesin bir terapisti olması gerektiğine inanıyorum. Terapist, gün boyunca ya da gün boyunca olmasa da, endişelendikleri her konuda konuşabilecekleri birisi gibi. Terapisti olmayan insanlar için ise, herkesin bir yapay zeka asistanı olacağını düşünüyorum.”

Şimdi fikri takip zamanı: Başta Meta olmak üzere, Büyük Teknoloji bu alana girerken, ABD Kongresi de ruh sağlığı gibi gizlilik ile bilinen alanlarda “otomatik karar verme” ve yapay zekanın etkilerini ele alacak.

Bu hafta, ilk ipuçları gelmeye başladı. Temsilciler Meclisi Enerji ve Ticaret Komitesi, “insan karar verme sürecini önemli ölçüde etkileyen veya yerine geçen” sistemler olarak tanımlanan yapay zeka ve “otomatik karar sistemleri”nin eyaletler tarafından regüle edilmesini on yıl süreyle yasaklayan bir öneriyi kabul etti.

Öneri, özellikle Teksas Senatörü Ted Cruz tarafından zorlandı ve büyük ölçüde Abundance Institute ve Koch tarafından finanse edilen çeşitli “liberteryen” düşünce kuruluşları ile Colorado Valisi Jared Polis gibi az sayıdaki “liberteryen” Demokratların oluşturduğu lobi gruplarından çıktı.

Hukukçular, önerideki tanımların yasaya oldukça geniş bir hukuki anlam kazandırdığını ve bu nedenle mevcut yasaların ve yeni yasa tekliflerinin büyük bir kısmını engelleyeceğini düşünüyor.

Tüm metin okuduğunda, eyalet temsilcilerinin ne yapıp ne yapamayacağı biraz belirsiz. Fakat belirli olan birkaç şey var.

İlk olarak, bu yasa tasarısı eyalet yasa yapıcılarına, “hakkında çok az şey bildiğimiz yeni bir genel amaçlı teknoloji alanında düzenleme” yapamayacaklarını söylüyor.

İkincisi, lisans gerekliliklerini veya düzenlemeleri kaldırmak isteyen yasa yapıcılar için bir istisna bulunuyor. Bu hüküm yasalaşırsa, eyalet Kongre üyeleri, chatbot terapistinin ne olup ne olmadığı, lisanslamanın nasıl yapılacağı veya yanlışlıkla gençlere intihar etmelerini söyleyen hizmetlerin sorumluluğunun nasıl üstlenileceği konusunda yeni sınırlar çizmek konusunda zorlanacaklar ama Meta gibi şirketleri kısıtlayan lisans gerekliliklerini kaldırmak konusunda epey kolaylık elde edecekler.

Dolayısıyla, eğer öneri yasalaşırsa, Mark Zuckerberg şirketini terapist benzeri hizmet haline getirme yolunda emin adımlarla ilerleyebilir.

Meseleye yalnızca kağıt üzerinde bakmamak gerekiyor. Örneğin Utah eyaletinde, ruh sağlığı chatbot sağlayıcılarının, chatbotun insan olmadığını kullanıcılara açıklamak zorunda olduğu hüküm altına alınıyor.

Eğer Kongre’deki ilgili yasa tasarısı kabul edilirse, hiçbir eyalet bu tür yasalar çıkaramaz hale gelecek.

Utah yasası ayrıca, terapist chatbotlarının bir kişinin kişisel olarak tanımlanabilir sağlık bilgilerini satmasını veya paylaşmasını yasaklıyor. Yeni yasa ile, bunu düzenleyen veya engelleyen yasalar da ortadan kalkacak.

Artık geçerli olmayacak başka yasalar da var. Utah’ta, kişisel sağlık bilgileri toplanırken veya tıbbi tavsiye verilirken AI’ın açıklanmasını zorunlu kılan başka bir yasa var; bu da geçersiz hale gelecek.

Veya sigorta şirketlerinin AI araçları yerine lisanslı hekimlerin tıbbi gerekliliği belirlemesini gerektiren başka eyalet yasaları, sağlık hizmetleri veya sigortanın sağlanması, reddi, maliyeti veya koşulları ile ilgili kararları veren sistemleri düzenleyen yasalar bulunuyor; bunlar da geçersiz hale gelecek.

Kaliforniya’da, AI kullanan klinik uygulamaların hastalara tıbbi eğitim almış bir kişiye nasıl ulaşacaklarını anlatmasını gerektiren müşteri hizmetleri ile ilgili bir yasa bulunuyor; evet, bu da geçersiz hale gelecek.

Bunların ardından beri ihlali bildirim yasaları, yüz tanıma regülasyonlarının da gelmesi muhtemel. Bankacılık, kredi veya finans teknolojileri ile işçi gözetimi gibi düzenlemeler, hatta çocuk istismarı ve pornosuna yönelik düzenlemelerde yaşanabilecek sorunlar da cabası.

Fakat AI chatbotlara geri dönelim. Financial Times haber veriyor: OpenAI, Google, Meta ve Microsoft, son aylarda belleğe yönelik odaklanmalarını artırarak, sohbet robotlarının “yanıtlarını kişiselleştirmek için daha fazla kullanıcı bilgisi depolayabilmelerini” sağlayan güncellemeler yayınladı.

Yine uzmanlar uyarıyormuş: Bu gelişmenin ticari çıkarlar için kullanıcıları istismar etmek için de kullanılabileceği ve gizlilik endişelerini artırabileceği düşünülüyormuş.

Ne demek istiyorlar? MIT medya laboratuvarında profesör ve “insan-yapay zeka etkileşimi uzmanı” Pattie Maes cevaplıyor:

“Sizi gerçekten tanıyan bir ajansınız varsa, bu ajans konuşmalarınızın belleğini sakladığı için tüm hizmet daha bağlayıcı hale gelir ve bir ürünü kullanmaya başladığınızda bir daha başka bir ürüne geçmezsiniz.”

Yani kişiselleştirme seviyesi artıp gizlilik/mahremiyet seviyesi azaldıkça, tekelleşme, tek bir hizmet sağlayıcıya bağlanma da artacak. Maes mealen bunu diyor.

FT, “güncellemeleri” de paylaşıyor. Bunlar arasında, bir sohbet robotunun bir seferde ne kadar konuşmayı hatırlayabileceğini belirleyen “bağlam pencerelerinin” genişletilmesi ve dış verilerden ilgili bağlamı belirleyen “retrieval-augmented generation” gibi tekniklerin kullanılması yer alıyor. “Artırılmış bilgi geri çekme üretimi” olarak çevirebileceğimiz bu özellik, genel yapay zekaya zamanında hazır olma, bağlam, doğruluk ve hesap verebilirlik kazandırmayı hedefliyor.

Yapay zeka grupları, daha yararlı ve kişiselleştirilmiş yanıtlar sağlamak için kullanıcı profillerini ve tercihlerini depolayarak yapay zeka modellerinin uzun süreli belleğini de güçlendiriyor. Örneğin, bir chatbot, bir kullanıcının vejeteryan olup olmadığını hatırlayabilir ve restoran önerileri veya tarifler sunarken buna göre yanıt verebilir.

FT hatırlatıyor; mart ayında Google,  “kullanıcının izni olduğu sürece”, Gemini’nin belleğini, yani daha önce chatbot ile yapılan konuşmalarla sınırlı olan belleği, kullanıcının arama geçmişine genişletti ve gelecekte bunu diğer Google uygulamalarına da genişletmeyi planlıyor.

DeepMind’ın ürün yönetimi direktörü Michael Siliski konşuyor: “Tıpkı bir insan asistan gibi… sizi, hedeflerinizi ve kim olduğunuzu ne kadar iyi anlarlarsa, size o kadar iyi yardım edebilirler.”

Şirketler esas olarak işin “reklam geliri” boyutunu pazarlıyor. Zuckerberg, geçen ay, chatbot’un “ürün önerileri veya reklamlar gösterme konusunda büyük bir fırsat olacağını” söylemişti. Geçen ay OpenAI da ürünleri ve yorumları “daha iyi görüntülemek” için ChatGPT’deki alışveriş hizmetlerini geliştirdiğini ilan etmişti.

Uzatmayalım. Tehlike açık görünüyor: Maes, “Bir sistem sizi ne kadar iyi tanırsa, sizi bir şey satın almaya ikna etmek veya belirli inançlara inandırmak gibi olumsuz amaçlar için o kadar çok kullanılabilir. Bu nedenle, bu hizmetleri sunan şirketlerin altında yatan motivasyonları düşünmeye başlamalısınız,” diyor.

Bu motivasyonlarun bilgisi aslında mevcut. Bloomberg’e uzun bir mülakat veren Microsoft CEO’su Satya Nadella ve şirketin sohbet roboto Copilot’un başındaki Mustafa Suleyman ipuçlarını veriyor. Suleyman ve arkadaşları, “ofis dışında yaşam” için tasarlanmış bir Copilot versiyonu oluşturmaya başladı.

Suleyman’ın daha önceki girişimi AI Inflection’da yaptıkları gibi, bu Copilot’a “empati, mizah ve nezaket” öğrettiler. Bloomberg şöyle devam ediyor:

“İnsanlar Excel’i üreten şirketle duygusal bir bağ kurmak ister mi? Suleyman öyle düşünüyor. En azından, kullanıcı Copilot’u bir arkadaş veya terapist olarak görürse, rakip bir şirkete geçmenin daha zor olacağına inanıyor.”

Empatinin Suleyman için hayli önemli bir konu olduğunu öğreniyoruz bu uzun mülakattan. Copilot’ta üzerinde çalıştığı şeyi göstermek için, iPhone uygulamasındaki sesli asistanı tıklıyor ve “zor bir dönemden geçtiğini ve endişelerle boğuştuğunu” söylüyor. Bloomberg’e göre İngiliz aksanlı yatıştırıcı bir erkek sesi, “Zor durumlar net düşünmeyi engelleyebilir,” diye yanıt veriyor ve duygularını harekete geçiren şey hakkında daha fazla bilgi paylaşıp paylaşmayacağını “nazikçe” soruyor.

“Copilot, kullanıcının rahatlık sınırlarını algılayacak ve çözüm önerileri sunmadan önce sorunları dikkatlice teşhis edecek şekilde programlandı,” diyor Suleyman ve chatbottaki “duraklamalara”, “sesin azalmasına” işaret ediyor.

Empati, nezaket, mizah, rahatlatıcı ses… “Sıkıcı” iş hayatı, terapist sohbet robotlarımızla daha verimli hale geliyor. Günlük hayatımızdaki rutinler, daha odaklanmış bir iş hayatı modeline uyarlanıyor; yardımcı robotlar, insanı robotlar, robotsu insan modelini hayata geçiriyor.

Pentagon’da reform planı: Askerleri teknobüyücülere dönüştürmek

Çok Okunanlar

Exit mobile version