StartGate İcra Kurulu Üyesi, AcademyGate CEO’su Dr. Arzu Aydın, Fintechtime Ağustos sayısı için yazdı “Geleceği Regüle Etmek: Yapay Zeka Etiği”.

“Yapay zeka teknolojisinin hızla gelişmesi, etik ve güvenlik konularını gündeme getiriyor. OpenAI’nin son zamanlarda yaşadığı güvenlik ekibi istifaları, yapay zekanın etik kurallar çerçevesinde regüle edilmesinin önemini bir kez daha vurguladı. Avrupa Birliği ve diğer önde gelen ülkeler, yapay zeka regülasyonları üzerinde çalışırken, Türkiye de bu konuda önemli adımlar atıyor.”

 

Geleceği Regüle Etmek: Yapay Zeka Etiği

Hayatımıza girdiği zamandan bu yana en fazla takip edilen, kullanılan ve yenilikleri merakla beklenen OpenAI’nin son teknoloji yapay zeka (AI) ürünleri heyecanla eşit ölçüde endişe de uyandırıyor. Aslında konu OpenAI değil, ama yapay zeka denilince akla ilk gelen ve çok geniş bir kitleye sahip olması bakımından bu örneği verdim.

OpenAI’nin örnek teşkil etmesinin bir diğer nedeni de son zamanlarda yaşadığı istifalar silsilesi. Bunların içinde “güvenlik ekibi”nde yaşanan istifalar dikkat çekiyor; geçtiğimiz Kasım ayından bu yana beş güvenlik çalışanı işten ayrıldı. Son olarak; “superalignment” ekibinin eş başkanı Jan Leike’nin OpenAI’den ayrılışı, teknolojik ilerleme yarışında etik hususların asla ikinci planda kalmaması gerektiğinin açık bir hatırlatıcısına dönüştü.

Siber güvenliğin güçlendirilmesinden mevzuat uyumluluğuna, karar verme süreçlerinin iyileştirilmesinden otomasyona, aklınıza gelebilecek her alanda yapay zeka; derin bir etkiye sahip. Ancak şunun farkında olmak için AI mühendisi olmaya gerek yok: Büyük güç, büyük sorumluluk gerektirir.

Bir zamanlar elektriğin yaptığı gibi yapay zeka da hareketsiz nesnelere hayat verecek ve arka planda durup hemen hemen her şeyi çalıştıran güvenilir bir hizmet aracı haline gelecek. Ancak benzerliklere rağmen yapay zeka; bir başka büyük endüstriyel dönüşüm olmaktan ziyade, çözülmesi gereken toplumsal sorunları ortaya çıkaracak kadar dönüştürücü olmayı vadediyor.

Yapay zeka sistemleri kendi başlarına öğrenecek ve karar verecek şekilde tasarlanmıştır; bu da büyük miktarda veriyi hızlı bir şekilde işleyip analiz edebilecekleri anlamına geliyor. Tam da bundan dolayı, bu dönüştürücü teknoloji; özellikle güvenlik ve etik uyumluluk açısından bir dizi sorumluluk taşıyor. Açıkçası, yapay zeka, farklı sektörlerde ilgi görmeye devam ettikçe, firmaların yapay zeka faaliyetlerinde güvenlik ve etiğe öncelik vermesi hayati önem taşıyor. Avrupa Birliği’nin kısa süre önce kabul ettiği AB Yapay Zeka Yasası’nın önemine de bu noktada atıfta bulunmuş olayım. Tüm hızlı gelişimine rağmen, henüz yolun başında olan bu güçlü teknoloji için regülasyon ve yönergeler oluşturmak, bu yönergeleri anlamak ve uygulamak; yapay zeka sistemlerini insan haklarına saygılı, güvenliği sağlayacak, adil ve kapsayıcı bir dijital geleceği teşvik edecek şekilde geliştirmek, dağıtmak ve değerlendirmek adına çok çok önemli. AB’nin yanı sıra Çin, ABD, Japonya gibi önde gelen ülkeler de kendi yasamalarını devreye alıyor. Türkiye de yapay zekayı regüle etmek için adım atan ülkelerden biri oldu. Türkiye, haziran ayında, “yapay zeka teknolojilerinin güvenli, etik ve adil bir şekilde kullanılmasının sağlanması, kişisel verilerin korunmasının temin edilmesi, gizlilik haklarının ihlal edilmesinin önlemesi ile yapay zeka sistemlerinin geliştirilmesi ve kullanımına yönelik düzenleyici bir çerçevenin oluşturulmasının amaçlandığı” Yapay Zeka Kanun Teklifi’ni meclise sundu.

 

 

Yapay Zeka Etiği Sadece Teknolojik Değil, Ahlaki Bir Zorunluluk

Hafızamızı biraz yoklarsak, yapay zekanın kullanımında etiğin devreye alınmaması sonrası yaşanan krizlere yönelik birçok çarpıcı ve düşündürücü olay yaşadığımızı hatırlayacağız. Google DeepMind, İngiltere’nin Ulusal Sağlık Servisi (NHS) ile iş birliği yaparak sağlık verilerini analiz etmek ve hastalıkların erken teşhisini sağlamak için yapay zeka teknolojilerini kullanmıştı. Ancak bu iş birliği, veri gizliliği ve etik sorunlar nedeniyle yoğun eleştirilere maruz kaldı. Amazon ve Google’ın algoritmalarının cinsiyet ve etnik kökene dayalı ayrımcılık yaptığına dair iddialar, yapay zeka algoritmalarının adil ve ayrımcılık yapmayan bir şekilde tasarlanması konusunu güçlü bir tartışmaya açtı. Cambridge Analytica, Facebook’tan yasadışı yollarla elde ettiği verileri kullanarak milyonlarca Amerikalının siyasi tercihlerini manipüle etti. Bu skandal, yapay zeka ve büyük verinin kötüye kullanıldığında nasıl toplumsal ve politik krizlere yol açabileceğini gözler önüne serdi. Yapay zeka ve makine öğrenmesi kullanarak kredi notlarını tahmin eden bir fintech şirketi ZestFinance’ın algoritmalarının ırk ve etnik köken gibi hassas veriler üzerinde ayrımcılık yaptığı iddiaları kurum için sıkıntılı bir durum yarattı. Browser’ınıza yapay zekanın etik dışı kullanımına yönelik örnekler, diye yazarsanız onlarcasına daha denk gelirsiniz.

Kaldı ki henüz otonom yapay zeka sistemlerinin yükselişi yeni başlıyor. Bu yükseliş ile beraber, bu sistemlerin eylemlerinden sorumlu olmasını sağlayacak mekanizmaların mevcut olması hayati önem taşıyor. Yapay zeka geliştirmede etik uyumluluğu temel taşı haline getiren kuruluşlar, güvenli ve etik bir gelecek inşa etmek ve sürdürmek için çok önemli olan bir hesap verebilirlik ve sorumluluk kültürü oluşturabilecekler. Bugün “yapay zekayı sistemine entegre eden şirketler ve sektörler ayrışacak” derken, yarın “yapay zeka etiğine güçlü şekilde odaklanan şirketler ve sektörler ayrışacak” demeye başlayacağız. Etik uyum eksikliği; güven kaybı, direnç ve tepkiyle sonuçlanacak ve şirketin marka itibarı ile kârlılığı üzerinde olumsuz etkiler yaratacağını söyleyebiliriz.

Yapay zeka ve sektörlerin güvenliğinin kesişimi sadece teknolojik bir zorluk değil, aynı zamanda etik bir zorunluluk. Dolayısıyla, yapay zeka, sistemlerimizin ayrılmaz bir parçası haline geldikçe, uygulamalarda etik sonuçlara dikkat ederek yön vermek çok önemli hale gelecek.

Durum böyle iken, etik, adil ve şeffaf bir şekilde hazırlanmış yapay zeka temelli kararların sağlanması, mevcut küresel düzenleyici kılavuzun gözden geçirilmesi, temel risklerin net şekilde belirlenmesi daha da önemli hale geliyor. Çünkü bu kadar hızlı büyüyen bir alanda sorunlar da aynı hızla büyüyecektir.

 

Yapay Zeka Etiğinde Disiplinlerarası Yaklaşım

Etik, üzerinde çalıştığımız/çalışacağımız her şeyin temelidir, temeli olmalıdır da. Nitekim, gezegenin ötesinde potansiyel yaşam alanları arayan ve dolayısıyla teknoloji ile yapay zekayı en aktif kullanan kurumların başında gelen NASA’nın dahi yapay zekaya ilişkin yayınladığı ilk belgelerden biri “Yapay Zekanın Etik Uygulama Çerçevesi”ydi (2021).

Hayatın her anlamda gittikçe daha fazla dijitalleştiği günümüzde tüm endüstriler ve toplumlar adına inovasyonun gelişebileceği sağlıklı ortamlar yaratmak için “etik”i gündemimizden düşürmeyelim ve yapay zeka alanında yakalanan herhangi bir gelişmenin pek çok alanı etkileyeceğini bilerek, yapay zeka etiğinin oluşmasında iş birlikçi ve disiplinlerarası bir yaklaşım benimsemeliyiz. Yapay zekanın sorumlu kullanımı ve geliştirilmesine yönelik etik ilkelerin geliştirilmesi, sektör aktörlerinin birlikte çalışmasını zorunlu kılıyor. Paydaşlar; sosyal, kültürel, ekonomik ve politik konuların yapay zeka ile nasıl kesiştiğini incelemeli ve makinelerle insanların nasıl uyum içinde bir arada yaşayabileceğini belirlemeliler.

Bugün itibarıyla, yapay zeka etiğine ilişkin tartışmalar, akademik araştırma ve kâr amacı gütmeyen kuruluşlar etrafında yoğunlaşmaktan çıktı. IBM, Google ve Meta gibi büyük teknoloji şirketleri, büyük miktarda veri toplanmasından kaynaklanan etik sorunların üstesinden gelmek için kendi ekiplerini kurdu; hükümet ve hükümetlerarası kuruluşlar, akademik araştırmalara dayalı olarak düzenlemeler ve etik politikaları geliştirmeye başladı. Örneğin; UNESCO’nun 193 üye devleti, insan haklarını ve onurunu desteklemek amacıyla Kasım 2021’de Yapay Zeka Etiğine ilişkin ilk küresel anlaşmayı kabul etti. Bunlar başlangıç için çok değerli hamleler. Ama daha fazlasına ihtiyaç var. Yapay zeka sistemleri; doğası gereği dijital raflarda duran hareketsiz algoritmalar değiller; geniş veri kümelerini analiz etme, kararlar alma ve en önemlisi insan eylemlerini ve toplumsal normları etkileme potansiyeline sahip dinamik varlıklar. Bu sistemler özerkleştikçe ve kararları daha sonuç odaklı hale geldikçe, “yapay zekanın etiği” yönetimi sadece pratik bir gerekliliğe değil eşitliğin aşınmasına karşı bir sipere dönüşecek.

Kısaca; yapay zeka etiği çok çok çok önemli çünkü yapay zeka teknolojisinin amacı insan zekasını güçlendirmek ancak teknoloji, insan yaşamını kopyalamak için tasarlandığında, insan muhakemesini bulanıklaştırabilecek sorunlar teknolojiye de sızabilir. Önyargılı veya yanlış veriler üzerine inşa edilen yapay zeka projeleri, özellikle yeterince temsil edilmeyen veya dışlanmış gruplar ve bireyler için zararlı sonuçlar doğurabilir. Ve mühendislerin ve ürün yöneticilerinin bu öğrenilen önyargıları düzeltmesi büyük bir zaman ve emek kaybı anlamına gelir. Oysa, gelecekteki riskleri azaltmak için geliştirme sürecine etik kuralları dahil etmek çok daha kolaydır.