ARC Law Firm Kurucusu Avukat Cemal Araalan ile ARC Law Firm Ortağı Avukat Alp Mete Şirin, Fintechtime Nisan sayısı için yazdı “Fintek Ekosisteminde Yapay Zeka Ajanları ve Hukuki Sorumluluk”.
“Yapay zeka ajanlarının fintek operasyonlarına dahil olması, özerk karar yetkinlikleri nedeniyle geleneksel sorumluluk hukukunda köklü bir değişim başlatıyor. AB Yapay Zeka Yasası’nın getirdiği risk temelli kriterler ve “yüksek riskli” kategorisindeki şeffaflık zorunlulukları, algoritmalardan kaynaklanan ispat yükünü finans kuruluşlarının öncelikli gündemi haline getiriyor. Sorumluluk zincirinin genişlediği bu yeni dönemde, “tasarım yoluyla hesap verebilirlik” anlayışını benimseyen ve açıklanabilir modeller kuran kurumlar, regülasyon uyumuyla sürdürülebilir bir rekabet avantajı elde edecek.”
Fintek Ekosisteminde Yapay Zeka Ajanları ve Hukuki Sorumluluk
Finansal teknoloji sektörü, yapay zekâ ajanlarının operasyonel süreçlere entegrasyonuyla birlikte köklü bir dönüşüm geçirmektedir. Müşteri hizmetlerinden algoritmik ticaret sistemlerine, kredi skorlamasından dolandırıcılık tespitine kadar uzanan bu entegrasyon, yalnızca teknik bir dönüşümü değil, aynı zamanda köklü bir hukuki paradigma değişimini de beraberinde getirmektedir. Zira özerk kararlar alabilen, kendi kendine öğrenen ve insan müdahalesi olmaksızın hareket edebilen yapay zekâ ajanları, geleneksel sorumluluk hukuku çerçevelerini ciddi biçimde zorlamaktadır.
Yapay Zeka Ajanının Tanımı ve Fintek’teki Yeri
Yapay zeka ajanı, belirlenmiş hedeflere ulaşmak amacıyla çevresini algılayan, değerlendiren ve özerk biçimde hareket eden yazılım sistemi olarak tanımlanabilir[1]. Fintek sektöründe bu ajanlar, otomatik portföy yönetimi, anlık kredi değerlendirmesi, gerçek zamanlı dolandırıcılık tespiti ve müşteri etkileşim yönetimi gibi kritik işlevler üstlenmektedir. Nitekim Klarna, 2024 yılında yapay zeka tabanlı müşteri hizmetleri ajanının ilk ay içinde 2,3 milyon konuşmayı yönettiğini ve bu rakamın 700 tam zamanlı çalışana eşdeğer olduğunu açıklamıştır[2].
AB Yapay Zeka Yasası Çerçevesinde Hukuki Sınıflandırma
Avrupa Birliği’nin Yapay Zeka Yasası (Regulation (EU) 2024/1689), yürürlüğe girişiyle birlikte küresel düzenleyici ortamın referans noktası haline gelmiştir[3]. Yasa, risk temelli bir sınıflandırma sistemi benimsemekte ve fintek alanındaki yapay zeka uygulamalarının büyük bölümünü “yüksek riskli” kategorisine dahil etmektedir. Özellikle kredi değerlendirmesi, sigorta fiyatlaması ve yatırım tavsiyesi gibi alanlarda kullanılan sistemler, Ek III kapsamında katı şeffaflık, denetim ve belgelendirme yükmlülüklerine tabidir[4]. Bu kapsamda hizmet sağlayıcılar, sistemlerinin denetlenebilir olduğunu, kararların gerekçelendirildiğini ve yüksek riskli kararlar için insan denetiminin sağlandığını ispat etmek zorundadır.
Sorumluluk Zincirinde Kim Yanıt Verecek?
Yapay zeka ajanlarının verdiği zararlı kararlar söz konusu olduğunda, sorumluluk zinciri geleneksel hukuk anlayışından farklı bir görünüm kazanmaktadır. Ürün sorumluluğu hukuku, kusurlu insan davranışı üzerine inşa edilmişken, özerk sistemlerin “kusuru” çok daha muğlak bir kavrama dönüşmektedir. AB Yapay Zeka Yükmlülük Direktifi teklifi (2022/0303(COD)) bu boşluğu doldurmayı hedeflemiş ve yapay zeka sistemlerinden kaynaklanan zararlar bakımından ispat yükünü tersine çevirmeyi öngörmüştür[5]. Buna göre, yüksek riskli bir yapay zeka sisteminin zararla nedensel ilişkisi bulunduğuna dair karine oluştuğunda, sistemin işletmecisi aksi ispatlanamazsa sorumlu tutulacaktır.
Fintek bağlamında sorumluluk zinciri tipik olarak şu aktörleri kapsamaktadır: model geliştirici, platformu entegre eden finans kuruluşu ve nihai hizmeti kullanan tüketici. SEC’in 2023 yılında açıkladığı kılavuz ilkeler de bu çoklu katmanlı yapıya dikkat çekerek algoritmik sistemlerin yükümlülük (fiduciary duty) kapsamında değerlendirilip değerlendirilmeyeceğini sorgulamaktadır[6].
PSD2, GDPR ve Sektörel Mevzuatla Kesişim Noktaları
Yapay zeka ajanları, finansal hizmetlere özgü mevzuatla da derin bir kesişim içindedir. PSD2 (Directive (EU) 2015/2366) kapsamında güçlü müşteri doğrulama ve açık bankacılık yükmlülükleri, yapay zeka tabanlı ödeme sistemlerinin tasarımını doğrudan etkilemektedir[7]. GDPR (Regulation (EU) 2016/679) ise tamamen otomatik karar alma süreçlerine ilişkin Madde 22 güvencesi çerçevesinde, bu tür kararlara itiraz hakkı tanımaktadır[8]. Özellikle kredi red kararları ve sigorta reddinin yapay zeka tarafından verildiği senaryolarda bu hak hayati önem kazanmaktadır.
Pratik Örnekler
2023 yılında İtalya veri koruma otoritesi Garante, bir finansal asistan uygulamasını GDPR’ın şeffaflık ve aydınlatma yükmlülüklerini ihlal ettiği gerekçesiyle soruşturmuştur[9]. Benzer biçimde ABD’de Tüketici Finansal Koruma Bürosu (CFPB), otomatik kredi kararlarında açıklanamayan algoritmaların Fırsat Eşitliği Kredi Yasası kapsamında ayrımcılık riski yaratabileceğine dair uyarılar yayımlamıştır[10]. Bu örnekler, teknik sistemlerin yarattığı hukuki risklerin teorik değil, yaptırımla desteklenmiş ve son derece somut olduğunu açıkça ortaya koymaktadır.
Uyum, Tasarım Aşamasında Başlar
Fintek ekosistemindeki yapay zeka ajanları, hem operasyonel verimlilik hem de rekabet avantajı açısından giderek vazgeçilmez hale gelmektedir. Ancak bu araçların beraberinde getirdiği hukuki sorumluluk riski, sonradan ele alınacak bir uyum meselesi olarak değil, tasarım sürecinin ayrılmaz bir parçası olarak konumlandırılmak zorundadır. “Privacy by design” yaklaşımının yerini artık “accountability by design” anlayışı almaktadır: şeffaf karar günlükleri, insan denetim mekanizmaları, açıklanabilir model çıktıları ve düzenleyici raporlama altyapısı, yapay zeka ajanlarını güvenli şekilde konumlandırmanın olmazsa olmaz koşullarıdır. Düzenleyici ortam hızla olgunlaşmaktadır ve bu süreçte uyum yaklaşımı, kurumsal itibar ve finansal yaptırım açısından onarılması güç sonuçlar doğurabilir.
Kaynakça:
[1] Russell, S., & Norvig, P., Artificial intelligence: A modern approach (2. baskı). Pearson. S.32
[2] Klarna. (2024, Şubat 27). Klarna AI assistant handles two-thirds of customer service chats in its first month [Basın bülteni]. https://www.klarna.com/international/press/klarna-ai-assistant-handles-two-thirds-of-customer-service-chats-in-its-first-month/
[3] Avrupa Parlamentosu ve Konseyi. (2024). Yapay zeka hakkında yönetmelik (AB) 2024/1689. Avrupa Birliği Resmî Gazetesi, L 2024/1689.
[4] Regulation (EU) 2024/1689, Ek III, md. 5(b)(iv); Madde 9-15.
[5] Avrupa Komisyonu. (2022). Yapay zeka yükmlülük direktifi teklifi (2022/0303(COD)). COM(2022) 496 final.
[6] U.S. Securities and Exchange Commission. Staff bulletin: Standards of conduct for broker-dealers and investment advisers regarding use of artificial intelligence. https://www.sec.gov/about/divisions-offices/division-trading-markets/broker-dealers/staff-bulletin-standards-conduct-broker-dealers-investment-advisers-care-obligations
[7] Avrupa Parlamentosu ve Konseyi. (2015). Direktif (AB) 2015/2366 ödeme hizmetleri hakkında (PSD2). Avrupa Birliği Resmî Gazetesi, L 337/35.
[8] Avrupa Parlamentosu ve Konseyi. (2016). Yönetmelik (AB) 2016/679 (GDPR), Madde 22. Avrupa Birliği Resmî Gazetesi, L 119/1.
[9] Obblighi di informazione e sistemi decisionali e di monitoraggio automatizzati (art. 1-bis “Decreto Trasparenza”): quali forme di controllo per i poteri datoriali algoritmici?. https://www.rivistalabor.it/wp-content/uploads/2023/03/2_Carinci-Giudici-Perri.pdf
[10] Consumer Financial Protection Bureau. (2023). CFPB issues guidance on credit denials by lenders using artificial intelligence. https://www.consumerfinance.gov/about-us/newsroom/cfpb-issues-guidance-on-credit-denials-by-lenders-using-artificial-intelligence/
