ARC Law Firm Kurucusu Avukat Cemal Araalan ile ARC Law Firm Ortağı Avukat Alp Mete Şirin, Fintechtime Kasım sayısı için yazdı “Fintek’lerin Yapay Zekâ (AI) ile Dönüşüm Çerçevesi”.

“Fintek ekosistemi, yapay zekâ ile hızla dönüşürken hukuk bu dönüşümün temposuna yetişmekte zorlanıyor. Kredi skorlamadan dolandırıcılık tespitine kadar her alanda algoritmalar karar veriyor, ancak bu kararların sorumluluğu hâlâ gri alanda. Avrupa Birliği AI Act gibi düzenlemeler finansal yapay zekâyı “yüksek riskli sistem” olarak tanımlarken, Türkiye’de henüz net bir çerçeve yok. Fintekler için en kritik gereklilik artık yalnızca inovasyon değil, şeffaflık, açıklanabilirlik ve etik yönetişim. Yapay zekânın büyümesi regülasyonla sınırlanmamalı, güvenle şekillenmeli. Çünkü gelecekte rekabetin belirleyicisi teknoloji değil, onu ne kadar sorumlu kullandığımız olacak.”

 

Fintek’lerin Yapay Zekâ (AI) ile Dönüşüm Çerçevesi

ARC Law Firm Kurucusu Avukat Cemal Araalan ile ARC Law Firm Ortağı Avukat Alp Mete Şirin

Finansal teknolojiler (kısaca “FinTek”) ile yapay zekâ arasındaki kesişim noktası, günümüzün en heyecan verici ama bir o kadar da gri alanlarından birini oluşturuyor. Kredi skorlamadan dolandırıcılık tespitine, yatırım tavsiyelerinden müşteri hizmetlerine kadar uzanan geniş bir yelpazede yapay zekâ, fintek’lerin operasyonlarını dönüştürüyor. Ancak bu dönüşümün hızı, mevcut hukuk sistemlerinin refleks hızını çoktan geride bıraktı[1].

Bugün bir FinTek[2] girişiminin, müşterisinin davranışlarını tahmin eden bir algoritma geliştirmesi teknik olarak birkaç haftalık bir Ar-Ge süreciyle mümkün. Oysa aynı girişimin bu algoritmanın etik sınırlarını, veri koruma yükümlülüklerini ve açıklanabilirlik ilkelerini regülasyonlara uygun biçimde tanımlaması çoğu zaman aylar, hatta yıllar alıyor[3]. Regülatörler hâlâ “kimin sorumlu olduğu” sorusuna net bir yanıt ararken, piyasada yapay zekâ destekli karar mekanizmaları çoktan standart hale gelmeye başladı[4].

Son dönemde büyük dil modellerinin (LLM) erişilebilirliği ve şirket içi API ekosistemlerinin olgunlaşmasıyla birlikte, bankalar ve ödeme kuruluşları başta olmak üzere pek çok finansal kurum, müşteri iletişimi ve operasyonel süreçlerine sohbet botları entegre etmeye başladı[5]. Ancak bu entegrasyon furyası, halüsinasyon riski, yanıltıcı yönlendirme ihtimali, KVKK/GDPR kapsamında veri işleme temeli ve açık rıza yönetimi, konuşma kayıtlarının saklama-denetim izleri ile bağlanması, model risk yönetimi ve üçüncü taraf bağımlılığı[6] gibi başlıklarda yeni yükümlülükler doğuruyor. Özellikle finansal tavsiye ile genel bilgilendirme arasındaki çizginin sohbet akışlarında bulanıklaşması, açıklanabilirlik, sorumluluk tahsisi ve şikâyet mekanizmalarının tasarımını kritik hale getiriyor.[7] Kurumların kullanmış oldukları YZ botlarının mimarisinde, veri maskeleme, rol tabanlı erişim ve içerik politikası gibi kontrol katmanlarını baştan kurgulaması zorunluluk haline gelmiş durumda.

Bu yazıda, FinTek sektöründe yapay zekânın yükselişini regülasyonun yetişmekte zorlandığı bir dönüşüm alanı olarak ele alacağız. Çünkü finansal teknolojilerde “yenilik”, ancak güven ve uyum ile sürdürülebilir hale geliyor.

 

  1. FinTek Sektöründe Yapay Zekânın Yükselişi

Yapay zekânın finansal hizmetlerdeki yayılımı, ilk olarak operasyonel verimlilik arayışıyla başladı ancak günümüzde ise stratejik bir zorunluluk hâline gelmiş durumda. Bankalar, elektronik para kuruluşları ve yatırım platformları artık yalnızca maliyet düşürmek için değil, müşteri deneyimini kişiselleştirmek ve risk tahmin modellerini iyileştirmek için de yapay zekâ sistemlerinden yararlanıyor.

Kredi risk analizi, kimlik doğrulama (KYC), kara para aklamayı önleme (AML) izleme sistemleri ve dolandırıcılık tespiti gibi kritik alanlarda, makine öğrenimi modelleri klasik kurallara dayalı algoritmaların çok ötesine geçti. Bu sistemler, milyonlarca işlem içinden olağandışı davranışları anlık olarak tespit edebiliyor. Ancak burada doğan soru şu: Bir algoritma “karar” aldığında, bu kararın yasal ve etik sorumluluğu kimde?

Finansal yapay zekâ uygulamalarında “açıklanabilirlik” ilkesi[8], regülasyonların en zayıf halkalarından biri olarak öne çıkıyor. Modelin neden belirli bir karara vardığını anlamak çoğu zaman teknik olarak mümkün olsa da hukuki düzlemde “anlaşılabilirlik” ve “hesap verilebilirlik” farklı kavramlardır[9]. Avrupa Birliği’nin Yapay Zekâ Regülasyonu[10], “yüksek riskli sistemler” kategorisine finansal yapay zekâ uygulamalarını açıkça dahil ederken[11], Türkiye’de henüz bu tür sistemlere özgü bir sınıflandırma veya gözetim mekanizması bulunmuyor. Bu durum, özellikle kredi veya sigorta kararlarında kullanılan algoritmalar açısından ciddi uyum ve sorumluluk riskleri yaratabilecektir.

 

  1. Regülasyon Boşlukları ve Risk Alanları

Yapay zekânın finansal hizmetlerde bu kadar yaygınlaşmasına karşın, mevcut regülasyon yapısı hala teknolojik gerçekliğin birkaç adım gerisinde yer almaktadır.

Avrupa Birliği’nin AI Act düzenlemesi bu noktada kritik bir fark yaratıyor. Tasarı, finansal sektör uygulamalarını “yüksek riskli sistemler” kategorisine dahil ederek;

  • açıklanabilirlik,
  • insan gözetimi,
  • veri kalitesi ve tarafsızlık,
  • uygunluk değerlendirmesi

gibi yükümlülükleri zorunlu kılıyor.

Bu yaklaşım, algoritmaların yalnızca teknik doğruluğuna değil aynı zamanda hukuki öngörülebilirliğine de odaklanmaktadır. Ancak Türkiye’de benzer bir sınıflandırma bulunmadığından, örneğin bir yapay zekâ modeli kredi reddi kararı verdiğinde, bireyin “itiraz hakkı” nasıl kullanılacağı belirsiz. KVKK’nın 11. maddesinde yer alan otomatik karar alma hakkı teorik bir dayanak sunuyor olsa da pratikte bu tür başvuruların hangi teknik açıklama düzeyinde değerlendirileceği hâlâ gri bir alandır.

Aynı şekilde Sermaye Piyasası Kurulu (SPK) denetimine tabi robo-danışman sistemleri açısından, yapay zekânın yatırım tavsiyesi verme sınırları henüz tanımlanmış değil; “algoritmik tavsiye” ile “kişisel finansal danışmanlık” arasındaki çizgi giderek silikleşiyor.

Dolayısıyla bugünün en büyük risk alanı, teknik değil kurumsal ve hukuki belirsizliktir. FinTek’ler hızla yapay zekâyı içselleştirirken, regülatörler hâlâ “hangi modelin, hangi karardan sorumlu olduğunu” tanımlamaya çalışmaktadır. Bu durum, özellikle uluslararası FinTek’ler açısından regülasyon arbitrajı[12] (yani en gevşek düzenlemeye sahip ülkede faaliyet gösterme eğilimi) riskini artırabilecektir.

 

  1. Uyum Stratejileri ve Geleceğe Bakış

Yapay zekâ, FinTek ekosisteminde yalnızca bir inovasyon alanı değil, aynı zamanda kurumsal yönetişimin yeniden tanımlandığı bir dönüşüm noktası haline gelmiştir. Dolayısıyla bu alanda sürdürülebilir büyüme, yalnızca teknolojik kabiliyetlerle değil, doğru kurgulanmış bir uyum stratejisi ile mümkün olacaktır.

Küresel ölçekte bu stratejinin merkezinde “Yapay Zekâ Yönetişimi” (AI Governance) kavramı yer alıyor[13]. Avrupa Birliği’nin AI Act düzenlemesiyle paralel olarak İngiltere, Singapur ve Kanada gibi finans merkezlerinde FinTek’lerden artık yalnızca “veri koruma uyumu” değil, aynı zamanda model risk yönetimi, etik etki değerlendirmesi (AI Impact Assessment) ve insan müdahalesi (human-in-the-loop) mekanizmalarını içeren çerçeveler geliştirmeleri bekleniyor. Bu yaklaşım, yapay zekânın kara kutu mantığını denetlenebilir bir sisteme dönüştürmeyi hedefliyor.

Türkiye açısından ise henüz bu ölçekte bir yasal çerçeve bulunmasa da kurumların proaktif davranarak aşağıdaki üç stratejiyi benimsemeleri büyük önem taşıdığını düşünmekteyiz:

Şeffaflık ve Açıklanabilirlik İlkesi:

Fintekler, yapay zekâ sistemlerinin karar verme süreçlerini yalnızca mühendislik ekipleri için değil, hukuki ve denetim birimleri için de izlenebilir hâle getirmeli. Modelin hangi veriye dayanarak karar aldığı, nasıl bir ağırlıklandırma yaptığı, hangi değişkenlerin sonuçları etkilediği belgelenmeli. Bu belgeler, olası bir denetim veya KVKK başvurusunda en güçlü savunma aracı olacaktır.

İç Kontrol ve Model Risk Yönetimi:

Yapay zekâ kullanan finansal kurumlar, modellerini tıpkı kredi veya operasyonel riskler gibi düzenli denetimlere tabi tutmalı. MASAK yükümlülükleri kapsamında kullanılan AML algoritmalarında, yanlış pozitif ve yanlış negatif oranlarının periyodik analizi yapılmalı ve “denetim izi” oluşturulmalıdır.

Etik ve Sorumluluk Politikaları:

Yapay zekâ kararlarının etik anlamdaki etkisi, yalnızca teknik bir risk değil, itibar ve müşteri güveni boyutuyla da stratejik bir meseledir. Bu nedenle kurumların, yapay zekâ kullanımına ilişkin etik politikalarını kamuya açık şekilde paylaşmaları, yalnızca regülasyonlara değil piyasa beklentilerine de yanıt verecektir.

Sonuç olarak, yapay zekâ çağında FinTek şirketleri için uyum, yalnızca “riskten kaçınma” aracı değil, inovasyonu güvenle büyütmenin altyapısı hâline gelecektir. Burada hukuk, teknolojinin fren mekanizması değil, güvenli yol haritası olmalıdır.

 

Sonuç

Yapay zekânın, finansal hizmetlerin hızını, ölçeğini ve erişimini yeniden tanımladığı bir dönemdeyiz. Ancak bu dönüşüm, regülasyonun ritmini zorlayan bir ivmeyle ilerliyor. Fintekler artık yalnızca finansal inovasyonun değil, etik sorumluluğun ve veri yönetişiminin de ön saflarında. Bu nedenle yapay zekâ temelli finansal sistemlerin geleceği, teknolojik yetkinlikten çok, hukuki farkındalık ve yönetişim kültürüyle şekillenecektir.

Avrupa Birliği AI Act gibi küresel düzenlemeler, şeffaflık, hesap verebilirlik ve insan denetimi kavramlarını merkezine alarak bu alanda bir yön tayin ederken, Türkiye’nin de benzer bir çerçeveye doğru evrilmesi kaçınılmaz görünüyor. Bugün için mevcut yasal metinlerde açık bir düzenleme olmasa da MASAK, KVKK ve SPK mevzuatlarının kesişiminde şekillenen “fiilî regülasyon alanı”, FinTekler için ciddi bir referans noktası oluşturuyor.

Sonuçta amaç, inovasyonu yavaşlatmak değil, onu güvenli, izlenebilir ve toplum yararına sürdürülebilir kılmak. Yapay zekânın finans dünyasındaki yükselişi, doğru bir hukuki zeminle desteklendiğinde yalnızca rekabeti değil, güveni de büyütecektir.

 

Kaynak:
[1] Financial Stability Board. (Kasım,2024). The financial stability implications of artificial intelligence (bkz. s. 5). https://www.fsb.org/uploads/P14112024.pdf
[2] FinTek, en dar anlamıyla “Finansal Teknoloji” ifadesinin kısaltmasıdır ve finansal hizmetlerde teknolojiyle etkinleştirilen yenilik ile bu yeniliğin doğurduğu yeni iş modelleri, süreçler ve ürünleri kapsar (Financial Stability Board.Şubat 2019. FinTech and market structure in financial services: Market developments and potential financial stability implications.). Akademik literatürde FinTek, finans ile BT’nin kesişiminde, özellikle 2008 krizi sonrası dönemde hızlanan teknoloji-odaklı finansal çözümler dalgası olarak tanımlanır. [Arner, D. W., Barberis, J., & Buckley, R. P. (2015). The evolution of FinTech: A new post-crisis paradigm? (UNSW Law Research Paper No. 2015-047)].
[3] Organisation for Economic Co-operation and Development. (2024, September 2). Regulatory approaches to artificial intelligence in finance (bkz. s. 42–43). https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/09/regulatory-approaches-to-artificial-intelligence-in-finance_43d082c3/f1498c02-en.pdf;
[4] European Central Bank. (Mayıs 2024). The rise of artificial intelligence: benefits and risks for financial stability (Financial Stability Review – Special feature). https://www.ecb.europa.eu/press/financial-stability-publications/fsr/special/html/ecb.fsrart202405_02~58c3ce5246.en.html
[5] Financial Stability Board. (Kasım,2024).The financial stability implications of artificial intelligence (bkz. s. 14). https://www.fsb.org/uploads/P14112024.pdf
[6] Prudential Regulation Authority. (2023, May 17). SS1/23 – Model risk management principles for banks (bkz.  2.1–2.3). https://www.bankofengland.co.uk/prudential-regulation/publication/2023/may/model-risk-management-principles-for-banks-ss
[7] European Securities and Markets Authority. (Mayıs 2024). Public Statement: On the use of Artificial Intelligence (AI) in the provision of retail investment services (bkz. s. 3–6). https://www.esma.europa.eu/sites/default/files/2024-05/ESMA35-335435667-5924__Public_Statement_on_AI_and_investment_services.pdf.
[8] Açıklanabilirlik (explainability), bir yapay zekâ sisteminin nasıl çalıştığını ve neden belirli bir çıktıya/karara ulaştığını, ilgili paydaşların anlayabileceği şekilde ortaya koyabilme yeteneğidir, yorumlanabilirlik (interpretability) ise çıktının anlamını/bağlamını açıklamaya odaklanır. Bu ayrım, denetlenebilirlik ve hesap verebilirlik için esastır. (Bkz. National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (s. 15–16, §3.5 “Explainable and Interpretable”). https://doi.org/10.6028/NIST.AI.100-1)
[9] European Data Protection Board. (Aralık,2024). Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models (bkz. s. 7, 18). https://www.edpb.europa.eu/system/files/2024-12/edpb_opinion_202428_ai-models_en.pdf
[10] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 Haziran 2024, (Artificial Intelligence Act). Official Journal of the European Union, L 1689, 12 Temmuz 2024. (Yürürlük: 1 Ağustos 2024,uygulanma takvimi: 2 Şubat 2025: Yasaklı “kabul edilemez risk” sistemleri ve AI okuryazarlığı, 2 Ağustos 2025 : Yönetişim ve genel amaçlı AI (GPAI) hükümleri, 2 Ağustos 2026: Genel hükümler, 2 Ağustos 2027: Regüle ürünlere gömülü yüksek riskli sistemler için geçiş sonu).
[11] Regulation (EU) 2024/1689 (AI Act). Official Journal of the European Union.
– Article 6 & Annex III, point 5(b) Annex III, point 5(a) (Bkz. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ%3AL_202401689)
[12] Financial Stability Board. (Kasm 2024). The financial stability implications of artificial intelligence (bkz. s. 28). https://www.fsb.org/uploads/P14112024.pdf
[13] Organisation for Economic Co-operation and Development. (Eylül, 2024). Regulatory approaches to artificial intelligence in finance (bkz. s. 35–38). https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/09/regulatory-approaches-to-artificial-intelligence-in-finance_43d082c3/f1498c02-en.pdf