ParamTech Genel Müdürü Bahadır Aktan ile Fintechtime Nisan sayısı “Liderlerin Gözünden 2026’nın Siyah Kuğuları” dosya konusu için gerçekleştirdiğimiz röportaj yayında.
“Yapay zekanın finansal karar mekanizmalarını hızla devraldığı 2026 vizyonunda, kurumları bekleyen en sinsi Siyah Kuğu senaryosu algoritmaların çökmesinden ziyade; hatalı çıktıların uzun süre doğru kabul edilerek sistemin içine yerleşmesinden doğuyor. Literatürde “otomasyon yanlılığı” olarak bilinen ve ekiplerin eleştirel düşünme yetisini zayıflatan bu körleşme, yapay zekaya duyulan güveni yapısal bir zaafa dönüştürüyor. ParamTECH Genel Müdürü Bahadır Aktan, teknolojinin “kara kutu” (black box) mantığıyla çalışamayacağının altını çizerken; startup çevikliğini banka uyumluluğuyla birleştiren güvenli bir yapay zeka yönetişiminin şifrelerini sektörle paylaşıyor.”
Karar Motorları Kontrolden Çıkarsa
Yapay zeka artık fintek şirketlerinin yalnızca destek katmanı değil; karar süreçlerinin merkezine yerleşen asli motoru haline geliyor. Kredi tahsisinden risk skorlamasına, dolandırıcılık tespitinden müşteri yönlendirmesine, portföy mantığından operasyonel önceliklendirmeye kadar çok sayıda karar, giderek daha yoğun biçimde model tabanlı sistemler üzerinden şekilleniyor. Bu dönüşüm finansal yapıları hızlandırıyor, ölçeklenebilirliği artırıyor ve insan müdahalesini birçok noktada geri plana itiyor.
Ancak 2026’nın mevcut ikliminde asıl mesele yapay zekanın ne kadar hızlı, ne kadar verimli ya da ne kadar düşük maliyetli çalıştığıyla sınırlı kalmıyor. Asıl soru, bu kararların hangi mantıkla üretildiği, hangi sınırlar içinde kaldığı ve hata anında kimin devreye gireceği. Algoritmaların otonomisi derinleştikçe teknoloji liderleri için en kritik başlık performans değil; kontrolün nerede başlayıp nerede bittiği oluyor.
Finansal sistem açısından en büyük kırılganlıklardan biri de tam burada oluşuyor. Karar motorları yalnızca veri işleyen araçlar olmaktan çıkıp kendi iç mantığıyla yön veren yapılara dönüştükçe, açıklanabilirlik, denetlenebilirlik ve müdahale kapasitesi daha kritik hale geliyor. 2026’nın siyah kuğuları yapay zeka cephesinde çoğu zaman modelin başarısız görünmesinden değil, fazla pürüzsüz çalışırken içeriden yeni bir gerçeklik üretmesinden doğuyor.
Siyah Kuğu Nerede?
Yapay zeka ve teknoloji dünyasında görünmeyen riskler, çoğu zaman modelin en başarılı göründüğü alanlarda birikiyor.
Açıklanamayan karar mekanizmaları: Kredi onayı, risk puanlaması, işlem önceliklendirmesi ya da portföy yönlendirmesi gibi kritik kararlarda, modelin neden o sonuca vardığının ekipler tarafından net biçimde açıklanamaması, teknolojik verimlilikten çok yönetişim açığı yaratıyor. En büyük risklerden biri, sistemin çalışması ama mantığının kurum içinde tam olarak taşınamaması.
Recursive error ve yankı odası etkisi: Modeller birbirinin çıktılarından beslendiğinde, küçük hata kümeleri kendi kendini büyüten döngülere dönüşebiliyor. Finansal sistemde bu durum yalnızca hatalı tahmin üretmekle sınırlı kalmıyor; fiyatlamayı, risk algısını ve likidite davranışını da aynı yöne itebiliyor.
Otorite yanılsaması ve eleştirel mesafe kaybı: Yapay zekanın yüksek doğruluk üreten, hızlı ve pürüzsüz çalışan bir yapı olarak konumlanması, insan sezgisini ve uzman denetimini geri plana itebiliyor. En kritik sorunlardan biri burada beliriyor: sistem hata yaptığında, ona itiraz edecek zihinsel ve kurumsal mesafe zayıflamış olabiliyor.
Veri halüsinasyonlarının sistemikleşmesi: Yapay zekanın yanlış, eksik ya da bağlamdan kopuk veri üretmesi teknik bir hata gibi görünebilir. Ancak bu çıktıların finansal modellerin içine sızarak doğru kabul edilmesi, risk analizinden müşteri yönlendirmesine kadar daha geniş bir bozulma üretebiliyor. Tehlike, yanlış cevaptan çok yanlış cevabın sistem içinde normalleşmesinde büyüyor.
İnsan denetimi, yapay zeka yaşam döngüsünün tamamına yayılmalı!

ParamTECH Genel Müdürü Bahadır Aktan
Mevcut tabloda yapay zeka stratejinizi en çok hangi eksen tanımlıyor: verimlilik, hız, karar kalitesi, denetlenebilirlik ya da kurumsal kontrol kapasitesi?
Biz yapay zekaya tek bir eksenden bakmıyoruz. Verimlilik ve hız önemli; ancak tek başına yeterli değil. Bizim yaklaşımımız bütünsel. Yapay zeka; süreçleri hızlandırıyor, verimliliği artırıyor ve karar mekanizmalarını güçlendiriyor. Ama finans tarafında bu tek başına yeterli değil.Mesele sadece daha hızlı olmak değil; doğruyu, sürdürülebilir şekilde ve kontrol ederek üretmek. ParamTECH’te yaklaşımımız net: Startup hızında hareket eden, bankalardan daha iyi deneyim sunan ve aynı zamanda tam uyumlu (fully compliant) çalışan bir yapı kurmak. Bu bir tercih değil, bir denge. Çünkü; sadece hız varsa risk büyür, sadece kontrol varsa çeviklik kaybolur.
Yapay zeka destekli finansal karar mekanizmalarında sizi en çok düşündüren kırılganlık nerede birikiyor: veri kalitesinde mi, model mantığında mı, insan denetiminin zayıflamasında mı?
Bu üçü aslında birbirinden bağımsız değil; ancak kırılganlığın en çok biriktiği yer veri kalitesidir. Modeli beslediğiniz veri eksik, önyargılı ya da güncelliğini yitirmişse, algoritmanız ne kadar gelişmiş olursa olsun çıktıya güvenemezsiniz. İnsan denetiminin kademeli olarak gevşemesi de önemli noktalardan. Zira veri ve model tarafını mükemmel kursanız bile, bunu sürekli sorgulayan, denetleyen ve gerektiğinde “dur” diyebilen bir ekibiniz yoksa kırılganlık sessizce büyür. Burada kritik bir ayrımın altını çizmek isterim: Yapay zekaya güvenmek ile yapay zekayı yönetmek aynı şey değil. Biz kendi yapımızda bunu bilgi güvenliği disipliniyle yönetiyoruz; onay olmadan hiçbir çalışma devreye giremez, bir risk tespit edildiğinde her şey durur. Yapay zeka yönetişiminde de aynı refleksi uygulamak gerekiyor. Bugün en büyük risk yapay zekanın yanlış çalışması değil, yanlış çalıştığını fark edememektir.
Kritik bir finansal kararın neden o şekilde üretildiğini kurum içinde açık biçimde anlatamıyorsanız, sizce ortada teknoloji başarısı mı vardır yoksa yönetişim açığı mı?
Bir yapay zeka modeli doğru sonuç üretebilir ama neden o sonuca ulaştığını kimse açıklayamıyorsa, orada bir teknoloji başarısından söz edemezsiniz. Bu dünyada “black box” başarı kabul edilmez. Başarı sadece doğru çıktı üretmek değil; o çıktının arkasındaki mantığı şeffaf biçimde ortaya koyabilmektir.
Burada kritik bir ayrım da var: Yapay zeka dediğimiz şey tek bir yapı değil. Bugün finansal sistemlerde kullanılan yapay zekanın önemli bir kısmı daha kontrollü ve izlenebilir makine öğrenmesi modelleridir. Her kullanım alanı için generative AI ya da büyük dil modelleri uygun değildir. Özellikle kredi kararları, risk skorlaması ve finansal yönlendirme gibi alanlarda açıklanabilirlik ve denetlenebilirlik olmazsa olmazdır.
Ben “Görünmezlik Seviyesinde Mükemmeliyet” dediğimde, kullanıcı tarafındaki deneyimin pürüzsüz olmasını kastediyorum. Ama arka plandaki karar mekanizmaları tam tersine çok görünür, izlenebilir ve sorgulanabilir olmalı. Musluğu açtığınızda su akar, siz altyapıyı düşünmezsiniz; ama o altyapının her noktası mühendisler tarafından izleniyor olmalı. Yapay zekada da aynısı geçerli. Dolayısıyla mesele yapay zeka kullanmak değil, hangi yapay zeka modelini nerede ve nasıl kullandığını bilmektir.
Modellerin birbirinin çıktılarından beslendiği yapılarda, küçük hataların sistem çapında büyümesini önleyecek gerçek bir kontrol katmanı kurulabildi mi?
Modeller birbirini beslediğinde, küçük bir sapma zincirleme büyüyebilir. Bunu şöyle düşünün: Bir model hatalı bir çıktı üretiyor, ikinci model bunu girdi olarak alıyor, üçüncü model de onu baz alıyor ve bir anda küçük bir hata katlanarak büyümüş oluyor. Üstelik bu süreç çok hızlı işlediği için fark edilmesi de zorlaşıyor. Bu konuyu sadece teknik bir problem olarak değil, aynı zamanda bir yönetim problemi olarak ele almak gerekiyor. Bu riski sıfırlayamazsınız ama yönetebilirsiniz. Kritik kararları tek bir modele bırakmamak, sadece sonucu değil modelin davranışını da izlemek ve modellerin birbirini nasıl etkilediğini baştan tasarlamak şart. Teknolojiyi denetleyen, güvenli ve esnek bir başka teknoloji katmanı kurmak zorundasınız. Çünkü önümüzdeki dönemin siyah kuğuları, yapay zekanın hata yapmasından değil, yanlış çalıştığını fark edemediğimiz sistemlerden çıkacak.
Yapay zekanın yüksek doğruluk hissi yaratması, yönetim ekiplerinde ve operasyon tarafında eleştirel mesafeyi zayıflatıyor olabilir mi?
Yapay zeka belirli görevlerde çok yüksek doğruluk sergilediğinde, insanlarda bir tür “halo etkisi” oluşabiliyor. Dar bir alandaki başarı, sistemin her konuda aynı güvenilirlikte olduğu yanılgısına dönüşebiliyor. Zamanla “bir bakalım yapay zeka ne diyor” refleksi, “yapay zeka ne diyorsa doğrudur” noktasına kayabiliyor. Bu da yapay zekaya danışan ekiplerden, yapay zekaya teslim olmuş ekiplere geçiş yaratıyor.
Akademik araştırmalar da bunu doğruluyor. “Otomasyon yanlılığı” denen olgu bu. Yani otomatik önerilere aşırı güvenme eğilimi. Yüksek riskli alanlarda ciddi bir sorun. Üstelik modelin kararlarını açıklamak bile tek başına çözüm olmuyor. Asıl fark yaratan şey, ekiplerin pasif onay vermek yerine aktif biçimde doğrulama yapmasını gerektiren süreçler tasarlamak.
Daha da önemlisi, bu durum karar kalitesinin ötesinde empatiyi de zayıflatabilir. Yapay zeka veriyi optimize eder ama insan etkisini, duyguyu, bağlamı ve ilişkinin inceliklerini aynı derinlikte taşımaz. Finans gibi güvene dayalı alanlarda doğru görünen karar, her zaman doğru etkiyi üretmeyebilir.
“Hızlı veya dikkatli” değil, “hızlı ve dikkatli” olmalıyız. Yapay zekanın sunduğu hıza ve doğruluğa güvenmek ile eleştirel mesafeyi korumak arasında bir tercih yapılmamalı. Bu ikisi aynı anda yönetilmeli. Çünkü en tehlikeli senaryo, yapay zekanın hata yapması değil; insanın artık ona itiraz edememesidir.
Finansal sistemde daha büyük risk sizce hangisi: modelin açık biçimde hata vermesi mi, yoksa yanlış çıktının uzun süre doğru kabul edilmesi mi?
Açık bir hata kendini gösterir; alarm çalar, ekip müdahale eder, süreç düzeltilir. Asıl tehlike, yanlış çıktının uzun süre fark edilmeden doğru kabul edilmesidir. Bu tür bir durumu “sessiz bozulma” olarak tanımlayabiliriz. Çünkü o noktada hata tek bir işlemle sınırlı kalmaz; sistemin içine yerleşir, kararları besler ve zamanla normalleşir. Finansal sistemlerde risk, hatanın büyüklüğüyle değil, fark edilmeden ne kadar süre devam ettiğiyle ilgilidir.
Sürekli izleme, sürekli sorgulama ve “her şey yolunda” varsayımını her gün test etme disiplini şart. Görünmezlik seviyesinde bir mükemmeliyet ancak bu şekilde sağlanır. Teknolojinin çalıştığında fark edilmemesi güzel bir şey; ama bunu garanti edebilmek için arka planda bitmek bilmeyen bir denetim çabası gerekiyor. Hata tamamen engellenebilir bir şey değildir; asıl odak, hatanın sistem içinde görünmez hale gelmesine izin vermemektir.
Yapay zekanın merkezde olduğu bir yapıda, insan müdahalesi hangi noktada devreye girmeli; son onay mekanizmasında mı, riskli sapma anlarında mı, yoksa model tasarımının başından itibaren mi?
Başından itibaren. İnsan müdahalesini sadece son kontrol noktasına veya kriz anına sıkıştırırsanız, yapay zekanın en kritik tasarım kararlarını denetimsiz bırakmış olursunuz. İnsan sistemin sonunda değil, aklında yer almalı. Çünkü asıl mesele insanın sisteme sonradan bakması değil, en başta nasıl düşüneceğini belirlemesi. Hangi karar otomatik olacak, hangi noktada durulacak, hangi risk kabul edilebilir. Bunlar insanın aklıyla baştan tanımlanır.
Hem Avrupa’da hem Amerika’da düzenleyiciler de artık aynı noktayı vurguluyor: İnsan denetimi, yapay zeka yaşam döngüsünün tamamına yayılmalı; tasarımdan geliştirmeye, devreye almadan sürekli izlemeye kadar. Bu aslında yapay zekaya özgü bir ilke de değil. Fintek ekosisteminde operasyonel mükemmeliyet dediğimiz şeyin temelinde de aynı anlayış yatıyor. İşin en ince detayına kadar hakim olmalısınız. Sadece sonuçları değil, süreci de yönetmelisiniz. Çünkü kontrol, sonradan verilen bir onay değil; baştan konulan akıldır.
