Finansal sistemin kalbinde ama karar insan

Bugün şüpheleri çözen sadece sohbet botları değil. Gerçek zaman işlemlerini denetleyen, tekrarlayan görevleri otomatikleştiren ve ödeme davranışı kalıplarını analiz eden sistemler hakkında konuşuyoruz. Gerçekten yenilikçi olan şey, işlemleri kesintiye uğratmamaları, operasyonu durdurmadan her şeyi anladıkları, uyarlamaları, tırmanması ve öğrenmeleri.

Başka bir deyişle, AI finansal sistemin merkezindedir, ancak kararlar hala insanlara bağlıdır.

Kullanım durumları, birkaç kenarın meydan okuması

Birçok banka, operasyonel ve tekrarlayan görevleri denetlemek ve ilgilenmek için zaten birleştiriyor, bu da ekipmanı stratejik karar verme, çatışma çözümü ve kişiselleştirilmiş dikkatle yoğunlaşmaya serbest bırakıyor, kullanıcı kazanan kişidir.

Bu değişiklikten yeni roller ortaya çıkıyor: model analistleri, izlenebilirlik sorumlu, etik uygulama yöneticileri, teknolojiyi ve operasyonu anlayan hibrit profiller. BBVA, Banco Azteca, HSBC veya Scotiabank gibi kurumlarda AI modelleri zaten insan takımlarıyla yaşıyor. Onları hareket ettirmezler, geliştirilirler.

Bunun özellikle görünür hale geldiği bir alan kredi riskinin değerlendirilmesindedir. Bazı kurumlar sadece finansman talep eden insanların finansal geçmişine bakmakla kalmayıp, aynı zamanda hizmetlerin ödenmesine tüketim ve dakik alışkanlıkları da dahil etmektedir.

Bu, bir yandan, sahtekarlığı azaltır ve kimliği destekleme girişimlerini azaltır. Ancak, diğer yandan, kurumları ortaya çıkabilecek hatalar için sorumluluk almaya zorlar. Yapay zeka, kararlar vermek ve nüansları anlamak için hala insan kriterlerine ihtiyaç duyar, ancak hiçbir modelin eğitilmesine rağmen tamamen yorumlayamaz.

Bazı varlıklar, izlenebilirlik gerektiren bir konu olan gerçek zamanlı olarak kişiselleştirilmiş ödeme alternatifleri sunar. Bir AI bir çözüm önerirse, hangi verilerin kullanıldığını ve hangi mantık altında bilmemiz gerekir. Her kararın arkasında isim, pozisyon ve sorumluluk içeren biri olmalıdır.

Düzenleme beklemede mi?

Karar döngüsünün bir parçası olarak özerk ajanları henüz açıkça tanımayan düzenleme konusu daha az önemli değildir. İzlenebilirlik yönergeleri, şeffaflık veya asgari etik uygulama kriterleri ile ilgili standartlar yoktur.

Buna, kişisel verilerin kullanımına ilişkin yetkilerin yapay zeka modellerinin eğitimini henüz düşünmediği eklenmiştir. Ve sorun yeni başlıyor. Bu bilgileri kim korur? Aiucina, rekabet ürünleri önerirse veya yanlış önerilerde bulunursa ne olur? Risk artık teknik değil, itibar. Ve geri döndürülemez olabilir.

Bu arada, “uzmanlar” her yerde ortaya çıkıyor, bağlamı anlamadan veya riskleri boyutlandırmadan çözümler satıyor. Bu durumlarda, konuya hakim olmayan biri tarafından yönlendirilmek, teknolojiyi benimsememekten daha pahalı bırakabilir. Bu nedenle, iç eğitim isteğe bağlı değildir, stratejiktir. Modelleri eğitmelisiniz, evet, aynı zamanda sonuçları yorumlayabilen, sapmaları tespit edebilen ve sorun ölçeklenmeden önce uyarıları etkinleştirebilmelisiniz.

Sayısallaştırma her zaman dahil değildir

Herkesin bu sistemlerle etkileşime giremeyeceğini görmezden gelemeyiz. Milyonlarca yaşlı yetişkin, kırsal alanların sakinleri, engelli insanlar veya dışarıda kalan dijital okuma yazma bilmeyen insanlar var. Ve ilgi eksikliği için değil, erişim engelleri için.

Burada, hükümetin rolü anahtardır, ancak münhasır değildir. Şirketler, finans kurumları ve toplum dijital okuryazarlık kampanyaları, farkındalık, veri koruması ve eşlik ile “kum tahıllarını” koymalıdır. Dahil edilmeden sayısallaştırma dönüşüm değildir, hariç tutulur.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir