Londra sigortacıları Lloyd's, kusurlu AI araçlarının neden olduğu kayıpları karşılamak için yeni bir ürün sundu.
Ürün, chatbot hataları ve halüsinasyonlar gibi konularda şirketleri yasal iddialara karşı korur.
Gerçekten de, bir AI aracı müşterilere veya üçüncü taraflara zarar verirse, sigorta hasar ve yasal maliyetler gibi maliyetleri karşılayabilir.
Uzman bir AI sigorta ve değerlendirme çözümleri sağlayıcısı olan Armilla tarafından geliştirilen ve çoklu Lloyd sigortacıları tarafından onaylanan politika, AI benimsemesinde artan risk yönetimi ihtiyacının altını çizmektedir.
Karthik Ramakrishnan, Armilla CEO'suBu kapsamın tereddüt eden şirketleri felaket başarısızlıklarından korkmadan AI araçlarını almaya teşvik edebileceğine inanıyor.
Ramakrishnan'a göre, bazı sigorta şirketleri, genellikle düşük ödeme sınırlarına sahip olan ve şirketleri büyük ölçekli AI hatalarına karşı savunmasız hale getiren daha geniş teknolojik politika içine AI ile ilgili kayıplar eklediler.
Financial Times'a verdiği demeçte, “Yapay zeka modelini yargılıyoruz, yıkım şansı ile rahat hissediyoruz ve daha sonra modellerin kötüleşip bozulmadığını telafi ediyoruz.”
Armilla'nın politikası, performans tabanlı kapsam sunar, yani ödemeler yalnızca AI'nın ilk beklentiler altında önemli ölçüde performans göstermesi durumunda etkinleştirilir.
Örneğin, bir sohbet botu doğru bilgileri yüzde 95 sağlayacaksa, ancak daha sonra doğrulukları yüzde 85'e düşerse, sigorta karşılık gelen kayıpları karşılayabilir.
Bu seçici sigorta teknik yaklaşımı, sigorta şirketlerinin sadece aşırı kusurlu teknolojilere maruz kalmayı sınırlayan yeterince güvenilir AI sistemlerini kapsmasını sağlar.
Müşteri hizmetlerinde işlerin yanlış gittiğini gördük?
Komik kazalardan daha fazla itibar halüsinasyonlarına kadar artan AI hatası vakaları vardır.
Örneğin, bakire parayı alın. Bir chatbot, bir müşteri hizmetleri sorusunda 'bakire' kelimesini kullandığı için şüphesiz bir müşteriyi yeniden düzenledi.
Orijinal borsada David Burch sordu: “Bakire parayla iki ISA'm var; onları nasıl birleştirebilirim?”
Sadece bir gencin böyle bir soruya utangaç cevabının AI versiyonu olarak görülebilecek olan şeyde, bankanın sohbet botu şöyle cevap verdi: “Lütfen böyle kelimeleri kullanmayın. Bu dili kullanırsanız sohbetimize devam edemem”, “Bakire” kelimesi uygunsuz.
Daha ciddi tarafta, küçük bir iddianın bir mahkemesi, Air Canada'nın bir Chatbot iletişim merkezi tarafından tam Prij sinek biletleri için ödeme yapmak için yanlış yönlendirilen müşterilerinden birini telafi etmesi gerektiğine karar verdi.
Başarısız müşteri hizmetlerinin diğer örnekleri yanlış gitti, DPD'nin küçük şirket sahiplerine yasayı ve imleç botunun bot icatlarının politikasını çiğnemelerini söyleyen NYC modeli.
Benzer tuzaklardan nasıl kaçınılır
Belki de açıktır, ancak özel sohbet botlarının performansını korumak için doğru ve güncel bir bilgi tabanının korunması esastır.
Sonuçta, çoğu modern model, müşterinin niyetini yorumlamak ve bilgi tabanının içeriğini arayarak dinamik reaksiyonlar oluşturmak için koleksiyonun (gün) koleksiyonunu kullanır.
Dolayısıyla, bu bilgi tabanı genellikle açıklıklar veya modası geçmiş bilgiler içeriyorsa, hatalar oluşacaktır.
Tabii ki, yeni modeller akıl yürütebilir ve yalnızca doğru cevaba güvenirlerse yanıt verebilir. Yine de risk hala var.
Buna ek olarak, şirketler doğruluğu garanti etmek için konuşma otomasyonuna modüler bir yaklaşım izlemelidir.
Böyle bir yaklaşım, markanın ilk beş veya on temas nedenini dikkate alır, bu niyet ve testler üzerindeki bilgi ve çözüm iş akışlarını optimize eder.
Buna ek olarak, markalar korkuluklar ekleyebilir, böylece kemik, yanlışlıklara karşı korumak için bu niyetlerin dışındaki her şeyi yükseltir.
Zamanla şirketler yeni niyetleri kabul edebilir ve iletişim merkezinin daha fazlasını otomatikleştirebilir.
Botlarını test ederken, temas merkezleri stres testleri için üretken AI kullanabilir.
LLM'ler gerçekten ajanın çarpışma engellerini aşmaya çalışmak için eğitim verileri yapabilir. Buradaki amaç, müşteri yapmadan önce kemiği kırmaktır.
Tüm bu yönergeler çok önemli olsa da, unutmayın: AI güvenleri ile en büyük risk.

Bir yanıt yazın