Bir bakire etrafında garip alışverişler olmak, bana lise arkadaşlarım için beni utandıran babam için bana gençlik geri dönüşleri ver.
Neyse ki, hassasiyet günleri çevrimiçi olarak çevrimiçi olan birçok insan içindir.
Ancak, bir müşteri hizmetleri sorusunda 'Virgin' kelimesini kullandığı için bir sohbet botu tarafından kınanan Virgin Money'nin şüphesiz bir müşterisi için değil.
Çizgi roman değişimi geçen hafta LinkedIn'de paylaşıldı ve kullanıcılar halüsinasyonun komik tarafını görürken yüzlerce beğeni ve yorum aldı.
Orijinal borsada David Burch sordu: “Bakire paralı iki ISA'm var; Onları nasıl birleştirebilirim? “
Sadece bir gencin böyle bir soruya utangaç cevabının AI versiyonu olarak görülebilecek olan şeyde, bankanın sohbet botu şunları söyledi: “Lütfen kelimeler kullanmayın. Bu dili kullanırsanız sohbetimize devam edemem, '' Bakire 'kelimesini uygunsuz olarak görüyorum.
Sosyal medya komik tarafı görüyor, ancak halüsinasyonlar bir endişe kaynağı
Sosyal medya modasına uygun olarak, etkileşimin ekran görüntüsü aşağıdakiler gibi cevaplar içeriyordu: “” Birleştirme “gibi kaba bir şey söyleyeceğine inanamıyorum!”
Bir kullanıcı da şunları söyledi: “Bu ciddi Dave ..? Henüz 1 Nisan değil. “
Diğer kullanıcılar değişimin mizahi tarafını görürken, Virgin Money etkileşim için özür diledi ve açıkladı:
Emin olun, üzerinde çalışıyoruz. Bu özel chatbot, yakında müşterilere gelecek iyileştirmeler için planlanan bir chatbot.
Ne kadar komik olursa olsun, bu halüsinasyonlar bu olay için izole edilmez. Son yıllarda bu tür kazalarda bir katalog var.
Halüsinasyonların ciddi sonuçları olabilir
Chatbot -halüsinasyonlar komikten ciddiye değişebilir. İkincisinin bir örneği olarak, geçen yıl Air Canada'nın müşterilerinden birinin geçen yılın başlarında bir iletişim merkezi chatbot tarafından tam fiyat uçuş biletleri için ödeme yapmasını telafi etmesi gerektiğine karar verdi.
Söz konusu müşteri Jake Moffatt, havayolunun yas yüzdelerine uygun olarak yaklaşık 760 dolar ödemek zorunda kaldığında Toronto'ya ve Toronto'ya dönüş uçuşu için 1.600 dolardan fazla ödeme yapan etkilenen bir torundu.
Chatbot, Moffatt'a, maliyetlerin yarısından fazlasını talep etmek için tam fiyat biletlerinin satın alınmasından sonra bir bilet iadesi başvurusunu doldurabileceğini söyledi, ancak bu yanlış tavsiyeydi.
Bunu, ne kadar 'işe yaramaz' olduğu hakkında lanetleme ve şiir yazmaya ve yazmaya yakalanan DPD'nin Genai ile birleştirin ve işletme sahiplerine yasayı ihlal etmelerini ve chatbot enstalasyonlarının risklerini ihlal etmelerini söyleyen Microsoft odaklı sohbet botu .
Bunun gibi durumlar, uygun kaza bariyerlerini garanti etmek için ayak parmaklarını konuşmaya daldıran şirketler için bir anı olarak hareket eder.
Santa Fe Enstitüsü'nde profesör Melanie Mitchell olarak, Bir zamanlar New York Times için yazdı:
Yapay zeka sistemlerinin en tehlikeli yönü, onlara çok fazla güvenmemiz ve sınırlamalarının tam olarak farkında olmadığımızda onlara çok fazla özerklik vermemizdir.
Bu, botları canlanmadan önce iyice test etme ve müşteriler yapmadan önce herhangi bir zayıflığı tanımlamaya çalışması için önemli bir ihtiyacı vurgular.
Bir iletişim merkezi chatbot uygulamak için daha fazla tavsiyeyle CX Today ile yapılan son röportajla son röportajı görüntüleyin Felix Winstone, kurucu ortağı ve Talkatif CEO'su.
Başka bir sorun oynamak …
Yani, bakire paranın sohbet botu en iyi saatini almamış olabilir. Ancak müşterinin orijinal sorusuna geri dönün: “Bakire paralı iki ISA'm var; Onları nasıl birleştirebilirim? “
Düşünmek: Bu gerçekten yapay zekaya bırakılması gereken bir soru mu? Bu çok değerli bir niyet.
Andrew Moorhouse, Alite Direktörü, Bu sorunu görüyor. Dedi ki:
Müşteriler genellikle şunları soruyor: “Faiz oranı hesaplamaları için hangi tarihte onları 'birleştiriyorum' mi?” Bir sohbet botu bu konuşmaları yönetmenin yolu değildir.
Moorhouse, “Şirketler değerli ve savunmasızlara öncelik vermelidir.” “Bu her taraftan tam bir başarısızlık.”

Bir yanıt yazın