Devlet kurumları AI inovasyonunu güvenlik ve güvenle nasıl dengeleyebilir?

AI, kuruluşların hizmet sağlama biçiminde bir devrim getirirken, kamu sektörü benzersiz bir dizi zorluk anlamına geliyor.

Devlet kurumları için yapay zekanın uygulanması sadece verimliliği artırmakla ilgili değildir; Mesele bunu halkın güvenini koruyacak, hassas verileri koruyacak ve tam şeffaflığı koruyacak şekilde yapmaktır.

Gibi yüksek profilli girişimlerle HMRCS 2 milyar £ dijital dönüşüm Kamu soruşturmaları uyarınca, sorumlu yeniliğin sürdürülemediği açıktır.

Devlet hizmetlerinin AI'yı nasıl güvenli ve etik olarak devralabileceğini daha iyi anlamak için CX bugünle konuştu Kyle BirkerComputerTalk'ta Solutions Architect.

Bir Gizlilik Çerçevesi ile Başlayın

Hükümet departmanlarından güvenli ve uygun AI sistemlerini garanti etmeleri istendiğinde, “Herkese uyan tek bir cevap yok” diyor.

Bunun yerine, ajanslara verilerin nasıl toplandığını, erişilebilir olduğunu ve kullanıldığını yöneten bir gizlilik veya uyum çerçevesi ile başlamalarını tavsiye eder.

“Sadece müşteri verilerinden daha ileri gidiyor. Dahili veriler de var ve bu verilere erişimi olan sistemler de tatmin edici olmalı.”

Bu sadece AI platformunu değil, aynı zamanda tüm çevre mimariyi de içerir. Veri -take -tools'dan arka uç -hizmetlerine ve API'lara kadar, her bileşenin dahili standartları ve dış yasal gereksinimleri karşılaması gerekir.

Sadece bu temelde kuruluşlar güvenilir bir AI ekosistemi oluşturmaya başlayabilir.

Şeffaflık halkın güvenini oluşturur

Özel sektördeki müşteriler genellikle AI-Intenschelden hizmetlerinden abonelikten çıkma fırsatına sahip olsa da, vatandaşların her zaman lüksleri yoktur. Bu yüzden şeffaflık çok önemlidir.

Birker, “Kamu sektöründe AI çevresinde hala çok fazla şüphecilik var.”

“İnsanlar AI'nın neler yapabileceği, hangi verileri kullandığı ve hayatlarını nasıl etkilediğinden endişe ediyorlar.”

Kamuoyunun algısını değiştirmek için ajanslar AI'nın nasıl kullanıldığını ve çok önemli olduğunu açıkça iletmelidir.

Birker, “Yapay zekanın arkasındaki hedefi açıklamak hikayeyi tersine çevirebilir” diyor.

“İnsanlar deneyimlerini iyileştirdiğini anlarsa – sadece köşeleri kesmekle kalmaz – çok daha alıcı hale gelirler.”

Uygulamada bu, belirsiz ifadelerin arkasındaki otomasyonu maskelemek yerine, daha hızlı tepki süreleri, daha az şey -Call transferleri ve daha akıllı servis yönlendirmesi gibi somut faydaları vurgulamak anlamına gelir.

“İnsanlar AI'nın deneyimlerini geliştirdiğini ve güvenli bir şekilde yaptıklarını gördüklerinde, onu kucaklama olasılıkları daha yüksektir.”

Güven oluşturmak için dahili olarak başlayın

Birker'e göre, en etkili yollardan biri, AI'ya olan güveni, halk için kullanılmadan önce dahili olarak kullanmaya yönlendirmektir.

“Her çalışan da bir vatandaş” diyor. “Bu araçları günlük olarak kullanırlar ve ilk -elin değerini görürlerse, onları daha erken dış işleri desteklerler.”

Bu iç ilk strateji, AI'nın yararlı bir müttefik-kara kutu olarak gördüğü bir işyeri kültürü oluştururken riski azaltır.

“AI'nın kendi işinizi kolaylaştırdığını gördüğünüzde, kamu hizmetleri için de aynısını yapabileceğine inanmak daha kolaydır.”

Ayrıca ortak bir bakıma devam eder: iş yerinden edilmesi.

Birker, “Çoğu insan gece yarısı su faturası için temel soruları cevaplamak istemiyor” diyor.

“AI, bu tekrarlayan görevleri serbest bırakabilir, daha anlamlı çalışmaya odaklanmak için personelden serbest kalabilir.”

Gerçek dünyanın bir sunumu

ComputerTalk kısa süre önce ezici, yapılandırılmamış bir veri seti ve sınırlı insan kaynakları ile mücadele eden bir devlet kurumunu destekledi.

Ekip, büyük ölçekli bir AI üzerinde tam bir AI uygulamasını acele etmek yerine aşamalı bir sunum yapmayı seçti.

Birker, “Sertifikalı bir veri seti ve AI'nın nasıl kullanılacağına dair çılgın çarpışma engelleriyle küçük başladık” diyor.

Diyerek şöyle devam etti: “Kullanıcılara AI'nın bilgileriyle tam olarak nerede ilgilendiğini ve sınırların ne olduğunu gösterdik.”

Bu şeffaflık erken güven oluşturmaya yardımcı oldu. Güven büyüdükçe, çözüm adım adım genişledi ve en önemli veri noktalarını hedefledi.

Birker, “Net, veri kaynaklı önceliklere sahip olmak için bunalmışlardı.”

Diyerek şöyle devam etti: “Asla AI'yi kendisi için başlatmakla ilgili değildi – bu her adımda değer ve güven oluşturma kanıtı ile ilgiliydi.”

Sorumlulukla Yenilik

Güvenlik, ComputerTalk'ta bir yan sorun değildir; Yerden yerleşiktir.

Platform, kullanıma hazır uyumluluk sunar ve “kendili-kendi çerçevesi getir” ile modelleri destekler-hassas veriler üzerinde kontrolü elinde tutmak isteyen devlet kurumları için popüler bir seçimdir.

Birker için “İşbirliği anahtardır.”

Diyerek şöyle devam etti: “Bu bir ürünü teslim etmek ve uzaklaşmakla ilgili değil. Standartları tanımlamak, korkulukları ayarlamak ve her iki tarafın her iki tarafa da uymasını sağlamak için birlikte çalışıyoruz.”

Bu, denetim yolları, personel ve vatandaşlarla sürekli geri bildirim klussen ve orijinal gizlilik çerçevesine göre düzenlenen düzenli sistem incelemelerini içerir.

Son Düşünceler

AI hükümetler için güçlü bir fırsat sunuyor – aynı zamanda potansiyel bir risk.

Sorumlu bir şekilde uygulandığında, bu vatandaşların deneyimlerini geliştirebilir, iş yükünü azaltabilir ve hizmetleri iyileştirebilir. Kötü muamele edildiğinde, halkın güvenini vurgulamak ve hassas verileri ortaya çıkarmak riskindedir.

Sağlam çerçeveler oluşturarak, şeffaflığı kucaklayarak ve bir işbirliği, aşamalı yaklaşım izleyerek, ajanslar inovasyon ve hesap verebilirlik arasında doğru dengeyi bulabilir.

Birker'in dediği gibi:

“İnsanlar AI'nın nasıl yardımcı olabileceğini görür görmez – sadece ne olduğunu değil – onu kucaklamak için daha açıklar.”

Git Computertal -website.

Ayrıca bakarak satıcı hakkında daha fazla bilgi edinebilirsiniz Jennifer Sutcliffe ile bu röportajOperasyon ve Kontrol Başkan Yardımcısı ve bilgisayar konuşması yaklaşımını okumak Omnicannel ve AI İletişim Merkezleri döneminde güvenlik.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir