Würzburg/Berlin – Yapay Zeka (AI) gittikçe daha fazla tıp alanı haline geliyor ve sağlık hizmetlerini iyileştirme vaatleri, en azından artan sayıda çalışmayı tahmin ediyor. Bununla birlikte, hastaların yeni teknik olanaklar söz konusu olduğunda oldukça şüpheleri var, şimdi dergide Jama Ağı Açık (2025, doi: 10.1001/jamanetworkkopen.2025.21643) Yayınlanmış çalışma.
Daha da fazlası: AI kullanımı, insanların doktorları daha az yetkin ve güvenilir olarak değerlendirdikleri anlamına gelir.
Çalışma için, Würzburg'daki Julius Maximilians Üniversitesi'nden Moritz Reis ve Wilfried müşterileri ve Charité Berlin Tıbbi Bilgisayar Bilimleri Enstitüsü'nden Florian Reis'i 1.200'den fazla gönüllü işe aldı. Bunlar tıbbi uygulamalar için reklamlar aldı ve farklı mülkler açısından gösterilen doktorları değerlendirmelidir.
Deney için oluşturulan reklamlar sadece bir noktada farklılık gösterdi: bazıları, sunulan doktora veya sunulan doktora uygulama, tanı veya terapötik amaçlar için sunulan doktora göre eklendi.
Bu doktorlar deneyde önemli ölçüde daha olumsuzdu. Özellikle, çalışmanın katılımcıları onları daha az yetkin, daha az güvenilir ve daha az empatik olarak değerlendiriyorlar – ve kurgusal şikayet Ki'nin sadece uygulamada idari amaçlar için kullanılacağını belirtmiş olsa bile.
Buna ek olarak, test denekleri AI kullanan doktorlarla randevu almaya daha az istekliydi.
Yapay zekaya kör güven?
Yazarlar, insanların doktorların AI'yı körü körüne takip edebileceğinden endişe duydukları deneylerinin sonucunun olası bir nedeni olarak şüpheleniyorlar.
Yazarlar, “Doktorlar hastalarını AI kullanımı hakkında bilgilendiriyorlarsa, olası endişeleri gidermeyi ve olası avantajları vurgulamayı hedeflemelidirler.”
Örneğin, AI'nın idari amaçlar için kullanılması, doktorların hastalarına bakmak için daha fazla zamana sahip olmalarına yardımcı olabilir: “Artan teknolojileştirmeye rağmen, AI tarafından sağlık hizmetlerimiz daha insan olabilir.”
“Anlaşılamaz, kontrol edilebilir ve güvenilir”
Würzburg çalışması, tıpta büyüyen AI uygulamasının sonuçlarıyla ilgilenen birkaç çalışmadır. Çok farklı yönler – güvenilirliğin güvenilirliğinden, gerçek yararın kabulüne kadar – bazı çelişkili sonuçlarla aydınlatılmıştır.
Otto-Friedrich Üniversitesi Bamberg'de açıklanabilir makine öğrenimi sandalyesinin sahibi Christian Ledig, hastalar arasında kabul yaratmak için doğru iletişim önemlidir: “Konuştuğumuz sistemler deterministik ve gerçekten zeki değil. Sadece kalıpları çok iyi tanıyorlar.”
Bir sistem teknolojisi olarak AI toplum için birçok zorluğu olsa bile, nüfusun özerk, akıllı sistemlerin korkuları tarafından körüklenmesi yararlı değildir.
Üniversite Hastanesi Essen'de Teşhis ve Girişimsel Radyoloji Enstitüsü ve Nöroradyoloji Enstitüsü'nde Tıpta Yapay Zeka Enstitüsü ve Kıdemli Doktor Araştırma Grubu Lideri Felix Nensa şunları ekliyor: “Uygulamaların anlaşılabilir, kontrol edilebilir ve güvenilir olup olmadığına bağlıdır.”
Kullanıcılar herhangi bir zamanda bir kararın verildiği temeli tanıyabilmeli ve sürece aktif olarak müdahale edebilir, Nensa'yı vurgular ve daha fazla açıklar: “Şeffaflık sadece teknik değil, aynı zamanda iletişimsel bir tasarım kriteridir.”
Ne Holo-Doc ne de Konuşan Robot
Tübingen Eberhard Karls Üniversitesi'nden Philipp Berens için, iyi bir AI tabanlı tıbbi cihaz, orada AI'nın ne bir doktor ne de sabırlı olduğunu fark etmedi: “AI destekli bir kameradan göz arka planının görüntüsünde, çarpıcı lezyonlar zaten işaretlenecekti.”
Şüpheli bir teşhis ve tedavisi olan ve tedavisi olmayan veya farklı tedavi rotaları için olası bir hastalık, bir yazılım yüzeyinde kullanılabilir hale getirilecektir.
Veri Bilimi Profesörü ve Beyin Sağlığı'nda AI Enstitüsü Direktörü, “Bunu Star Trek'ten Holo-Doc veya konuşan bir robot gibi hayal etmek zorunda değilsiniz” dedi.
Münih Teknik Üniversitesi (TUM) AI ve Bilgisayar Bilimleri Enstitüsü başkanı Daniel Rückert, şeffaflığı tıpta AI için güven ve kabul için en önemli faktörlerden biri olarak tanımlamaktadır. Bu nedenle AI kullanımı tüm tarafları içermelidir.
Aynı zamanda İngiliz İmparatorluk Koleji Londra'da görsel bilgi işleme profesörü olan Rückert, “Doktor burada AI kullansa bile, her zaman tedavi eden doktor ile ilgilidir.”
AI araçlarının kullanımı hakkında nasıl bilgi verilir
Başlangıçta belirtilen Würzburg çalışmasında olduğu gibi hasta tarafındaki çekinceler göz önüne alındığında, sadece AI kullanımını gizleme fikrini alabilir.
Etik olarak bu neredeyse haklı olmayacaktır – ancak ilgili hasta eğitimi sorunu farklılaşmış bir cevap gerektirir. ABD Stanford Üniversitesi'nden bir araştırma ekibi bu Perspektif-It -Gergred'e katkı Jama (2025, doi: 10.1001/jama.2025.11417) ve bunun için yeni bir çerçeve önermektedir.
Grup: “Hastaları bir sağlık tesisinde kullanılan her AI aracı hakkında bilgilendirmek ne pratik ne de arzu edilir.” AI araçlarının açıklanması her zaman onların çıkarına değildir.
Önerilen çerçeveye göre, iki faktör, hastaların bir AI aracının kullanımı hakkında bilgilendirilmeleri gerekip gerekmediğine veya hatta rıza istenmelerine bağlı olmalıdır: sağlık hasarı riski ve hastaların bilgi için hareket etme fırsatı. Örneğin AI kontrollü bir cerrahi robot durumunda, ekspres rızası yararlıdır, ancak iç tahmin algoritmaları için kan taşıması için gerekli değildir. Ekip, bir genel bakışta ABD perspektifinden başka örnekler listeliyor (sonunda tabloya bakınız).
Buna ek olarak, rıza bildirimlerine aşırı bir vurgu verimsiz olabilir, makale şunları söylüyor: Örneğin, hastalar otomatik olarak üretilirse, ancak bir doktor tarafından AI kökenlerinden öğrenir öğrenmez bir doktor tarafından daha az empatik olarak kontrol edilirse, şeffaflığın “şüpheli” riskini sunar.
Araştırmacılar, bireysel kararları sağlık personeline bırakmak yerine, örgütsel düzeyde net yönergeler talep ediyorlar. Bir yandan, klinikler hangi AI araçlarını kullandıklarını ve hastaların tedavide hangi rol oynadıklarını anlaşılabilir bir şekilde açıklamalıdır. Öte yandan, sağlık tesisleri AI hükümeti süreçlerine hasta temsilcilerini dahil etme fırsatları aramalıdır.
Stanford Üniversitesi ekibi şöyle yazıyor: “Her iki adım da AI araçlarının risklerini en aza indirmek için önlem almanın sadece iletişim kurduklarından daha önemli olduğunu dikkate alıyor.”
Tıpta örnek AI uygulamaları ve hasta bilgileri için öneriler
Perspektif makalesinden genel bakış Jama (2025, doi: 10.1001/jama.2025.11417), araştırma ekibinin ABD perspektifinden bilgi kararlarının nasıl görünebileceğini ve haklı olabileceğini göstermektedir.
* Önerilerde, AI modelinin benzer bir nüfusun piyasaya sürülmesinden önce testlerde iyi kesildiği varsayılmaktadır.
Başvuru |
Öneri ve sebep* |
Onay gerekli |
|
AI tabanlı, otonom olmayan cerrahi robot |
Cerrahi müdahaleler temel olarak yüksek bir riski gizlediğinden ve hastalar robotik olmadan cerrahi seçebilirler. |
Belirli ilaçlara yanıtı tahmin etmek ve terapi planlarını tavsiye etmek için kanser hastalarında genetik bilgilerin analizi aracı |
Yanlışlıklar kötü sonuçlara yol açabilir ve hastaların kullanma ile çelişebilir. |
Bildirim Önerildi |
|
Mevcut ekokardiyografi verilerine dayanan olası hipertrofik kardiyomiyopati vakalarının tanınması için prognoz algoritması |
Pozitif hastaların bildirimi, ancak hastalar aracın kullanımından kaçınamasa da, bir AI algoritması nedeniyle bir ekokardiyografi önerildiği gerçeği, tavsiyeyi kabul edip etmediklerine ilişkin kararlarını etkilemektedir. |
Hasta e -postalarının cevaplarını formüle etmek için üretken AI aracı |
Bildirim, çünkü yanlışlıklar hasara neden olabilir ve bilgilendirilmiş hastaların belirsizlikler durumunda soru sorma olasılığı daha yüksektir. |
Klinik ziyareti sırasında konuşma özeti oluşturmak için çevre alımına sahip araç |
Bildirim çünkü yanlışlıklar hasara neden olabilir ve hastalar özetleri hatalar için kontrol edebilir. (Bazı ABD eyaletlerinde yasal olarak onay gereklidir.) |
Ne rıza ne de bildirim gerekli |
|
Kan ameliyat için depolanıp saklanmayacağına karar vermek için tahmini algoritması |
Hastaların bu tür örgütsel kararlar üzerinde hiçbir etkisi olmadığından ve kan sağlanması, kan transfüzyonuna ayrı bir rızanın yerini almaz. |
AI tabanlı mamografi değerlendirmesi |
Eğer kişi yapay zeka temelli yorumlamanın insandan daha iyi olduğunu varsayarsa, aksi halde bakılma seçiminin egzersizi hasar riskini artıracaktır. |
Radyologların diktilerine dayalı bulgu bulguları yaratmak için üretken yapay zeka aracı |
Ne de araç sadece radyologun ifadelerini özetlediğinden ve hastaların riski düşüktür. |
Günlük laboratuvar testlerinin güvenli bir şekilde ayarlanabileceği yatan hastaları tanımlamak için tahmini algoritması |
Ne hastalar ne araç kullanımını reddetmedikleri ne de laboratuvar muayenelerinin devam etmesini talep etmezler; Karar tıp uzmanına aittir, algoritma sadece bir öneri sunar. |
Maliyetler varsayımı (önceden yetkilendirme) sigortaya yönelik başvuruların oluşturulmasını desteklemek için üretken yapay zeka aracı |
Hiçbiri hastaların riski düşük olduğundan (reddetme itiraz edilebilir) ve bu organizasyonel süreçler üzerinde hiçbir etkisi yoktur. |
Bir yanıt yazın