Avukatlar neden chatgpt kullanmaya devam ediyor?

Birkaç haftada bir, bir yargıç, “sahte AI tarafından üretilen araştırma” sözleriyle ilgili dosyalama gönderme konusunda sorun çıkaran bir avukatın yeni bir başlığı var gibi görünüyor. Ayrıntılar değişir, ancak hattı aynıdır: bir avukat, yasal araştırmalarda (veya daha kötüsü, yazma) yardımcı olmak için Chatgpt gibi büyük bir dil modeline (LLM) dönüşür, LLM var olmayan davaları halüsinasyon yapar ve avukat, yargıç veya muhalif avukat hatalarına işaret edene kadar daha akıllı değildir. 2023 tarihli bir havacılık davası da dahil olmak üzere bazı durumlarda, avukatlar AI tarafından üretilen halüsinasyonlarla dosyalama göndermek için para cezası ödemek zorunda kaldı. Öyleyse neden durmadılar?

Cevap çoğunlukla zamana düşüyor ve AI'nın neredeyse her mesleğe girme şekli. Lexisnexis ve Westlaw gibi yasal araştırma veritabanlarının şimdi AI entegrasyonları var. Büyük vaka yükleri hokkabazlık yapan avukatlar için AI inanılmaz derecede verimli bir asistan gibi görünebilir. Çoğu avukat, başvurularını yazmak için ChatGPT'yi kullanmazlar, ancak giderek daha fazla araştırma için kullanıyorlar. Yine de bu avukatların çoğu, halkın çoğu gibi, LLM'lerin ne olduğunu veya nasıl çalıştıklarını tam olarak anlamıyor. 2023 yılında yaptırım uygulanan bir avukat, Chatgpt'in “süper arama motoru” olduğunu düşündüğünü söyledi. Daha çok rastgele ifade jeneratörü gibi olduğunu ortaya çıkarmak için sahte alıntılarla dosyalama gönderilmesini gerektirdi-size doğru bilgi verebilecek ya da ikna edici bir şekilde ifade edilen saçmalık.

Suffolk Üniversitesi Hukuk Fakültesi Dekanı Andrew Perlman, birçok avukatın AI araçlarını olaysız kullandığını ve sahte alıntılarla yakalananların aykırı olduğunu savunuyor. Perlman, “Şu anda gördüğümüz şey – bu halüsinasyon sorunlarının gerçek olmasına ve avukatların bunu çok ciddiye alması ve dikkatli olmaları gerektiğini düşünüyorum – bu araçların yasal hizmetlerin sunumu için büyük olası faydaları ve kullanım durumları olmadığı anlamına gelmiyor” dedi. Westlaw gibi yasal veritabanları ve araştırma sistemleri AI hizmetlerini dahil etmektedir.

Aslında, 2024'te Thomson Reuters tarafından ankete katılan avukatların yüzde 63'ü geçmişte AI kullandıklarını ve yüzde 12'si düzenli olarak kullandıklarını söyledi. Katılımcılar, içtihatların özetlerini yazmak ve “içtihat, tüzük, formlar veya siparişler için örnek dili” araştırmak için yapay zeka kullandıklarını söylediler. Thomson Reuters tarafından araştırılan avukatlar bunu zaman tasarrufu sağlayan bir araç olarak görüyor ve ankete katılanların yarısı “işyerinde AI uygulama potansiyelini araştırmanın” en yüksek önceliği olduğunu söyledi. Bir katılımcı, “İyi bir avukatın rolü, bir belge yapımcısı olarak değil 'güvenilir bir danışman'.” Dedi.

Ancak son örneklerin gösterdiği gibi, AI tarafından üretilen belgeler her zaman doğru değildir ve bazı durumlarda hiç gerçek değildir.

Yakın tarihli bir yüksek profilli davada, 2024'te Unaireed Fox News görüntülerini yayınladığı için tutuklanan gazeteci Tim Burke için avukatlar, İlk Değişiklik Gerekçesiyle kendisine karşı davayı reddetmek için bir dava sundu. Florida'nın orta bölgesinden Yargıç Kathryn Kimball Mizelle, dosyalamanın “sözde ilgili içtihat ve tarihin önemli yanlış beyanlarını ve yanlış tanıtımlarını ve yanlış belgeleri içerdiğini keşfettikten sonra, davanın dava kaydından kaçmasını emretti. Mizelle, belgede dokuz halüsinasyon buldu, Tampa Bay Times.

Mizelle nihayetinde Burke'ün avukatları Mark Rasch ve Michael Maddux'un yeni bir hareket yapmasına izin verdi. Hataları açıklayan ayrı bir dosyalamada Rasch, “bu hatalar için tek ve münhasır sorumluluk üstlendiğini” yazdı. Rasch, Chatgpt Pro'da “Derin Araştırma” özelliğini kullandığını söyledi. Eşek daha önce karışık sonuçların yanı sıra Westlaw'ın AI özelliği ile test edilmişti.

Rasch yalnız değil. Antropik'i temsil eden avukatlar yakın zamanda, müzik yayıncıları tarafından antropiklere karşı getirilen telif hakkı ihlali davasının bir parçası olarak sunulan uzman bir tanık beyanı yazmasına yardımcı olmak için şirketin Claude yapay zekasını kullanmayı kabul etti. Bu dosyalama “yanlış başlık ve yanlış yazarlar” olan bir alıntı içeriyordu. Geçen Aralık ayında, yanlış bilgilendirme uzmanı Jeff Hancock, Deep Lute kullanımını düzenleyen bir Minnesota yasasını desteklemek için sunduğu bir bildiride alıntılar düzenlemeye yardımcı olmak için ChatGPT'yi kullandığını itiraf etti. Hancock'un dosyalaması “popüler olarak 'halüsinasyonlar' olarak adlandırılan iki atıf hatası” ve başka bir atıf için yanlış listelenen yazarları içeriyordu.

Bu belgeler aslında önemlidir – en azından hakimlerin gözünde. Yakın tarihli bir davada, State Farm'a karşı bir davaya başkanlık eden bir Kaliforniya yargıcı başlangıçta argümanlar tarafından kısa bir süre içinde sallandı, ancak belirtilen içtihatın tamamen oluşturulduğunu bulmak için. Yargıç Michael Wilner, “Özetlerini okudum, yetkililer tarafından atıfta bulundukları yetkililer tarafından ikna oldum (veya en azından ilgimi çekti) ve onlar hakkında daha fazla bilgi edinme kararlarına baktım – sadece var olmadıklarını bulmak için” diye yazdı.

Perlman, avukatların çalışmalarında, büyük keşif belgelerinde bilgi bulmak, özetleri veya dosyaları gözden geçirmek ve olası argümanları veya olası karşıt görüşleri beyin fırtınası yapmak da dahil olmak üzere, çalışmalarında üretken AI kullanmanın birkaç daha az riskli yolu olduğunu söyledi. Perlman, “Hemen hemen her görevde, üretken yapay zekanın yararlı olabileceği yollar var – avukatların yargısının yerini almıyor, avukatların masaya getirdiği uzmanlığın yerini almıyor, ancak avukatların ne yaptığını desteklemek ve işlerini daha iyi, daha hızlı ve daha ucuz yapmalarını sağlıyor” dedi.

Ancak AI araçlarını kullanan herkes gibi, yasal araştırma ve yazmaya yardımcı olmak için onlara güvenen avukatların ürettikleri işi kontrol etmeye dikkat etmesi gerektiğini söyledi. Sorunun bir kısmı, avukatların kendilerini zamanında kısa bulmalarıdır – LLM'lerin resme girmeden önce var olduğunu söylediği bir konu. Perlman, “Üretken yapay zekanın ortaya çıkmasından önce bile, avukatlar, ele aldıklarını iddia ettikleri konuyu gerçekten ele almayan alıntılarla belgelere başvuracaklardı” dedi. “Bu sadece farklı bir sorundu. Bazen avukatlar acele edildiğinde, alıntılar ekliyorlar, onları düzgün bir şekilde kontrol etmiyorlar; davanın devrilip geçmediğini gerçekten görmüyorlar.” (Dedi ki, vakalar en azından tipik olarak var.)

Bir başka, daha sinsi bir sorun, avukatların – araştırma ve yazmaya yardımcı olmak için LLM'leri kullanan diğerleri gibi – AI'nın ürettiklerine çok güvenmesidir. Perlman, “Bence birçok insan çıktı ile rahatlık duygusuna dönüştü, çünkü ilk bakışta çok iyi hazırlanmış gibi görünüyor” dedi.

Arizona'daki bir seçim avukatı ve Cumhuriyetçi eyalet temsilcisi Alexander Kolodin, ChatGPT'ye genç düzey bir yardımcı olarak davrandığını söyledi. Ayrıca mevzuat yazmaya yardımcı olmak için chatgpt kullandı. 2024'te, LLM'nin derin dişlerin ne olduğuna dair “temel tanımını” sağlamasını sağlayan 2024'te AI metni ekledi ve “Ben, insan, insan haklarının korumalarına eklendi, bunun gibi şeyleri, komedi, hiciv, eleştiri, sanatsal ifade, bu tür şeyleri hariç tutuyor” dedi. Guardian o zaman. Kolodin, Chatgpt kullanımını tasarının ana Demokratik Cosponsor'uyla tartıştığını, ancak aksi takdirde yasa tasarısında “Paskalya Yumurtası” olmasını istediğini söyledi. Tasarı yasaya geçti.

2020'de 2020 seçiminin sonucuna meydan okuyan davalara dahil olduğu için Arizona Eyalet Bar tarafından yaptırım uygulanan Kolodin, ChatGpt'i ilk değişiklik taslaklarını yazmak için kullandı ve anlattı. Eşek Bunu yasal araştırma için de kullanıyor. Halüsinasyon probleminden kaçınmak için, sadece gerçek olduklarından emin olmak için alıntıları kontrol ettiğini söyledi.

Kolodin, “Sadece atıfları kontrol etmeden tipik olarak bir genç ortağın iş ürünü göndermiyorsunuz” dedi. “Sadece halüsinasyon yapan makineler değil; genç bir ortağı davayı yanlış okuyabilir, yine de belirtilen öneriyi gerçekten ifade etmiyor, her neyse. Yine de alıntı yapmak zorundasınız, ancak bunu oldukça deneyimli olmadıkça bir ortakla yapmanız gerekiyor.”

Kolodin, hem Chatgpt'in Pro “Derin Araştırma” aracını hem de Lexisnexis AI aracını kullandığını söyledi. Westlaw gibi Lexisnexis de öncelikle avukatlar tarafından kullanılan bir yasal araştırma aracıdır. Kolodin, deneyiminde Chatgpt'ten daha yüksek bir halüsinasyon oranına sahip olduğunu ve “geçtiğimiz yıl önemli ölçüde düştüğünü” söyledi.

Avukatlar arasında AI kullanımı o kadar yaygın hale geldi ki, 2024'te Amerikan Barolar Birliği, avukatların LLM'leri ve diğer AI araçlarını kullanma konusunda ilk rehberliğini yayınladı.

AI araçlarını kullanan avukatların, üretken yapay zekanın gelişen doğasının anlaşılmasını gerektiren ilgili teknolojik yetkinliği korumak da dahil olmak üzere bir yetkinlik görevi vardır ”. Rehberlik, avukatlara “GAI araçlarının faydaları ve riskleri hakkında genel bir anlayış edinmelerini” tavsiye eder – ya da başka bir deyişle, bir LLM'nin “süper arama motoru” olduğunu varsaymamak için. Avukatlar ayrıca, davalarıyla ilgili bilgileri LLM'lere girme konusundaki gizlilik risklerini tartmalı ve müşterilerine LLM'leri ve diğer AI araçlarını kullandıklarını anlatıp anlatmayacağını düşünmelidir.

Perlman avukatların yapay zekayı kullanımı konusunda boğa. “Üretken AI'nın hukuk mesleğinin şimdiye kadar gördüğü en etkili teknoloji olacağını ve avukatların bu araçları gelecekte kullanmaları bekleneceğini düşünüyorum” dedi. “Bence bir noktada, bu araçları kullanan ve olmayan avukatların yetkinliği konusunda endişelenmeye başlayan avukatların yetkinliği konusunda endişelenmeyi bırakacağız.”

Avukatları AI tarafından üretilen halüsinasyonlarla dolu bir dosyalama göndermeleri için onaylayan hakimlerden biri de dahil olmak üzere diğerleri daha şüpheci. “Son ilerlemelerle bile,” diye yazdı Wilner, “hiçbir makul yetkin avukat bu teknolojiye-özellikle de bu materyalin doğruluğunu doğrulama girişimi olmadan-bu teknolojiye araştırma ve yazmamalıdır.”


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir