Son birkaç yıldır Microsoft, Copilot'ta her şeyi yapıyor. Kelimenin tam anlamıyla her yerde; Windows, Edge, Office veya hatta görmezden gelemeyeceğiniz temel iş akışlarında bile yer alıyor. Mesaj açıktı: Bu, üretkenliğin geleceği, gerçek işlerin yapılması için yapay zeka asistanınız.
Ve şimdi Microsoft birdenbire şunu söylüyor: Bunu fazla ciddiye almayın.
Microsoft, Copilot'un “ciddi kullanım” konuşmasından geri adım atıyor
İlk olarak bildirildiği üzere Tom'un Donanımı, Microsoft Copilot Kullanım Koşulları Copilot'un “yalnızca eğlence amaçlı” olduğunu ve önemli veya riskli kararlarda ona güvenilmemesi gerektiğini belirtin. Buna mali, hukuki veya tıbbi tavsiyeler de dahildir. Temel olarak, insanların giderek daha fazla yapay zekayı kullandığı türden şeyler.
Copilot yalnızca eğlence amaçlıdır. Hata yapabilir ve istenildiği gibi çalışmayabilir. Önemli tavsiyeler için Copilot'a güvenmeyin. Copilot'u kullanma riski size aittir.
Kağıt üzerinde bu mantıklı. Yapay zeka halüsinasyon görebilir, işleri yanlış anlayabilir ve bazen olması gerekenden çok daha kendinden emin görünebilir. Yasal açıdan bakıldığında, bu sorumluluk reddi beyanı neredeyse beklenen bir durumdur çünkü bu araçlar ölçeklendikçe potansiyel sorumluluğu önlemek için bir güvenlik ağı görevi görmektedir.
Ama burası biraz kötü hissetmeye başladığı yer. Bu, Microsoft'un Word, Excel, Outlook ve Teams'e derinlemesine entegre ettiği Copilot'un aynısıdır. Hatta kullanıcıların belirttiği gibi, bunlar Microsoft'un kendi Kurumsal çözümlerinde bile yer alıyor. İnsanların sıradan deneyler için değil, gerçek iş için kullandıkları araçlar. Yapay zekanız e-postaları özetlerken, rapor taslağı hazırlarken veya verileri analiz ederken buna “eğlence” demek garip bir şekilde gerçeklikle uyumsuz geliyor.
İnternet tam olarak onu satın almıyor
Şaşırtıcı olmayan bir şekilde, internet tam olarak alkışlamıyor. Tepki çoğunlukla bol miktarda göz devirmeyle karıştırılmış kafa karışıklığı oldu. Çünkü dürüst olalım, eğer Copilot ciddi bir kullanıma yönelik değilse neden insanların ciddi işler yapmak için güvendikleri araçların içinde ön planda ve ortada duruyor?
Bir yeniden tanımlamadan ziyade bir güvenlik ağı gibi gelmeye başlıyor. Copilot'u her yere itin, onu kaçınılmaz hale getirin, onu gelecekmiş gibi satın ve sonra işler karmaşıklaştığında sessizce “ona güvenmeyin” etiketini ekleyin. Bu, beraberinde gelen sorumluluktan kaçarken yapay zekanın iyi taraflarından keyif almanın güzel bir yolu.

Elbette Microsoft burada yalnız değil. Her AI aracı, bu sorumluluk reddi beyanının ayrıntılı baskıya gömülü bir versiyonuyla birlikte gelir. Ancak bu araçların çoğu isteğe bağlıdır. Onları kurarsınız, denersiniz ve onlara ne kadar güveneceğinize siz karar verirsiniz. Maalesef Copilot bu rotayı izlemedi. Windows ve Office'te ortaya çıktı ve siz isteseniz de istemeseniz de kendisini deneyimin bir parçası haline getirdi.
İşte tam da bu yüzden bu kötü hissettiriyor. Aylar boyunca Copilot'un üretkenliğin geleceği olduğu söylendikten sonra, onu “sadece eğlence” olarak adlandırmak artık tuhaf bir U dönüşü gibi geliyor. Bu noktada kullanıcılar sadece mesajları sorgulamakla kalmıyor; bütünleşmeyi sorguluyorlar. Çünkü eğer bu sadece eğlence içinse belki de kapatılması bu kadar zor olmamalı.

Bir yanıt yazın