Microsoft, AI’nın ‘yararlı bir şekilde yanlış’ yanıtlarını haklı çıkarıyor – apk haber

0/5 Oy yok

Bu uygulamayı bildirin

AÇIKLAMA

Yapay zekadaki son gelişmeler sayesinde, ChatGPT gibi yeni araçlar, insanların sorgularına ve istemlerine dayalı ilgi çekici yazılar oluşturma becerileriyle tüketicileri büyülüyor.

Yapay zeka destekli bu araçlar, yaratıcı ve bazen komik yanıtlar üretmede çok daha iyi hale gelse de, genellikle yanlış bilgiler içerirler.

Örneğin, Şubat ayında Microsoft, Microsoft destekli OpenAI tarafından oluşturulan GPT-4 teknolojisi kullanılarak oluşturulan Bing sohbet aracını piyasaya sürdüğünde, insanlar aracın finansal kazanç raporlarıyla ilgili bir demo sırasında yanlış yanıtlar verdiğini fark ettiler. Benzer yazılımlar da dahil olmak üzere diğer AI dil araçları gibi GoogleBing sohbet özelliği ara sıra kullanıcıların temel gerçek olduğuna inanabilecekleri sahte gerçekler sunabilir; bu, araştırmacıların “halüsinasyon” olarak adlandırdığı bir olgudur.

Gerçeklerle ilgili bu sorunlar, iki teknoloji devi arasındaki yapay zeka yarışını yavaşlatmadı.

Salı günü Google, yapay zeka destekli sohbet teknolojisini Gmail’e ve Google Dokümanlar’a getirdiğini ve bunun e-posta veya belge oluşturmaya yardımcı olduğunu duyurdu. Perşembe günü Microsoft, Word ve Excel gibi popüler iş uygulamalarının yakında Copilot adlı ChatGPT benzeri bir teknolojiyle birlikte geleceğini söyledi.

Ancak bu sefer Microsoft, teknolojiyi “yararlı bir şekilde yanlış” olarak sunuyor.

Yeni Copilot özellikleriyle ilgili çevrimiçi bir sunumda Microsoft yöneticileri, yazılımın yanlış yanıtlar üretme eğiliminden bahsetti, ancak bunun yararlı olabilecek bir şey olduğunu öne sürdü. İnsanlar, Copilot’un yanıtlarının gerçeklerle uyumsuz olabileceğini fark ettikleri sürece, yanlışlıkları düzenleyebilir ve e-postalarını daha hızlı gönderebilir veya sunum slaytlarını tamamlayabilirler.

Örneğin, bir kişi bir aile üyesinin doğum gününü kutlayan bir e-posta oluşturmak isterse, yanlış doğum tarihini gösterse bile Copilot yine de yardımcı olabilir. Microsoft’un görüşüne göre, aracın metin oluşturması bir kişiye zaman kazandırdı ve bu nedenle yararlıdır. İnsanların ekstra özen göstermesi ve metnin herhangi bir hata içermediğinden emin olması gerekiyor.

Araştırmacılar aynı fikirde olmayabilir.

Gerçekten de Noah Giansiracusa ve Gary Marcus gibi bazı teknoloji uzmanları sağlık, finans ve diğer yüksek riskli konular hakkında sorular sorduklarında ChatGPT gibi tavsiye araçlarını ciddiye alarak insanların günümüzün yapay zekasına çok fazla güvenebileceğine dair endişelerini dile getirdiler.

“ChatGPT’nin toksisite korkulukları, onu kötülük için kullanmaya kararlı olanlar tarafından kolayca atlatılıyor ve bu haftanın başlarında gördüğümüz gibi, tüm yeni arama motorları halüsinasyon görmeye devam ediyor,” diye yazdı ikili yakın tarihli bir Time makalesinde. “Ancak açılış günündeki gerginlikleri atlattıktan sonra, gerçekten önemli olan, büyük oyunculardan herhangi birinin gerçekten güvenebileceğimiz yapay zeka geliştirip geliştiremeyeceğidir.”

Copilot’un pratikte ne kadar güvenilir olacağı belli değil.

Microsoft baş bilimcisi ve teknik adam Jaime Teevan, Copilot “işleri yanlış anladığında veya önyargılara sahip olduğunda veya kötüye kullanıldığında” Microsoft’un “hafifletici önlemlere sahip olduğunu” söyledi. Ayrıca Microsoft, gerçek dünyada nasıl çalıştığını keşfedebilmek için yazılımı ilk başta yalnızca 20 kurumsal müşteriyle test edecek.

Teevan, “Hatalar yapacağız, ancak yaptığımızda bunları hızla ele alacağız.”

İş çıkarları, Microsoft’un ChatGPT gibi üretken yapay zeka teknolojilerine yönelik coşkuyu görmezden gelmesi için çok yüksek. Şirketin önündeki zorluk, yazılıma karşı toplumda güvensizlik yaratmaması veya büyük halkla ilişkiler felaketlerine yol açmaması için bu teknolojiyi dahil etmesi olacaktır.

Teevan, “On yıllardır yapay zeka üzerinde çalıştım ve bu güçlü yeni araçla büyük bir sorumluluk duygusu hissediyorum” dedi. “Bunu insanların eline teslim etme ve bunu doğru şekilde yapma sorumluluğumuz var.”

Kol saati: Microsoft ve Google’ın büyümesi için çok fazla alan var

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir