Bill Gates ve yapay zeka geliştiricileri Musk ve Wozniak’a açık mektup gönderdi – apk haber

0/5 Oy yok

Bu uygulamayı bildirin

AÇIKLAMA

Son günlerde çok sayıda AI yanlısı gevezelik duyduysanız, muhtemelen yalnız değilsiniz.

AI geliştiricileri, önde gelen AI etik uzmanları ve hatta Microsoft’un kurucu ortağı Bill Gates, geçen haftayı çalışmalarını savunarak geçirdi. Bu, Life of Life Enstitüsü tarafından geçen hafta yayınlanan ve Tesla CEO’su Elon Musk ve Apple kurucu ortağı Steve Wozniak tarafından imzalanan ve insan seviyesindeki yapay zeka sistemleriyle rekabet edebilecek AI sistemleri üzerinde çalışmayı altı ay durdurma çağrısında bulunan açık bir mektuba yanıt olarak geldi. istihbarat.

Şu anda 13.500’den fazla imzaya sahip olan mektup, OpenAI’nin ChatGPT’si, Microsoft’un Bing AI sohbet robotu ve Alphabet’in Bard’ı gibi programlar geliştirmeye yönelik “tehlikeli yarış”ın kontrol edilmediği takdirde yaygın dezenformasyondan insan işlerinin terk edilmesine kadar olumsuz sonuçlara yol açabileceğinden korkulduğunu ifade ediyor. makinelere.

Ancak en büyük yıldızlarından en az biri de dahil olmak üzere teknoloji endüstrisinin geniş alanları geri adım atıyor.

Pazartesi günü Reuters’e konuşan Gates, “Belirli bir gruptan duraklamalarını istemenin zorlukları çözeceğini düşünmüyorum.” Gates, küresel bir endüstri genelinde bir ara vermenin zor olacağını ekledi – ancak endüstrinin “zorlu alanları belirlemek” için daha fazla araştırmaya ihtiyacı olduğunu kabul etti.

Uzmanlar, tartışmayı ilginç kılan şeyin bu olduğunu söylüyor: Açık mektupta bazı meşru kaygılar belirtilebilir, ancak önerilen çözüme ulaşmak imkansız görünüyor.

İşte nedeni ve sonrasında ne olabileceği – hükümet düzenlemelerinden herhangi bir potansiyel robot ayaklanmasına kadar.

Musk ve Wozniak neyle ilgileniyor?

Açık mektubun endişeleri nispeten basit: “Son aylarda yapay zeka laboratuvarlarının, hiç kimsenin – yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini gördük. .”

AI sistemleri genellikle programlama önyargıları ve potansiyel gizlilik sorunları. Özellikle kötü niyetle kullanıldıklarında yanlış bilgileri geniş çapta yayabilirler.

Kişisel asistanlardan müşteri hizmetleri temsilcilerine kadar insan işlerini yapay zeka dil sistemleriyle değiştirerek para biriktirmeye çalışan şirketleri hayal etmek kolaydır.

İtalya, bir OpenAI veri ihlalinden kaynaklanan gizlilik sorunları nedeniyle ChatGPT’yi geçici olarak yasakladı. Birleşik Krallık hükümeti geçen hafta düzenleme tavsiyeleri yayınladı ve Avrupa Tüketici Örgütü de Avrupa’daki milletvekillerini düzenlemeleri hızlandırmaya çağırdı.

ABD’de bazı Kongre üyeleri yapay zeka teknolojisini düzenlemek için yeni yasalar çıkarılması çağrısında bulundu. Geçen ay Federal Ticaret Komisyonu, bu tür sohbet botları geliştiren işletmeler için bir kılavuz yayınladı ve bu, federal hükümetin dolandırıcıların kullanabileceği yapay zeka sistemlerini yakından izlediğini ima etti.

Ve geçen yıl yürürlüğe giren çok sayıda devlet gizlilik yasası, şirketleri yapay zeka ürünlerinin ne zaman ve nasıl çalıştığını açıklamaya zorlamayı ve müşterilere yapay zeka tarafından otomatikleştirilmiş kararlar için kişisel verileri sağlamayı devre dışı bırakma şansı vermeyi amaçlıyor.

Bu yasalar şu anda California, Connecticut, Colorado, Utah ve Virginia’da yürürlüktedir.

AI geliştiricileri ne diyor?

En az bir AI güvenlik ve araştırma şirketi henüz endişeli değil: San Francisco merkezli Anthropic, mevcut teknolojilerin “yakın bir endişe oluşturmadığını” yazdı. geçen ay bir blog yazısı.

Şubat ayında Alphabet’ten 400 milyon dolarlık yatırım alan Anthropic’in kendi yapay zeka sohbet robotu var. Blog yazısında, gelecekteki AI sistemlerinin önümüzdeki on yılda “çok daha güçlü” hale gelebileceğini ve artık korkuluklar inşa etmenin yolun aşağısında “riskleri azaltmaya yardımcı olabileceğini” belirtti.

Sorun: Hiç kimse bu korkulukların neye benzeyeceğinden veya nasıl görünmesi gerektiğinden tam olarak emin değil, diye yazdı Anthropic.

Bir şirket sözcüsü, CNBC Make It’e, açık mektubun konu etrafında sohbet başlatma yeteneğinin yararlı olduğunu söyledi. Sözcü, Anthropic’in altı aylık bir ara vermeyi destekleyip desteklemeyeceğini belirtmedi.

Çarşamba günü bir tweet’te OpenAI CEO’su Sam Altman, önde gelen yapay genel zeka (AGI) şirketleri arasında “demokratik yönetişim dahil etkili bir küresel düzenleyici çerçevenin” ve “yeterli koordinasyonun” yardımcı olabileceğini kabul etti.

Ancak Microsoft tarafından finanse edilen şirketi ChatGPT’yi yapan ve Bing’in yapay zeka sohbet robotunun geliştirilmesine yardımcı olan Altman, bu politikaların neleri içerebileceğini belirtmedi veya CNBC Make It’in açık mektupla ilgili yorum talebine yanıt vermedi.

Bazı araştırmacılar başka bir konuyu gündeme getiriyor: Araştırmayı duraklatmak, hızlı hareket eden bir endüstride ilerlemeyi engelleyebilir ve otoriter ülkelerin kendi yapay zeka sistemlerini geliştirmesine izin verebilir.

Yapay zeka araştırmacısı ve yapay zeka destekli arama motoru şirketi You.com’un CEO’su Richard Socher, yapay zekanın potansiyel tehditlerinin vurgulanmasının, kötü aktörleri bu teknolojiyi hain amaçlarla benimsemeye teşvik edebileceğini söylüyor.

Bu tehditlerin yakınlığını abartmak da gereksiz histeri besliyor Konu etrafında, diyor Socher. Açık mektubun önerilerini “uygulamak imkansız ve sorunu yanlış düzeyde ele alıyor” diye ekliyor.

Şimdi ne olacak?

AI geliştiricilerinden gelen açık mektuba sessiz yanıt, teknoloji devlerinin ve yeni başlayanların benzer şekilde çalışmalarını gönüllü olarak durdurma ihtimalinin düşük olduğunu gösteriyor.

Mektubun artan hükümet düzenlemesi çağrısı, özellikle ABD’deki milletvekilleri bu yana daha olası görünüyor. ve Avrupa şimdiden yapay zeka geliştiricilerinden şeffaflık için baskı yapıyor.

ABD’de FTC, AI geliştiricilerinin yalnızca yanlış bilgi veya örtülü önyargı içermeyen veri kümeleriyle yeni sistemler eğitmesini ve bu ürünlerin halka piyasaya sürülmeden önce ve sonra test edilmesini gerektiren kurallar da belirleyebilir. Alston & Bird hukuk firmasından Aralık ayı danışmanlığına.

Açık mektubu imzalayan Berkeley Üniversitesi bilgisayar bilimcisi ve önde gelen yapay zeka araştırmacısı Stuart Russell, teknoloji daha fazla ilerlemeden önce bu tür çabaların uygulamaya konması gerektiğini söylüyor.

Russell Cumartesi günü CNN’e verdiği demeçte, bir duraklama teknoloji şirketlerine gelişmiş AI sistemlerinin “aşırı bir risk oluşturmadığını” kanıtlamaları için daha fazla zaman verebilir.

Her iki taraf da bir konuda hemfikir görünüyor: Hızlı yapay zeka gelişiminin en kötü senaryoları engellenmeye değer. Kısa vadede bu, AI ürün kullanıcılarına şeffaflık sağlamak ve onları dolandırıcılardan korumak anlamına gelir.

Uzun vadede bu, AI sistemlerinin insan seviyesindeki zekayı aşmasını engellemek ve onu etkili bir şekilde kontrol etme becerisini sürdürmek anlamına gelebilir.

Gates, 2015’te BBC’ye “Zeka açısından insanlara rakip olan ve onları geride bırakan makineler yapmaya başladığınızda, hayatta kalmamız çok zor olacak” demişti. “Bu sadece bir kaçınılmazlık.”

KAÇIRMAYIN: Paranız, işiniz ve yaşamınızla daha akıllı ve daha başarılı olmak ister misiniz? Yeni bültenimize kaydolun!

Bu ankete katılın ve bize paranızı ve kariyerinizi nasıl bir sonraki seviyeye taşımak istediğinizi söyleyin.

24 yaşındaki bu çocuk nasıl ABD Barista Şampiyonu oldu?

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir