Yapay Zeka Sistemleri Artık DoT Ajansı Tarafından Yayınlanan Standart Çerçeve Aracılığıyla Derecelendirilebilir, Adalet Açısından Değerlendirilebilir

0/5 Oy yok

Bu uygulamayı bildirin

AÇIKLAMA

Telekomünikasyon departmanına bağlı bir devlet kurumu olan Telekomünikasyon Mühendisliği Merkezi, yapay zeka sistemlerinin adalet değerlendirmesi ve derecelendirmesi için bir standart yayınladı.

Taslak geçen yıl Aralık ayında gelirken, standart resmi olarak Cuma günü Yeni Delhi’deki Telematik Geliştirme Merkezi’nde (C-DOT) düzenlenen bir etkinlik sırasında yayınlandı.

E-devlet yapay zeka sistemlerini giderek daha fazla kullanıyor ancak bunlar önyargılı olabilir ve etik, sosyal ve yasal sorunlara yol açabilir. Önyargı, bir makine öğrenimi modelinde haksız veya ayrımcı tahminler yapmasına neden olan sistematik bir hatayı ifade eder.

Bu nedenle, TEC tarafından yayınlanan standart, AI sistemlerinin adaletini değerlendirmek için bir çerçeve sağlar. Potansiyel önyargıları belirlemek için kullanılabilecek bir dizi prosedür ve bir AI sisteminin adilliğini ölçmek için kullanılabilecek bir dizi ölçüm içerir.

Standart, adalete bağlılıklarını göstermek için hükümetler, işletmeler ve kar amacı gütmeyen kuruluşlar tarafından kullanılabilir. Ayrıca, bireyler tarafından kullandıkları yapay zeka sistemlerinin adilliğini değerlendirmek için de kullanılabilir. Ayrıca standart, NITI Aayog tarafından ortaya konan ve eşitlik, kapsayıcılık ve ayrımcılık yapmamayı içeren ‘Sorumlu AI İlkeleri’ne dayanmaktadır.

Adım adım yaklaşım

Yapay zeka, günlük yaşamları etkileyebilecek kararlar almak için telekomün yanı sıra ilgili bilgi ve iletişim teknolojisi de dahil olmak üzere tüm alanlarda giderek daha fazla kullanılıyor. Yapay zeka sistemlerindeki istenmeyen yanlılığın ciddi sonuçları olabileceğinden, bu standart adaleti onaylamak için sistemik bir yaklaşım sağlar.

Sertifikasyona, tüm bireyler için eşit derecede iyi performans gösterdiğinden emin olmak için sistemin farklı senaryolarda test edildiği önyargı risk değerlendirmesi, ölçümler için eşik belirleme ve önyargı testini içeren üç adımlı bir süreçle yaklaşır.

Diğerleri arasında tablo, metin, resim, video, ses dahil olmak üzere farklı veri yöntemleri vardır. Daha basit bir deyişle, veri yöntemi, bir yapay zeka sistemini eğitmek için kullanılan veri türünü ifade eder. Örneğin, tablo verileri bir tabloda düzenlenmiş verilerdir, metin verileri metin olarak temsil edilen verilerdir, resim verileri resimler olarak temsil edilen verilerdir vb.

Önyargıları tespit etme prosedürü, farklı veri türleri için farklı olabilir. Örneğin, metin verilerinde yaygın bir ayrım biçimi, metin girişinin kodlanmasından kaynaklanır. Bu, metnin bilgisayarda temsil edilme şeklinin taraflı olabileceği anlamına gelir ve bu da yapay zeka sisteminin taraflı tahminler yapmasına yol açabilir.

Bu nedenle, şu anda standart, tablo verileri için oluşturulmuştur ve diğer biçimlere genişletilmesi amaçlanmaktadır. Kendi kendini belgelendirme ve bağımsız belgelendirme olmak üzere iki şekilde kullanılabilir.

Kendi kendini onaylama nedir?

Bu, yapay zeka sistemini geliştiren kuruluşun, standardın gerekliliklerini karşılayıp karşılamadığını görmek için sistemin dahili bir değerlendirmesini yaptığı zamandır. Böyle bir durumda işletme, sistemin adil olduğunu belirten bir rapor sunabilir.

Bağımsız belgelendirme nedir?

Bu, bir dış denetçinin standardın gerekliliklerini karşılayıp karşılamadığını görmek için AI sisteminin bir değerlendirmesini yaptığı zamandır. Böyle bir durumda denetçi, sistemin tarafsız olduğunu belirten bir rapor sunabilir.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir