TeknolojiToplum

Yapay zeka bir çok problemi çözme potansiyeline sahip. Bu potansiyele ulaşılmasında belki en büyük engel, güven. Mesela sağlık hizmetlerinde, nasıl hastanın doktora güvenmesi gerekiyorsa, doktorun da yapay zekaya güvenmesi gerekmekte. Ya da bir çalışanın işini kolaylaştıracak yapay zekaya, işsiz kalma korkusuyla yaklaşmaması gerekiyor. İkinci İyilik İçin Yapay Zeka Global Zirvesi’ndeki (2nd AI for Good Global Summit) ekiplerden biri, işte bu güven problemi üzerine yoğunlaştı. Ve sonuç: Güven Fabrikası (trustfactory.ai)

Zirve, yapay zeka alanında inovasyon yapanlarla, kamu ve özel sektör karar vericilerini birleştirdi. Uydu görüntülerine, sağlık hizmetlerine, akıllı şehirlere ve yapay zekaya olan güvene odaklanan dört atılım ekibi, yapay zeka stratejilerini ve sürdürülebilir kalkınmayı ilerletmek için projeleri desteklemeyi hedefliyor. Ekiplere, hükümet, endüstri, akademi ve sivil toplumu temsil eden uzmanlardan oluşan bir grup rehberlik etti. Eşleştirme çalışması, sorun sahiplerini çözüm sahiplerine tanıttı, umut verici stratejileri ileriye götürmek için işbirliği inşa etti.

Ekibin, yapay zekaya güven sağlanması için önerdiği ve Güven Fabrikası tarafından desteklenecek dokuz proje, Stephen Cave tarafından detaylandırılan güvenin üç boyutunu ele alıyor:

  • Yapay zeka geliştiricileri, hizmet verdikleri paydaş topluluklarının güvenini kazanmalıdır.
  • Ulusal, kültürel ve örgütsel sınırlar arasında güvene ulaşmalıyız.
  • Yapay zeka sistemleri, kanıtlanabilir şekilde güvenilir olmalıdır.
Güven Fabrikası (trustfactory.ai)

Takım Liderleri: Huw Price, Francesca Rossi, Zoubin Ghahramani, Claire Craig

Takım Üyeleri: Stephen Cave, Kanta Dihal, Adrian Weller, Seán Ó hÉigeartaigh, Jess Whittlestone, Charlotte Stix, Susan Gowans, Jessica Montgomery

Tema Yöneticisi: Ezinne Nwankwo, Yang Liu, Jess Montgomery

Projeler

Önerilen projeler, yapay zekanın tarım ve ruh sağlığına katkısı için güven oluşturmayı amaçlıyor. Yapay zeka güdümlü otomasyon, işgücü piyasalarını etkilediği için gelişmekte olan ülkelerin sosyal istikrarı koruma stratejileri araştırılacaktır. Güven kavramının kültürler arasında nasıl değiştiği ve kanun koyucuların, güvenilir yapay zeka sistemlerini ve veri kümelerinin önyargıdan arındırılmasını nasıl teşvik edebilecekleri belirlenmeye çalışılacaktır.

Tema A: Paydaş toplulukları
  • Daha iyi sağlık hizmeti bağlantıları: Yapay zeka odaklı akıl sağlığı hizmetinde güven ağları kurmak – Becky Inkster (Psikiyatri Bölümü, Cambridge)
  • Doğu Afrika Çiftçileri için Yapay Zekada Güvenin Değerlendirilmesi ve Oluşturulması: İyi Bir Kümes Hayvanı Uygulaması – Dina Machuve (Nelson Mandela Afrika Bilim ve Teknoloji Enstitüsü ve Veri Bilimi Afrika Teknik Komite Üyesi)
  • Yapay Zekaya Güven Oluşturma: Gelişmekte Olan Ülkeler ve Geçiş Ekonomilerinde Yapay Zeka Odaklı Otomasyonun Sosyal İstikrar Üzerindeki Olumsuz Etkilerinin Azaltılması – Irakli Beridze (Birleşmiş Milletler Suç ve Adalet Araştırma Enstitüsü, UNICRI)
Tema B: Geliştirici toplulukları
  • Yapay zekaya güven için kültürlerarası karşılaştırmalar – LIU Zhe (Pekin Üniversitesi, Pekin)
  • Küresel Yapay Zeka Anlatıları – Kanta Dihal (Zekanın Geleceği için Leverhulme Merkezi, Cambridge)
  • Yapay zeka geliştirme ve düzenleme stratejilerinin uluslararası karşılaştırmaları: otonom araçlar – David Danks (Carnegie Mellon University, CMU)
Tema C: Güvenilir sistemler
  • Devlet karar vericileri için yapay zekaya güven – Jess Whittlestone (Zekanın Geleceği için Leverhulme Merkezi, Cambridge)
  • Güvenilir veri: Farklı veri kümeleri için bir havuz oluşturma ve küratörlük yapma – Rumman Chowdury (Accenture)
  • Algoritmik karar vermede “adaletin” anlamı üzerine kültürler arası bakış açıları – Krishna Gummadi (Max Planck Enstitüsü, Saarbrücken) ve Adrian Weller (Zekanın Geleceği için Leverhulme Merkezi, Cambridge ve Alan Turing Enstitüsü, Londra)
Kaynak: ITUNews