GenelHaberlerÖngörülerTeknolojiToplum

AI Now kurucusu Kate Crawford ve Meredith Whittaker kendi müşterileriyle birlikte yapay zeka ile ilgili küçük bir sempozyum yaptı. Bu sempozyum da geçmişte 12 ay boyunca olan etkinlikleri görselleştirdiler.

Sempozyumda yapay zeka içinde neler olup olmadığı gözden geçirildi ve üç konu başlığında değerlendirdi. Etik, Düzenleme ve Hesap Verebilirlik.

Yapay zeka ile sosyal etkinlikleri ele alan önemli bir veritabanı oluşturuldu. Aşağıdaki resimde yapay zeka kullanımı ve çalışmaları görünmektedir.

Facebook’un Eylül ayında devasa bir veri ihlali skandallı oldu, ayrımcılık için çok sayıda dava davası, Myanmar’da etnik temizliği kışkırtma suçlamaları, Adil Konut Yasası’nın olası ihlalleri ve sahte Rus hesaplarının kitlenmeleri gibi problemler oldu . Yıl boyunca, Facebook yetkilileri, Mark Zuckerberg’in Nisan ayında ABD Senatosu ve Mayıs ayında Avrupa Parlamentosu ile karşı karşıya kalmasıyla sık sık ifade vermeye çağırıldı.

Bir ay sonra bile, ICE’nin kendi risk değerlendirme algoritmasını değiştirdiğini ve böylece sadece bir sonuç çıkarabileceğini ortaya çıkardı: sistem, gözaltındaki göçmenlerin% 100’ü için gözaltına almayı tavsiye etti

Yüz tanıma teknolojisinin yayılması hızlandı. Facebook ve Microsoft, yüz tanıma hizmetini sunan tak ve çalıştır modelleri sunan Amazon’a katıldı. Ayrıca IBM’in NYPD ile çalıştığını ve gizlice yüzlerini araştırmak için New York sokaklarında binlerce kişinin polis kamera görüntülerini kullanarak bilgi edinmeden çekilen bir “etnik köken saptama” özelliği oluşturduklarını öğrendik.

Yıl boyunca, Yapay zeka sistemleri, yüksek riskli alanlardaki canlı popülasyonlarda, bazı ciddi sonuçlarla birlikte test edilmeye devam etti. Mart ayında, otonom araçların gelen sürücü ve yayaların ölümleri vardı. Daha sonra, Mayıs ayında, göçmenlik sahtekârlığını tespit etmek için İngiltere’de bulunan bir ses tanıma sistemi, binlerce vizeyi iptal ederek ve insanları hataya maruz bırakarak sona erdi. Temmuz ayında IBM Watson’un “güvenli olmayan ve yanlış” kanser tedavisi önerileri ürettiği bildirildi.

Bütün bu olaylar, bu sistemlerin sorumsuzluğuna odaklanan gittikçe artan bir teknoloji eleştiri dalgasını harekete geçirdi. Microsoft ve Amazon dahil olmak üzere bazı şirketler, ABD’nin yüz tanıma gibi teknolojileri düzenlemesine yönelik açık çağrılar bile yaptı. Bugüne kadar, Washington’dan gerçek bir hareket görmedik.

Yani bu olağanüstü derecede dramatik bir yıl olan şeyin küçük bir örneğidir. Bu sistemlerin sosyal etkileri üzerinde çalışan bizim gibi araştırmacılar, şu anda karşılaştığımız mücadelenin ölçeğinden bahsediyorlar: Yapılacak çok şey var. Fakat olumlu değişiklikler de var – yapay zeka hakkında yapılan halk tartışması bazı önemli yollarla olgunlaşıyor.

Genel olarak, insanların artık önyargıyı bir sorun olarak tanımaları büyük bir adımdır. Ama konuşmanın gitmesi için uzun bir yol var ve zaten farklı kamplara dönüştü. Bir tarafta, teknik düzeltmeler için acele görüyoruz; öte yandan, ağır kaldırmayı yapmak için etik kodlar alma girişimi görüyoruz.

IBM, Facebook, Microsoft ve diğerlerinin hepsi bu yılın başlarında “ön yargılama” araçlarını piyasaya sürdüler. Bu da, yapay zeka sistemlerinde önyargı konularını matematiksel tanımlamaları gerçekleştirmek için istatistiksel yöntemler kullanarak azaltmaya yardımcı oldu. Açık olmak gerekirse, bu araçların hiçbiri önyargı sorunlarını çözemez – bunlar kısmi ve erken aşama azaltımlardır. Çünkü bu noktada, sosyal problemler için bir çare olarak teknik yöntemler sunuyorlar – yapay zekayı düzeltmek için daha fazla yapay zeka kullanıyorlar. Bu mantığı, Senato’nun önünde yer alan Facebook’un defalarca yapayı zekayı ciddi sorunların çaresi olduğunu göstermesi üzerine harekete geçtiğini gördük.

Ayrıca teknoloji sektöründeki etik kodlara bir dönüş gördük. Google, AI İlkelerini yayınladı. Microsoft, Salesforce ve Axon etik kurulları kullanır ve yapıları inceler. Mühendislerin etik kararlar vermelerine yardımcı olma amacı ile bir etik dersleri ortaya çıktı.

Ancak son zamanlarda yayınlanan bir çalışma, bu yaklaşımların etkinliğini sorguladı. Yazılım mühendislerinin, genellikle etik kodlara maruz kalmaktan kaynaklanan davranışları değiştirmediğini göstermiştir. Ve belki de bu bizi şaşırtmamalıdır. İnsan Bilgisayar Etkileşimi’nde temel bir düşünür olan Lucy Suchman’ı açıklamak gerekirse, etik kodlar iyi bir başlangıçtır, gerçek bir demokratik veya kamu hesap verebilirliğinden yoksundurlar. Lucy’nin bu akşamki final masasında bize katılmasından çok memnunuz.

Dolayısıyla etik ilkeler ve anti-bias teknoloji araçları yardımcı olabilse de, karşılaştığımız yapısal sorunlara karşı koymak için çok daha fazlasına ihtiyaç vardır.

Henüz yanıtlanmamış en büyük soru, sürdürülebilir hesap verebilirlik biçimlerini nasıl oluşturabiliriz?

Bu, AI Now’daki çalışmalarımızın ana odak noktasıdır. 2017 yılının Kasım ayında NYU’da resmi olarak bu tür zorlukları araştırmak amacıyla başlattık. Sistem çapında hesap verebilirliğe bir gözle, AI’ya geniş çaplı bir bağlamda bakmaya başlandı. Bu çalışma sayesinde beş anahtar tema ortaya çıktı.

1. Maddesellik

Teknik sistemlerimizin temel gerçeklerini inceleyerek öğrenecek çok şey var. Geçen ay AI Anatomisi adlı bir proje yayınlandı. Kate Crawford ve Vladan Joler arasındaki bu yıl süren işbirliği, “Alexa!” Dediğimiz yanıt veren bir cihaz oluşturmak için kaç kaynağın gerektiğini araştırıldı.

Bir Amazon Echo’yla başlayarak, cihazı oluşturmak ve çalıştırmak için gereken çevresel çıkarım süreçlerini ve emeği takip edildi. Madencilik, eritme ve lojistikten, duyarlı yapay zeka sistemlerini eğitmek için ihtiyaç duyulan geniş veri kaynaklarına, uluslararası veri merkezleri ağlarına, tüm tüketici yapay zeka cihazlarının son dinlenme yerine kadar.

2. Çalışmak

Ayrıca yapay zeka sistemlerinin arkasındaki gizli emeği olan araştırmacıları aramaya devam edilmektedir. Lily Irani, Mar Hicks ve Astra Taylor da dahil olmak üzere bu alanda çalışmaya pek çok akademisyen katkıda bulunuyor.

Taylor’ın gözlemlediği gibi, saf otomasyon efsanesi, belli türdeki işlerin gizlenmesi ve bunun için az ödeme yapılması ya da hiç işe yaramıyormuş gibi davranmasıyla ilgilidir. Bu, aynı zamanda, sistemlerini ücretsiz olarak eğitmek için kullanıcılara dayanan, bir hizmeti kullanmadan veya bir site okuyabilmeden önce görüntü tanıma sistemlerini iyileştirmek için fotoğrafları tıklamaya zorlamak gibi birçok yapay zeka sistemi için de geçerlidir.

3. Yasal Stratejisi

Ayrıca, otomatik karar vermenin artmasıyla mücadele etmek için yeni yasal yaklaşımlara da ihtiyacımız var. Hesap verebilirlik güven olmadan çalışmamaktadır.

Bu sene birkaç gelişme gördük. Avrupa’nın veri koruma yönetmeliği olan GDPR’nin mayıs ayında yürürlüğe girildi. New York, Otomatik Karar Sistemleri Görev Gücü’nü açıkladı: Ülkedeki ilk örneği oldu ve, ABD’deki en güçlü gizlilik yasası geçirildi.

Mahkemeye algoritmalar alarak bir dizi yeni dava var. yapay zeka Kısa bir süre önce, kamu yararına çalışan avukatların, medikal faydalardan haksız şekilde kesilen kişileri temsil eden, önyargılı öğretmen performans değerlendirmeleri nedeniyle işlerini kaybeden ve hapis cezalarının çarpık risk değerlendirmelerinden etkilendiği kamuoyunu ilgilendiren davalar düzenleyen bir Çalıştay düzenledi. Süreç ve güvenlik ağları oluşturmak için yeni yaklaşımlarla dolu inanılmaz derecede olumlu bir buluşmaydı. Kısaca, bu işi yapan çığır açan avukatlardan biri olan Kevin De Liban’ı duyacaksınız.

Algoritmik Etki Değerlendirmesi çerçevemizi de yayınladık, bu da kamu sektörü çalışanlarına bir algoritmik sistemin uygun olup olmadığını eleştirmek için daha fazla araç ve daha fazla toplum girdisi ve gözetim sağlamak için daha fazla araç sağlıyor.

4. Eşitsizlik

Bütün bu çalışmalar, eşitsizlik konusunu gündeme getiren daha geniş güç ve siyaset sistemleriyle ilgileniyor.

Yapay zekanın popüler tartışması genellikle varsayımsal kullanım vakalarına ve fayda vaatlerine odaklanır. Fakat yapay zeka , herkes için eşit olarak bulunan ortak bir kaynak değildir. Yapay zeka sistemlerinden toplanabilecek güç ve içgörünün, kaynakların dağılımını daha da derinleştirdiğini, bu sistemlerin eşitsiz bir şekilde dağılmış olduklarını ve daha da zengin çeşitlilik eşitsizliklerini sürdürebilecekleri endişesi gittikçe artmaktadır. Bu sistemleri kimin oluşturduğuna bakacak olursak, nasıl kullanıldığına karar verenler ve bu tartışmalardan çıkanlar, pazarlamanın ötesine geçmemize yardımcı olabilirler.

Bunlar Virginia Eubanks’ın Automating Inequality,adlı kitabında incelemeye alınmıştır.

5. Yeni Koalisyon
Geçtiğimiz yıl, sosyal alanlardaki önyargıları ve teknik sistemlerin sınırlamalarını tanımak için büyük bir an olsaydı, bu gelecek yılın hesap verebilirlik için büyük bir an olduğu açıktır.

İyi haber şu ki, iş şimdiden gerçekleşiyor – insanlar harekete geçmeye başlıyor ve yeni koalisyonlar büyüyor. Yapay zeka alanı her zaman teknik araştırmayı içerecektir, ancak sınırlarını genişletmek, disiplinlerarasılığı vurgulamak ve topluma katılımı ve bunların yeryüzündeki perspektiflerini ön plana çıkarmak için çalışıyoruz.

Bu nedenle, NAACP Yasal Savunma ve Eğitim Fonu Başkanı Sherrilyn Ifill ve Yarışmacı, Eşitsizlik Merkezi ve NYU’daki Hukuk Direktörü Vincent Southerland gibi konuşmacıların her birine önemli katkılarda bulunmuş olmaktan mutluluk duyuyoruz. tartışmalar.

Orijinal hesap verebilirlik, yeni koalisyonlar gerektirecektir – organizatörler ve sivil toplum liderleri, araştırmacılarla birlikte çalışarak, AI sistemlerini değerlendirmek ve en fazla risk altındaki toplulukları korumak için.

Yapay Zeka sadece teknoloji değil, Güç, Politika ve Kültürdür.

Kaynak:https://medium.com/@AINowInstitute/ai-in-2018-a-year-in-review-8b161ead2b4e