Bilim İnsanıEğitimMevzuatTeknolojiToplum

Adalet, sağlık ve refah gibi alanlardan sorumlu kurumlarının, ceza verilmesi ve hizmetleri önceliklendirme gibi yaşamı etkileyen olaylarda karar vermek için bilgisayarları kullandıklarını biliyoruz. Yapay zekanın sosyal etkilerini inceleyen NYU’daki bir araştırma enstitüsünden AI Now’ın raporunda, bu sistemlerin vatandaşlara karşı opak kaldığı belirtiliyor. Microsoft araştırmacısı ve AI Now kurucusu Kate Crawford, vatandaşların sistemlerin kendileri hakkında nasıl karar verdiklerini bilmeleri gerektiğini söylüyor. Bu ihtiyaç, AI Now’ın 37 sayfalık raporunda, iş gücü piyasası, sosyo-ekonomik eşitsizlik ve mahremiyet gibi alanlarda ileri veri analizinin sosyal sonuçları üzerine yaptığı 10 yeniden değerlendirme tavsiyesinden biridir. Raporda, otomatik sistemlerin değerlendirmelerinde bireylere veya gruplara karşı ayrımcılık yapmamasını sağlamak için araştırma ve politika oluşturma çağrısı yapılmaktadır.

Ellen Goodman, birçok şehir ve devlet kurumunun kendi sistemlerini tasarlamak için gerekli uzmanlığa sahip olmadığını veya dışarıdan getirilenlerin doğru analizini yapıp açıklayamadıklarını söylemektedir.

Grubun raporunda “Otomatik karar verme sistemleri, uygun güvenlik önlemlerini gerektiren ve bireylerin hakları ile özgürlükleri için önemli riskler oluşturabilecek sistemlerdir.” uyarısı yer almaktadır. Tom Cruise’un baş rolünde oynadığı Azınlık Raporu isimli filmi izleyenlerin tam olarak konunun insanlık üzerindeki etkilerini anlamış olduklarını düşünüyorum. Konu ile ilgili Türkiye’de araştırmalar yapıldığını biliyoruz, örneğin tam da bu konuda Gazi Üniversitesi’nce yayımlanmış bir çalışmadan önceki yazımda bahsetmiştim.

2015 yılında New York’ta Mount Sinai Hastanesi’ndeki bir araştırma grubu hastanenin geniş hasta kayıtları veri-tabanına derin öğrenme uygulama denemesi gerçekleştirdi. Araştırmacılar Deep Patient adlı programı, yaklaşık 700.000 kişiden gelen verileri kullanarak eğitti ve yeni kayıtlarla test edildiğinde hastalığın tahmininde inanılmaz derecede iyi olduğunu ispatladı. Yonga üreticisi Nvidia’daki araştırmacılar tarafından geliştirilen deney otomobili, diğer otonom araçlardan farklı görünmüyordu; ancak Google, Tesla ya da General Motors tarafından gösterilenlerden farklıydı ve artan yapay zekanın gücünü gösteriyordu. Otomobilin derin öğrenme olarak bilinen AI teknolojisi, son yıllarda resim etiketleme ve ses tanımada yaygın şekilde kullanılıyor.

Derin öğrenme tekniklerini tüketicileri tarafından daha anlaşılır hale getirmeli ve kullanıcılarına ihtiyaç halinde hesap verebilme özgürlüğü tanıyacak yöntemler bulmamız kaçınılmaz bir ihtiyaç durumuna geldi.

Çoğu uzman bu konuyu ciddiye alıyor, go oyununda nasıl yendiğini izah etmek bir yana düşünsenize otonom aracın karıştığı trafik kazasında “niçin böyle bir karar aldığını izah edemiyorum” deme lüksümüz var mı? Yada otonom bir hava aracının okul gibi bir kamu binasına saldırdığını düşünün. Deep Patient’in bir hastaya yanlış teşhis koyduğunu ve hastanın hayatından olduğunu.

Oxford Üniversitesinde insanlığın geleceği alanında araştırmalar yapan Anders Sandberg “Tamamıyla anlayamadığımız kompleks bir sistemin doğru davranmasını sağlayabilmek çözümü çok zor bir problemdir” diyor.

Araştırmacılar, çözüm arayışlarında bir takım seçenekler üzerine çalışıyorlar. Bir model yaklaşımı ya da “gözlemci yaklaşımı” olarak adlandırılan bir yaklaşım, bir AI sistemi için kara kutu gibi davranıyor.

Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) ‘nda Açıklanabilir Yapay Zeka programını yöneten David Gunning, “Onu deneyip kendi davranışının sebebini ortaya çıkarmaya çalışıyorsunuz” diyor. Örneğin, bir kedi resmini parça parça sinir ağına besleyerek bir programcı, kuyruk, pençe, kürk desenlerinin bilgisayarı doğru sınıflandırma yapabilmek adına hangi nörona yönlendirdiğini denetleyerek fikir sahibi olabilir.

Gunning’in programı kapsamında finanse edilen 12 projeden birine liderlik eden Oregon Devlet Üniversitesi’nde elektrik mühendisliği ve bilgisayar bilimleri profesörü Alan Fern, “AI sisteminin beynine bakmamıza izin veren cerrahi bir yaklaşım var” diyor. Hüner, bir anlam çıkarmak için neyi nasıl seçtiğinde. Fern, “Dürüst olmak gerekirse şuanda yaptığımız iş ateşlenen her bir nöronun insan tarafından anlaşılamayacak fakat denetim amacıyla kullanılabilecek izler bırakmasını sağlamak” diyor. Fern’ün takımı bu izlerden daha anlamlı bir çıkarım/açıklama elde edebilmek için ikinci bir sinir ağı yapısı üzerinde çalışıyor. Bu açıklayıcı ağ asıl sinir ağının karar almasında etkili olan seçimleri nasıl yaptığını öğreniyor olacak.

Umut edilen şey, bu çalışma ile otonom uçuş ve sürücüsüz araçlar gibi sistemlerde saydamlığı sağlayacak bir prototip sinir ağı geliştirilmesi.

“Hiçbir bilgisayar yazılımına mükemmel bir güven duyabileceğimizi sanmıyorum” diyor Fern, “ancak en azından sistemin doğru şeyi yaptığına inanabilmek için sebeplerini bizlere sunabileceği ve arka planda çılgınca fikirleri olmadığını ispatlamasını sağlayabileceğiz.”

Inkling isimli yeni programlama dilini geliştiren Bonsai adlı startup girişiminin de hedefi benzer bir konu. Şehir planlaması, tedarik zinciri lojistiği gibi iş dünyasının sorunlarına karşı şirketlerin kendi derin öğrenme sistemlerini eğitmelerine destek veriyorlar. “Müşterilerimizin bir çoğu önümüzdeki dönem içinde karar mekanizmalarını kara kutulara bırakmayı planlıyor” diyor kurucularından CEO Mark Hammond. Bonsai bu kara kutuyu açarak sinir ağının öğrenme yöntemini değiştirmenin yolunu arıyor. Hammond günümüz yapay sinir ağlarının yaptığı şeyin deneme ve yanılmadan ibaret olduğuna işaret ediyor. Anne babalarımızdan, öğretmenlerimizden, koçlarımızdan ve hatta Youtube videolarından birşeyler öğreniyoruz. Örneğin basketbol oynamayı beyzbol sopası sallayarak öğrenmiyoruz bize doğru yöntem öğretiliyor. Hatta bazı durumlarda oyunun kendisi bize kendi diliyle ne yapmamız ve neden yapmamız gerektiğini öğretiyor.

Icahn Eczacılık Okulu Biyomedikal Enformatik direktörü Joel Dudley ise Deep Patient’in tahmin yöntemlerini izah etmek üzere denemeler gerçekleştiriyor. Deep Patient’in kara kutu yapısından endişeli değil, daha çok modelin klinik deneyler sırasında tehlikesiz olduğunu ortaya koyabilmeyi amaçlıyor. Herşeyden önce “bugüne kadar hastalara verilen bir çok ilaç da kara kutuydu” diyor kendisi. Henüz Deep Patient’in bir teşhisi niçin yaptığını bilemese de hasta kümelerinde benzer teşhis konulmuş hastaların korelasyonunu hesaplayabiliyor. Bu çalışma sırasında süpriz sonuçlar da elde etmiş, örneğin diyabet ile Alzheimer arasındaki bağlantıyı ortaya çıkarmış. Diyabet tedavisinde kullanılan metformin isimli ilacın bazı tip hastalarda Alzheimer’a karşı koruyucu etkisi olduğuna yönelik sonuçlara ulaşmış.

Bazı uzmanlar ise bukadar basit çözümlerin yeterli olacağına inanmıyorlar.

2016’da Avrupa Birliği tarafından kabul edilen kurala göre algoritmaların verdiği kararların açıklanabilir olmasını zorunlu kılıyor. IEEE’de bir çalışma grubu ise bu alanda endüstriyel standardı belirleyebilmek adına “açıklama” çerçevesini belirlemek üzere taslak hazırlığında. “Şeffaflık tek sorun değil” diyor bu çalışmanın başındaki robot etiği alanında University of West England Bristol’da görev alan Alan Winfield. Bakım robotu için yaşlı birinin anlaması gereken şey ile, güvenlik testi uzmanının ya da kaza araştırmacısının anlaması gerekenler faklıdır.

Sandberg neden ABD’nin süper güç olduğuna dair sırrı bildiğini söylüyor:

“Çünkü onlarda göster ve anlat mantığı okullarda işleniyor, bir şeyin nasıl olduğunu izah edebilmek büyük bir güç verir!”