Önyargıları Yıkmak Atomu Parçalamaktan Zor mu?  

Önyargıları Yıkmak Atomu Parçalamaktan Zor mu?  

Yazar: Dr. Mehtap Doğan

Bilgisayarlar artık yalnızca verili kodlarla çalışmıyorlar aynı zamanda derin öğrenme tekniğiyle öğrenebiliyorlar. Bizler bilgisayarları eğitmek için çeşitli veri kümeleri kullanıyoruz. Bu yöntem, yakın zamana kadar yaygın değildi çünkü algoritmaları eğitmek için yeterli verimiz yoktu. Ancak her dakika verilerimizi kaydeden akıllı telefonlar, internet arama motorları, Facebook, Twitter gibi sosyal medya uygulamaları ile şirketler hepimiz hakkında çok büyük miktarda veriyi kısa sürede toplamayı başardı. Artık makine öğrenimi algoritmalarına tonlarca veri yükleyip bunları sınıflandır diyebiliyoruz.

Veriler, bilgisayar algoritmalarının üreteceği çıktı için doğrudan yol gösterici konumundalar. Bu da demek oluyor ki; veriler ne kadar doğruysa algoritmalar bize o kadar doğru sonuçlar verecektir. Veriler ne kadar adilse algoritmaya dayalı alınan kararlar o kadar adil olacaktır. Veriler ne kadar objektifse algoritmanın sonuçları da o kadar objektif olacaktır. Ama veriler gerçekten doğru, adil ve objektif mi? Ya da başka bir ifadeyle eğer kullanılan veriler insana ait ve insan üretimi olan verilerse –ki öyle-, insanlar yeterince adil ve objektif mi? Ne yazık ki insanlık geçmişi ırkçılıkla, cinsiyet ayrımcılıklarıyla, adaletsizliklerle dolu. O halde algoritmaların kullandığı veriler de ırkçılık, cinsiyetçilik ya da adaletsizliklerden muaf değil.

Yapay öğrenme sistemleri ile ilgili temel problemlerden bir tanesi insanların bilinçli ya da bilinçsiz sahip oldukları önyargılara dayalı olan verileri bir süzgeçten geçirmeden kullanmasıdır. İnsanlar bilerek ya da bilmeyerek kendi önyargılarını yapay zeka teknolojisinin içine katıyorlar.  Toplumda olan gerçeklik ile yapay zekaya dayalı teknolojilerin gelişim süreçlerini birbirinden ayırmak doğru değil hatta mümkün de değildir. Çünkü algoritmalara farklı örüntüleri öğretmek için verileri kullanıyoruz ve bu veriler aslında toplumun birer yansıması. Eğer bilgisayarları eğitirken kullandığımız veri kümeleri çarpıksa sonuçlar da çarpık olacaktır. Yapay zeka her ne kadar gelecek odaklı bir teknoloji olsa da geçmişten kopmuş sayılamaz çünkü geçmiş, insanlığa ait verilerle hâlâ algoritmalarımızda yaşıyor.

“Dünya Görüşümüz de Yapay Zeka Tarafından Yönetiliyor”

Her türlü otomatik karar almada yapay zeka kullanıyoruz. Sosyal medyada karşımıza çıkan öneriler, reklamlar, videolar, kişiler yapay zeka tarafından seçiliyor. Aslında bu yönüyle baktığımızda dünya görüşümüz de yapay zeka tarafından yönetiliyor. Kimlerin videolarını izleyeceğimize, kimleri takip edeceğimize, nerelerden alışveriş yapacağımıza, alacağımız ürünlere, okuyacağımız kitaplara yapay zeka karar veriyor. Hepimizin telefonları dinleme cihazı gibi. İnternette yaptığımız ya da aradığımız her şey aslında bizim zihnimizden geçenler ve bunlar, hem kaydediliyor hem analiz ediliyor. Arama motorları bizim zihnimizde olup bitene neredeyse bizim kadar hâkim. Aslında çoğumuz bunun farkındayız ve buna alışıyoruz. Sokaklara konulan kameralara karşı çıkıyoruz ama internetteki bu “sanal kamera”ya hiçbirimiz itiraz edemiyoruz. Oysaki bu sanal kameralar, bizim hangi işi hak ettiğimize, ne kadar kredi hakkımızın olduğuna, işe alınanın kim olacağına, hangi ürünlerin reklamının bize uygun olduğuna bizlerin tüm zihinsel içeriğini kaydederek karar veriyorlar.

“Endişe Duyulması Gereken Yapay Zeka Değil”

Yapay öğrenme tabanlı uygulamaların oluşturulması ve kullanılması iki aşamalı bir problem olarak ele alınabilir. İlki, veri toplama. İnsanları internet ortamında gözetleme veri toplamanın en önemli aracı konumunda. Bu, tüm tarama, konum, ses bilgilerimizin aslında bir yerlerde kayıtlı olması anlamına geliyor. Yüz tanıma ile yüzümüzü tanıttığımız, Siri gibi sesli asistanlara sesimizi tanıttığımız bu uygulamalar gündelik hayattaki işlerimizi oldukça kolaylaştırsa da bu kadar çok verimizin ele geçirilmiş olması bir yönüyle de korkutucu görünüyor. Bu korkunçluk yalnızca mahremiyetin kaybolmasından değil mahremiyetin gizlice kaybolmasından ileri geliyor. Çünkü şirketlerin bilgi gözetlemesi açık açık değil, gizli gerçekleşiyor; gözetim altında olduğumuz, sosyal olarak kontrol edildiğimiz, bireysel olarak yönlendirilip ölçüldüğümüz, sınıflandırıldığımız sessiz bir gözlem kulesi inşa ediliyor. Gözetleme ayrıcalığına sahip olanlar yani güç sahipleri bizleri istedikleri biçimlerde yönlendirirken, biz çoğu zaman bunun farkında bile olmuyoruz. Bu demek ki; bir takım gruplar veriyi ve gücü ellerinde tutarak bireysel ve sosyal hayatlarımıza müdahale etme şansına sahipler. O halde, endişe duyulması gereken bu anlamda yapay zeka teknolojisinin kendisi değil, bu teknolojiyi üreten güç sahiplerinin ellerindeki veriyi ne yönde kullanacağı ve yapay zeka ile bize neler yapabilecekleridir. 

Öğrenen yapay zeka tabanlı teknolojilerle ilgili problemin ikinci aşaması ise verilerin güvenirliği meselesi olarak göze çarpıyor. Zira genel olarak insanlar bilgisayarların verdiği sonuçların tartışmasız doğru olduğuna inanıyor. Lakin bu inanç gerçeği yansıtmıyor. Çünkü verileri yanlış ya da yanlı olan bir algoritmanın yanlış ya da yanlı çıktılar üretmesi mümkün. Gündemi oldukça meşgul eden Amazon’un işe alımda kullandığı yapay zeka uygulaması, yanlı çıktılar veren algoritmalar için iyi bir örnek teşkil etmektedir. Amazon işe alımlarda özgeçmişleri analiz eden bir uygulama kullandı. Ancak bir süre sonra bu uygulamanın kadınlara yönelik negatif ayrımcılık yaptığı fark edildiğinde Amazon bu yapay zeka uygulamasını kaldırdı. Çünkü uygulama, özgeçmişinden kadın olduğu anlaşılan kişilerin tüm başvurularını ilk aşamada eliyordu. Bunun sebebi ise tabii ki bu uygulamanın kullandığı veri tabanının Amazon’da daha önce çalışan kişilerin özgeçmişlerinden oluşmasıydı ve büyük şirketlerin çoğunda üst düzey pozisyonlarda çok az kadın çalıştığı gibi Amazon’da da üst düzey pozisyonlarda çok az kadın çalışmıştı. Aslında bilgisayarlar verileri kullanırken dünyayı olduğu gibi kopyalıyorlar. Ama bunu yaparken etik kararlar değil, matematiksel kararlar veriyorlar. Dünyanın olduğu halini kopyalamak için yalnızca hiçbir etik değerlendirmeye tabi olmayan makine öğrenimi uygulamaları kullanırsak hiçbir yönden sosyal gelişim elde etmemiz mümkün değil. Bu yolla yalnızca var olan ayrımcılıklar, eşitsizlikler ve adaletsizlikler dünyadan olduğu gibi kopyalanarak makinelerin kararlarına da taşınır ve sosyal düzendeki tüm çarpıklıklar otomatik halde var olmaya devam ederler.

Hem veri güvenilirliği hem de veri gizliliği ile baş etmenin tek yolu verilere dayalı algoritmaların uygulamaya konulmadan önce sosyal, hukuki ve etik açılardan bir denetleme mekanizmasına tabi tutulmasıdır. Verilerdeki önyargıların, adaletsizliklerin, eşitsizliklerin, ırkçılığın, cinsiyet ayrımcılığının algoritmalar ile otomatikleşmesinin önüne ancak etkin bir denetimle geçilebilir. Geçmişi ve geçmişteki yanlışları değiştirme şansımız yok ancak ırkçılığın azaldığı, engelli insanlara ayrımcılığın yapılmadığı, kadınlığın dezavantaj olmadığı daha adil bir gelecek inşa etmek mümkün. Yapay zeka teknolojisinin ise bu gelecek inşasında etkin bir role sahip olacağı şimdiden çok açık. O halde, bu teknoloji yalnızca ticari amaçlarla üretilmemeli, kullanılan uygulamaların toplum yararına olup olmayacağını denetleyen hukuki ve etik mekanizmalar geç olmadan devreye sokulmalıdır.

Konuyla İlgili Belgesel Önerisi: Coded Bias

Not: Bu yazıyı Ankara Yıldırım Beyazıt Üniversitesi Felsefe Bölümü’nden Dr. Mehtap Doğan, Türkiye Yapay Zeka İnisiyatifi için kaleme aldı. İletişim: [email protected]

Mehtap Doğan’ın Önceki Yazıları

Öğreniyorum, O halde Varım: Yapay Öğrenme

Yapay Zeka: Yapay Çiçek mi, Yapay Işık mı? Hangi yapay?

Çince Odası

İlk Taşı Turing Attı: Taklit Oyunu

Benzer Haberler