Bilgisayarlar artık yalnızca verili kodlarla çalışmıyorlar aynı zamanda derin öğrenme tekniğiyle öğrenebiliyorlar. Bizler bilgisayarları eğitmek için çeşitli veri kümeleri kullanıyoruz. Bu yöntem, yakın zamana kadar yaygın değildi çünkü algoritmaları eğitmek için yeterli verimiz yoktu. Ancak her dakika verilerimizi kaydeden akıllı telefonlar, internet arama motorları, Facebook, Twitter gibi sosyal medya uygulamaları ile şirketler hepimiz hakkında çok büyük miktarda veriyi kısa sürede toplamayı başardı. Artık makine öğrenimi algoritmalarına tonlarca veri yükleyip bunları sınıflandır diyebiliyoruz.
Veriler, bilgisayar algoritmalarının üreteceği çıktı için doğrudan yol gösterici konumundalar. Bu da demek oluyor ki; veriler ne kadar doğruysa algoritmalar bize o kadar doğru sonuçlar verecektir. Veriler ne kadar adilse algoritmaya dayalı alınan kararlar o kadar adil olacaktır. Veriler ne kadar objektifse algoritmanın sonuçları da o kadar objektif olacaktır. Ama veriler gerçekten doğru, adil ve objektif mi? Ya da başka bir ifadeyle eğer kullanılan veriler insana ait ve insan üretimi olan verilerse –ki öyle-, insanlar yeterince adil ve objektif mi? Ne yazık ki insanlık geçmişi ırkçılıkla, cinsiyet ayrımcılıklarıyla, adaletsizliklerle dolu. O halde algoritmaların kullandığı veriler de ırkçılık, cinsiyetçilik ya da adaletsizliklerden muaf değil.
Yapay öğrenme sistemleri ile ilgili temel problemlerden bir tanesi insanların bilinçli ya da bilinçsiz sahip oldukları önyargılara dayalı olan verileri bir süzgeçten geçirmeden kullanmasıdır. İnsanlar bilerek ya da bilmeyerek kendi önyargılarını yapay zeka teknolojisinin içine katıyorlar. Toplumda olan gerçeklik ile yapay zekaya dayalı teknolojilerin gelişim süreçlerini birbirinden ayırmak doğru değil hatta mümkün de değildir. Çünkü algoritmalara farklı örüntüleri öğretmek için verileri kullanıyoruz ve bu veriler aslında toplumun birer yansıması. Eğer bilgisayarları eğitirken kullandığımız veri kümeleri çarpıksa sonuçlar da çarpık olacaktır. Yapay zeka her ne kadar gelecek odaklı bir teknoloji olsa da geçmişten kopmuş sayılamaz çünkü geçmiş, insanlığa ait verilerle hâlâ algoritmalarımızda yaşıyor.
“Dünya Görüşümüz de Yapay Zeka Tarafından Yönetiliyor”
Her türlü otomatik karar almada yapay zeka kullanıyoruz. Sosyal medyada karşımıza çıkan öneriler, reklamlar, videolar, kişiler yapay zeka tarafından seçiliyor. Aslında bu yönüyle baktığımızda dünya görüşümüz de yapay zeka tarafından yönetiliyor. Kimlerin videolarını izleyeceğimize, kimleri takip edeceğimize, nerelerden alışveriş yapacağımıza, alacağımız ürünlere, okuyacağımız kitaplara yapay zeka karar veriyor. Hepimizin telefonları dinleme cihazı gibi. İnternette yaptığımız ya da aradığımız her şey aslında bizim zihnimizden geçenler ve bunlar, hem kaydediliyor hem analiz ediliyor. Arama motorları bizim zihnimizde olup bitene neredeyse bizim kadar hâkim. Aslında çoğumuz bunun farkındayız ve buna alışıyoruz. Sokaklara konulan kameralara karşı çıkıyoruz ama internetteki bu “sanal kamera”ya hiçbirimiz itiraz edemiyoruz. Oysaki bu sanal kameralar, bizim hangi işi hak ettiğimize, ne kadar kredi hakkımızın olduğuna, işe alınanın kim olacağına, hangi ürünlerin reklamının bize uygun olduğuna bizlerin tüm zihinsel içeriğini kaydederek karar veriyorlar.
“Endişe Duyulması Gereken Yapay Zeka Değil”
Yapay öğrenme tabanlı uygulamaların oluşturulması ve kullanılması iki aşamalı bir problem olarak ele alınabilir. İlki, veri toplama. İnsanları internet ortamında gözetleme veri toplamanın en önemli aracı konumunda. Bu, tüm tarama, konum, ses bilgilerimizin aslında bir yerlerde kayıtlı olması anlamına geliyor. Yüz tanıma ile yüzümüzü tanıttığımız, Siri gibi sesli asistanlara sesimizi tanıttığımız bu uygulamalar gündelik hayattaki işlerimizi oldukça kolaylaştırsa da bu kadar çok verimizin ele geçirilmiş olması bir yönüyle de korkutucu görünüyor. Bu korkunçluk yalnızca mahremiyetin kaybolmasından değil mahremiyetin gizlice kaybolmasından ileri geliyor. Çünkü şirketlerin bilgi gözetlemesi açık açık değil, gizli gerçekleşiyor; gözetim altında olduğumuz, sosyal olarak kontrol edildiğimiz, bireysel olarak yönlendirilip ölçüldüğümüz, sınıflandırıldığımız sessiz bir gözlem kulesi inşa ediliyor. Gözetleme ayrıcalığına sahip olanlar yani güç sahipleri bizleri istedikleri biçimlerde yönlendirirken, biz çoğu zaman bunun farkında bile olmuyoruz. Bu demek ki; bir takım gruplar veriyi ve gücü ellerinde tutarak bireysel ve sosyal hayatlarımıza müdahale etme şansına sahipler. O halde, endişe duyulması gereken bu anlamda yapay zeka teknolojisinin kendisi değil, bu teknolojiyi üreten güç sahiplerinin ellerindeki veriyi ne yönde kullanacağı ve yapay zeka ile bize neler yapabilecekleridir.
Öğrenen yapay zeka tabanlı teknolojilerle ilgili problemin ikinci aşaması ise verilerin güvenirliği meselesi olarak göze çarpıyor. Zira genel olarak insanlar bilgisayarların verdiği sonuçların tartışmasız doğru olduğuna inanıyor. Lakin bu inanç gerçeği yansıtmıyor. Çünkü verileri yanlış ya da yanlı olan bir algoritmanın yanlış ya da yanlı çıktılar üretmesi mümkün. Gündemi oldukça meşgul eden Amazon’un işe alımda kullandığı yapay zeka uygulaması, yanlı çıktılar veren algoritmalar için iyi bir örnek teşkil etmektedir. Amazon işe alımlarda özgeçmişleri analiz eden bir uygulama kullandı. Ancak bir süre sonra bu uygulamanın kadınlara yönelik negatif ayrımcılık yaptığı fark edildiğinde Amazon bu yapay zeka uygulamasını kaldırdı. Çünkü uygulama, özgeçmişinden kadın olduğu anlaşılan kişilerin tüm başvurularını ilk aşamada eliyordu. Bunun sebebi ise tabii ki bu uygulamanın kullandığı veri tabanının Amazon’da daha önce çalışan kişilerin özgeçmişlerinden oluşmasıydı ve büyük şirketlerin çoğunda üst düzey pozisyonlarda çok az kadın çalıştığı gibi Amazon’da da üst düzey pozisyonlarda çok az kadın çalışmıştı. Aslında bilgisayarlar verileri kullanırken dünyayı olduğu gibi kopyalıyorlar. Ama bunu yaparken etik kararlar değil, matematiksel kararlar veriyorlar. Dünyanın olduğu halini kopyalamak için yalnızca hiçbir etik değerlendirmeye tabi olmayan makine öğrenimi uygulamaları kullanırsak hiçbir yönden sosyal gelişim elde etmemiz mümkün değil. Bu yolla yalnızca var olan ayrımcılıklar, eşitsizlikler ve adaletsizlikler dünyadan olduğu gibi kopyalanarak makinelerin kararlarına da taşınır ve sosyal düzendeki tüm çarpıklıklar otomatik halde var olmaya devam ederler.
Hem veri güvenilirliği hem de veri gizliliği ile baş etmenin tek yolu verilere dayalı algoritmaların uygulamaya konulmadan önce sosyal, hukuki ve etik açılardan bir denetleme mekanizmasına tabi tutulmasıdır. Verilerdeki önyargıların, adaletsizliklerin, eşitsizliklerin, ırkçılığın, cinsiyet ayrımcılığının algoritmalar ile otomatikleşmesinin önüne ancak etkin bir denetimle geçilebilir. Geçmişi ve geçmişteki yanlışları değiştirme şansımız yok ancak ırkçılığın azaldığı, engelli insanlara ayrımcılığın yapılmadığı, kadınlığın dezavantaj olmadığı daha adil bir gelecek inşa etmek mümkün. Yapay zeka teknolojisinin ise bu gelecek inşasında etkin bir role sahip olacağı şimdiden çok açık. O halde, bu teknoloji yalnızca ticari amaçlarla üretilmemeli, kullanılan uygulamaların toplum yararına olup olmayacağını denetleyen hukuki ve etik mekanizmalar geç olmadan devreye sokulmalıdır.
Konuyla İlgili Belgesel Önerisi: Coded Bias
Not: Bu yazıyı Ankara Yıldırım Beyazıt Üniversitesi Felsefe Bölümü’nden Dr. Mehtap Doğan, Türkiye Yapay Zeka İnisiyatifi için kaleme aldı. İletişim: mdogan@ybu.edu.tr
Mehtap Doğan’ın Önceki Yazıları
Öğreniyorum, O halde Varım: Yapay ÖğrenmeÇinli teknoloji şirketi Alibaba, yapay zeka alanındaki rekabete yeni bir boyut kazandırarak, en son sürümü… Devamı
13-15 Şubat 2025 tarihlerinde Fransa’nın Cannes şehrinde düzenlenecek World Artificial Intelligence Cannes Festival (WAICF), yapay zeka alanında dünyanın en… Devamı
Rekorlarla Dolu Bir Yıl – TRAI ile Daha İyi bir Geleceğe 2024 yılı, Türkiye Yapay… Devamı
2023 yılında Çin'in Hangzhou şehrinde kurulan ve kısa sürede tüm dikkatleri üzerine çeken yapay zeka… Devamı
Sizi “TRAI Yapay Zeka Hukuk ve Yargı Çalışma Grubu Webinarı”na katılmaya davet ediyoruz: Tarih: 12 Şubat 2025… Devamı
OpenAI, insan ömrünü 10 yıl uzatmayı hedefleyen bir girişim olan Retro Biosciences ile dikkat çekici… Devamı