Yapay Zekâ ve Veri Yetersizliği: Sentetik Veri Çözümü

Yapay zekâ şirketleri, güçlü üretici modeller geliştirmek ve gerekli veri miktarını elde etmek için yeni bir yöntem kullanıyor. Microsoft, OpenAI ve Cohere gibi gruplar, “sentetik veri” olarak adlandırılan bilgisayar tarafından üretilen bilgiyi kullanarak büyük dil modellerini (LLM) eğitiyor. Gelişen generatif yapay zekâ teknolojisi, Google, Microsoft ve Meta gibi büyük teknoloji şirketlerinin ilgisini çekiyor.

Son dönemde Microsoft destekli OpenAI’in ChatGPT’sinin piyasaya sürülmesi, Google ve Anthropic gibi şirketlerin de benzer ürünler sunmasına neden oldu. Bu ürünler, basit yönergelerle gerçekçi metinler, görüntüler veya kodlar üretebiliyor. Şu anda, ChatGPT ve Bard gibi sohbet botlarını çalıştıran LLM’ler, internet üzerinden toplanan verilerle eğitiliyor. Ancak bu şirketler, daha sofistike hale gelen generatif yapay zekâ yazılımı için yeterli ve kaliteli veri bulmakta zorlanıyor. Aynı zamanda, yapay zekâ teknolojisinin tüketmekte olduğu kişisel verilerin miktarı ve kökeni, dünya çapındaki düzenleyiciler, sanatçılar ve medya kuruluşları tarafından eleştiriliyor.

OpenAI’nin CEO’su Sam Altman, Londra’da düzenlenen bir etkinlikte, ChatGPT’nin gizlilik ihlalleri nedeniyle düzenleyici soruşturmaların endişe yaratıp yaratmadığı sorusuna, verilerin yakında tamamen sentetik olacağına olan güvenini dile getirerek kayıtsız kalıyor. Geliştiricilere göre, genel web verileri artık yapay zekâ modellerinin performansını ileriye taşımak için yeterli değil. Microsoft Research’teki iki çalışma ise, sentetik verilerin, OpenAI’nin GPT-4 veya Google’ın PaLM-2 gibi mevcut yazılımlardan daha küçük ve basit modellerin eğitimi için kullanılabileceğini gösteriyor.

Bilim, tıp ve iş dünyasındaki zorluklarla başa çıkmak için yapay zekâ modellerinin benzersiz ve karmaşık veri kümelerine ihtiyacı olduğu belirtiliyor. Ancak bu verilerin insanlar tarafından oluşturulması oldukça pahalı. Son trend, sentetik veri kullanımıyla bu maliyetli gereksinimi ortadan kaldırıyor.

 

Sentetik veri, bireylerin gizliliğini korurken mevcut verilerdeki önyargıları ve dengesizlikleri ortadan kaldırabilir.

Eleştirmenler, tüm sentetik verilerin gerçek dünya verilerini yansıtmayabileceğine dikkat çekiyor. Özellikle, yapay zekâ tarafından üretilen metin ve görüntülerin webi doldurması durumunda, yapay zekâ şirketlerinin eğitim verileri için kendi modellerinin ilk sürümlerinden elde edilen verileri kullanması olasıdır. Bu durum, “kendi ürününü kullanma” olarak adlandırılıyor.

Araştırmacılar, kendi çıktılarına dayanarak yapay zekâ modellerini eğitmenin zamanla teknolojiyi bozabileceği ve “geri dönüşü olmayan hatalara” neden olabileceği konusunda uyarıda bulunuyorlar. Ancak bazı yapay zekâ araştırmacıları, sentetik verilerin süper zeki yapay zekâ sistemlerine giden yolu hızlandırabileceğini söylüyorlar. Modellerin kendi kendine öğrenmelerini sağlamak hedef olarak görülüyor.

Kaynak: https://www.ft.com/content/053ee253-820e-453a-a1d5-0f24985258de

Yasin Demirkaya

Recent Posts

Üyemiz Etiya, Gartner Magic Quadrant’ta

Türkiye merkezli küresel yazılım şirketi Etiya, yapay zeka alanında dikkat çekici bir başarıya imza attı.…

7 gün ago

TIME100 AI 2025 açıklandı: “Yapay zekanın yönünü artık insanlar belirliyor”

TIME dergisi, yapay zeka alanında dünyanın en etkili 100 ismini üçüncü kez açıkladı. “TIME100 AI…

2 hafta ago

Zekanın Ötesi

İnsanoğlu pek çok şey keşfetti, icat etti. Ama sanırım daha önce bu kadar çok tartışılan,…

2 hafta ago

xAI, Grok 2.5’i Açık Kaynak Olarak Yayınladı

Elon Musk’ın yapay zeka girişimi xAI, Grok 2.5 modelini açık kaynak olarak paylaşarak sektörün dikkatini…

2 hafta ago

TRAI Yapay Zeka Risk Raporu 2025

Hazırladığımız "TRAI Yapay Zeka Risk Raporu”, yapay zekanın sunduğu fırsatların yanı sıra beraberinde getirdiği riskleri…

2 hafta ago

Microsoft AI CEO’sundan Kritik Uyarı: “Bilinçli Görünen Yapay Zeka Kapıda”

Microsoft AI CEO’su Mustafa Suleyman, kişisel blogunda yayımladığı “We must build AI for people; not…

3 hafta ago