Yapay zekâ şirketleri, güçlü üretici modeller geliştirmek ve gerekli veri miktarını elde etmek için yeni bir yöntem kullanıyor. Microsoft, OpenAI ve Cohere gibi gruplar, “sentetik veri” olarak adlandırılan bilgisayar tarafından üretilen bilgiyi kullanarak büyük dil modellerini (LLM) eğitiyor. Gelişen generatif yapay zekâ teknolojisi, Google, Microsoft ve Meta gibi büyük teknoloji şirketlerinin ilgisini çekiyor.
Son dönemde Microsoft destekli OpenAI’in ChatGPT’sinin piyasaya sürülmesi, Google ve Anthropic gibi şirketlerin de benzer ürünler sunmasına neden oldu. Bu ürünler, basit yönergelerle gerçekçi metinler, görüntüler veya kodlar üretebiliyor. Şu anda, ChatGPT ve Bard gibi sohbet botlarını çalıştıran LLM’ler, internet üzerinden toplanan verilerle eğitiliyor. Ancak bu şirketler, daha sofistike hale gelen generatif yapay zekâ yazılımı için yeterli ve kaliteli veri bulmakta zorlanıyor. Aynı zamanda, yapay zekâ teknolojisinin tüketmekte olduğu kişisel verilerin miktarı ve kökeni, dünya çapındaki düzenleyiciler, sanatçılar ve medya kuruluşları tarafından eleştiriliyor.
OpenAI’nin CEO’su Sam Altman, Londra’da düzenlenen bir etkinlikte, ChatGPT’nin gizlilik ihlalleri nedeniyle düzenleyici soruşturmaların endişe yaratıp yaratmadığı sorusuna, verilerin yakında tamamen sentetik olacağına olan güvenini dile getirerek kayıtsız kalıyor. Geliştiricilere göre, genel web verileri artık yapay zekâ modellerinin performansını ileriye taşımak için yeterli değil. Microsoft Research’teki iki çalışma ise, sentetik verilerin, OpenAI’nin GPT-4 veya Google’ın PaLM-2 gibi mevcut yazılımlardan daha küçük ve basit modellerin eğitimi için kullanılabileceğini gösteriyor.
Bilim, tıp ve iş dünyasındaki zorluklarla başa çıkmak için yapay zekâ modellerinin benzersiz ve karmaşık veri kümelerine ihtiyacı olduğu belirtiliyor. Ancak bu verilerin insanlar tarafından oluşturulması oldukça pahalı. Son trend, sentetik veri kullanımıyla bu maliyetli gereksinimi ortadan kaldırıyor.
Sentetik veri, bireylerin gizliliğini korurken mevcut verilerdeki önyargıları ve dengesizlikleri ortadan kaldırabilir.
Eleştirmenler, tüm sentetik verilerin gerçek dünya verilerini yansıtmayabileceğine dikkat çekiyor. Özellikle, yapay zekâ tarafından üretilen metin ve görüntülerin webi doldurması durumunda, yapay zekâ şirketlerinin eğitim verileri için kendi modellerinin ilk sürümlerinden elde edilen verileri kullanması olasıdır. Bu durum, “kendi ürününü kullanma” olarak adlandırılıyor.
Araştırmacılar, kendi çıktılarına dayanarak yapay zekâ modellerini eğitmenin zamanla teknolojiyi bozabileceği ve “geri dönüşü olmayan hatalara” neden olabileceği konusunda uyarıda bulunuyorlar. Ancak bazı yapay zekâ araştırmacıları, sentetik verilerin süper zeki yapay zekâ sistemlerine giden yolu hızlandırabileceğini söylüyorlar. Modellerin kendi kendine öğrenmelerini sağlamak hedef olarak görülüyor.
Kaynak: https://www.ft.com/content/053ee253-820e-453a-a1d5-0f24985258de
Türkiye merkezli küresel yazılım şirketi Etiya, yapay zeka alanında dikkat çekici bir başarıya imza attı.…
TIME dergisi, yapay zeka alanında dünyanın en etkili 100 ismini üçüncü kez açıkladı. “TIME100 AI…
İnsanoğlu pek çok şey keşfetti, icat etti. Ama sanırım daha önce bu kadar çok tartışılan,…
Elon Musk’ın yapay zeka girişimi xAI, Grok 2.5 modelini açık kaynak olarak paylaşarak sektörün dikkatini…
Hazırladığımız "TRAI Yapay Zeka Risk Raporu”, yapay zekanın sunduğu fırsatların yanı sıra beraberinde getirdiği riskleri…
Microsoft AI CEO’su Mustafa Suleyman, kişisel blogunda yayımladığı “We must build AI for people; not…