Categories: HaberlerTRAI Meet-Up

23. TRAI Meet-Up’da “Ses Tanıma ve Yapay Zekâ” Konuşuldu

Türkiye Yapay Zekâ İnisiyatifi’nin düzenlediği 23. TRAI Meet-up’ı İTÜ Arı3’te gerçekleştirildi. 23. TRAI Meet-Up’ının konusu “Ses Tanıma ve Yapay Zeka”ydı.

İlk konuşmacımız olarak SesTek’ten Ceren Demirkol sahneye çıktı. İlk olarak ses teknolojisinin kullanım alanlarından bahsetti. Doğal diyalog aşamalarını anlattı. Bu aşamalarda öncelikle kapsamın belirlenmesini, daha sonra analizlerin yapılmasını ve son olarak tasarımın gerçekleştirilmesi gerektiğini ve tüm bu aşamalardan sonra ise diyalog yönetimi aşamasının geldiğini söyledi. Daha sonra ise yapay sinir ağları teknolojisi kullanılıyor. Tahminleme yapılırken ilk olarak Feed Forward Neural Network, sonrasında  Convolutionla Neural Network ve son olarak Recurrent Neural Network teknolojileri kullanılıyor. Girdinin ses olduğu durumlarda ise iki aşama kullanılıyor. Birincisi akustik ses tanıma modeli, ikincisi ise dil modeli. Teker teker sesi tanımaktansa gramer tabanlı yapılıyor ve son olarak da yanıtlama sürecine geçiliyor.

GarantiBBVA’dan Esra Erkuş diğer konuşmacımızdı. UGİ’yi dinleyicilere tanıtarak konuşmasına başladı. UGİ bir sesli asistan ve küçük bir robot olarak ortaya çıktı. İlk olarak isminin Mia olduğunu söyledi ve değişim sürecinden detaylıca bahsetti. 200’e yakın fonksiyonu olan UGİ’yi 3 milyon müşteri kullandı ve 350 bin düzenli aylık kullanıcısı var. Toplamda ise 350 milyon etkileşim aldı. UGİ’yi çağrı merkezlerinin ham verisini kullanarak geliştirdiler. Erkuş sesli asistanlarının nasıl çalıştığını, yapabileceği işleri ve özelliklerini dinleyicilere anlattı. Müşterilerin UGİ’yi yönlendirici bir asistan olarak kullandıklarını söyledi.
Microsoft’tan Cavit Yantaç diğer konuşmacımız olarak sahnede yerini aldı. Bilindiği üzere insanı diğer tüm canlılardan ayıran özelliğinin konuşabilmesi olduğunu ve yapay zekanın en zorlandığı kısımlardan birinin de bu alan olduğunu belirtti. Öyle ki Amazon, Google ve Microsoft gibi devlerin bu alana milyarlarca dolar harcamakta olduğunu söyledi.

Sesin çıkmasının ve beyin tarafından algılama süreçlerini detaylı bir şekilde anlattı. Bilgisayarın dili anlaması da insanınkine çok benzere şekilde. Her bir harf, kelime ve cümle bilgisayarda dalgalar olarak algılanıyor ve mantıklı bir anlam çıkarılıyor. Yantaç, çok farklı dillerde ve aksanlardaki konuşmaları anlamanın ve anlamlı hale getirilip sunulabilmesinin çok ciddi bir çalışma gerektirdiğini ve Microsoft’un ses tanıma sisteminde de aynı ciddiyetle çalışıldığını söyledi. Bu konu itibariyle ses tanımadaki derin öğrenme teknikleri ve gelişmeleri de bir hayli önemli. Microsoft’ta bu konuda çalışmalar yapmakta ve çeşitli projeler üretmekte. Bunlarda biriside ses tanımalı modern toplantı ortamı. 

Toplantı ortamındaki sesler gerçek zamanlı olarak yazıya dönüştürülüp daha sonrasında ise bir iç görü/özet çıkarılıyor. Konuşan her birey ayrı ayrı tanınıyor ve birbiri üstüne binen sesler de dahil olmak üzere tüm konuşmalar yazıya dönüştürülüp aynı zamanda gerçek zamanlı olarak bir başka dile çevrilebiliyor.

Le Chatbot’tan Umut Karlıklı son konuşmacımız olarak sahneye çıktı. Sesli asistanlarla konuşurken normal bir insanla konuştuğumuz gibi konuşmadığımızı, daha farklı bir jargonla konuştuğumuzu söyledi. Sesli asistanın bizi anlamayacağı sanılıp dil bilgisi ve nezaket kurallarına daha uygun konuşulduğu tespitini bizlerle paylaştı. Her geçen gün büyük gelişmelerin olduğu ses tanıma teknolojisi sayesinde doğal bir şekilde konuşulduğunda da çoğu sesli asistan bunu çok rahat bir şekilde anlayacak durumda. İnsanların sesli asistanlarla doğal etkileşim kurmakta zorlandıklarını, çabuk sıkıldıklarını, sanal asistanlardan çabuk vazgeçme eğiliminde olduklarını ve bunun sebeplerini ayrıntılarıyla anlattı. İnsanların sohbeti sürdürmek için onarım, düzeltme, açıklığa kavuşturma gibi stratejilere başvurduklarını ve bu stratejilere cevap vermeyen sanal asistanlarla sohbetin sekteye uğrayacağını söyledi. Önerileri olarak da bağlamın iyi belirlenmesini, karakter özelliklerinin ve yeteneklerinin iyi anlatılmasını, sohbet akışının kontrol edilmesini ve hata/çözüm senaryoların oluşturulması gerektiğini söyledi.


Gelecek etkinlik: TRAI Meet-up #24 “Bankacılık ve Yapay Zekâ”

 

 

TRAI

Recent Posts

TRAI 9. Yıl Çalıştayı’nda Ana Gündem Ajan Tabanlı Yapay Zeka Oldu

Türkiye’nin yapay zeka merkezi olarak, ekosistemi bir araya getirdiğimiz 9. Yıl Çalıştayı’nı gerçekleştirdik. Çalıştay boyunca…

1 hafta ago

OpenAI, ChatGPT’nin yeni görsel üretim modelini duyurdu

OpenAI, ChatGPT’ye entegre yeni görsel üretim modeli ChatGPT Images 2.0’ı duyurdu. 21 Nisan 2026 tarihli…

1 hafta ago

TRAI Meet-Up #104: Veri Merkezi, Bulut ve Altyapı Dönüşümünde Öne Çıkan Başlıklar

2017 yılından beri her ayın üçüncü çarşamba akşamı düzenlediğimiz TRAI Meet-Up serisinin 104. etkinliğini İTÜ…

2 hafta ago

Stanford AI Index 2026: Yapay zekada büyüme sürüyor, denetim yavaş kalıyor

Stanford Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü’nün (HAI) yayımladığı AI Index Report 2026, yapay zekanın…

2 hafta ago

TRAI Girişim Haritası’ndaki Yapay Zeka Startup Sayısı 482’ye Ulaştı

Türkiye Yapay Zeka İnisiyatifi (TRAI) olarak 2017’den bu yana sürdürdüğümüz haritalama çalışması, Türkiye’de yapay zeka…

4 hafta ago

Türkiye’nin Yapay Zeka Sınavı: Fırsat Penceresi Kapanmadan Ne Yapmalıyız?

Yapay zeka artık geleceğin konusu değil. Bugünün ekonomi, rekabet ve kalkınma meselesi. Dünyada oyunun kuralları…

4 hafta ago