Abstract
Bu çalışma, son beş yılda Türkçe doğal dil işleme alanında gerçekleştirilen gelişmeleri, karşılaşılan metodolojik zorlukları ve geleceğe yönelik araştırma perspektiflerini kapsamlı bir şekilde ele almıştır. Türkçenin eklemeli dil yapısı ve morfolojik zenginliği, NLP alanında dilin yapısal karmaşıklığına uygun özgün yöntemlerin geliştirilmesini gerektirmektedir. Çalışmada, metin sınıflandırma, duygu analizi, soru-cevap sistemleri ve kelime gömme modelleri gibi yaygın NLP uygulamaları değerlendirilmektedir. Özellikle BERT ve GPT gibi transformer tabanlı modellerin Türkçe üzerindeki performansı ve uyarlama çalışmaları detaylandırılmıştır. Türkçe gibi düşük kaynaklı dillerde veri yetersizliğinin NLP modellerinin başarısını kısıtladığı belirtilmiş ve bu sorunun çözümüne yönelik olarak açık kaynak veri kümeleri ile veri artırma tekniklerinin sağladığı katkılar tartışılmıştır. Türkçe için geliştirilen BERTurk, BioBERTurk ve benzeri transformer tabanlı modellerin başarılı sonuçlar vermesine rağmen makine çevirisi, isim tanıma ve metin üretme gibi alanlarda daha fazla çalışmaya ihtiyaç duyulduğu belirtilmiştir. Çalışma, literatürdeki boşluklara işaret ederek Türkçeye özgü veri kaynaklarının ve NLP yöntemlerinin geliştirilmesinin, diğer eklemeli diller için de yol gösterici olabileceğini vurgulamaktadır. Sonuç olarak, bu derleme, Türkçe NLP alanında karşılaşılan mevcut zorlukları ve gelişmeleri ortaya koymakta; düşük kaynaklı dillerde etkin NLP çözümleri üretmeye yönelik öneriler sunmakta ve gelecekte yapılacak araştırmalar için kapsamlı bir yön belirlemektedir.
Affiliated Institutions
Related Publications
Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism
Recent work in language modeling demonstrates that training large transformer models advances the state of the art in Natural Language Processing applications. However, very lar...
Publicly Available Clinical
Contextual word embedding models such as ELMo and BERT have dramatically improved performance for many natural language processing (NLP) tasks in recent months. However, these m...
Pre-Trained Image Processing Transformer
As the computing power of modern hardware is increasing strongly, pre-trained deep learning models (e.g., BERT, GPT-3) learned on large-scale datasets have shown their effective...
On the Dangers of Stochastic Parrots
The past 3 years of work in NLP have been characterized by the development and deployment of ever larger language models, especially for English. BERT, its variants, GPT-2/3, an...
ProtTrans: Toward Understanding the Language of Life Through Self-Supervised Learning
Computational biology and bioinformatics provide vast data gold-mines from protein sequences, ideal for Language Models (LMs) taken from Natural Language Processing (NLP). These...
Publication Info
- Year
- 2025
- Type
- article
- Volume
- 24
- Issue
- 48
- Pages
- 686-724
- Citations
- 0
- Access
- Closed
External Links
Social Impact
Social media, news, blog, policy document mentions
Citation Metrics
Cite This
Identifiers
- DOI
- 10.55071/ticaretfbd.1677269