
Yapay zekâ alanında terimler hızlı değişiyor: aynı kavram, farklı kurumlarda farklı adlarla anılabiliyor; aynı kısaltma (ör. LLM) farklı bağlamlarda daha dar veya daha geniş anlamlar taşıyabiliyor. 2026’ya yaklaşırken bu durum özellikle multimodal (metin + görsel + ses gibi) modellerin yaygınlaşmasıyla daha görünür hâle geldi. Bu rehber, güncel terimleri genel okur için anlaşılır biçimde özetler; ayrıca eğitim içerikleri, online sözlükler ve teknik dokümantasyon yazanlar için pratik bir “nasıl kullanmalı?” çerçevesi sunar.
Not: Bu yazı hukuki veya tıbbi tavsiye değildir. Üretken modellerin çıktıları hata içerebilir; kritik kullanım senaryolarında birincil kaynakla doğrulama ve insan denetimi iyi bir uygulamadır.
2024–2025 döneminde iki trend terimlerin yönünü belirledi:
Sonuç: 2026’da iyi bir içerik/sözlük yazarı olmak, sadece tanım yazmak değil; terimi bağlamı, örneği ve sınırıyla vermek demek.
Aşağıdaki tablo, yeni veya anlamı genişleyen terimlerin pratik bir özetidir. Terimler İngilizce kısaltmalarıyla sık geçtiği için, Türkiye Türkçesi içerikte de genellikle “ilk geçtiği yerde açılım + Türkçe kısa tanım” yaklaşımı okunabilirliği artırır.
Kapsam notu: Bazı ürün/satıcı metinleri “LLM” etiketini multimodal sistemler için de gevşek biçimde kullanabilir; bu yazıda LLM “ağırlıklı olarak metin odaklı”, LMM ise “birden fazla modaliteyi (metin+görsel+ses vb.) birlikte işleyen” anlamında kullanılır.
| Terim | Kısa tanım | Ne zaman kullanılır? | Not / tuzak |
|---|---|---|---|
| Foundation model | Geniş veriyle ön-eğitilmiş, çok sayıda göreve uyarlanabilen genel amaçlı model sınıfı. | Model ailesini/stratejisini anlatırken; “tek görevli” dar modellerden ayırırken. | Akademik tanımı sık referans alınır; politika/düzenleme metinleri farklı ölçütler kullanabilir. CRFM raporu |
| LLM (Large Language Model) | Temel olarak metin (dil) üzerinde çalışan büyük ölçekli model. | Metin üretimi, özetleme, çeviri, kod yazımı gibi dil ağırlıklı görevlerde. | Güncel ürün metinlerinde “LLM” bazen multimodal özellikleri de kapsayacak şekilde kullanılabilir; içeriğinizin başında kapsamı netleştirin. |
| LMM (Large Multimodal Model) | Metin + görsel + ses/video gibi birden fazla “modaliteyi” aynı model çerçevesinde işleyebilen büyük model. | Görsel yorumlama, görsel-soru cevap, sesli etkileşim, çoklu veri türü içeren görevlerde. | “LMM”, “VLM” (vision-language) ve “omni” ifadeleri bazı kaynaklarda örtüşebilir. Google Research, OpenAI System Card |
| Multimodal etkileşim seviyeleri | Modelin farklı modaliteleri sadece “alması” ile modaliteler arası daha derin etkileşim kurması arasında kademeli yetenek farkları olduğu fikri. | Ürün/araştırma değerlendirmesinde “model görseli alıyor” ile “görsel + metin birlikte tutarlı muhakeme yapıyor” ayrımını anlatırken. | Aynı “multimodal” etiketi, farklı seviyeleri kapsayabilir; örnek görevle açıklayın. Kaynak |
| RAG (Retrieval‑Augmented Generation) | Modelin yanıt üretmeden önce dış kaynaklardan (doküman, veritabanı vb.) bilgi çekip yanıtı bu bağlamla üretmesi deseni. | Kurumsal bilgi tabanı, güncel politika dokümanları, ders materyali gibi “dış bilgi” gereken senaryolarda. | Hedef, doğruluk/güncellik sorunlarını azaltmaktır; tek başına garanti değildir. McKinsey açıklayıcı yazı |
| System card (model kartı / sistem kartı) | Bir modelin yetenekleri, sınırlamaları ve güvenlik önlemleri gibi konuları açıklayan sağlayıcı dokümanı. | Eğitimde güvenli kullanım çerçevesi yazarken; ürün seçerken; riskleri anlatırken. | Sadece “pazarlama” değil; operasyonel sınırlamalar ve mitigasyon yaklaşımı da içerebilir. Örnek |
| Omni (ürün/iletişim dili) | Genellikle “çok kanallı/çok modaliteli” deneyimi vurgulayan bir ifade; teknik bir standart terim değildir. | Bir ürünün metin+görsel+ses gibi birleşik deneyimini anlatan içeriklerde. | Kesin tanım yerine, “hangi modaliteler, hangi görev” diye somutlaştırın. Sağlayıcı dokümantasyonu örneği |
“Foundation model” yaklaşımı, tek bir dar göreve göre eğitilmiş modeller yerine, geniş veriyle eğitilip sonradan çok farklı kullanım senaryolarına uyarlanabilen modelleri bir şemsiye altında toplar. Bu çerçeve; fırsatları (genel amaçlı kullanım, yeniden kullanım) kadar riskleri (yan etkiler, öngörülemez hatalar, kötüye kullanım) birlikte tartışmayı kolaylaştırır. Kavramın akademik çerçevesi ve terminolojinin yerleşmesinde etkili referanslardan biri On the Opportunities and Risks of Foundation Models raporudur.
Sözlük yazımı ipucu: “Foundation model”ı tanımlarken şu iki unsuru eklemek netlik sağlar:
LLM (Large Language Model) tarihsel olarak dil odaklı modelleri ifade eder. Ancak pratikte bazı modern sistemler, metin yanında görsel/ses girdileri de alabilir ve buna rağmen ürün iletişiminde “LLM” etiketini koruyabilir. Bu noktada LMM (Large Multimodal Model) kısaltması, birden fazla modaliteyi aynı model çerçevesinde birlikte işleyebilen sistemleri vurgulamak için kullanılır. Multimodal etkileşim seviyelerini ele alan Google Research yayını bu ayrımı “girdi çeşitliliği”nden öte, etkileşimin derinliği açısından tartışır. Sağlayıcı dokümantasyonları da (ör. GPT‑4o System Card) multimodal sistemleri yetenek + sınırlama + güvenlik bileşenleriyle birlikte ele alarak terminolojiyi operasyonel bağlama taşır.
Pratik kural: Eğer içerik “model görseli alıyor” diyorsa ama görsel üzerinde tutarlı muhakeme düzeyi belirsizse, “multimodal” demek tek başına yeterli olmayabilir. Bir örnek görev ekleyin (ör. “grafik yorumlama”, “şemadan adım çıkarma” gibi).
RAG (Retrieval‑Augmented Generation), üretken modelin yanıt üretmeden önce dış bir kaynaktan ilgili parçaları getirip (retrieval) bu bağlama dayanarak yanıt üretmesi fikridir. Sektörel anlatımlarda, RAG’in özellikle kurumsal bilgi sistemlerine bağlanan uygulamalarda öne çıktığı belirtilir. McKinsey’nin açıklayıcı içeriği RAG’i iş kullanım senaryoları ve operasyonel zorluklarıyla birlikte özetler.
Not: Bu yazı RAG’i bir “tasarım deseni” olarak anlatır; akademik birincil literatür, farklı getirme yöntemleri ve değerlendirme ölçütleriyle daha ayrıntılı bir çerçeve sunabilir.
RAG’i doğru tanımlamak için mini şablon:
Sınır: RAG, hedef olarak yanlışları azaltmayı amaçlar; ancak getirme aşamasında hatalı/eksik doküman seçilirse veya model bağlamı yanlış yorumlarsa sorun devam edebilir. Bu yüzden eğitim ve referans içeriklerinde “kaynak gösterme + kontrol” yaklaşımı önemlidir.
2026’ya gelirken, sadece “model şu işi yapar” demek yerine, “hangi koşullarda, hangi sınırlamalarla ve hangi güvenlik önlemleriyle” soruları daha öne çıktı. Bu ihtiyaç, sağlayıcıların “system card / model card” türü belgelerini terminolojinin doğal uzantısı hâline getirdi. Örneğin GPT‑4o System Card, multimodal bir sistemin kabiliyetleri kadar güvenlik yaklaşımını da ele alır. Terimleri anlatırken bu tür belgelere referans vermek, okuyucunun “sadece isim” değil “operasyonel gerçeklik” görmesini sağlar.
Yapay zekâ terminolojisi, özellikle multimodal sistemlerle birlikte genişliyor ve tam standardizasyona ulaşmış değil. Bu yüzden 2026 güncellemesinde hedef, “en doğru tek cümle”yi bulmaktan çok; terimi doğru çerçeveyle sunmak olmalı: kısa tanım, somut örnek ve sınırlamalar. Foundation model yaklaşımını (CRFM) temel kavramsal çatı olarak kullanıp; LLM/LMM ayrımını (Google Research) ve sağlayıcı belgelerini (system card) referans gösterdiğinizde, hem eğitim hem sözlük içerikleriniz daha tutarlı ve güncel kalır.
Yorumlar