Kelimelerin Gücü: Aşktan Yapay Zekâya, Anlamın Vektörlerle Yazılan Hikâyesi
Birini çok sevdiğinde yaşadığın o anı hatırla.
Telefon elinde, yazıyorsun… siliyorsun… tekrar yazıyorsun.
Sonra birden duruyorsun ve içinden şu geçiyor:
“Kelimeler kifayetsiz.”
Aslında bu cümle çok eski. Şairler yüzyıllardır söylüyor; biz de her büyük duyguda aynı yere geliyoruz.
Çünkü bazı şeyler vardır:
Bir “özledim” her şeyi anlatmaz.
Bir “iyiyim” her şeyi saklar.
Bir “tamam” bazen bitirir, bazen sarılır.
Peki kelimeler neden bazen her şey, bazen hiçbir şey gibi gelir?
Ve daha ilginci…
Yapay zekâ çağında bu eski söz nasıl oldu da ilk kez yerini buldu?
Gel birlikte yürüyelim.
Kelimenin gücü kelimenin içinde değil, etrafındadır
Bir kelimeyi tek başına düşün.
Mesela “gel.”
Sözlükte üç harf.
Ama gerçek hayatta?
- “Gel” bazen umuttur.
- Bazen özürdür.
- Bazen “beni yalnız bırakma” demektir.
- Bazen de “artık bitsin”in kibar hâlidir.
Demek ki kelimenin gücü harflerinde değil.
Hangi hikâyenin içinde söylendiğinde.
İnsan bunu hep biliyordu, ama şöyle tarif ediyordu:
“Anlam, kelimenin tonunda ve bağlamında gizli.”
Bu cümle yıllarca bir sezgiydi.
Ta ki LLM’ler (büyük dil modelleri) çıkıp o sezgiyi görünür bir şeye dönüştürene kadar.
“Kelimeler kifayetsiz kalıyor” artık neden daha gerçek?
Bir duyguyu düşün:
Mesela o “bir şey olmuş gibi ama anlatamadığın” anlar.
İçinde yüz parça var:
korku, umut, kırgınlık, sevgi, gurur, hatıra…
Ama dışarı çıkarken tek kelime arıyorsun.
İşte “kifayetsizlik” burada doğuyor:
Duygu büyük bir dünya. Kelime küçük bir kapı.
LLM tarafında da ilginç bir benzeri var:
Model, anlamı tek kelimeye değil çok sayıda kelimenin birlikte kurduğu alana yerleştiriyor.
Sen o büyük alanı tek noktaya sıkıştırınca hem insan hem model “eksik” hissediyor.
O yüzden bazen şu olur:
- Sen “özledim” dersin, yetmez.
- Bir cümle daha eklemek istersin: “Dün akşam eve dönerken sana benzer birini gördüm…”
- İşte o ek cümle, duyguya bağlam verir.
- Bağlam verilince kelime yerine oturur.
Demek ki “kelimeler kifayetsiz” dediğimiz yerde problem kelime değil; bağlamın eksikliği.
Ve bunu bize en net şekilde LLM’ler gösterdi.
Aynı kelime, farklı anlam: insanın mucizesi, LLM’nin matematiği
Bak en güzel örneklerden biri:
“Tamam.”
Bir mesajda “tamam” görürsün.
Kalbin aniden hızlanır çünkü onun bin tonu vardır.
- “Tamam 🙂”
- “Tamam.”
- “Tamam ya.”
- “tamam…”
LLM’ye de aynı mesajı ver, o da bağlama göre farklı cevap üretir.
Çünkü o da bilir ki:
“Tamam”ın anlamı, kendinden önce ve sonra gelen cümlelerle değişir.
İnsan bunu gözle, tonla, hatırayla anlar.
LLM ise milyonlarca örnekten “tamam”ın hangi cümlelerden sonra neye dönüştüğünü öğrenir.
Yine aynı yere geldik:
Anlam, kelimenin kendisinde değil, komşularında.
O yüzden iyi bir cümle kurmak = iyi bir bağlam kurmak
Bu sadece aşkta değil, her yerde böyle.
- Bir öğretmen bir çocuğa “aferin” der…
Ama bakışı soğuksa kelime ezilir. - Bir lider bir topluma “gelecek” der…
Ama geçmişle bağ kurmazsa kelime boşalır. - Bir arkadaş “yanındayım” der…
Ama doğru zamanda söylemezse kelime düşer.
LLM çağında bunun pratik karşılığı şu oldu:
İyi prompt yazmak, iyi konuşmakla aynı kökten geliyor.
Çünkü prompt dediğin şey de bağlam kurma sanatıdır:
- “Neyi istiyorum?”
- “Neden istiyorum?”
- “Hangi sınırlarla istiyorum?”
- “Hangi örneğe benzesin?”
İnsanı ikna eden sözle, modeli doğru cevaplatan söz aynı yasaya tabidir.
Bugün pek çok sistemde LLM’e önce bu anlamsal haritadan ilgili parçaları bulup getirir, sonra cevap ürettiririz. Bu yaklaşımın adı RAG (Retrieval-Augmented Generation), yani ‘bul-getir-cevapla’.
Yazı boyunca aynı şeyi farklı yüzleriyle söyledik:
Anlam, kelimenin içinde değil; kelimelerin arasındaki bağda doğar.
Şimdi bunun LLM tarafında tam olarak neye karşılık geldiğini çok net ve basitçe anlatalım.
LLM ve vektörler ne demek?
LLM nedir?
LLM (Large Language Model / Büyük Dil Modeli), çok büyük metinleri okuyup dili öğrenen bir yapay zekâ türüdür.
Ama “öğrenmek” dediğimiz şey şudur:
LLM, bir cümlede bir sonraki kelimenin ne olacağını tahmin etmeyi öğrenir.
Bu kadar basit bir hedefle başlar.
Fakat milyarlarca cümlede bunu yaparken dili çözer:
- hangi kelime hangi kelimenin yanında durur,
- hangi ifade hangi niyetle kullanılır,
- “gel” kelimesi hangi hikâyelerde umut, hangilerinde bitiş olur…
Yani LLM, dil bilmez gibi görünür ama dili “bağlantılar üzerinden” öğrenir.
Vektör nedir? (Kelimelerin haritadaki yeri)
LLM bir kelimeyi gördüğünde onu “harf” olarak tutmaz.
Onun yerine o kelimeyi bir sayılar listesine çevirir.
İşte bu sayı listesine vektör denir.
Bu sayısal temsile teknik olarak embedding (gömme) denir; yani kelimenin anlamının, bağlamıyla birlikte bir vektör olarak ‘içine gömülmesi’.
Basit düşün:
- Her kelimeyi bir “nokta” gibi hayal et.
- Bu noktalar kocaman bir uzayda duruyor.
- Yakın olan noktalar benzer anlam taşıyor.
Kafanda canlanması için minicik bir harita düşün (ölçek değil, fikir):
özledim ●────● beklemek ●──● gece
özledim ●────● yol
özledim ●────● sessizlik
Ama mesela:
özledim ●············● muz
(arada mesafe büyüdükçe anlam/bağlam da uzaklaşıyor).
Böylece arama da değişiyor: artık sadece aynı kelimeyi değil, anlamca yakın olanları da buluyoruz; buna semantic search (anlamsal arama) denir.
“özledim” noktası “gece, beklemek, yol, sessizlik” noktalarına yakın durur.
“mutluyum” noktası “hafiflik, gülümseme, ışık” noktalarına yakın durur.
Bu yüzden model, “özledim” dediğinde aklına o iklimdeki kelimeler gelir.
Tıpkı bizde olduğu gibi.
“Anlam yakınlıktır” cümlesi teknik olarak ne demek?
LLM dünyasında anlamın en kısa tarifi şu:
Kelimeler birbirine ne kadar yakınsa, anlamları o kadar yakın.
Bu yakınlığı makineler genelde iki vektör arasındaki açıya bakarak ölçer; en yaygın ölçü cosine similarity (kosinüs benzerliği)’dir.
Bu yakınlık bazen aynı şey demek değildir;
bazen “aynı sahnede bulunmak” demektir.
Mesela:
- “doktor” ile “hastane” yakın durur çünkü aynı hikâyede sık görünür.
- “aşk” ile “susmak” yakın durabilir çünkü insanlar aşkı anlatırken sık sık susmaktan bahseder.
Yani model, kelimeleri bir anlam haritasına koyar.
Biz buna vektör uzayı deriz.
Bu anlam haritasını uygulamalarda sakladığımız yer ise çoğu zaman bir vektör veritabanıdır; kelimelerin ve cümlelerin bu koordinatlarını orada tutarız.
Yazıdaki “kifayetsizlik” teknik olarak neye denk geliyor?
Yazıda dedik ya:
“Duygu büyük bir dünya, kelime küçük bir kapı.”
Teknikte bunun karşılığı şu:
Duygu, haritada geniş bir bölgeyi temsil ediyor; tek kelime ise tek bir nokta.
Sen o geniş bölgeyi tek noktaya sıkıştırmaya çalışınca hissettiğin şey:
eksiklik / kifayetsizlik. O yüzden kelimenin yanına bir cümle daha eklediğinde rahatlıyorsun. Çünkü haritada yeni noktalar açıyorsun, bağlam büyüyor. Anlam yerine oturuyor.
Bu yüzden “kelimelerin gücü” artık sadece romantik bir hakikat değil; insanın kalbinde sezdiği, LLM’in vektör haritasında hesapladığı ortak bir yasa.
Biz ManselVision’da OCR’yi sadece “metni okuyup yazıya dökmek” olarak görmüyoruz. Asıl mesele, okunan metnin bağlamını korumak ve anlamını doğru taşımak.
Çünkü bir belgeyi değerli yapan şey, içindeki kelimelerden çok o kelimelerin birlikte kurduğu anlam haritası. Bu yüzden OCR çıktısını; doğrulama, düzeltme ve anlamsal arama ile destekleyip gerçek bir bilgiye dönüştürüyoruz.

Sıkça Sorulan Sorular
LLM, çok büyük metinlerle eğitilen ve dilde bir sonraki kelimeyi tahmin etmeyi öğrenerek anlam üretmeye çalışan yapay zekâ modelidir.
Vektör, bir kelimenin sayısal temsildir. LLM’ler kelimeleri vektör uzayında noktalara dönüştürür; yakın noktalar benzer anlamları ve bağlamları gösterir.
Bu duygu, büyük ve zengin bir bağlamı tek kelimeye sığdırma çabasından doğar. LLM tarafında da anlam, tek kelimeden değil kelimeler arası ilişkiden kurulur.