Yapay zekâ dünyayı değiştiriyor. Bunu yaparken de nasıl çalıştığını anlatmak için neredeyse başlı başına yeni bir dil yaratıyor. Yapay zekâ hakkında beş dakika okuma yaptığınızda bile karşınıza LLM, RAG, RLHF ve teknoloji dünyasında oldukça bilgili insanları bile zaman zaman yetersiz hissettirebilen birçok farklı terim çıkıyor.
Bu sözlük, tam da bunu düzeltmek için hazırlandı. Alan geliştikçe biz de bu içeriği düzenli olarak güncelliyoruz. Bu yüzden onu, tıpkı anlattığı yapay zekâ sistemleri gibi, yaşayan bir doküman olarak düşünebilirsiniz.
Yapay Zekâ Terimleri Neden Önemli?
Yapay zekâ teknolojilerini anlamak için yalnızca araçları kullanmak yeterli değil. Bu araçların nasıl çalıştığını, hangi kavramlar üzerine kurulduğunu ve iş dünyasında ne anlama geldiğini bilmek de giderek daha önemli hale geliyor.
Örneğin bir şirketin yapay zekâ ürününü değerlendirirken inference maliyeti, token kullanımı, model eğitimi, fine-tuning veya AI agent gibi kavramları anlamak doğrudan karar kalitesini etkileyebilir.
Aynı şekilde girişimciler, yatırımcılar, içerik üreticileri ve teknoloji ekipleri için bu terimler artık yalnızca teknik detay değil; strateji, ürün geliştirme, maliyet yönetimi ve rekabet avantajı açısından da kritik hale geliyor.
İçerikte Yer Alan Temel Yapay Zekâ Kavramları

Bu sözlükte şu kavramları bulabilirsiniz:
- AGI
- AI Agent
- API Endpoints
- Chain of Thought
- Coding Agents
- Compute
- Deep Learning
- Diffusion
- Distillation
- Fine-tuning
- GAN
- Hallucination
- Inference
- Large Language Model / LLM
- Memory Cache
- Neural Network
- Open Source
- Parallelization
- RAMageddon
- Reinforcement Learning
- Token
- Token Throughput
- Training
- Transfer Learning
- Weights
- Validation Loss
AGI
Yapay Genel Zekâ ya da İngilizce adıyla AGI, sınırları tam net çizilmemiş bir terimdir. Ancak genel olarak, birçok görevde — hatta çoğu görevde — ortalama bir insandan daha yetenekli olan yapay zekâyı ifade eder.
OpenAI CEO’su Sam Altman, bir dönem AGI’yi “iş arkadaşı olarak işe alabileceğiniz ortalama bir insanın eşdeğeri” olarak tanımlamıştı. OpenAI’ın kuruluş ilkelerinde ise AGI, “ekonomik açıdan değerli işlerin çoğunda insanlardan daha iyi performans gösteren, yüksek derecede otonom sistemler” olarak tanımlanır.
Google DeepMind’ın bu konudaki yaklaşımı ise biraz farklıdır. DeepMind, AGI’yi “bilişsel görevlerin çoğunda en az insanlar kadar yetenekli olan yapay zekâ” olarak görür.
Kafanız mı karıştı? Endişelenmeyin. Yapay zekâ araştırmalarının en ön saflarında çalışan uzmanların kafası da bu konuda hâlâ tamamen net değil.
AI Agent
AI agent, yani yapay zekâ ajanı, temel bir yapay zekâ sohbet botunun yapabileceklerinin ötesine geçerek sizin adınıza bir dizi görevi yerine getirmek için yapay zekâ teknolojilerini kullanan araçları ifade eder.
Bu görevler; masraf formlarını doldurmak, uçak bileti veya restoran rezervasyonu yapmak, hatta kod yazmak ve yazılmış kodun bakımını üstlenmek gibi işleri kapsayabilir.
Ancak daha önce de anlattığımız gibi, bu alan hâlâ gelişmekte olan ve birçok hareketli parçaya sahip bir yapıdadır. Bu yüzden “AI agent” ifadesi, farklı kişiler için farklı anlamlara gelebilir. Ayrıca bu sistemlerin vaat edilen kabiliyetleri tam anlamıyla sunabilmesi için gerekli altyapılar da hâlâ inşa edilmektedir.
Yine de temel fikir şudur: Bir yapay zekâ ajanı, çok adımlı görevleri yerine getirmek için birden fazla yapay zekâ sisteminden yararlanabilen, belirli ölçüde otonom çalışan bir sistemdir.
API Endpoints
API endpoint’lerini, bir yazılımın arka tarafında bulunan ve başka programların o yazılıma bir şeyler yaptırmak için “basabildiği” gizli düğmeler gibi düşünebilirsiniz.
Geliştiriciler bu arayüzleri entegrasyonlar kurmak için kullanır. Örneğin bir uygulamanın başka bir uygulamadan veri çekmesini sağlamak ya da bir yapay zekâ ajanının, bir insanın her ekranı tek tek kullanmasına gerek kalmadan üçüncü taraf servisleri doğrudan kontrol etmesini mümkün kılmak için bu yapılar kullanılır.
Akıllı ev cihazlarının ve birbirine bağlı dijital platformların çoğunda bu tür gizli “düğmeler” bulunur. Sıradan kullanıcılar bunları genellikle görmez veya doğrudan kullanmaz.
Yapay zekâ ajanları daha yetenekli hale geldikçe, bu endpoint’leri kendi başlarına bulup kullanma konusunda da giderek daha başarılı oluyor. Bu da otomasyon için güçlü — ve kimi zaman beklenmedik — yeni ihtimallerin önünü açıyor.
Chain of Thought
Chain of thought, Türkçeye düşünce zinciri olarak çevrilebilir.
Basit bir soru sorulduğunda insan beyni fazla düşünmeden yanıt verebilir. Örneğin: “Zürafa mı daha uzundur, kedi mi?” gibi bir sorunun cevabı açıktır.
Ancak birçok durumda doğru cevaba ulaşmak için ara adımlara ihtiyaç duyarsınız. Bazen kalem kâğıt kullanmanız gerekir. Örneğin bir çiftlikte tavuklar ve inekler varsa, toplamda 40 baş ve 120 ayak bulunuyorsa, doğru sonuca ulaşmak için basit bir denklem kurmanız gerekebilir. Cevap: 20 tavuk ve 20 inektir.
Yapay zekâ bağlamında chain-of-thought reasoning, yani düşünce zinciriyle akıl yürütme, büyük dil modellerinin bir problemi daha küçük ve ara adımlara bölerek çözmesi anlamına gelir. Bu yaklaşım, nihai sonucun kalitesini artırmak için kullanılır.
Genellikle cevaba ulaşmak daha uzun sürer, ancak özellikle mantık, matematik veya kodlama gibi alanlarda sonucun doğru olma ihtimali artar.
Reasoning modelleri, yani akıl yürütme modelleri, geleneksel büyük dil modellerinden geliştirilir ve pekiştirmeli öğrenme sayesinde düşünce zinciriyle daha iyi akıl yürütecek şekilde optimize edilir.
Coding Agents
Coding agents, Türkçeye kodlama ajanları ya da yazılım geliştirme ajanları olarak çevrilebilir.
Bu kavram, “AI agent” yani yapay zekâ ajanı kavramının daha özel bir versiyonudur. Genel anlamda yapay zekâ ajanı, belirli bir hedefe ulaşmak için adım adım kendi başına aksiyon alabilen bir programı ifade eder.
Kodlama ajanı ise bu yapının yazılım geliştirme alanına uyarlanmış halidir.
Bu tür sistemler yalnızca bir insana inceleyip kopyalaması için kod önermez. Bunun ötesine geçerek kod yazabilir, test edebilir, hata ayıklayabilir ve normalde bir yazılımcının gününün büyük kısmını tüketen deneme-yanılma süreçlerini kendi başına yürütebilir.
Kodlama ajanları, tüm bir kod tabanı üzerinde çalışabilir. Hataları tespit edebilir, testleri çalıştırabilir ve minimum insan gözetimiyle düzeltmeler gönderebilir.
Bunu, hiç uyumayan, odağını kaybetmeyen ve çok hızlı çalışan bir stajyer gibi düşünebilirsiniz. Ancak her stajyerde olduğu gibi, yaptığı işin yine de bir insan tarafından kontrol edilmesi gerekir.
Compute
Compute, yapay zekâ alanında genellikle hesaplama gücü ya da işlem gücü anlamında kullanılır.
Terim bazı bağlamlarda farklı anlamlar taşıyabilse de genel olarak yapay zekâ modellerinin çalışmasını mümkün kılan kritik hesaplama kapasitesini ifade eder.
Bu işlem gücü, yapay zekâ endüstrisinin temel yakıtlarından biridir. Güçlü modellerin eğitilmesini ve gerçek dünyada kullanılmasını mümkün kılar.
Compute kelimesi çoğu zaman bu hesaplama gücünü sağlayan donanımlar için kısa bir ifade olarak da kullanılır. Buna GPU’lar, CPU’lar, TPU’lar ve modern yapay zekâ endüstrisinin temelini oluşturan diğer altyapı bileşenleri dahildir.
Deep Learning
Deep learning, Türkçeye derin öğrenme olarak çevrilir.
Derin öğrenme, kendi kendini geliştirebilen makine öğrenmesi alanının bir alt dalıdır. Bu yapıda yapay zekâ algoritmaları, çok katmanlı yapay sinir ağı yani Artificial Neural Network / ANN mimarisiyle tasarlanır.
Bu çok katmanlı yapı, derin öğrenme sistemlerinin daha basit makine öğrenmesi yöntemlerine kıyasla çok daha karmaşık ilişkiler kurmasını sağlar. Örneğin doğrusal modeller veya karar ağaçları daha sınırlı ilişki biçimlerini yakalayabilirken, derin öğrenme modelleri veriler arasındaki daha ince ve karmaşık bağlantıları tespit edebilir.
Derin öğrenme algoritmalarının yapısı, insan beynindeki nöronların birbirine bağlı yollarından ilham alır.
Derin öğrenme tabanlı yapay zekâ modelleri, verilerdeki önemli özellikleri insan mühendislerin tek tek tanımlamasına ihtiyaç duymadan kendileri belirleyebilir. Bu yapı aynı zamanda algoritmaların hatalardan öğrenmesini, tekrar ve ayarlama süreçleriyle kendi çıktılarını geliştirmesini de mümkün kılar.
Ancak derin öğrenme sistemlerinin iyi sonuçlar verebilmesi için çok büyük miktarda veriye ihtiyacı vardır. Çoğu zaman milyonlarca, hatta daha fazla veri noktası gerekir. Ayrıca daha basit makine öğrenmesi algoritmalarına kıyasla eğitilmeleri genellikle daha uzun sürer. Bu nedenle geliştirme maliyetleri de daha yüksek olma eğilimindedir.
Diffusion
Diffusion, Türkçeye bağlama göre difüzyon ya da yayılım olarak çevrilebilir. Yapay zekâ alanında genellikle difüzyon modelleri ifadesi kullanılır.
Difüzyon, birçok görsel, müzik ve metin üreten yapay zekâ modelinin merkezinde yer alan teknolojilerden biridir.
Fizikten ilham alan difüzyon sistemleri, verinin yapısını yavaş yavaş “bozar”. Örneğin bir fotoğrafa, şarkıya veya başka bir veri türüne adım adım gürültü eklenir. Bu süreç, veri tamamen tanınmaz hale gelene kadar devam eder.
Fizikte difüzyon kendiliğinden gerçekleşen ve geri döndürülemez bir süreçtir. Örneğin kahveye karışan şekeri tekrar küp şeker haline getiremezsiniz.
Ancak yapay zekâdaki difüzyon sistemleri, bu sürecin tersini öğrenmeye çalışır. Yani “bozulmuş” veriyi tekrar oluşturmayı hedefler. Buna bir tür ters difüzyon süreci denebilir.
Bu sayede model, gürültünün içinden anlamlı veriyi geri kazanmayı öğrenir. Görsel üretiminde bir yapay zekânın bulanık ve rastgele görünen bir gürültüden aşamalı olarak anlamlı bir görsel oluşturması bunun en bilinen örneklerinden biridir.
Distillation
Distillation, Türkçeye damıtma olarak çevrilebilir. Yapay zekâ bağlamında daha açıklayıcı kullanımıyla model damıtma ifadesi tercih edilebilir.
Model damıtma, büyük bir yapay zekâ modelindeki bilgiyi daha küçük bir modele aktarmak için kullanılan bir tekniktir. Bu süreç genellikle öğretmen-öğrenci modeli yaklaşımıyla açıklanır.
Geliştiriciler önce büyük ve güçlü olan öğretmen modele çeşitli istekler gönderir ve modelin ürettiği çıktıları kaydeder. Bu yanıtlar bazen bir veri setiyle karşılaştırılarak ne kadar doğru oldukları ölçülür.
Daha sonra bu çıktılar, daha küçük olan öğrenci modeli eğitmek için kullanılır. Amaç, öğrenci modelin öğretmen modelin davranışını mümkün olduğunca iyi taklit etmesini sağlamaktır.
Damıtma yöntemiyle, daha büyük bir modele dayanan ancak daha küçük, daha hızlı ve daha verimli çalışan yeni bir model oluşturulabilir. Üstelik bu yapılırken performans kaybı mümkün olduğunca düşük tutulmaya çalışılır. Bu kayba distillation loss, yani damıtma kaybı denir.
OpenAI’ın GPT-4’ün daha hızlı bir versiyonu olan GPT-4 Turbo’yu geliştirmesinde bu tür bir yöntemin kullanılmış olması muhtemeldir.
Yapay zekâ şirketlerinin tamamı model damıtmayı kendi sistemlerini geliştirmek için kurum içinde kullanır. Ancak bazı şirketlerin, öncü modellerle arasındaki farkı kapatmak için rakip modellerden damıtma yapmış olabileceği de gündeme gelmiştir.
Rakip bir modelden damıtma yapmak, çoğu zaman yapay zekâ API’lerinin ve sohbet asistanlarının kullanım şartlarını ihlal eder.
Fine-tuning
Fine-tuning, Türkçeye ince ayar olarak çevrilir. Yapay zekâ bağlamında daha açık kullanımıyla model ince ayarı denebilir.
Fine-tuning, bir yapay zekâ modelinin daha önceki genel eğitiminden sonra, belirli bir görevde veya alanda daha iyi performans göstermesi için yeniden ve daha odaklı şekilde eğitilmesi anlamına gelir.
Bu süreçte modele genellikle yeni, uzmanlaşmış ve belirli bir göreve yönelik veriler verilir. Böylece model, genel kabiliyetlerini korurken daha spesifik bir konuda daha isabetli sonuçlar üretmeye başlar.
Bugün birçok yapay zekâ girişimi, büyük dil modellerini başlangıç noktası olarak kullanıyor. Ancak bu modelleri doğrudan almak yerine, kendi sektör bilgileri ve uzmanlık alanlarına göre fine-tuning uygulayarak belirli bir sektör veya görev için daha kullanışlı ticari ürünler geliştirmeye çalışıyor.
Örneğin hukuk, sağlık, finans, müşteri hizmetleri veya eğitim alanına odaklanan bir yapay zekâ ürünü, genel bir modelin üzerine o alana özel verilerle ince ayar yapılarak daha güçlü hale getirilebilir.
GAN
GAN, yani Generative Adversarial Network, Türkçeye Üretici Çekişmeli Ağ ya da daha yaygın kullanımıyla Üretken Çekişmeli Ağ olarak çevrilebilir.
GAN, gerçekçi veri üretimi söz konusu olduğunda üretken yapay zekâ alanındaki bazı önemli gelişmelerin temelinde yer alan bir makine öğrenmesi mimarisidir. Bu yapı, yalnızca deepfake araçlarında değil; gerçekçi görseller, videolar ve benzeri yapay veri üretimlerinde de kullanılır.
GAN’ler iki farklı sinir ağından oluşur. Bunlardan biri üretici modeldir. Üretici model, eğitim verilerinden öğrendiklerine dayanarak yeni bir çıktı üretir. Diğeri ise ayırt edici modeldir. Ayırt edici model, üretilen çıktının gerçek mi yoksa yapay mı olduğunu değerlendirmeye çalışır.
Bu iki model aslında birbirini geçmeye çalışan iki rakip gibi çalışır.
Üretici model, ürettiği çıktıyı ayırt edici modele “gerçekmiş gibi” kabul ettirmeye çalışır. Ayırt edici model ise yapay olarak üretilmiş veriyi yakalamaya çalışır.
Bu yapılandırılmış rekabet sayesinde yapay zekâ çıktıları, ek insan müdahalesine gerek kalmadan daha gerçekçi hale gelebilir.
Ancak GAN’ler genel amaçlı yapay zekâdan çok daha dar ve belirli kullanım alanlarında daha iyi çalışır. Örneğin gerçekçi fotoğraf veya video üretimi gibi spesifik görevlerde güçlü sonuçlar verebilir.
Hallucination
Hallucination, Türkçeye halüsinasyon olarak çevrilir. Yapay zekâ bağlamında daha açıklayıcı haliyle yapay zekâ halüsinasyonu denebilir.
Bu terim, yapay zekâ modellerinin gerçekte doğru olmayan bilgileri sanki doğruymuş gibi üretmesini ifade eder. Daha basit söylemek gerekirse: Modelin “uydurmasıdır.”
Bu, yapay zekâ kalitesi açısından büyük bir problemdir. Çünkü halüsinasyonlar, üretken yapay zekâ çıktılarının yanıltıcı olmasına neden olabilir. Hatta bazı durumlarda gerçek hayatta risk yaratabilir.
Örneğin bir sağlık sorusuna verilen yanlış veya zararlı tıbbi tavsiye, ciddi sonuçlara yol açabilir.
Yapay zekânın bilgi uydurması sorununun, genellikle eğitim verilerindeki boşluklardan kaynaklandığı düşünülür. Model, yeterli veya doğru bilgiye sahip olmadığı durumlarda, eksikliği kabul etmek yerine kulağa doğru gelen ama aslında yanlış olan bilgiler üretebilir.
Bu problem, daha uzmanlaşmış ve dikey yapay zekâ modellerine olan ilgiyi artırıyor. Yani belirli bir alan için geliştirilen, daha dar uzmanlığa sahip yapay zekâ sistemleri öne çıkıyor.
Amaç, bilgi boşluklarını azaltmak ve yanlış bilgi üretme riskini mümkün olduğunca düşürmek.
Inference
Inference, Türkçeye çıkarım olarak çevrilir. Yapay zekâ bağlamında, bir yapay zekâ modelinin çalıştırılması ve öğrendiği bilgilerden hareketle sonuç üretmesi anlamına gelir.
Daha açık söylemek gerekirse inference, eğitilmiş bir modelin serbest bırakılıp tahmin yapması veya daha önce gördüğü verilerden öğrendiği örüntülere dayanarak sonuç çıkarmasıdır.
Burada önemli bir nokta var: Inference, eğitim olmadan gerçekleşemez. Bir modelin etkili şekilde tahmin yapabilmesi için önce bir veri kümesi üzerinde örüntüleri öğrenmiş olması gerekir.
Inference süreci farklı donanımlarda çalışabilir. Akıllı telefon işlemcilerinden güçlü GPU’lara, özel tasarlanmış yapay zekâ hızlandırıcılarına kadar birçok donanım bu işlemi gerçekleştirebilir.
Ancak tüm donanımlar modelleri aynı verimlilikte çalıştıramaz. Örneğin çok büyük bir modeli dizüstü bilgisayarda çalıştırmak, yüksek kaliteli yapay zekâ çiplerine sahip bir bulut sunucusuna kıyasla çok daha uzun sürebilir.
Large Language Model / LLM
Large Language Model, yani LLM, Türkçeye büyük dil modeli olarak çevrilir.
Büyük dil modelleri; ChatGPT, Claude, Google Gemini, Meta’nın Llama modeli, Microsoft Copilot veya Mistral’ın Le Chat’i gibi popüler yapay zekâ asistanlarının temelinde yer alan yapay zekâ modelleridir.
Bir yapay zekâ asistanıyla sohbet ettiğinizde, aslında bir büyük dil modeliyle etkileşime girersiniz. Bu model, talebinizi doğrudan işleyebilir veya web’de gezinme, kod yorumlayıcıları ve farklı araçlar gibi yardımcı sistemlerden destek alarak yanıt üretebilir.
LLM’ler, milyarlarca sayısal parametreden oluşan derin sinir ağlarıdır. Bu parametreler, kimi zaman ağırlıklar olarak da adlandırılır.
Bu modeller, kelimeler ve ifadeler arasındaki ilişkileri öğrenerek dilin bir temsilini oluşturur. Bunu, kelimelerden oluşan çok boyutlu bir harita gibi düşünebilirsiniz.
Büyük dil modelleri; milyarlarca kitap, makale, konuşma dökümü ve farklı metin kaynağındaki örüntülerin kodlanmasıyla geliştirilir.
Bir LLM’e komut verdiğinizde, model bu komuta en uygun görünen ve istatistiksel olarak en olası dil örüntüsünü üretir.
Memory Cache
Memory cache, Türkçeye bellek önbelleği ya da daha kısa haliyle önbellek olarak çevrilebilir.
Yapay zekâ bağlamında memory cache, inference sürecini hızlandıran önemli bir mekanizmadır. Yani bir yapay zekâ modelinin kullanıcı sorusuna yanıt üretme sürecini daha verimli hale getirmeye yardımcı olur.
Temelde caching, yani önbelleğe alma, bir optimizasyon tekniğidir. Amaç, inference sürecini daha hızlı ve daha az maliyetli hale getirmektir.
Yapay zekâ modelleri yoğun matematiksel hesaplamalarla çalışır. Her hesaplama, işlem gücü ve enerji tüketimi anlamına gelir. Önbelleğe alma, modelin aynı veya benzer işlemler için tekrar tekrar hesaplama yapmasını azaltmak amacıyla kullanılır.
Bunun için belirli hesaplamalar kaydedilir ve gelecekteki kullanıcı sorgularında ya da işlemlerde yeniden kullanılabilir. Memory cache’in farklı türleri vardır. Bunlardan en bilinenlerinden biri KV cache, yani key-value cache olarak adlandırılan yapıdır. KV cache, transformer tabanlı modellerde kullanılır. Kullanıcı sorularına yanıt üretirken gereken süreyi ve algoritmik işlem yükünü azaltarak modeli daha verimli hale getirir.
Sonuç olarak memory cache, yapay zekâ sistemlerinin daha hızlı yanıt vermesini, daha az kaynak tüketmesini ve daha ölçeklenebilir çalışmasını sağlar.
Neural Network
Neural network, Türkçeye sinir ağı olarak çevrilir. Yapay zekâ bağlamında daha açık kullanımıyla yapay sinir ağı ifadesi tercih edilir.
Yapay sinir ağı, derin öğrenmenin temelini oluşturan çok katmanlı algoritmik yapıyı ifade eder. Daha geniş anlamda ise büyük dil modellerinin ortaya çıkışıyla hız kazanan üretken yapay zekâ araçlarının arkasındaki temel yapılardan biridir.
İnsan beynindeki yoğun şekilde birbirine bağlı nöron yollarından ilham alarak veri işleme algoritmaları tasarlama fikri 1940’lara kadar uzanır. Ancak bu teorinin gerçek gücünü ortaya çıkaran gelişme çok daha yakın bir dönemde yaşandı: Video oyun endüstrisi sayesinde yaygınlaşan grafik işlem birimleri, yani GPU’lar.
Bu çipler, önceki dönemlerde mümkün olandan çok daha fazla katmana sahip algoritmaların eğitilmesi için oldukça uygun çıktı. Böylece sinir ağı tabanlı yapay zekâ sistemleri; ses tanıma, otonom navigasyon ve ilaç keşfi gibi birçok alanda çok daha yüksek performansa ulaşabildi.
Open Source
Open source, Türkçeye açık kaynak olarak çevrilir.
Açık kaynak, temel kodu herkesin kullanması, incelemesi veya değiştirmesi için kamuya açık hale getirilen yazılımları ifade eder. Son dönemde bu kavram, yapay zekâ modelleri için de giderek daha fazla kullanılmaya başladı.
Yapay zekâ dünyasında Meta’nın Llama model ailesi açık kaynak yaklaşıma önemli örneklerden biridir. İşletim sistemleri dünyasında ise bunun en bilinen tarihsel karşılıklarından biri Linux’tur.
Açık kaynak yaklaşımı; araştırmacıların, geliştiricilerin ve şirketlerin dünyanın farklı yerlerinden birbirlerinin çalışmalarının üzerine inşa yapmasını sağlar. Bu da ilerlemeyi hızlandırabilir.
Ayrıca açık kaynak sistemler, kapalı sistemlerin kolayca sunamadığı bağımsız güvenlik denetimlerine de imkân tanır.
Buna karşılık closed source, yani kapalı kaynak, kodun gizli tutulduğu yapıları ifade eder. Bu durumda ürünü kullanabilirsiniz, ancak nasıl çalıştığını göremezsiniz. OpenAI’ın GPT modelleri buna örnek olarak gösterilebilir.
Açık kaynak ve kapalı kaynak ayrımı, bugün yapay zekâ sektörünün en belirleyici tartışmalarından biri haline gelmiştir.
Parallelization
Parallelization, Türkçeye paralelleştirme olarak çevrilir.
Paralelleştirme, işleri tek tek sırayla yapmak yerine aynı anda birçok işi birlikte yürütmek anlamına gelir.
Bunu şöyle düşünebilirsiniz: Bir projede tek bir çalışanın tüm işleri sırayla yapması yerine, 10 çalışanın projenin farklı parçaları üzerinde aynı anda çalışması gibi.
Yapay zekâda paralelleştirme, hem eğitim hem de inference yani çıkarım süreçleri için temel bir unsurdur.
Modern GPU’lar, aynı anda binlerce hesaplama yapabilecek şekilde tasarlanmıştır. Bu da onların yapay zekâ endüstrisinin temel donanım altyapısı haline gelmesinin en önemli nedenlerinden biridir.
Yapay zekâ sistemleri daha karmaşık hale geldikçe ve modeller büyüdükçe, işleri çok sayıda çip ve makineye bölerek paralel şekilde çalıştırabilmek kritik hale gelmiştir.
Bir modelin ne kadar hızlı ve maliyet etkin şekilde geliştirileceği ve kullanıma sunulacağı, büyük ölçüde bu paralelleştirme kapasitesine bağlıdır.
Bugün daha iyi paralelleştirme stratejileri geliştirmek, başlı başına önemli bir araştırma alanı haline gelmiştir.
RAMageddon
RAMageddon, teknoloji sektörünü etkisi altına alan pek de eğlenceli olmayan bir trend için kullanılan yeni ve esprili bir terimdir: RAM çiplerindeki giderek artan kıtlık.
RAM, yani Random Access Memory, Türkçeye rastgele erişimli bellek olarak çevrilir. Günlük hayatta kullandığımız neredeyse tüm teknoloji ürünlerinin çalışmasında önemli rol oynayan bellek çiplerini ifade eder.
Yapay zekâ sektörü büyüdükçe, en güçlü ve en verimli yapay zekâ sistemlerine sahip olmak için yarışan büyük teknoloji şirketleri ve yapay zekâ laboratuvarları, veri merkezlerini çalıştırmak amacıyla çok büyük miktarda RAM satın alıyor. Bu da geri kalan sektörler ve kullanıcılar için yeterli bellek çipi kalmamasına yol açıyor.
Bu arz darboğazı nedeniyle piyasada kalan RAM çipleri de giderek daha pahalı hale geliyor.
Bu durum yalnızca yapay zekâ şirketlerini değil, birçok farklı sektörü etkiliyor. Örneğin oyun sektöründe, bazı büyük şirketler cihazları için gerekli bellek çiplerini bulmakta zorlandığı için oyun konsollarının fiyatlarını artırmak zorunda kalıyor.
Tüketici elektroniği tarafında ise bellek kıtlığının, akıllı telefon sevkiyatlarında son on yıldan uzun sürenin en büyük düşüşlerinden birine neden olabileceği konuşuluyor.
Kurumsal bilgi işlem alanında da benzer bir baskı var. Çünkü şirketler kendi veri merkezleri için yeterli RAM’e ulaşmakta zorlanıyor.
Fiyatlardaki bu yükselişin ancak korkulan bellek kıtlığı sona erdiğinde durması bekleniyor. Ancak ne yazık ki bunun yakın zamanda gerçekleşeceğine dair güçlü bir işaret pek yok.
Reinforcement Learning
Reinforcement learning, Türkçeye pekiştirmeli öğrenme olarak çevrilir.
Pekiştirmeli öğrenme, bir yapay zekâ sisteminin deneme-yanılma yoluyla öğrenmesini sağlayan bir eğitim yöntemidir. Sistem farklı şeyler dener ve doğru sonuçlara ulaştığında ödül alır.
Bunu, sevdiğiniz evcil hayvanı ödül mamasıyla eğitmeye benzetebilirsiniz. Sadece burada “evcil hayvan” bir sinir ağı, “ödül” ise başarının matematiksel olarak ifade edildiği bir sinyaldir.
Pekiştirmeli öğrenme, supervised learning yani denetimli öğrenmeden farklıdır. Denetimli öğrenmede model, etiketlenmiş örneklerden oluşan sabit bir veri kümesiyle eğitilir.
Pekiştirmeli öğrenmede ise model çevresini keşfeder, aksiyonlar alır ve aldığı geri bildirimlere göre davranışını sürekli günceller.
Bu yaklaşım özellikle yapay zekânın oyun oynamayı öğrenmesinde, robotları kontrol etmesinde ve son dönemde büyük dil modellerinin akıl yürütme becerilerinin geliştirilmesinde oldukça güçlü sonuçlar vermiştir.
Reinforcement Learning from Human Feedback, yani insan geri bildirimiyle pekiştirmeli öğrenme anlamına gelen RLHF, bugün önde gelen yapay zekâ laboratuvarlarının modellerini daha faydalı, daha doğru ve daha güvenli hale getirmek için kullandığı temel tekniklerden biridir.
Token
Token, yapay zekâ ve büyük dil modelleri bağlamında Türkçeye genellikle doğrudan token olarak aktarılır. Daha açıklayıcı karşılığıyla metin birimi veya işlem birimi denebilir; ancak sektörde en yaygın kullanım hâlâ “token”dır.
İnsan-makine iletişimi söz konusu olduğunda temel bir zorluk vardır: İnsanlar doğal dil kullanarak iletişim kurar, yapay zekâ programları ise verilerle beslenen karmaşık algoritmik süreçler üzerinden görevleri yerine getirir.
Token’lar bu iki dünya arasındaki köprüyü kurar.
Büyük dil modelleri tarafından işlenen veya üretilen verinin küçük ve ayrık parçalarını temsil ederler. Yani token’lar, insan ile yapay zekâ arasındaki iletişimin temel yapı taşlarıdır.
Token’lar, tokenization yani tokenleştirme adı verilen bir süreçle oluşturulur. Bu süreçte ham metin, dil modelinin işleyebileceği daha küçük parçalara bölünür.
Bunu, bir derleyicinin insan tarafından yazılmış kodu bilgisayarın anlayabileceği ikili koda çevirmesine benzetebilirsiniz.
Kurumsal kullanımlarda token’lar aynı zamanda maliyeti de belirler. Çünkü birçok yapay zekâ şirketi, büyük dil modeli kullanımını token başına ücretlendirir.
Yani bir işletme modeli ne kadar çok kullanırsa, genellikle o kadar çok token tüketir ve buna bağlı olarak daha fazla ödeme yapar.
Token Throughput
Token throughput, Türkçeye token işleme kapasitesi ya da daha açıklayıcı şekilde birim zamanda işlenen token miktarı olarak çevrilebilir.
Önce tekrar hatırlayalım: Token’lar, yapay zekâ dil modellerinin metni işlemeden önce böldüğü küçük metin parçalarıdır. Bunlar çoğu zaman tam kelimeler değil, kelimelerin parçalarıdır. Yapay zekâ iş yüklerini anlamak açısından token’ları kabaca “kelime benzeri işlem birimleri” gibi düşünebilirsiniz.
Throughput ise belirli bir zaman aralığında ne kadar işlemin gerçekleştirilebildiğini ifade eder.
Bu nedenle token throughput, bir sistemin aynı anda ne kadar yapay zekâ iş yükünü kaldırabildiğini gösteren önemli bir ölçüttür.
Yüksek token throughput, yapay zekâ altyapı ekipleri için temel hedeflerden biridir. Çünkü bu kapasite, bir modelin aynı anda kaç kullanıcıya hizmet verebileceğini ve her kullanıcının ne kadar hızlı yanıt alacağını doğrudan belirler.
Yapay zekâ araştırmacısı Andrej Karpathy, yapay zekâ aboneliklerinin boşta durduğunu gördüğünde huzursuz hissettiğini söylemişti. Bu hissi, doktora öğrencisiyken pahalı bilgisayar donanımlarının tam kapasite kullanılmadığını gördüğünde yaşadığı duyguya benzetmişti.
Bu örnek, yapay zekâ dünyasında token throughput’u en üst düzeye çıkarmanın neden neredeyse takıntı haline geldiğini iyi anlatır.
Training
Training, Türkçeye eğitim olarak çevrilir. Yapay zekâ bağlamında model eğitimi ifadesi daha açıklayıcıdır.
Makine öğrenmesi tabanlı yapay zekâ sistemleri geliştirilirken kullanılan temel süreçlerden biri eğitimdir.
Basitçe söylemek gerekirse eğitim, modele veri verilmesi ve modelin bu verilerdeki örüntülerden öğrenmesi sürecidir. Amaç, modelin öğrendiklerine dayanarak faydalı çıktılar üretebilmesini sağlamaktır.
Aslında eğitim, sistemin verideki özelliklere tepki vermeyi öğrenmesi ve çıktısını hedeflenen amaca göre uyarlamasıdır.
Bu hedef, kedilerin yer aldığı görselleri tanımak da olabilir; istek üzerine bir haiku şiiri üretmek de.
Model eğitimi pahalı olabilir. Çünkü çok fazla veri, işlem gücü ve zaman gerektirir. Üstelik yapay zekâ modelleri geliştikçe ihtiyaç duyulan veri ve kaynak miktarı da artma eğilimindedir.
Bu yüzden tamamen sıfırdan model eğitmek yerine, bazı durumlarda hibrit yaklaşımlar tercih edilir. Örneğin kural tabanlı bir yapay zekâyı hedeflenmiş verilerle fine-tuning yani ince ayar sürecinden geçirmek, maliyetleri yönetmeye yardımcı olabilir.
Transfer Learning
Transfer learning, Türkçeye transfer öğrenme olarak çevrilir.
Transfer öğrenme, daha önce eğitilmiş bir yapay zekâ modelinin, farklı ama genellikle ilişkili yeni bir görev için başlangıç noktası olarak kullanılmasıdır.
Bu yöntem sayesinde modelin önceki eğitim süreçlerinde edindiği bilgi, yeni bir görevde yeniden kullanılabilir.
Transfer öğrenme, model geliştirme sürecini kısaltarak verimlilik sağlar. Çünkü her şeye sıfırdan başlamak yerine, halihazırda öğrenilmiş bilgilerden yararlanılır.
Bu yaklaşım, özellikle yeni modelin geliştirileceği görev için eldeki veri sınırlı olduğunda faydalı olabilir.
Ancak transfer öğrenmenin de sınırları vardır. Genel yeteneklerini transfer öğrenme yoluyla kazanan modellerin, odaklandıkları alanda iyi performans göstermesi için çoğu zaman ek verilerle yeniden eğitilmesi gerekir.
Yani transfer öğrenme güçlü bir başlangıç noktası sağlar; ama her zaman tek başına yeterli değildir.
Weights
Weights, Türkçeye ağırlıklar olarak çevrilir.
Ağırlıklar, yapay zekâ eğitiminin temel bileşenlerinden biridir. Çünkü modelin eğitimi sırasında kullanılan verilerdeki farklı özelliklere ya da giriş değişkenlerine ne kadar önem verileceğini belirler.
Başka bir ifadeyle ağırlıklar, belirli bir eğitim görevi için veri setindeki hangi unsurların daha önemli olduğunu tanımlayan sayısal parametrelerdir. Bu parametreler, girdilere matematiksel çarpma işlemleri uygulanarak modelin çıktısını şekillendirir.
Model eğitimi genellikle rastgele atanmış ağırlıklarla başlar. Ancak eğitim süreci ilerledikçe model, hedeflenen çıktıya daha yakın sonuçlar üretmeye çalışır ve bu ağırlıklar sürekli olarak ayarlanır.
Örneğin konut fiyatlarını tahmin etmek için geliştirilen bir yapay zekâ modeli düşünelim. Bu model, belirli bir bölgedeki geçmiş emlak verileriyle eğitilmiş olabilir.
Bu veri setinde şu tür özellikler bulunabilir:
- Yatak odası sayısı
- Banyo sayısı
- Evin müstakil ya da yarı müstakil olması
- Otoparkının olup olmaması
- Garajının bulunup bulunmaması
Modelin bu girdilere atadığı ağırlıklar, her bir özelliğin konut fiyatı üzerinde ne kadar etkili olduğunu gösterir.
Sonuçta ağırlıklar, verilen veri setine göre hangi faktörlerin nihai değeri ne ölçüde etkilediğini modelin öğrenmesini sağlar.
Validation Loss
Validation loss, Türkçeye doğrulama kaybı olarak çevrilir.
Doğrulama kaybı, bir yapay zekâ modelinin eğitim sırasında ne kadar iyi öğrendiğini gösteren sayısal bir ölçüttür. Bu değerde genel kural basittir: Ne kadar düşükse, o kadar iyidir.
Araştırmacılar validation loss değerini yakından takip eder. Çünkü bu değer, modelin eğitim süreci boyunca nasıl performans gösterdiğine dair gerçek zamanlı bir karne gibi çalışır.
Bu ölçüm sayesinde araştırmacılar şu kararları verebilir:
- Eğitimi ne zaman durdurmaları gerektiğini
- Hiperparametreleri değiştirip değiştirmemeleri gerektiğini
- Modelde potansiyel bir problem olup olmadığını
- Modelin gerçekten öğrenip öğrenmediğini
Validation loss’un özellikle işaret ettiği önemli problemlerden biri overfitting, yani aşırı öğrenme / aşırı uyum durumudur.
Overfitting, modelin verilerdeki genel örüntüleri öğrenmek yerine eğitim verisini adeta ezberlemesi anlamına gelir. Böyle bir model, eğitim verisinde iyi performans gösterebilir; ancak daha önce görmediği yeni verilerle karşılaştığında zayıf sonuçlar üretebilir.
Bunu şöyle düşünebilirsiniz: Bir öğrenci konuyu gerçekten anlamış olabilir ya da sadece geçen yılın sınav sorularını ezberlemiş olabilir.
Validation loss, modelinizin bu iki durumdan hangisine doğru gittiğini anlamanıza yardımcı olur.
Yapay Zekâ Terimleri Sıkça Sorulan Sorular
Yapay zekâ terimleri neden bu kadar karmaşık?
Yapay zekâ; yazılım, matematik, veri bilimi, donanım ve ürün geliştirme gibi birçok alanın kesişiminde yer alıyor. Bu nedenle kullanılan terimler de farklı disiplinlerden geliyor. LLM, inference, token veya fine-tuning gibi kavramlar başlangıçta karmaşık görünse de temel mantıkları anlaşıldığında yapay zekâ dünyasını takip etmek çok daha kolay hale geliyor.
LLM nedir?
LLM, yani Large Language Model, Türkçede büyük dil modeli anlamına gelir. ChatGPT, Claude, Gemini, Llama ve Mistral gibi yapay zekâ asistanlarının temelinde büyük dil modelleri bulunur. Bu modeller, çok büyük metin verileri üzerinden eğitilerek insan dilini anlama ve üretme yeteneği kazanır.
AI Agent nedir?
AI Agent, yani yapay zekâ ajanı, yalnızca yanıt veren bir sohbet botundan daha fazlasıdır. Kullanıcı adına çok adımlı görevleri yerine getirebilir, araçları kullanabilir, dosyalarla çalışabilir, rezervasyon yapabilir, kod yazabilir veya iş akışlarını takip edebilir.
AGI nedir?
AGI, yani Yapay Genel Zekâ, birçok farklı görevde insan seviyesine ulaşabilen ya da insanları geçebilen yapay zekâ sistemlerini ifade eder. Ancak AGI’nin tam olarak ne zaman gerçekleşeceği ve hangi ölçütlerle tanımlanacağı hâlâ tartışmalı bir konudur.
Fine-tuning nedir?
Fine-tuning, önceden eğitilmiş bir yapay zekâ modelinin belirli bir görev veya sektör için yeniden eğitilmesidir. Örneğin genel amaçlı bir dil modeli, hukuk, sağlık, finans veya müşteri hizmetleri gibi belirli alanlarda daha iyi performans göstermesi için ince ayar sürecinden geçirilebilir.
Inference nedir?
Inference, eğitilmiş bir yapay zekâ modelinin çalıştırılarak kullanıcıya yanıt üretmesi anlamına gelir. Bir modele soru sorduğunuzda, modelin öğrendiği örüntülerden hareketle cevap üretmesi inference sürecidir.
Token nedir?
Token, büyük dil modellerinin metni işlemek için kullandığı küçük metin parçalarıdır. Bir kelime bazen tek token olabilir, bazen de birkaç token’a bölünebilir. Yapay zekâ modellerinde maliyet ve performans çoğu zaman token kullanımı üzerinden hesaplanır.
Hallucination nedir?
Hallucination, yapay zekâ modelinin gerçekte doğru olmayan bilgileri doğruymuş gibi üretmesidir. Bu durum, özellikle sağlık, hukuk, finans ve haber gibi doğruluk gerektiren alanlarda ciddi riskler yaratabilir.
Open source AI nedir?
Open source AI, temel kodu veya model ağırlıkları kamuya açık olan yapay zekâ sistemlerini ifade eder. Meta’nın Llama modelleri bu alanda öne çıkan örneklerden biridir. Açık kaynak modeller, geliştiricilerin sistemleri incelemesine, değiştirmesine ve kendi projelerinde kullanmasına imkân tanır.
Validation loss nedir?
Validation loss, bir yapay zekâ modelinin eğitim sırasında ne kadar iyi öğrendiğini gösteren ölçüttür. Değer ne kadar düşükse model genellikle o kadar iyi performans gösterir. Bu metrik, modelin aşırı öğrenme yani overfitting yapıp yapmadığını anlamak için de kullanılır.
Bu makale, yeni bilgilerle düzenli olarak güncellenmektedir.
FounderN, Türkiye’nin girişim ve teknoloji haber platformudur.
LinkedIn | Instagram | FounderN 09:13 Bülteni | FounderN Daily





