Rıfkı
TR | DE | EN

Rıfkı-V3 Teknik Raporu

Yayın Tarihi: 2025-01-01 Sürüm: 3.1 (Dynamic) Ekip: Proje Rıfkı Core

1. Genel Bakış

Rıfkı-V3, token başına 37B aktif parametreye ve toplam 671B parametreye sahip güçlü bir Uzmanlar Karışımı (MoE) dil modelidir. DeepSeek-V3 mimarisinden ilham alan Rıfkı, ekonomik eğitim maliyetlerini korurken yüksek performanslı çıkarım (inference) elde etmek için Multi-head Latent Attention (MLA) ve DeepSeekMoE mimarilerini benimser. FP8 karma hassasiyetli eğitimin kullanılması modeli daha da stabilize eder.

Önemli Özellik: Rıfkı-V3, matematik, kodlama ve mantık yürütme görevlerinde olağanüstü performans göstererek kapalı kaynaklı öncü lider modellerle rekabet eder.

2. Mimari Özeti

Rıfkı model mimarisi, ölçekte verimlilik için kilit optimizasyonlarla Transformer altyapısı üzerine inşa edilmiştir.

Multi-head Latent Attention (MLA)

Transformer modellerindeki geleneksel Key-Value (KV) önbellekleme önemli miktarda bellek tüketir. Rıfkı, KV önbelleğini sıkıştırmak için MLA teknolojisini kullanır ve üretim sırasında bellek ek yükünü önemli ölçüde azaltarak 128K token'a kadar daha uzun bağlam pencerelerine izin verir.

DeepSeekMoE Uzmanlar Karışımı

Her token için tüm parametreleri etkinleştirmek yerine, Rıfkı sadece en ilgili uzmanları seçmek için bir MoE yönlendiricisi kullanır. Bu, her token için 671B toplamın sadece 37B parametresinin aktif olmasını sağlayarak, yoğun (dense) modellere kıyasla hesaplama maliyetini %90 oranında azaltır.

3. Kıyaslamalar

Rıfkı-V3, MMLU, GSM8K ve HumanEval dahil olmak üzere standart kıyaslamalarda titizlikle test edilmiştir.

4. Kullanım

API Entegrasyonu

Rıfkı, OpenAI uyumlu bir API uç noktası sağlar.

Yerel Çalıştırma

Rıfkı\'yı vLLM veya SGLang gibi standart çıkarım motorlarını kullanarak yerel olarak çalıştırabilirsiniz.

Atıf

Araştırmanızda Rıfkı\'yı kullanırsanız, lütfen alıntı yapın: