Bloomberght
SON DAKİKA
Bloomberg HT Haberler DeepSeek yeni eğitim metodunu tanıttı

DeepSeek yeni eğitim metodunu tanıttı

  • DeepSeek, yapay zeka gelişiminde daha etkili bir yaklaşımın ana hatlarını yayımladı. Yayımlanan özet, Nvidia çiplerine sınırlı erişime rağmen Çinli yapay zeka sanayisinin OpenAI gibi şirketlerle rekabet çabalarını gösteriyor.

Giriş: 02 Ocak 2026, Cuma 09:48
Güncelleme: 02 Ocak 2026, Cuma 09:48

Yazarları arasında kurucusu Liang Wenfeng'in de olduğu belge, çoklu kısıtlamaları hiper bağlantılar denilen çerçeveyi içeriyor. Yazarlara göre yeni yaklaşım, gelişmiş yapay zeka sistemlerini eğitmede sayısal ve enerji talebini düşürürken ölçeklenebililrliği artırmak için tasarlandı.

DeepSeek tarafından yayımlanan bu tür belgeler, geçmişte büyük modellerin piyasaya sürülmesinin ön belirtisi olmuştu. Hangzhou merkezli startup, bir yıl önce Silicon Vadidi'ndeki rakiplerine oranla daha düşük maliyetle geliştirilen R1 muhakeme modeli ile sanayiyi şaşırtmıştı. DeepSeek, şimdiye kadar birçok küçük model açıkladı ama yeni amiral gemisi sistemi için beklentiler giderek artıyor. R2 olarak dillendirilen bu model, Şubat'taki Bahar Bayramı'na yakın zamanda piyasaya sürülmesi bekleniyor.

Bu tür Çinli girişimler, ABD'nin yapay zeka geliştirme ve çalıştırma için gerekli olan en gelişmiş yarı iletkenlere erişimi engellemesi nedeniyle önemli kısıtlamalar altında faaliyet göstermeye devam ediyor. Bu kısıtlamalar, araştırmacıları alışılmadık yöntemler ve mimariler peşinde koşmaya zorladı.

DeepSeek'in yakında çıkacak olan R2 modeli, Google'ın son kazançlarına rağmen küresel yapay zeka sektörünü yeniden altüst etme potansiyeline sahip. Google'ın Gemini 3 modeli, Kasım ayında LiveBench'in küresel büyük dil modeli (LLM) performansında ilk üçe girerek OpenAI'yi geride bıraktı. Çin'in rakiplerine göre daha düşük maliyetle geliştirilen modelleri ise ilk 15'te iki sırayı elde etti.

Son araştırma, eğitim dengesizliği ve sınırlı ölçeklenebilirlik gibi zorlukları ele alıyor ve yeni yöntemin verimliliği sağlamak için titiz altyapı optimizasyonu içerdiğini belirtiyor. Testler, ByteDance'in hiper bağlantı mimarileri üzerine yaptığı 2024 araştırmasına dayanarak, 3 milyar ila 27 milyar parametreye sahip modeller üzerinde gerçekleştirildi. Yazarlar, bu tekniğin temel modellerin evrimi için umut vaat ettiğini belirtti.