Ancak burada şöyle bir durum var: Takımınızdaki her geliştirici LangSmith Studio ile hata ayıklamak istediğinde, bu linkin çalışabilmesi için projeyi sunucudan alıp kendi lokal geliştirme ortamını kurmaları gerekir. Aksi halde link onlar için çalışmayacaktır.
Okumaya devam et
Temel veya ön eğitimli dil modelleriyle deneme yaparken, uygun bir model bulmak zor olabilir; çünkü mevcut modellerin çoğu artık talimat-odaklı eğitilmiş (instruction-tuned) hale getirilmiş durumda.
Bu yüzden bu modelleri hem barındırılan API'ler hem de yerel olarak çalıştırmanın birkaç hızlı ve pratik yolunu paylaşmak istedim. Böylece model aramakla vakit kaybetmeden hemen denemeye başlayabilirsiniz.
Bir Ollama sunucusunu taklit etmeye çalıştığım son denememden bazı kod parçacıklarını paylaşmak istedim.
create-llama ile çalışırken Ollama sunucusuna gönderilen sorguları ve ondan alınan yanıtları tam olarak yakalamam gerekiyordu. Bunu yapmak için sahte bir Ollama sunucusu oluşturdum. Ancak başlangıçta beklediğimden daha zorlu olduğu ortaya çıktı! :)
Tam olarak emin değilim ama denemem sırasında bir hata keşfetmiş olabileceğimi düşünüyorum! 🥳
Projeye kesinlikle biraz karmaşıklık katan sunucu iletişimini simüle etmek için Python'un soket modülünü kullandım. Bu yazıda yazdığım Python soket programını, süreç boyunca kullandığım diğer ilgili kod parçacıkları ve komutlarla birlikte paylaşacağım.
Bir süre curl ile denemeler yaptıktan sonra başlıkları ve yanıtları nasıl kullanacağımı buldum. Ancak verileri bir soket aracılığıyla parçalar halinde göndermek, beklediğim kadar kolay olmadı.
Okumaya devam et
Jupyter Notebooks/Lab veya JupyterAI ile çalışmaktan hoşlanıyorsanız sanal ortamınızı kolayca kurmak için bu şablonu kullanabilirsiniz.
Conda ile LlamaIndex ve Jupyter-AI'yi Kurma
Conda aracılığıyla kullanılamayan langchain-ollama paketini yüklemek için pip dokunuşuyla LlamaIndex ve Jupyter-AI'yi nasıl kuracağınız aşağıda açıklanmıştır (bkz: langchain-ollama on Anaconda).