SixFinger-2B
Bu model, Kumru-2B temel alınarak RTX 3060 Laptop GPU üzerinde fine-tune edilmiştir.
📋 Model Detayları
- Base Model: Kumru-2B
- Model Tipi: Causal Language Model
- Parametre Sayısı: ~2B
- Fine-tuning Donanımı: NVIDIA RTX 3060 Laptop GPU
- Geliştirici: SixFingerDev
🎯 Kullanım Alanları
Bu model aşağıdaki görevler için optimize edilmiştir:
- Matematik
- Metin Tamamlama
💻 Kullanım
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "sixfingerdev/sixfinger-2b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Metin üretimi
prompt = "Merhaba, bugün"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))
🔧 Fine-tuning Detayları
- Epoch Sayısı: 3
- Batch Size: 8
- QLoRA
⚠️ Limitasyonlar
- Laptop GPU ile eğitildiği için belirli kısıtlamalar bulunabilir
📜 Lisans
[Lisans bilgisi - Apache 2.0]
🙏 Teşekkürler
- VNGRS ekibine temel model için teşekkürler
Not: Bu model eğitim/araştırma amaçlıdır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.
- Downloads last month
- 9
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support