---
license: apache-2.0
tags:
- Turkish
- CausalLM
- FlashAttention2
- RoPE
- Function Calling
- Transformer
- Crispy
library_name: transformers
language:
- tr
---
# 🐺 Crispy LLM — Türkçe Dil Modeli
**Crispy LLM**, sıfırdan yazılmış, bireysel çabayla geliştirilen bir Türkçe dil modelidir.
Transformer mimarisi üzerine kurulmuş bu model, FlashAttention v2, Rotary Positional Embedding (RoPE), Function Calling desteği ve Hugging Face uyumluluğu içerir.
> 🧠 *“Tek başına yazıldı, zekasıyla parlıyor.” — Crispy*
---
## 📌 Özellikler
- 💡 **Türkçe odaklı causal language model (CausalLM)**
- ⚡ **FlashAttention v2** desteğiyle hızlı eğitim ve inference
- 🔄 **RoPE** (Rotary Positional Embedding) ile pozisyonel bilgi
- 🧪 **Function Calling** uyumlu çıktı desteği (`Unsloth` ile test edilmiştir)
- 🤖 Hugging Face `transformers` uyumludur
- 🧵 Quantization (`bitsandbytes`) ve Gradient Checkpointing desteklenir
---
## 📥 Kullanım
### 🔧 Kurulum
```bash
pip install transformers accelerate
```
### 🧪 Inference Örneği
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "hosmankarabulut/crispy-llm"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")
input_text = "Türkiye'nin başkenti neresidir?"
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
---
## 📂 Eğitim Bilgileri
| Özellik | Değer |
|------------------|-------------------------------|
| Eğitim Dili | Türkçe |
| Eğitim Türü | Causal Language Modeling |
| Batch Size | 128 (gradient accumulation) |
| Donanım | NVIDIA RTX 3090 |
| Süre | 30 Gün |
| FlashAttention | v2 |
| RoPE | Var (manual cache) |
| Quantization | Yok |
---
## 🙋♂️ Geliştirici
- 👤 **Osman Karabulut**
- 🔗 GitHub: [osmankrblt](https://github.com/osmankrblt)
- 🤝 Hugging Face: [hosmankarabulut](https://huggingface.co/hosmankarabulut)
- 🤝 Linkedin: [hosmankarabulut](https://www.linkedin.com/in/hosmankarabulut/)
> Tek başına, sıfırdan yazılan özgün bir Türkçe LLM'dir.
---
## 📜 Lisans
Apache-2.0 Lisansı ile açık kaynak sunulmuştur.