lora_model / README.md
bbayrm0's picture
Update README.md
3611e9a verified
---
base_model: meta-llama/Llama-2-8b-chat-hf
library_name: peft
pipeline_tag: text-generation
language:
- tr
- en
tags:
- industrial
- mold-protection
- log-analysis
- manufacturing
- quality-control
- lora
- fine-tuned
license: llama2
datasets:
- synthetic-industrial-logs
---
# 🏭 Llama-8B Kalıp Koruma Sistemi | Industrial Mold Protection System
Bu model, endüstriyel kalıp koruma sistemlerinde log analizi ve çözüm önerisi sunmak için **Llama-3.2-3B-Instruct** temel modeli üzerinden **şirket içi suni veriler** ile fine-tune edilmiştir.
## 🎯 Model Özeti
Kalıp koruma sistemlerinden gelen log kayıtlarını analiz ederek:
- **Kritik hata tespiti** ve acil müdahale önerileri
- **Sistem durumu değerlendirmesi** ve önleyici bakım tavsiyeleri
- **ROI (Region of Interest) analizi** ve kalibrasyon rehberliği
- **PLC bağlantı sorunları** ve çözüm yolları
## 📊 Model Detayları
### Temel Bilgiler
- **Geliştirici**: Şirket İçi AI Ekibi
- **Temel Model**: meta-llama/Llama-3.2-3B-Instruct
- **Model Türü**: Text Generation (LoRA Fine-tuned)
- **Diller**: Türkçe (TR), İngilizce (EN)
- **Lisans**: Llama 2 Community License
- **Fine-tuning Yöntemi**: LoRA (Low-Rank Adaptation)
### Teknik Özellikler
- **Parametre Sayısı**: ~1B+3B (Base) + LoRA Adaptörü
- **Maksimum Sequence Length**: 2048 tokens
- **Quantization**: 4-bit (BitsAndBytes)
- **Memory Footprint**: ~6GB VRAM (inference)
## 🚀 Hızlı Başlangıç
### Google Colabda Kurulum
```bash
%%capture
!pip install unsloth
# Also get the latest nightly Unsloth!
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git@nightly git+https://github.com/unslothai/unsloth-zoo.git
```
### Model Yükleme
```python
from unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "bbayrm0/lora_model",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit
)
```
### Tahmin Yürütme
```python
FastLanguageModel.for_inference(model) # Enable native 2x faster inference
messages = [
{"role": "user", "content": "2025-09-01 11:25:55 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 2, ROI 3, ROI 4 | Tetikleyici: manual"},
]
inputs = tokenizer.apply_chat_template(
messages,
tokenize = True,
add_generation_prompt = True, # Must add for generation
return_tensors = "pt",
).to("cuda")
from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer, skip_prompt = True)
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 250,
use_cache = True, temperature = 1, min_p = 0.1)
```
## 📈 Training Detayları
### Veri Seti
- **Toplam Örnek**: 8,000 suni log kaydı
- **Veri Türü**: Endüstriyel kalıp koruma sistem logları
- **Seviye Dağılımı**:
- CRITICAL: 609 örnek (%7.6)
- ERROR: 1,630 örnek (%20.4)
- WARNING: 1,234 örnek (%15.4)
- INFO: 4,527 örnek (%56.6)
### Fine-tuning Konfigürasyonu
```json
{
"lora_config": {
"r": 16,
"lora_alpha": 32,
"target_modules": ["q_proj", "k_proj", "v_proj", "o_proj"],
"lora_dropout": 0.1,
"bias": "none"
},
"training_args": {
"num_train_epochs": 3,
"per_device_train_batch_size": 4,
"gradient_accumulation_steps": 4,
"learning_rate": 2e-4,
"weight_decay": 0.01,
"warmup_steps": 100,
"fp16": true
}
}
```
### Donanım Gereksinimleri
- **Minimum GPU**: 8GB VRAM (RTX 3070/4060 Ti)
- **Önerilen GPU**: 16GB+ VRAM (RTX 3080/4070/4080)
- **Training Süresi**: ~2 saat (RTX 4080)
- **Inference**: ~6GB VRAM (4-bit quantization)
## 🎯 Kullanım Alanları
### ✅ Uygun Kullanım
- Endüstriyel kalıp koruma sistemlerinde log analizi
- Gerçek zamanlı hata tespiti ve müdahale önerileri
- Preventif bakım planlaması
- Operatör eğitimi ve destek sistemleri
- Kalite kontrol süreçlerinde otomatik değerlendirme
### ⚠️ Sınırlamalar
- Sadece kalıp koruma sistemleri için optimize edilmiştir
- Kritik güvenlik kararları için insan onayı gereklidir
- Gerçek zamanlı sistemlerde latency testi yapılmalıdır
- Farklı endüstriyel sistemler için ek fine-tuning gerekebilir
## 🔍 Model Performansı
### Örnek Çıktılar
**Girdi:**
```
2025-01-15 14:30:22 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 1, ROI 2 | Tetikleyici: plc
```
**Çıktı:**
```
🚨 KALIP KORUMA ALARMI: ROI 1, ROI 2 bölgelerinde kritik seviye hata. Sistem güvenliği için derhal müdahale edin.
🛑 ACİL EYLEM PLANI:
1) Üretimi DERHAL durdurun
2) Kalıp durumunu görsel kontrol edin
3) ROI kalibrasyonu yapın
4) Sistem yeniden başlatın
5) Test çalışması gerçekleştirin
```
## 🛡️ Güvenlik ve Etik
- **Veri Gizliliği**: Tüm training verileri şirket içi suni verilerdir
- **Bias Kontrolü**: Endüstriyel log formatlarına odaklanmıştır
- **Güvenlik**: Kritik kararlar için insan onayı önerilir
- **Sorumluluk**: Nihai kararlar operatör/mühendis sorumluluğundadır
## 📞 Destek ve İletişim
- **Teknik Destek**: AI Ekibi
- **Model Güncellemeleri**: Düzenli olarak yeni verilerle güncellenir
- **Geri Bildirim**: Performans iyileştirmeleri için geri bildirimlerinizi bekliyoruz
## 📄 Lisans
Bu model Llama 2 Community License altında lisanslanmıştır. Ticari kullanım için lisans koşullarını kontrol ediniz.
## 🔄 Versiyon Geçmişi
- **v1.0**: İlk release - Temel kalıp koruma log analizi
- **v1.1**: Geliştirilmiş ROI analizi ve PLC entegrasyonu
- **v1.2**: Türkçe dil desteği iyileştirmeleri
---
*Bu model, endüstriyel üretim süreçlerinde kalite ve güvenliği artırmak amacıyla geliştirilmiştir. Kullanım öncesi test edilmesi ve insan denetimi önerilir.*