metadata
base_model: meta-llama/Llama-2-8b-chat-hf
library_name: peft
pipeline_tag: text-generation
language:
- tr
- en
tags:
- industrial
- mold-protection
- log-analysis
- manufacturing
- quality-control
- lora
- fine-tuned
license: llama2
datasets:
- synthetic-industrial-logs
🏭 Llama-8B Kalıp Koruma Sistemi | Industrial Mold Protection System
Bu model, endüstriyel kalıp koruma sistemlerinde log analizi ve çözüm önerisi sunmak için Llama-3.2-3B-Instruct temel modeli üzerinden şirket içi suni veriler ile fine-tune edilmiştir.
🎯 Model Özeti
Kalıp koruma sistemlerinden gelen log kayıtlarını analiz ederek:
- Kritik hata tespiti ve acil müdahale önerileri
- Sistem durumu değerlendirmesi ve önleyici bakım tavsiyeleri
- ROI (Region of Interest) analizi ve kalibrasyon rehberliği
- PLC bağlantı sorunları ve çözüm yolları
📊 Model Detayları
Temel Bilgiler
- Geliştirici: Şirket İçi AI Ekibi
- Temel Model: meta-llama/Llama-3.2-3B-Instruct
- Model Türü: Text Generation (LoRA Fine-tuned)
- Diller: Türkçe (TR), İngilizce (EN)
- Lisans: Llama 2 Community License
- Fine-tuning Yöntemi: LoRA (Low-Rank Adaptation)
Teknik Özellikler
- Parametre Sayısı: ~1B+3B (Base) + LoRA Adaptörü
- Maksimum Sequence Length: 2048 tokens
- Quantization: 4-bit (BitsAndBytes)
- Memory Footprint: ~6GB VRAM (inference)
🚀 Hızlı Başlangıç
Google Colabda Kurulum
%%capture
!pip install unsloth
# Also get the latest nightly Unsloth!
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git@nightly git+https://github.com/unslothai/unsloth-zoo.git
Model Yükleme
from unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "bbayrm0/lora_model",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit
)
Tahmin Yürütme
FastLanguageModel.for_inference(model) # Enable native 2x faster inference
messages = [
{"role": "user", "content": "2025-09-01 11:25:55 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 2, ROI 3, ROI 4 | Tetikleyici: manual"},
]
inputs = tokenizer.apply_chat_template(
messages,
tokenize = True,
add_generation_prompt = True, # Must add for generation
return_tensors = "pt",
).to("cuda")
from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer, skip_prompt = True)
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 250,
use_cache = True, temperature = 1, min_p = 0.1)
📈 Training Detayları
Veri Seti
- Toplam Örnek: 8,000 suni log kaydı
- Veri Türü: Endüstriyel kalıp koruma sistem logları
- Seviye Dağılımı:
- CRITICAL: 609 örnek (%7.6)
- ERROR: 1,630 örnek (%20.4)
- WARNING: 1,234 örnek (%15.4)
- INFO: 4,527 örnek (%56.6)
Fine-tuning Konfigürasyonu
{
"lora_config": {
"r": 16,
"lora_alpha": 32,
"target_modules": ["q_proj", "k_proj", "v_proj", "o_proj"],
"lora_dropout": 0.1,
"bias": "none"
},
"training_args": {
"num_train_epochs": 3,
"per_device_train_batch_size": 4,
"gradient_accumulation_steps": 4,
"learning_rate": 2e-4,
"weight_decay": 0.01,
"warmup_steps": 100,
"fp16": true
}
}
Donanım Gereksinimleri
- Minimum GPU: 8GB VRAM (RTX 3070/4060 Ti)
- Önerilen GPU: 16GB+ VRAM (RTX 3080/4070/4080)
- Training Süresi: ~2 saat (RTX 4080)
- Inference: ~6GB VRAM (4-bit quantization)
🎯 Kullanım Alanları
✅ Uygun Kullanım
- Endüstriyel kalıp koruma sistemlerinde log analizi
- Gerçek zamanlı hata tespiti ve müdahale önerileri
- Preventif bakım planlaması
- Operatör eğitimi ve destek sistemleri
- Kalite kontrol süreçlerinde otomatik değerlendirme
⚠️ Sınırlamalar
- Sadece kalıp koruma sistemleri için optimize edilmiştir
- Kritik güvenlik kararları için insan onayı gereklidir
- Gerçek zamanlı sistemlerde latency testi yapılmalıdır
- Farklı endüstriyel sistemler için ek fine-tuning gerekebilir
🔍 Model Performansı
Örnek Çıktılar
Girdi:
2025-01-15 14:30:22 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 1, ROI 2 | Tetikleyici: plc
Çıktı:
🚨 KALIP KORUMA ALARMI: ROI 1, ROI 2 bölgelerinde kritik seviye hata. Sistem güvenliği için derhal müdahale edin.
🛑 ACİL EYLEM PLANI:
1) Üretimi DERHAL durdurun
2) Kalıp durumunu görsel kontrol edin
3) ROI kalibrasyonu yapın
4) Sistem yeniden başlatın
5) Test çalışması gerçekleştirin
🛡️ Güvenlik ve Etik
- Veri Gizliliği: Tüm training verileri şirket içi suni verilerdir
- Bias Kontrolü: Endüstriyel log formatlarına odaklanmıştır
- Güvenlik: Kritik kararlar için insan onayı önerilir
- Sorumluluk: Nihai kararlar operatör/mühendis sorumluluğundadır
📞 Destek ve İletişim
- Teknik Destek: AI Ekibi
- Model Güncellemeleri: Düzenli olarak yeni verilerle güncellenir
- Geri Bildirim: Performans iyileştirmeleri için geri bildirimlerinizi bekliyoruz
📄 Lisans
Bu model Llama 2 Community License altında lisanslanmıştır. Ticari kullanım için lisans koşullarını kontrol ediniz.
🔄 Versiyon Geçmişi
- v1.0: İlk release - Temel kalıp koruma log analizi
- v1.1: Geliştirilmiş ROI analizi ve PLC entegrasyonu
- v1.2: Türkçe dil desteği iyileştirmeleri
Bu model, endüstriyel üretim süreçlerinde kalite ve güvenliği artırmak amacıyla geliştirilmiştir. Kullanım öncesi test edilmesi ve insan denetimi önerilir.