lora_model / README.md
bbayrm0's picture
Update README.md
3611e9a verified
metadata
base_model: meta-llama/Llama-2-8b-chat-hf
library_name: peft
pipeline_tag: text-generation
language:
  - tr
  - en
tags:
  - industrial
  - mold-protection
  - log-analysis
  - manufacturing
  - quality-control
  - lora
  - fine-tuned
license: llama2
datasets:
  - synthetic-industrial-logs

🏭 Llama-8B Kalıp Koruma Sistemi | Industrial Mold Protection System

Bu model, endüstriyel kalıp koruma sistemlerinde log analizi ve çözüm önerisi sunmak için Llama-3.2-3B-Instruct temel modeli üzerinden şirket içi suni veriler ile fine-tune edilmiştir.

🎯 Model Özeti

Kalıp koruma sistemlerinden gelen log kayıtlarını analiz ederek:

  • Kritik hata tespiti ve acil müdahale önerileri
  • Sistem durumu değerlendirmesi ve önleyici bakım tavsiyeleri
  • ROI (Region of Interest) analizi ve kalibrasyon rehberliği
  • PLC bağlantı sorunları ve çözüm yolları

📊 Model Detayları

Temel Bilgiler

  • Geliştirici: Şirket İçi AI Ekibi
  • Temel Model: meta-llama/Llama-3.2-3B-Instruct
  • Model Türü: Text Generation (LoRA Fine-tuned)
  • Diller: Türkçe (TR), İngilizce (EN)
  • Lisans: Llama 2 Community License
  • Fine-tuning Yöntemi: LoRA (Low-Rank Adaptation)

Teknik Özellikler

  • Parametre Sayısı: ~1B+3B (Base) + LoRA Adaptörü
  • Maksimum Sequence Length: 2048 tokens
  • Quantization: 4-bit (BitsAndBytes)
  • Memory Footprint: ~6GB VRAM (inference)

🚀 Hızlı Başlangıç

Google Colabda Kurulum

%%capture
!pip install unsloth

# Also get the latest nightly Unsloth!

!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git@nightly git+https://github.com/unslothai/unsloth-zoo.git

Model Yükleme

from unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "bbayrm0/lora_model",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit
)

Tahmin Yürütme

FastLanguageModel.for_inference(model) # Enable native 2x faster inference

messages = [
    {"role": "user", "content": "2025-09-01 11:25:55 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 2, ROI 3, ROI 4 | Tetikleyici: manual"},
]
inputs = tokenizer.apply_chat_template(
    messages,
    tokenize = True,
    add_generation_prompt = True, # Must add for generation
    return_tensors = "pt",
).to("cuda")

from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer, skip_prompt = True)
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 250,
                   use_cache = True, temperature = 1, min_p = 0.1)

📈 Training Detayları

Veri Seti

  • Toplam Örnek: 8,000 suni log kaydı
  • Veri Türü: Endüstriyel kalıp koruma sistem logları
  • Seviye Dağılımı:
    • CRITICAL: 609 örnek (%7.6)
    • ERROR: 1,630 örnek (%20.4)
    • WARNING: 1,234 örnek (%15.4)
    • INFO: 4,527 örnek (%56.6)

Fine-tuning Konfigürasyonu

{
  "lora_config": {
    "r": 16,
    "lora_alpha": 32,
    "target_modules": ["q_proj", "k_proj", "v_proj", "o_proj"],
    "lora_dropout": 0.1,
    "bias": "none"
  },
  "training_args": {
    "num_train_epochs": 3,
    "per_device_train_batch_size": 4,
    "gradient_accumulation_steps": 4,
    "learning_rate": 2e-4,
    "weight_decay": 0.01,
    "warmup_steps": 100,
    "fp16": true
  }
}

Donanım Gereksinimleri

  • Minimum GPU: 8GB VRAM (RTX 3070/4060 Ti)
  • Önerilen GPU: 16GB+ VRAM (RTX 3080/4070/4080)
  • Training Süresi: ~2 saat (RTX 4080)
  • Inference: ~6GB VRAM (4-bit quantization)

🎯 Kullanım Alanları

✅ Uygun Kullanım

  • Endüstriyel kalıp koruma sistemlerinde log analizi
  • Gerçek zamanlı hata tespiti ve müdahale önerileri
  • Preventif bakım planlaması
  • Operatör eğitimi ve destek sistemleri
  • Kalite kontrol süreçlerinde otomatik değerlendirme

⚠️ Sınırlamalar

  • Sadece kalıp koruma sistemleri için optimize edilmiştir
  • Kritik güvenlik kararları için insan onayı gereklidir
  • Gerçek zamanlı sistemlerde latency testi yapılmalıdır
  • Farklı endüstriyel sistemler için ek fine-tuning gerekebilir

🔍 Model Performansı

Örnek Çıktılar

Girdi:

2025-01-15 14:30:22 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 1, ROI 2 | Tetikleyici: plc

Çıktı:

🚨 KALIP KORUMA ALARMI: ROI 1, ROI 2 bölgelerinde kritik seviye hata. Sistem güvenliği için derhal müdahale edin.

🛑 ACİL EYLEM PLANI:
1) Üretimi DERHAL durdurun
2) Kalıp durumunu görsel kontrol edin  
3) ROI kalibrasyonu yapın
4) Sistem yeniden başlatın
5) Test çalışması gerçekleştirin

🛡️ Güvenlik ve Etik

  • Veri Gizliliği: Tüm training verileri şirket içi suni verilerdir
  • Bias Kontrolü: Endüstriyel log formatlarına odaklanmıştır
  • Güvenlik: Kritik kararlar için insan onayı önerilir
  • Sorumluluk: Nihai kararlar operatör/mühendis sorumluluğundadır

📞 Destek ve İletişim

  • Teknik Destek: AI Ekibi
  • Model Güncellemeleri: Düzenli olarak yeni verilerle güncellenir
  • Geri Bildirim: Performans iyileştirmeleri için geri bildirimlerinizi bekliyoruz

📄 Lisans

Bu model Llama 2 Community License altında lisanslanmıştır. Ticari kullanım için lisans koşullarını kontrol ediniz.

🔄 Versiyon Geçmişi

  • v1.0: İlk release - Temel kalıp koruma log analizi
  • v1.1: Geliştirilmiş ROI analizi ve PLC entegrasyonu
  • v1.2: Türkçe dil desteği iyileştirmeleri

Bu model, endüstriyel üretim süreçlerinde kalite ve güvenliği artırmak amacıyla geliştirilmiştir. Kullanım öncesi test edilmesi ve insan denetimi önerilir.