YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

MTP (MTP-1)

MTP-1 es un modelo de lenguaje pequeño (Small Language Model) entrenado desde cero con PyTorch, utilizando una arquitectura Transformer tipo decoder-only.

Este repositorio contiene únicamente el modelo, el tokenizer y el código necesario para cargarlo y utilizarlo en inferencia o despliegues personalizados.


🔧 Características

  • Arquitectura Transformer estilo GPT
  • Entrenado desde cero (no fine-tuning)
  • Tokenizer BPE con SentencePiece
  • Formato instrucción–respuesta
  • Optimizado para ejecución en CPU

📦 Contenido del repositorio

  • mtp_mini.pkl → pesos del modelo entrenado
  • mtp_tokenizer.model → tokenizer SentencePiece
  • model.py → definición de la arquitectura
  • tokenizer.py → tokenizer personalizado
  • config.yaml → configuración de entrenamiento
  • chat.py → ejemplo de uso en consola

🚀 Uso básico (local)

git clone https://huggingface.co/teszenofficial/mtptz
cd mtptz
pip install torch sentencepiece
python chat.py
Downloads last month
23
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Spaces using teszenofficial/mtptz 2