YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
MTP (MTP-1)
MTP-1 es un modelo de lenguaje pequeño (Small Language Model) entrenado desde cero con PyTorch, utilizando una arquitectura Transformer tipo decoder-only.
Este repositorio contiene únicamente el modelo, el tokenizer y el código necesario para cargarlo y utilizarlo en inferencia o despliegues personalizados.
🔧 Características
- Arquitectura Transformer estilo GPT
- Entrenado desde cero (no fine-tuning)
- Tokenizer BPE con SentencePiece
- Formato instrucción–respuesta
- Optimizado para ejecución en CPU
📦 Contenido del repositorio
mtp_mini.pkl→ pesos del modelo entrenadomtp_tokenizer.model→ tokenizer SentencePiecemodel.py→ definición de la arquitecturatokenizer.py→ tokenizer personalizadoconfig.yaml→ configuración de entrenamientochat.py→ ejemplo de uso en consola
🚀 Uso básico (local)
git clone https://huggingface.co/teszenofficial/mtptz
cd mtptz
pip install torch sentencepiece
python chat.py
- Downloads last month
- 23
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support