Barcenas h 1b

Basado en: ibm-granite/granite-4.0-h-1b y entrenado con el dataset: Danielbrdz/Barcenas-Cartas-Kimi

Es mi primer fine tuning a un LLM con una arquitectura híbrida de máquina de estado selectiva (SSM) basada en Mamba-2

Use el dataset de Barcenas Cartas Kimi para mejorar su creatividad en español y tenga la capacidad de escribir mejor en español que su modelo base

Ademas es un modelo pequeño que es accesible para la mayoría de equipos disponibles en el mercado


Barcenas h 1b

Based on: ibm-granite/granite-4.0-h-1b and trained with the dataset: Danielbrdz/Barcenas-Cartas-Kimi

This is my first fine-tuning of an LLM with a hybrid selective state machine (SSM) architecture based on Mamba-2.

Use the Barcenas Cartas Kimi dataset to improve your Spanish writing skills and enable you to write better in Spanish than your base model.

Furthermore, it's a small model that is accessible to most computers available on the market.

Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽

Downloads last month
15
Safetensors
Model size
1B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Danielbrdz/Barcenas-h-1b

Finetuned
(3)
this model
Quantizations
2 models

Dataset used to train Danielbrdz/Barcenas-h-1b