YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

🤖 GPT Local - Sistema de Chat con Hugging Face

Docker Python Hugging Face PyTorch

Un sistema completo de chat GPT local usando modelos de Hugging Face con soporte para Docker, interfaz web y terminal.

🚀 Características

  • 💬 Chat Terminal: Interfaz de línea de comandos rápida y eficiente

  • 🌐 Interfaz Web: Gradio UI moderna y responsiva

  • 🐳 Docker Ready: Despliegue containerizado completo

  • 🤗 Hugging Face: Soporte para múltiples modelos preentrenados

  • 🍎 Apple Silicon: Optimización MPS para M1/M2/M3 Macs

  • GPU Acceleration: CUDA y MPS automático

  • 📦 Easy Setup: Configuración automática de dependencias

  • 🤖 Interfaz de chat interactiva

  • 🔒 Completamente local y privado

  • 🚀 Modelos preentrenados de Hugging Face

  • 💬 Generación de texto conversacional

  • ⚙️ Configuración personalizable

Requisitos

  • Python 3.8 o superior
  • torch
  • transformers
  • gradio (para la interfaz web)

Instalación

  1. Instalar dependencias:
pip install -r requirements.txt
  1. Ejecutar la aplicación:

Chat en Terminal:

python3 chat_terminal.py

Interfaz Web (si Gradio funciona):

python3 main.py

Prueba rápida:

python3 test_gpt.py

Uso

La aplicación abrirá una interfaz web en http://localhost:7860 donde podrás:

  • Chatear con el modelo GPT local
  • Ajustar parámetros de generación
  • Cambiar entre diferentes modelos

Modelos Disponibles

  • GPT-2 (por defecto)
  • DialoGPT
  • Otros modelos compatibles de Hugging Face

Estructura del Proyecto

gpt-local/
├── main.py              # Aplicación principal
├── models/              # Gestión de modelos
│   ├── __init__.py
│   ├── model_loader.py  # Carga de modelos
│   └── text_generator.py # Generación de texto
├── ui/                  # Interfaz de usuario
│   ├── __init__.py
│   └── gradio_interface.py
├── config/              # Configuración
│   ├── __init__.py
│   └── settings.py
├── requirements.txt     # Dependencias
└── README.md           # Esta documentación

Configuración

Edita config/settings.py para personalizar:

  • Modelo por defecto
  • Parámetros de generación
  • Puerto de la interfaz web
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Space using DRDELATV/gpt-local 1