🤖 GPT Local - Sistema de Chat con Hugging Face
Un sistema completo de chat GPT local usando modelos de Hugging Face con soporte para Docker, interfaz web y terminal.
🚀 Características
💬 Chat Terminal: Interfaz de línea de comandos rápida y eficiente
🌐 Interfaz Web: Gradio UI moderna y responsiva
🐳 Docker Ready: Despliegue containerizado completo
🤗 Hugging Face: Soporte para múltiples modelos preentrenados
🍎 Apple Silicon: Optimización MPS para M1/M2/M3 Macs
⚡ GPU Acceleration: CUDA y MPS automático
📦 Easy Setup: Configuración automática de dependencias
🤖 Interfaz de chat interactiva
🔒 Completamente local y privado
🚀 Modelos preentrenados de Hugging Face
💬 Generación de texto conversacional
⚙️ Configuración personalizable
Requisitos
- Python 3.8 o superior
- torch
- transformers
- gradio (para la interfaz web)
Instalación
- Instalar dependencias:
pip install -r requirements.txt
- Ejecutar la aplicación:
Chat en Terminal:
python3 chat_terminal.py
Interfaz Web (si Gradio funciona):
python3 main.py
Prueba rápida:
python3 test_gpt.py
Uso
La aplicación abrirá una interfaz web en http://localhost:7860
donde podrás:
- Chatear con el modelo GPT local
- Ajustar parámetros de generación
- Cambiar entre diferentes modelos
Modelos Disponibles
- GPT-2 (por defecto)
- DialoGPT
- Otros modelos compatibles de Hugging Face
Estructura del Proyecto
gpt-local/
├── main.py # Aplicación principal
├── models/ # Gestión de modelos
│ ├── __init__.py
│ ├── model_loader.py # Carga de modelos
│ └── text_generator.py # Generación de texto
├── ui/ # Interfaz de usuario
│ ├── __init__.py
│ └── gradio_interface.py
├── config/ # Configuración
│ ├── __init__.py
│ └── settings.py
├── requirements.txt # Dependencias
└── README.md # Esta documentación
Configuración
Edita config/settings.py
para personalizar:
- Modelo por defecto
- Parámetros de generación
- Puerto de la interfaz web