🚀 Instrucciones de Uso - GPT Local
✅ Estado del Proyecto
Tu GPT local con Hugging Face está completamente configurado y funcionando. Las dependencias se han instalado correctamente:
- ✅ PyTorch 2.7.1
- ✅ Transformers 4.53.0
- ✅ Gradio 4.44.1
- ✅ Modelos preentrenados disponibles
🎯 Opciones de Ejecución
1. Chat en Terminal (Recomendado)
cd /Users/kuchimac/gpt-local
python3 chat_terminal.py
Ventajas:
- Funciona inmediatamente
- Sin problemas de puerto o navegador
- Ideal para pruebas rápidas
2. Interfaz Web con Gradio
cd /Users/kuchimac/gpt-local
python3 main.py
Nota: Si tienes problemas con Gradio, usa la versión de terminal.
3. Prueba Rápida
cd /Users/kuchimac/gpt-local
python3 test_gpt.py
🤖 Modelos Disponibles
microsoft/DialoGPT-small
(por defecto, ~117MB)gpt2
(~548MB)distilgpt2
(~319MB)
💬 Comandos del Chat
En el chat de terminal:
- Escribe tu mensaje y presiona Enter
reset
- Reinicia la conversaciónsalir
- Cierra la aplicación
⚙️ Configuración
Edita config/settings.py
para:
- Cambiar el modelo por defecto
- Ajustar parámetros de generación
- Modificar configuración de red
🔧 Resolución de Problemas
Si el modelo no carga:
# Verificar que las dependencias estén instaladas
python3 -c "import torch, transformers; print('OK')"
Si hay errores de memoria:
- Usa
microsoft/DialoGPT-small
en lugar de modelos más grandes - Cierra otras aplicaciones para liberar RAM
Si hay problemas con PYTHONPATH:
export PYTHONPATH="/Users/kuchimac/Library/Python/3.9/lib/python/site-packages:/Users/kuchimac/gpt-local"
🎉 ¡Ya está listo
Tu GPT local está funcionando. Puedes empezar a chatear inmediatamente usando:
python3 chat_terminal.py
¡Disfruta tu GPT completamente privado y local! 🔒