gpt-local / INSTRUCCIONES.md
DRDELATV's picture
Upload folder using huggingface_hub
22ca508 verified

🚀 Instrucciones de Uso - GPT Local

✅ Estado del Proyecto

Tu GPT local con Hugging Face está completamente configurado y funcionando. Las dependencias se han instalado correctamente:

  • ✅ PyTorch 2.7.1
  • ✅ Transformers 4.53.0
  • ✅ Gradio 4.44.1
  • ✅ Modelos preentrenados disponibles

🎯 Opciones de Ejecución

1. Chat en Terminal (Recomendado)

cd /Users/kuchimac/gpt-local
python3 chat_terminal.py

Ventajas:

  • Funciona inmediatamente
  • Sin problemas de puerto o navegador
  • Ideal para pruebas rápidas

2. Interfaz Web con Gradio

cd /Users/kuchimac/gpt-local
python3 main.py

Nota: Si tienes problemas con Gradio, usa la versión de terminal.

3. Prueba Rápida

cd /Users/kuchimac/gpt-local
python3 test_gpt.py

🤖 Modelos Disponibles

  • microsoft/DialoGPT-small (por defecto, ~117MB)
  • gpt2 (~548MB)
  • distilgpt2 (~319MB)

💬 Comandos del Chat

En el chat de terminal:

  • Escribe tu mensaje y presiona Enter
  • reset - Reinicia la conversación
  • salir - Cierra la aplicación

⚙️ Configuración

Edita config/settings.py para:

  • Cambiar el modelo por defecto
  • Ajustar parámetros de generación
  • Modificar configuración de red

🔧 Resolución de Problemas

Si el modelo no carga:

# Verificar que las dependencias estén instaladas
python3 -c "import torch, transformers; print('OK')"

Si hay errores de memoria:

  • Usa microsoft/DialoGPT-small en lugar de modelos más grandes
  • Cierra otras aplicaciones para liberar RAM

Si hay problemas con PYTHONPATH:

export PYTHONPATH="/Users/kuchimac/Library/Python/3.9/lib/python/site-packages:/Users/kuchimac/gpt-local"

🎉 ¡Ya está listo

Tu GPT local está funcionando. Puedes empezar a chatear inmediatamente usando:

python3 chat_terminal.py

¡Disfruta tu GPT completamente privado y local! 🔒