gpt-local / chat_terminal.py
DRDELATV's picture
Upload folder using huggingface_hub
22ca508 verified
#!/usr/bin/env python3
"""
Versión simple del GPT Local sin Gradio
"""
import sys
import logging
from pathlib import Path
# Agregar el directorio raíz al path
sys.path.append(str(Path(__file__).parent))
from models.model_loader import ModelLoader
from models.text_generator import TextGenerator
from config.settings import DEFAULT_MODEL
def setup_logging():
"""Configurar el sistema de logging"""
logging.basicConfig(
level=logging.INFO,
format="%(asctime)s - %(name)s - %(levelname)s - %(message)s"
)
def main():
"""Función principal para el chat en terminal"""
setup_logging()
logger = logging.getLogger(__name__)
print("🤖 GPT Local - Chat en Terminal")
print("="*50)
# Inicializar componentes
model_loader = ModelLoader()
text_generator = TextGenerator(model_loader)
# Cargar modelo por defecto
print(f"📦 Cargando modelo: {DEFAULT_MODEL}")
if not model_loader.load_model(DEFAULT_MODEL):
print("❌ Error al cargar el modelo")
return
print("✅ Modelo cargado exitosamente")
print("💡 Escribe 'salir' para terminar")
print("💡 Escribe 'reset' para reiniciar el chat")
print("-"*50)
try:
while True:
# Obtener entrada del usuario
user_input = input("\n👤 Tú: ").strip()
if user_input.lower() in ['salir', 'exit', 'quit']:
print("👋 ¡Hasta luego!")
break
if user_input.lower() == 'reset':
text_generator.reset_chat_history()
print("🔄 Chat reiniciado")
continue
if not user_input:
continue
# Generar respuesta
print("🤖 GPT: ", end="", flush=True)
try:
response = text_generator.generate_response(
user_input,
temperature=0.7,
max_length=200
)
print(response)
except Exception as e:
print(f"❌ Error: {str(e)}")
except KeyboardInterrupt:
print("\n👋 Chat interrumpido por el usuario")
except Exception as e:
logger.error(f"❌ Error en el chat: {str(e)}")
if __name__ == "__main__":
main()