emotions / main.py
artelo1's picture
Upload 2 files
93e6209 verified
import os
import torch
import uvicorn
from fastapi import FastAPI, HTTPException
from fastapi.responses import JSONResponse
from pydantic import BaseModel
from transformers import pipeline
# Utw贸rz instancj臋 FastAPI
app = FastAPI(
title="Emotions PL API",
description="API do oznaczaniem tagami emocji go-emotions-polish-gpt2-small-v0.0.1",
version="1.0.0"
)
# 艢cie偶ka do modelu - Hugging Face automatycznie pobierze model
MODEL_NAME = "nie3e/go-emotions-polish-gpt2-small-v0.0.1"
generator = None # Zostanie za艂adowany p贸藕niej
# Model wej艣ciowy dla POST request
class PredictRequest(BaseModel):
prompt: str
@app.on_event("startup")
async def startup_event():
global generator
if torch.cuda.is_available():
print("device: GPU")
else:
print("device: CPU")
print(f"艁adowanie modelu: {MODEL_NAME}...")
try:
# Mo偶esz dostosowa膰 device=0 (GPU) lub device=-1 (CPU) w zale偶no艣ci od wybranej maszyny Space
# Free tier spaces usually run on CPU, unless you explicitly select a GPU.
# It's safer to not specify device if you want it to auto-detect or default to CPU.
generator = pipeline(
"text-classification",
model=MODEL_NAME,
top_k=-1,
# device=0 if torch.cuda.is_available() else -1 # Odkomentuj dla detekcji GPU
)
print("Model za艂adowany pomy艣lnie!")
except Exception as e:
print(f"B艂膮d 艂adowania modelu: {e}")
# Mo偶esz zdecydowa膰, czy aplikacja ma zako艅czy膰 dzia艂anie, czy kontynuowa膰 bez modelu
# W przypadku b艂臋du 艂adowania modelu, endpoint generacji tekstu b臋dzie zwraca艂 b艂膮d
generator = None # Ustaw na None, aby sygnalizowa膰 problem
@app.get("/")
async def root():
return {"message": "Polish emotions API is running!"}
@app.post("/predict")
async def predict(request: PredictRequest):
if generator is None:
raise HTTPException(status_code=503, detail="Model nie zosta艂 za艂adowany lub wyst膮pi艂 b艂膮d.")
try:
generated_text = generator(
request.prompt
)
# Pipeline zwraca list臋 s艂ownik贸w, bierzemy pierwszy wynik
response_data = generated_text[0]
return JSONResponse(
content=response_data,
media_type="application/json; charset=utf-8"
)
# return {"generated_text": generated_text[0]["generated_text"]}
except Exception as e:
raise HTTPException(status_code=500, detail=f"B艂膮d podczas generowania tekstu: {e}")
# Uruchamianie serwera Uvicorn bezpo艣rednio (dla Dockera)
if __name__ == "__main__":
uvicorn.run(app, host="0.0.0.0", port=int(os.getenv("PORT", 7860)))