Update app.py
Browse files
app.py
CHANGED
@@ -58,7 +58,7 @@ def load_model():
|
|
58 |
log(f"✅ Model indirildi: {model_path}")
|
59 |
|
60 |
log("📦 GGUF model yükleniyor...")
|
61 |
-
llm = Llama(model_path=model_path, n_gpu_layers
|
62 |
log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
|
63 |
log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
|
64 |
except Exception as e:
|
@@ -75,7 +75,7 @@ def chat(req: ChatRequest):
|
|
75 |
|
76 |
response = llm(
|
77 |
prompt,
|
78 |
-
max_tokens=
|
79 |
stop=["Kullanıcı:", "Asistan:"],
|
80 |
echo=False
|
81 |
)
|
|
|
58 |
log(f"✅ Model indirildi: {model_path}")
|
59 |
|
60 |
log("📦 GGUF model yükleniyor...")
|
61 |
+
llm = Llama(model_path=model_path, n_gpu_layers=40, n_ctx=1024)
|
62 |
log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
|
63 |
log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
|
64 |
except Exception as e:
|
|
|
75 |
|
76 |
response = llm(
|
77 |
prompt,
|
78 |
+
max_tokens=256,
|
79 |
stop=["Kullanıcı:", "Asistan:"],
|
80 |
echo=False
|
81 |
)
|