Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -1,22 +1,29 @@
|
|
1 |
-
from transformers import AutoTokenizer, AutoModelForCausalLM
|
2 |
-
import torch
|
3 |
|
4 |
-
# Load model and tokenizer
|
5 |
-
device = "cuda" if torch.cuda.is_available() else "cpu"
|
6 |
-
model = AutoModelForCausalLM.from_pretrained(
|
7 |
-
|
8 |
-
|
9 |
-
)
|
10 |
-
tokenizer = AutoTokenizer.from_pretrained("universitytehran/PersianMind-v1.0")
|
11 |
|
12 |
-
# Conversation template
|
13 |
-
TEMPLATE = "{context}\nYou: {prompt}\nPersianMind: "
|
14 |
-
CONTEXT = "به انگلیسی ترجمه کن"
|
15 |
-
prompt = "به انگلیسی ترجمه کن: وزیر امور خارجه ایران در نشست خبری اعلام کرد که مذاکرات هستهای به دلیل اختلافات اساسی درباره اجرای تعهدات متوقف شده است. او تأکید کرد که ایران همچنان به دنبال یک توافق عادلانه و متوازن است، اما طرفهای مقابل باید از سیاستهای دوگانه خود دست بردارند"
|
16 |
|
17 |
-
model_input = prompt
|
18 |
-
input_tokens = tokenizer(model_input, return_tensors="pt").to(device)
|
19 |
-
generate_ids = model.generate(**input_tokens, max_new_tokens=512, do_sample=True, repetition_penalty=1.1)
|
20 |
-
model_output = tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
|
21 |
-
response = model_output[len(model_input):]
|
22 |
-
print(response)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# from transformers import AutoTokenizer, AutoModelForCausalLM
|
2 |
+
# import torch
|
3 |
|
4 |
+
# # Load model and tokenizer
|
5 |
+
# device = "cuda" if torch.cuda.is_available() else "cpu"
|
6 |
+
# model = AutoModelForCausalLM.from_pretrained(
|
7 |
+
# "universitytehran/PersianMind-v1.0",
|
8 |
+
# torch_dtype=torch.bfloat16,
|
9 |
+
# )
|
10 |
+
# tokenizer = AutoTokenizer.from_pretrained("universitytehran/PersianMind-v1.0")
|
11 |
|
12 |
+
# # Conversation template
|
13 |
+
# TEMPLATE = "{context}\nYou: {prompt}\nPersianMind: "
|
14 |
+
# CONTEXT = "به انگلیسی ترجمه کن"
|
15 |
+
# prompt = "به انگلیسی ترجمه کن: وزیر امور خارجه ایران در نشست خبری اعلام کرد که مذاکرات هستهای به دلیل اختلافات اساسی درباره اجرای تعهدات متوقف شده است. او تأکید کرد که ایران همچنان به دنبال یک توافق عادلانه و متوازن است، اما طرفهای مقابل باید از سیاستهای دوگانه خود دست بردارند"
|
16 |
|
17 |
+
# model_input = prompt
|
18 |
+
# input_tokens = tokenizer(model_input, return_tensors="pt").to(device)
|
19 |
+
# generate_ids = model.generate(**input_tokens, max_new_tokens=512, do_sample=True, repetition_penalty=1.1)
|
20 |
+
# model_output = tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
|
21 |
+
# response = model_output[len(model_input):]
|
22 |
+
# print(response)
|
23 |
+
|
24 |
+
|
25 |
+
# Load model directly
|
26 |
+
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
27 |
+
|
28 |
+
tokenizer = AutoTokenizer.from_pretrained("facebook/nllb-200-distilled-600M")
|
29 |
+
model = AutoModelForSeq2SeqLM.from_pretrained("facebook/nllb-200-distilled-600M")
|