Shahrokhpk commited on
Commit
0b9f9c5
·
verified ·
1 Parent(s): 31adbb3

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +26 -19
app.py CHANGED
@@ -1,22 +1,29 @@
1
- from transformers import AutoTokenizer, AutoModelForCausalLM
2
- import torch
3
 
4
- # Load model and tokenizer
5
- device = "cuda" if torch.cuda.is_available() else "cpu"
6
- model = AutoModelForCausalLM.from_pretrained(
7
- "universitytehran/PersianMind-v1.0",
8
- torch_dtype=torch.bfloat16,
9
- )
10
- tokenizer = AutoTokenizer.from_pretrained("universitytehran/PersianMind-v1.0")
11
 
12
- # Conversation template
13
- TEMPLATE = "{context}\nYou: {prompt}\nPersianMind: "
14
- CONTEXT = "به انگلیسی ترجمه کن"
15
- prompt = "به انگلیسی ترجمه کن: وزیر امور خارجه ایران در نشست خبری اعلام کرد که مذاکرات هسته‌ای به دلیل اختلافات اساسی درباره اجرای تعهدات متوقف شده است. او تأکید کرد که ایران همچنان به دنبال یک توافق عادلانه و متوازن است، اما طرف‌های مقابل باید از سیاست‌های دوگانه خود دست بردارند"
16
 
17
- model_input = prompt
18
- input_tokens = tokenizer(model_input, return_tensors="pt").to(device)
19
- generate_ids = model.generate(**input_tokens, max_new_tokens=512, do_sample=True, repetition_penalty=1.1)
20
- model_output = tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
21
- response = model_output[len(model_input):]
22
- print(response)
 
 
 
 
 
 
 
 
1
+ # from transformers import AutoTokenizer, AutoModelForCausalLM
2
+ # import torch
3
 
4
+ # # Load model and tokenizer
5
+ # device = "cuda" if torch.cuda.is_available() else "cpu"
6
+ # model = AutoModelForCausalLM.from_pretrained(
7
+ # "universitytehran/PersianMind-v1.0",
8
+ # torch_dtype=torch.bfloat16,
9
+ # )
10
+ # tokenizer = AutoTokenizer.from_pretrained("universitytehran/PersianMind-v1.0")
11
 
12
+ # # Conversation template
13
+ # TEMPLATE = "{context}\nYou: {prompt}\nPersianMind: "
14
+ # CONTEXT = "به انگلیسی ترجمه کن"
15
+ # prompt = "به انگلیسی ترجمه کن: وزیر امور خارجه ایران در نشست خبری اعلام کرد که مذاکرات هسته‌ای به دلیل اختلافات اساسی درباره اجرای تعهدات متوقف شده است. او تأکید کرد که ایران همچنان به دنبال یک توافق عادلانه و متوازن است، اما طرف‌های مقابل باید از سیاست‌های دوگانه خود دست بردارند"
16
 
17
+ # model_input = prompt
18
+ # input_tokens = tokenizer(model_input, return_tensors="pt").to(device)
19
+ # generate_ids = model.generate(**input_tokens, max_new_tokens=512, do_sample=True, repetition_penalty=1.1)
20
+ # model_output = tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
21
+ # response = model_output[len(model_input):]
22
+ # print(response)
23
+
24
+
25
+ # Load model directly
26
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
27
+
28
+ tokenizer = AutoTokenizer.from_pretrained("facebook/nllb-200-distilled-600M")
29
+ model = AutoModelForSeq2SeqLM.from_pretrained("facebook/nllb-200-distilled-600M")