import gradio as gr from transformers import pipeline # ——————————— # 1. تحميل واعداد النموذج # ——————————— # هنستخدم نموذج "google/flan-t5-base" كمثال خفيف نسبيًا # تأكد إنك مثبت مكتبة 'transformers' و 'torch' قبل التشغيل chatbot = pipeline( task="text2text-generation", model="google/flan-t5-base", device=0 # لو عندك GPU. لو مش عندك GPU، خلّيه -1 أو احذفه خالص. ) # ——————————— # 2. دالة الرد على المستخدم # ——————————— def get_response(user_input): # هنمرر النص للنموذج علشان يولد رد result = chatbot( user_input, max_length=200, # أقصى طول للرد do_sample=True, # تفعيل العشوائية بشكل بسيط top_p=0.9, # نسبة الـ nucleus sampling temperature=0.7 # تحكم في التنوع إيه قد في الردود ) # بنرجّع نصّ الرد المولّد return result[0]["generated_text"] # ——————————— # 3. إنشاء واجهة Gradio # ——————————— iface = gr.Interface( fn=get_response, inputs=gr.Textbox( lines=2, placeholder="اكتب سؤالك أو رسالتك هنا..." ), outputs="text", title="🤖 شات بوت AI حقيقي - FLAN-T5", description="اكتب أي سؤال أو كلام، والنموذج هيرد عليك بطريقة ذكية. بس افتكر إن النموذج مش مثالي 100%، وممكن يطلع ردود غريبة أحيانًا. 😉" ) # ——————————— # 4. تشغيل التطبيق # ——————————— if __name__ == "__main__": iface.launch(share=False) # لو عايز تنشره على النت استخدم share=True