|
import gradio as gr |
|
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline |
|
|
|
|
|
model_id = "bigcode/starcoder2-3b" |
|
tokenizer = AutoTokenizer.from_pretrained(model_id) |
|
model = AutoModelForCausalLM.from_pretrained(model_id) |
|
|
|
|
|
generator = pipeline("text-generation", model=model, tokenizer=tokenizer) |
|
|
|
|
|
def generate_code(prompt): |
|
output = generator(prompt, max_length=256, do_sample=True, temperature=0.7) |
|
return output[0]["generated_text"] |
|
|
|
|
|
iface = gr.Interface( |
|
fn=generate_code, |
|
inputs=gr.Textbox(lines=10, label="💡 أدخل بداية كود برمجي هنا"), |
|
outputs=gr.Textbox(label="🧠 ناتج المساعد البرمجي"), |
|
title="🤖 مساعد البرمجة باستخدام StarCoder2", |
|
description="أدخل بداية الكود وسيقوم الذكاء الاصطناعي بإكماله تلقائيًا" |
|
) |
|
|
|
iface.launch() |