Nasser7A321 commited on
Commit
e04f2a3
·
verified ·
1 Parent(s): 6e28227

Create Main.py

Browse files
Files changed (1) hide show
  1. Main.py +30 -0
Main.py ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ from transformers import AutoTokenizer, AutoModelForCausalLM
2
+ import torch
3
+
4
+ # تحميل النموذج والتوكنزر
5
+ model_name = "aubmindlab/arabic-gpt2" # استبدلها باسم النموذج الخاص بك إذا كنت قد أنشأت واحدًا جديدًا
6
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
7
+
8
+ # إعداد رمز الحشو
9
+ tokenizer.pad_token = "[PAD]" # تعيين رمز الحشو
10
+ tokenizer.add_special_tokens({'pad_token': '[PAD]'}) # إضافة رمز الحشو
11
+
12
+ model = AutoModelForCausalLM.from_pretrained(model_name)
13
+ model.resize_token_embeddings(len(tokenizer))
14
+
15
+ # دالة لتوليد الإجابات
16
+ def generate_response(prompt, max_length=50):
17
+ input_ids = tokenizer.encode(prompt, return_tensors='pt')
18
+
19
+ # توليد الاستجابة
20
+ with torch.no_grad():
21
+ output = model.generate(input_ids, max_length=max_length, pad_token_id=tokenizer.pad_token_id)
22
+
23
+ response = tokenizer.decode(output[0], skip_special_tokens=True)
24
+ return response
25
+
26
+ # اختبار النموذج
27
+ if __name__ == "__main__":
28
+ user_input = "السلام عليكم، كيف يمكنني مساعدتك؟"
29
+ response = generate_response(user_input)
30
+ print("الإجابة:", response)