كيف ترغب في تخصيص Llama؟

حذف جميع الدردشات

هل تريد حذف جميع الدردشات؟

حسناً
Llama ai

مرحباً، كيف يمكنني مساعدتك؟

Shift+Enter = سطر جديد. قم بإيقاف ترجمة Google. API  Ads

المزيد من أدوات الذكاء الاصطناعي 

دردشة LlaMA مجانية عبر الإنترنت - بدون تسجيل دخول

ما هو Llama؟

Llama هو نموذج لغوي ضخم ومتطور من Meta AI (فيسبوك). مع مليارات من المعاملات، تم تصميم Llama للتفكير المحسن، والبرمجة، والتطبيقات الواسعة عبر لغات ومهام متعددة.

نحن نعيش في عصر استثنائي حيث تقف المبادرات مفتوحة المصدر، المدعومة بمجتمعات شغوفة، جنبًا إلى جنب مع الحلول الاحتكارية المكلفة من عمالقة التكنولوجيا. مثال بارز على هذا التقدم هو ظهور النماذج اللغوية المدمجة والفعالة مثل Vicuna وKoala وAlpaca وStableLM. تحقق هذه النماذج أداءً يقارن بـ ChatGPT مع استهلاك محدود للموارد الحسابية. ما يوحدها هو اعتمادها على نماذج LLaMA من Meta AI.

للتعمق أكثر في التطورات البارزة الأخرى مفتوحة المصدر في تقنيات اللغة، اطلع على مقالتنا حول 12 بديلاً مفتوح المصدر لـ GPT-4.

في هذا النقاش، سنستعرض نماذج LLaMA من Meta AI، وقدراتها، وكيفية الوصول إليها عبر مكتبة transformers. كما سنقارن أداءها، ونبرز التحديات الرئيسية، ونستكشف حدودها. منذ كتابة هذه المقالة لأول مرة، أطلقت Meta AI كلا من LLaMA 2 وLLaMA 3 — وكل منهما مغطى في مقالات مخصصة تقدم رؤى إضافية.

LlaMA AI chat free online
دردشة LlaMA AI

فهم LLaMA: النموذج اللغوي الكبير من Meta AI

LLaMA (Large Language Model Meta AI) هي سلسلة من النماذج اللغوية الأساسية المتطورة التي تتراوح أحجامها من 7 مليارات إلى 65 مليار معلمة. على الرغم من طبيعتها المدمجة، توفر هذه النماذج أداءً رائعًا، مما يقلل من متطلبات الحوسبة للباحثين والمطورين لتجربة النماذج والتحقق من الأبحاث الحالية واستكشاف تطبيقات مبتكرة.

تم تدريب هذه النماذج الأساسية على مجموعات بيانات ضخمة غير معنونة، مما يجعلها قابلة للتخصيص بدرجة عالية للضبط الدقيق في مهام متنوعة. وتشمل مصادر بيانات التدريب:

بفضل هذا التنوع في البيانات، حققت نماذج LLaMA أداءً مماثلاً لأفضل النماذج مثل Chinchilla-70B وPaLM-540B، مما جعلها من بين أفضل النماذج اللغوية أداءً اليوم.

فهم نموذج LLaMA من Meta

LLaMA هو نموذج لغوي توليدي ذاتي يعتمد على بنية المحول (Transformer). وكغيره من النماذج المتقدمة، يعالج تسلسلًا من الكلمات كمدخل ويتنبأ بالكلمة التالية، مما يمكّنه من توليد نصوص متتابعة.

ما يميز LLaMA هو تدريبه المكثف على بيانات نصية متاحة للعامة بلغات متعددة، منها البلغارية، الكاتالونية، التشيكية، الدنماركية، الألمانية، الإنجليزية، الإسبانية، الفرنسية، الكرواتية، الهنغارية، الإيطالية، الهولندية، البولندية، البرتغالية، الرومانية، الروسية، السلوفينية، الصربية، السويدية، والأوكرانية. ومع إصدار LLaMA 2 في عام 2024، زادت كفاءته وتعدد لغاته بفضل تحسينات في البنية وتقنيات التدريب.

تتوفر نماذج LLaMA بأحجام مختلفة — 7B، 13B، 33B، و65B — ويمكن الوصول إليها عبر Hugging Face (للتوافق مع Transformers) أو من خلال المستودع الرسمي facebookresearch/llama.

البدء مع نماذج LLaMA

يتوفر كود الاستدلال الرسمي في مستودع facebookresearch/llama، ولكن لتبسيط الأمور، سنستخدم مكتبة Hugging Face transformers لتحميل النموذج وتوليد النصوص.

1. تثبيت المكتبات المطلوبة

سنقوم بتشغيل استدلال LLaMA باستخدام Google Colab.


%%capture
%pip install transformers SentencePiece accelerate

2. تحميل رموز LLaMA وأوزان النموذج

ملاحظة: 'decapoda-research/llama-7b-hf' ليست الأوزان الرسمية للنموذج. قامت Decapoda Research بتعديل النموذج الأصلي ليعمل مع مكتبة Transformers.


import transformers, torch
from transformers import LlamaTokenizer, LlamaForCausalLM, GenerationConfig

tokenizer = LlamaTokenizer.from_pretrained("decapoda-research/llama-7b-hf")
model = LlamaForCausalLM.from_pretrained(
        "decapoda-research/llama-7b-hf",
        load_in_8bit=False,
        torch_dtype=torch.float16,
        device_map="auto",
    )

3. تحديد السؤال

4. تحويل النص إلى رموز

5. إعداد تكوين توليد النص

6. توليد المخرجات النصية

7. فك الترميز وطباعة الإجابة


instruction = "What is the speed of light?"
inputs = tokenizer(
    f"""Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction: {instruction}
### Response:""",
    return_tensors="pt",
)
input_ids = inputs["input_ids"].to("cuda")

generation_config = transformers.GenerationConfig(
    do_sample=True,
    temperature=0.1,
    top_p=0.75,
    top_k=80,
    repetition_penalty=1.5,
    max_new_tokens=128,
)

with torch.no_grad():
    generation_output = model.generate(
        input_ids=input_ids,
        attention_mask=torch.ones_like(input_ids),
        generation_config=generation_config,
    )
output_text = tokenizer.decode(
    generation_output[0].cuda(), skip_special_tokens=True
).strip()
print(output_text)

الناتج:

يحدد النموذج بدقة أن سرعة الضوء في الفراغ تبلغ تقريبًا 299,792,458 مترًا في الثانية.


Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction: What is the speed of light?
### Response: The speed of light in a vacuum is exactly 299,792,458 meters per second (approximately 186,282 miles per second). This value is a fundamental constant in physics and plays a crucial role in theories like relativity. Scientists have verified this speed through numerous experiments over the years.

يمكن أيضًا ضبط نموذج LLaMA ومكتبة Transformers بدقة لمهام ومجموعات بيانات مختلفة، مما يعزز الدقة والأداء بشكل كبير.

كيف يتميز LLaMA عن النماذج الأخرى؟

تقدم الورقة البحثية مقارنة متعمقة بين نماذج LLaMA والنماذج اللغوية الرائدة مثل GPT-3 وGPT-NeoX وGopher وChinchilla وPaLM. تم إجراء اختبارات معيارية لتقييم أدائها في مجالات مثل التفكير المنطقي، والمعلومات العامة، والفهم القرائي، والإجابة عن الأسئلة، وحل المسائل الرياضية، وتوليد الأكواد، والمعرفة المتخصصة.

التفكير المنطقي العام

في اختبارات مثل PIQA وSIQA وOpenBookQA، تفوق نموذج LLaMA-65B على البنى الأخرى المتقدمة. حتى النموذج الأصغر LLaMA-33B أظهر أداءً متميزًا في اختبار ARC (السهل والصعب) مقارنة بمنافسيه.

الإجابة عن الأسئلة والمعلومات العامة

في تقييم قدرة النموذج على تفسير الأسئلة الواقعية والرد عليها، تفوق LLaMA باستمرار على GPT-3 وGopher وChinchilla وPaLM في اختبارات Natural Questions وTriviaQA.

الفهم القرائي

باستخدام اختبارات RACE-middle وRACE-high، أظهر LLaMA أداءً أفضل من GPT-3 ونتائج مماثلة لـ PaLM 540B.

الاستدلال الرياضي

نظرًا لعدم ضبط LLaMA على بيانات رياضية، كان أداؤه أقل من المتوقع في هذا المجال، متخلفًا عن Minerva.

توليد الأكواد

من خلال اختبارات HumanEval وMBPP، حقق LLaMA درجات أعلى من LAMDA وPaLM في HumanEval@100 وMBP@1 وMBP@80.

المعرفة المتخصصة

فيما يتعلق بالمعرفة الواسعة في المجالات المختلفة، جاءت نماذج LLaMA أقل أداءً من نموذج PaLM 540B الضخم، الذي يتميز بعدد أكبر بكثير من المعلمات.

التحديات والقيود في LLaMA

مثل غيره من النماذج اللغوية الكبيرة، يعاني LLaMA أحيانًا من “الهلوسة”، أي توليد معلومات غير دقيقة أو مضللة.

بالإضافة إلى ذلك، توجد عدة تحديات أخرى:

للتعرف على آخر التطورات في الذكاء الاصطناعي، بما في ذلك OpenAI وGoogle AI وتأثيرهما على علم البيانات، اطلع على مقالنا حول أحدث المستجدات في OpenAI وGoogle AI ومعناها لعلم البيانات. يستعرض المقال أحدث الابتكارات في اللغة والرؤية والتقنيات متعددة الوسائط التي تعزز الإنتاجية والكفاءة.

مع إصدار LLaMA 2 وLLaMA 3، تم تحديد قيود جديدة رغم وجود تحسينات ملحوظة، خاصة في طول السياق وقابلية التخصيص عبر الضبط الدقيق. ومع استمرار البحث، يعمل مجتمع الذكاء الاصطناعي بنشاط على تعزيز قوة هذه النماذج وقابليتها للاستخدام الواقعي.

الخاتمة

ظهور نماذج LLaMA يمثل حقبة جديدة في أبحاث الذكاء الاصطناعي مفتوح المصدر. على وجه الخصوص، تجاوزت النماذج المدمجة LLaMA-3 وLLaMA-4 أداء GPT-3 وGPT-4، بينما أظهر LLaMA-65B قدرات تضاهي النماذج المتقدمة مثل Chinchilla-70B وPaLM-540B. تؤكد هذه الإنجازات إمكانية تحقيق أداء رفيع المستوى باستخدام بيانات عامة وقوة حوسبية محدودة.

كما تؤكد الدراسة على تأثير الضبط الدقيق القائم على التعليمات في تحسين أداء LLaMA. فقد أظهرت نماذج مثل Vicuna وStanford Alpaca، التي تم تدريبها على مجموعات بيانات موجهة بالتعليمات، نتائج مماثلة لـ ChatGPT وBard، مما يبرز الإمكانات الهائلة لهذا النهج.

الأسئلة الشائعة (FAQ)

ما هي دردشة LLaMA؟
LLaMA Chat هي روبوت دردشة ذكاء اصطناعي مجاني عبر الإنترنت يستخدم نماذج اللغة المتقدمة من عائلة LLaMA، بما في ذلك LLaMA 3 وLLaMA 4. يمكن استخدامها مباشرة من متصفحك دون أي إعداد.
هل استخدام LLaMA Chat مجاني؟
نعم، LLaMA Chat مجانية تمامًا بدون أي رسوم أو اشتراكات خفية.
هل أحتاج إلى التسجيل أو تسجيل الدخول لاستخدام LLaMA Chat؟
لا، لا حاجة للتسجيل أو تسجيل الدخول. يمكنك البدء في الدردشة فورًا دون إنشاء حساب.
هل هناك حدود للاستخدام في LLaMA Chat؟
لا، تقدم LLaMA Chat استخدامًا غير محدود بدون قيود يومية أو لكل جلسة.
ما هي نماذج LLaMA التي تستخدمها LLaMA Chat؟
تدعم LLaMA Chat حاليًا النماذج من LLaMA 3 وLLaMA 4، وتوفر استجابات ذكاء اصطناعي سريعة وعالية الجودة.

الوسوم: دردشة لاما مجانية، لاما 3 مجاني، لاما 3.3، لاما 4 عبر الإنترنت، 70b