आप Llama को कैसे अनुकूलित करना चाहेंगे?

सभी चैट हटाएं

सभी चैट हटानी हैं?

ठीक है
Llama ai

नमस्ते, मैं आपकी कैसे मदद कर सकता हूँ?

Shift+Enter = नई पंक्ति। Google अनुवादक बंद करें। API  Ads

अधिक एआई टूल्स 

LlaMA चैट ऑनलाइन मुफ्त - लॉगिन की आवश्यकता नहीं

Llama क्या है?

Llama Meta AI (Facebook) द्वारा विकसित एक अत्याधुनिक भाषा मॉडल श्रृंखला है। अरबों पैरामीटरों के साथ, Llama को उन्नत तर्क, कोडिंग और कई भाषाओं और कार्यों में व्यापक अनुप्रयोग के लिए डिज़ाइन किया गया है।

हम एक अद्भुत युग में रह रहे हैं जहाँ खुले स्रोत (ओपन-सोर्स) पहलें, उत्साही समुदायों की शक्ति से, बड़ी टेक कंपनियों के महंगे स्वामित्व वाले समाधानों के बराबर खड़ी हैं। इस प्रगति का एक उत्कृष्ट उदाहरण कॉम्पैक्ट लेकिन अत्यधिक प्रभावी भाषा मॉडल जैसे Vicuna, Koala, Alpaca और StableLM का उदय है। ये मॉडल ChatGPT जैसी प्रदर्शन क्षमता प्राप्त करते हैं जबकि न्यूनतम कंप्यूटेशनल संसाधनों पर कार्य करते हैं। इन सबको एकजुट करता है उनका आधार — Meta AI के LLaMA मॉडल।

भाषा तकनीकों में अन्य प्रमुख ओपन-सोर्स प्रगतियों की गहराई से जानकारी के लिए, हमारा लेख 'GPT-4 के 12 ओपन-सोर्स विकल्प' अवश्य देखें।

इस चर्चा में, हम Meta AI के LLaMA मॉडलों, उनकी क्षमताओं और उन्हें ट्रांसफॉर्मर्स लाइब्रेरी के माध्यम से कैसे एक्सेस किया जा सकता है, इस पर बात करेंगे। हम उनके प्रदर्शन की तुलना करेंगे, मुख्य चुनौतियों पर प्रकाश डालेंगे और उनकी सीमाओं का विश्लेषण करेंगे। इस लेख के पहले प्रकाशन के बाद, Meta AI ने LLaMA 2 और LLaMA 3 दोनों पेश किए हैं — जिन पर हमने अलग-अलग लेखों में विस्तार से चर्चा की है।

LlaMA AI chat free online
LlaMA AI चैट

LLaMA को समझना: Meta AI का बड़ा भाषा मॉडल

LLaMA (Large Language Model Meta AI) अत्याधुनिक आधारभूत भाषा मॉडलों की एक श्रृंखला है, जिनका आकार 7 बिलियन से 65 बिलियन पैरामीटर तक है। अपने कॉम्पैक्ट आकार के बावजूद, ये मॉडल उत्कृष्ट प्रदर्शन प्रदान करते हैं, जिससे शोधकर्ताओं और डेवलपर्स के लिए प्रयोग, सत्यापन और नवाचार करना आसान हो जाता है।

ये आधारभूत मॉडल बड़े पैमाने पर बिना लेबल वाले डेटा सेट पर प्रशिक्षित किए गए हैं, जिससे वे विभिन्न कार्यों के लिए फाइन-ट्यूनिंग में अत्यधिक अनुकूलनीय बनते हैं। प्रशिक्षण डेटा स्रोतों में शामिल हैं:

इस विविध डेटा सेट के कारण, LLaMA मॉडल ने Chinchilla-70B और PaLM-540B जैसे शीर्ष स्तर के मॉडलों के समान प्रदर्शन प्राप्त किया है, जिससे यह आज के सर्वश्रेष्ठ एआई भाषा मॉडलों में से एक बन गया है।

Meta के LLaMA मॉडल को समझना

LLaMA एक ऑटो-रेग्रेसिव भाषा मॉडल है जो ट्रांसफॉर्मर आर्किटेक्चर पर आधारित है। अन्य उन्नत मॉडलों की तरह, यह शब्दों के अनुक्रम को इनपुट के रूप में लेता है और अगले शब्द की भविष्यवाणी करता है, जिससे निरंतर टेक्स्ट जनरेशन संभव होती है।

LLaMA की विशेषता इसका व्यापक प्रशिक्षण है, जो सार्वजनिक रूप से उपलब्ध बहुभाषी टेक्स्ट डेटा पर आधारित है — जिनमें बुल्गारियन, कैटलन, चेक, डेनिश, जर्मन, अंग्रेजी, स्पेनिश, फ्रेंच, क्रोएशियन, हंगेरियन, इटालियन, डच, पोलिश, पुर्तगाली, रोमानियन, रूसी, स्लोवेनियन, सर्बियन, स्वीडिश और यूक्रेनी शामिल हैं। 2024 में LLaMA 2 के परिचय के साथ, आर्किटेक्चर और प्रशिक्षण तकनीकों में सुधार ने इसकी दक्षता और बहुभाषी क्षमता को और मजबूत किया।

विभिन्न आकारों में उपलब्ध — 7B, 13B, 33B और 65B पैरामीटर — LLaMA मॉडल Hugging Face (Transformers के साथ संगतता के लिए) या facebookresearch/llama की आधिकारिक रिपोजिटरी के माध्यम से एक्सेस किए जा सकते हैं।

LLaMA मॉडल के साथ शुरुआत करना

आधिकारिक इंफेरेंस कोड facebookresearch/llama रिपोजिटरी में उपलब्ध है, लेकिन चीजों को सरल बनाने के लिए, हम Hugging Face ट्रांसफॉर्मर्स लाइब्रेरी का उपयोग करेंगे ताकि मॉडल लोड कर सकें और टेक्स्ट जनरेट कर सकें।

1. आवश्यक लाइब्रेरी इंस्टॉल करें

हम Google Colab का उपयोग करके LLaMA इंफेरेंस चलाएंगे।


%%capture
%pip install transformers SentencePiece accelerate

2. LLaMA टोकन और मॉडल वज़न लोड करें

नोट: 'decapoda-research/llama-7b-hf' आधिकारिक मॉडल वज़न नहीं है। Decapoda Research ने मूल मॉडल को Transformers लाइब्रेरी के साथ काम करने के लिए अनुकूलित किया है।


import transformers, torch
from transformers import LlamaTokenizer, LlamaForCausalLM, GenerationConfig

tokenizer = LlamaTokenizer.from_pretrained("decapoda-research/llama-7b-hf")
model = LlamaForCausalLM.from_pretrained(
        "decapoda-research/llama-7b-hf",
        load_in_8bit=False,
        torch_dtype=torch.float16,
        device_map="auto",
    )

3. प्रश्न परिभाषित करें

4. टेक्स्ट को टोकन में परिवर्तित करें

5. मॉडल जनरेशन कॉन्फ़िगरेशन सेट करें

6. टेक्स्ट आउटपुट उत्पन्न करें

7. उत्तर को डिकोड करें और प्रदर्शित करें


instruction = "What is the speed of light?"
inputs = tokenizer(
    f"""Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction: {instruction}
### Response:""",
    return_tensors="pt",
)
input_ids = inputs["input_ids"].to("cuda")

generation_config = transformers.GenerationConfig(
    do_sample=True,
    temperature=0.1,
    top_p=0.75,
    top_k=80,
    repetition_penalty=1.5,
    max_new_tokens=128,
)

with torch.no_grad():
    generation_output = model.generate(
        input_ids=input_ids,
        attention_mask=torch.ones_like(input_ids),
        generation_config=generation_config,
    )
output_text = tokenizer.decode(
    generation_output[0].cuda(), skip_special_tokens=True
).strip()
print(output_text)

आउटपुट:

मॉडल ने सही रूप से निर्धारित किया कि निर्वात में प्रकाश की गति लगभग 299,792,458 मीटर प्रति सेकंड होती है।


Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction: What is the speed of light?
### Response: The speed of light in a vacuum is exactly 299,792,458 meters per second (approximately 186,282 miles per second). This value is a fundamental constant in physics and plays a crucial role in theories like relativity. Scientists have verified this speed through numerous experiments over the years.

LLaMA मॉडल और ट्रांसफॉर्मर्स लाइब्रेरी को विभिन्न कार्यों और डेटा सेट्स पर फाइन-ट्यून किया जा सकता है, जिससे सटीकता और प्रदर्शन में महत्वपूर्ण सुधार होता है।

LLaMA अन्य AI मॉडलों से कैसे अलग है?

शोध पत्र में LLaMA मॉडलों की तुलना GPT-3, GPT-NeoX, Gopher, Chinchilla और PaLM जैसे शीर्ष स्तरीय भाषा मॉडलों से की गई है। विभिन्न बेंचमार्क परीक्षण किए गए हैं जिनमें सामान्य ज्ञान, ट्रिविया, रीडिंग कॉम्प्रिहेंशन, प्रश्नोत्तर, गणितीय समस्या समाधान, कोड जनरेशन और डोमेन ज्ञान शामिल हैं।

सामान्य ज्ञान आधारित तर्क

PIQA, SIQA और OpenBookQA जैसे बेंचमार्क में LLaMA-65B मॉडल ने अन्य अत्याधुनिक आर्किटेक्चर को पीछे छोड़ दिया। साथ ही, छोटा LLaMA-33B मॉडल भी ARC (आसान और कठिन दोनों) में उत्कृष्ट प्रदर्शन करता है।

क्लोज़्ड-बुक प्रश्नोत्तर और ट्रिविया

वास्तविक प्रश्नों की व्याख्या और उत्तर देने की क्षमता के मूल्यांकन में, LLaMA ने Natural Questions और TriviaQA परीक्षणों में GPT-3, Gopher, Chinchilla और PaLM से बेहतर प्रदर्शन किया।

रीडिंग कॉम्प्रिहेंशन

RACE-middle और RACE-high बेंचमार्क परीक्षणों में, LLaMA ने GPT-3 से बेहतर प्रदर्शन किया और PaLM 540B के समान परिणाम दिखाए।

गणितीय तर्क

क्योंकि LLaMA को गणितीय डेटा पर फाइन-ट्यून नहीं किया गया था, इसलिए इस क्षेत्र में इसका प्रदर्शन अपेक्षा से कम रहा, और यह Minerva से पीछे रह गया।

कोड जनरेशन

HumanEval और MBPP बेंचमार्क के माध्यम से मूल्यांकन में, LLaMA ने HumanEval@100, MBP@1 और MBP@80 में LAMDA और PaLM से अधिक स्कोर प्राप्त किया।

डोमेन ज्ञान

व्यापक डोमेन ज्ञान के मामले में, LLaMA मॉडल PaLM 540B की तुलना में पीछे रह गया, जो काफी अधिक पैरामीटरों का लाभ उठाता है।

LLaMA की चुनौतियाँ और सीमाएँ

अन्य बड़े भाषा मॉडलों की तरह, LLaMA में भी 'हैलुसिनेशन' की प्रवृत्ति होती है, यानी यह कभी-कभी गलत या भ्रामक जानकारी उत्पन्न कर सकता है।

इसके अलावा, कई अन्य चुनौतियाँ भी हैं:

एआई में नवीनतम विकास, जैसे OpenAI, Google AI और उनके डेटा साइंस पर प्रभाव के बारे में जानकारी के लिए, हमारा लेख 'The Latest On OpenAI, Google AI, and What It Means for Data Science' देखें। यह ब्लॉग भाषा, विज़न और मल्टीमॉडल तकनीकों में अत्याधुनिक प्रगति की खोज करता है जो उत्पादकता और दक्षता को बढ़ाती हैं।

LLaMA 2 और LLaMA 3 के जारी होने के साथ, नई सीमाएँ पहचानी गई हैं, हालांकि सुधार भी हुए हैं, विशेष रूप से संदर्भ लंबाई और फाइन-ट्यूनिंग के माध्यम से अनुकूलन क्षमता में। जैसे-जैसे शोध आगे बढ़ता है, एआई समुदाय इन मॉडलों की मजबूती और वास्तविक दुनिया में उपयोगिता को और बेहतर बनाने के लिए सक्रिय रूप से काम कर रहा है।

निष्कर्ष

LLaMA मॉडलों का उदय ओपन-सोर्स एआई शोध में एक परिवर्तनकारी युग लेकर आया है। विशेष रूप से, कॉम्पैक्ट LLaMA-3 और LLaMA-4 मॉडल GPT-3 और GPT-4 से बेहतर प्रदर्शन करते हैं, जबकि बड़ा LLaMA-65B मॉडल Chinchilla-70B और PaLM-540B जैसे उन्नत मॉडलों के बराबर क्षमताएँ दिखाता है। ये प्रगति दर्शाती हैं कि सार्वजनिक रूप से उपलब्ध डेटा और न्यूनतम कंप्यूटिंग शक्ति के साथ भी शीर्ष स्तर का प्रदर्शन प्राप्त किया जा सकता है।

इसके अलावा, अध्ययन यह भी दर्शाता है कि इंस्ट्रक्शन-बेस्ड फाइन-ट्यूनिंग का LLaMA के प्रदर्शन पर गहरा प्रभाव पड़ता है। Vicuna और Stanford Alpaca जैसे मॉडल, जो इंस्ट्रक्शन-फॉलोइंग डेटा सेट के माध्यम से परिष्कृत किए गए हैं, ने ChatGPT और Bard के समान परिणाम दिखाए हैं — जो इस दृष्टिकोण की अपार संभावनाओं को उजागर करता है।

अक्सर पूछे जाने वाले प्रश्न (FAQ)

LLaMA चैट क्या है?
LLaMA चैट एक मुफ्त ऑनलाइन एआई चैटबॉट है जो LLaMA परिवार के उन्नत भाषा मॉडलों का उपयोग करता है, जिनमें LLaMA 3 और LLaMA 4 शामिल हैं। यह सीधे आपके ब्राउज़र में उपलब्ध है, किसी सेटअप की आवश्यकता नहीं है।
क्या LLaMA चैट मुफ्त है?
हाँ, LLaMA चैट पूरी तरह से मुफ्त है, इसमें कोई छिपे हुए शुल्क या सदस्यता नहीं हैं।
क्या मुझे LLaMA चैट उपयोग करने के लिए साइन अप या लॉगिन करना होगा?
नहीं, किसी पंजीकरण या लॉगिन की आवश्यकता नहीं है। आप तुरंत चैट करना शुरू कर सकते हैं।
क्या LLaMA चैट के उपयोग पर कोई सीमा है?
नहीं, LLaMA चैट असीमित उपयोग प्रदान करता है — इसमें दैनिक या सत्र-आधारित कोई प्रतिबंध नहीं है।
LLaMA चैट कौन से मॉडल उपयोग करता है?
LLaMA चैट वर्तमान में LLaMA 3 और LLaMA 4 मॉडलों का समर्थन करता है, जो तेज़ और उच्च गुणवत्ता वाली एआई प्रतिक्रियाएँ प्रदान करते हैं।

टैग्स: चैट लामा फ्री ऑनलाइन, फ्री लामा 3, लामा 3.3, लामा 4 ऑनलाइन, 70b