LLaMA 2 est un modèle de langage à grande échelle développé par méta qui utilise comme méthodologie d’entraînement l’apprentissage par renforcement à partir des commentaires humains, pour offrir une flexibilité et des performances élevées. Il est également open-source et peut être déployé de multiples manières, que ce soit localement ou via des services cloud.
Architecture et Taille
- LLaMA 2 est un modèle de langage à grande échelle (LLM) qui est disponible en trois variantes différentes en fonction du nombre de paramètres : 7 milliards, 13 milliards et 70 milliards de paramètres.
- À titre de comparaison, GPT-3.5 d’OpenAI a jusqu’à 175 milliards de paramètres, et Bard de Google (basé sur LaMDA) en a 137 milliards.
Méthodologie d’Entraînement
- Apprentissage par Renforcement à partir des Commentaires Humains (RLHF) : LLaMA 2 utilise cette méthode où le modèle est entraîné pour maximiser une récompense basée sur les évaluations humaines. Cela permet une plus grande flexibilité dans l’adaptation du modèle à des tâches spécifiques.
- Fine-Tuning Supervisé: À titre de comparaison, d’autres modèles comme ChatGPT utilisent le fine-tuning supervisé. Dans cette méthode, un modèle pré-entraîné est ajusté (ou « fine-tuné ») sur un ensemble de données spécifique qui a été étiqueté par des humains. Par exemple, si le modèle est destiné à répondre à des questions, il serait fine-tuné sur un ensemble de données composé de paires questions-réponses. Le fine-tuning supervisé est souvent plus simple à mettre en œuvre mais peut être moins flexible que des méthodes comme RLHF.
Performances
- Selon Meta, LLaMA 2 surpasse d’autres modèles linguistiques sur de nombreux critères de référence externes, y compris des tests de raisonnement, de codage, de compétences et de connaissances.
- Le modèle est entraîné sur 2 trillions de tokens, soit 40 % de données en plus que son prédécesseur, LLaMA 1.
Utilisation et Déploiement
- Le code source de LLaMA 2 est disponible sur la plateforme Hugging Face, ce qui permet aux développeurs de le télécharger et de l’exécuter sur leurs propres machines.
- Il est également accessible via des services cloud comme Microsoft Azure et Amazon SageMaker JumpStart, offrant ainsi des options pour un déploiement à grande échelle.
- Une variante du modèle est également disponible sur llama.perplexity.ai, qui combine la puissance de LLaMA 2 et Perplexity.ai pour fournir des réponses générales et des liens pertinents à vos requêtes.
Open Source et Accessibilité
- LLaMA 2 est open-source, ce qui signifie que son code et ses données sont publiés gratuitement, permettant ainsi aux chercheurs et aux développeurs de construire et d’améliorer la technologie.
Partenariats
- Meta s’est associé à Microsoft pour le développement et la distribution de LLaMA 2. Le modèle sera également disponible via d’autres fournisseurs comme Amazon Web Services (AWS).