Llama 2 : le modèle open source de Meta

By 25 août 2023février 23rd, 2024Technique

LLaMA 2 est un modèle de langage à grande échelle développé par méta qui utilise comme méthodologie d’entraînement l’apprentissage par renforcement à partir des commentaires humains, pour offrir une flexibilité et des performances élevées. Il est également open-source et peut être déployé de multiples manières, que ce soit localement ou via des services cloud.

Architecture et Taille

  • LLaMA 2 est un modèle de langage à grande échelle (LLM) qui est disponible en trois variantes différentes en fonction du nombre de paramètres : 7 milliards, 13 milliards et 70 milliards de paramètres.
  • À titre de comparaison, GPT-3.5 d’OpenAI a jusqu’à 175 milliards de paramètres, et Bard de Google (basé sur LaMDA) en a 137 milliards.

Méthodologie d’Entraînement

  • Apprentissage par Renforcement à partir des Commentaires Humains (RLHF) : LLaMA 2 utilise cette méthode où le modèle est entraîné pour maximiser une récompense basée sur les évaluations humaines. Cela permet une plus grande flexibilité dans l’adaptation du modèle à des tâches spécifiques.
  • Fine-Tuning Supervisé: À titre de comparaison, d’autres modèles comme ChatGPT utilisent le fine-tuning supervisé. Dans cette méthode, un modèle pré-entraîné est ajusté (ou « fine-tuné ») sur un ensemble de données spécifique qui a été étiqueté par des humains. Par exemple, si le modèle est destiné à répondre à des questions, il serait fine-tuné sur un ensemble de données composé de paires questions-réponses. Le fine-tuning supervisé est souvent plus simple à mettre en œuvre mais peut être moins flexible que des méthodes comme RLHF.

Performances

  • Selon Meta, LLaMA 2 surpasse d’autres modèles linguistiques sur de nombreux critères de référence externes, y compris des tests de raisonnement, de codage, de compétences et de connaissances.
  • Le modèle est entraîné sur 2 trillions de tokens, soit 40 % de données en plus que son prédécesseur, LLaMA 1.

Utilisation et Déploiement

  • Le code source de LLaMA 2 est disponible sur la plateforme Hugging Face, ce qui permet aux développeurs de le télécharger et de l’exécuter sur leurs propres machines.
  • Il est également accessible via des services cloud comme Microsoft Azure et Amazon SageMaker JumpStart, offrant ainsi des options pour un déploiement à grande échelle.
  • Une variante du modèle est également disponible sur llama.perplexity.ai, qui combine la puissance de LLaMA 2 et Perplexity.ai pour fournir des réponses générales et des liens pertinents à vos requêtes.

Open Source et Accessibilité

  • LLaMA 2 est open-source, ce qui signifie que son code et ses données sont publiés gratuitement, permettant ainsi aux chercheurs et aux développeurs de construire et d’améliorer la technologie.

Partenariats

  • Meta s’est associé à Microsoft pour le développement et la distribution de LLaMA 2. Le modèle sera également disponible via d’autres fournisseurs comme Amazon Web Services (AWS).