Le Bon LMM

Carnet de code et de réflexions autour de l’IA générative à la française

CodeCorpusContributionsConversationsLexiqueFaqRecherche

Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc

TwitterLinkedIn

Contact

Mentions légales

Quel est le plus petit modèle LLM (Large Language Model) ?

La plus petite taille de modèle LLM peut varier en fonction des critères spécifiques tels que le nombre de paramètres ou la complexité de l'architecture. Cependant, parmi les modèles LLM couramment utilisés, certains des plus petits modèles incluent GPT-2 Small de OpenAI, qui a une taille de 117 millions de paramètres, et DistilBERT, une version compressée de BERT qui a environ 66 millions de paramètres.

Il est important de noter que, bien que ces modèles soient considérés comme plus petits par rapport à leurs homologues plus grands, ils peuvent encore fournir des performances significatives et être utiles pour de nombreuses tâches de traitement du langage naturel..

Autres questions

Pour optimiser votre expérience, nous collectons des données de navigation en utilisant les cookies (lire les mentions légales).
Êtes-vous d'accord ?
/