Le Bon LMM

Carnet de code et de réflexions autour de l’IA générative à la française

CodeCorpusContributionsConversationsLexiqueFaqRecherche

Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc

TwitterLinkedIn

Contact

Mentions légales

Prompt engineering

"Prompt engineering" décrit la tâche de développer des instructions efficaces. Il s'agit d'un mélange de rédaction technique et de définition des exigences. Cette pratique consiste à réfléchir de manière précise à la formulation d'une question (instruction) afin d'obtenir exactement la réponse dont vous avez besoin. Il s'agit donc de concevoir soigneusement ou de choisir l'entrée (instruction) que vous donnez à un modèle d'apprentissage automatique pour obtenir le meilleur résultat possible.

Pourquoi est-ce important ?

L'ingénierie des instructions est essentielle car elle permet d'optimiser les performances d'un modèle d'apprentissage automatique. Une instruction bien formulée peut grandement améliorer la qualité de la sortie du modèle. En fait, même les modèles les plus sophistiqués peuvent donner des résultats médiocres si les instructions ne sont pas bien conçues. Par conséquent, elle peut faire la différence entre une IA qui comprend et répond efficacement à une demande et une IA qui échoue.

Comment est-elle utilisée en 2023 ?

En 2023, le prompt engineering est utilisé dans une variété de domaines où l'IA est employée, du service à la clientèle aux assistants personnels en passant par la rédaction de contenu. Par exemple, elle peut être utilisée pour formuler des questions à un modèle de langage génératif pour qu'il génère un e-mail personnalisé à un client, ou pour analyser les commentaires des clients et en extraire des informations clés. C'est un outil essentiel pour ceux qui travaillent avec des modèles de langage pour obtenir les résultats les plus précis et les plus utiles.

abcdefghijklmnopqrstuvwxyz
Pour optimiser votre expérience, nous collectons des données de navigation en utilisant les cookies (lire les mentions légales).
Êtes-vous d'accord ?
/