Le Bon LMM

Carnet de code et de réflexions autour de l’IA générative à la française

CodeCorpusContributionsConversationsLexiqueFaqRecherche

Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc

TwitterLinkedIn

Contact

Mentions légales
test

Intelligence artificielle : quelle feuille de route pour les acteurs publics ?

Contribution

21/07/23

Joël Gombin

Joël Gombin

ChatGPT a donné une visibilité sans précédent à l’"intelligence artificielle", ou pour être plus précis, à des modèles de machine learning dont les performances, la disponibilité et la facilité de déploiement connaissent une accélération qui a été jusqu’à présent exponentielle. Si cette capacité nouvelle à faire réaliser par des machines des tâches cognitivement complexes soulève légitimement de nombreuses questions, les opportunités apparaissent significatives, et le secteur public n’échappera pas au FOMO (fear of missing out, peur de rater quelque chose) qui est en train de se répandre à très grande vitesse. 

La réussite de ChatGPT tient pour une large part à la capacité qu’a eu OpenAI, l’entreprise qui l'a développé, à en faire un dispositif polyvalent et destiné au grand public, là où d’autres modèles précédents ont eu une existence beaucoup plus confidentielle. Il n’en reste pas moins vrai que ChatGPT constitue une innovation importante, à deux égards. D’une part, les LLM, modèles langagiers massifs sur lesquels ils sont construits (GPT 3.5 et GPT 4), constituent une rupture par leur caractère massif (même si ces modèles ne sont pas bien documentés techniquement) et leurs performances. D’autre part, l’interface conversationnelle proposée aux utilisateurs, la partie chat de ChatGPT, est rendue possible par une forme spécifique et novatrice d’entraînement secondaire du modèle, le RLHF permettant d’inciter le modèle à ne proposer que des énoncés évalués comme "corrects" par des humains.

Grâce à cela, ChatGPT se présente comme un agent conversationnel capable de répondre à n’importe quelle question posée par l’utilisateur, et d’échanger avec celui-ci, tout en présentant l’apparence d’une capacité de raisonnement. La capacité à générer des textes cohérents, avec une capacité de mémorisation du contexte d’énonciation assez importante, permet en effet à ChatGPT (et à ses concurrents, puisqu’il y a en de plus en plus) de s’acquitter d’une variété importante de tâches, depuis la réponse à des questions de culture générale jusqu’à la génération de code informatique en passant par la création de textes littéraires.

Les perspectives d'usage en matière de modernisation de l'administration et d'amélioration des services publics apparaissent immenses, mais tirer parti des outils qui émergent actuellement pour les acteurs publics suppose de raisonner avec pragmatisme plutôt que de vouloir à tout prix déployer des cas d’usages spectaculaires. L’IA au concret, ce sera le plus souvent des gains de productivité peu visibles dans des process globalement inchangés - et c’est très bien ainsi ! Il faut pour cela déconstruire la boite noire que constitue le terme d’intelligence artificielle, pour raisonner en termes de tâches bien identifiées et de capacité concrète de modèles de machine learning à les réaliser. 

Ces usages devront se faire dans un contexte, sinon de souveraineté (ce terme amène à plus de questions que de réponses), du moins de maîtrise des outils par leurs maîtres d’ouvrage. Si c’est ChatGPT qui a défrayé la chronique ces derniers mois, il serait dans bien des cas sans doute bien mal avisé que les acteurs publics s’en remettent à un acteur dont on comprend mal les intentions et dont les modèles sont aujourd’hui non seulement totalement propriétaires, mais en plus mal documentés. Le développement de modèles open source, adaptés à un contexte francophone, sobres et pouvant être utilisés “en local” est ainsi un enjeu majeur.

Pour y répondre, les acteurs publics devront créer des cercles vertueux, reposant sur la mutualisation (à cet égard les modalités de soutien proposées par l’Etat, qui reposent aujourd’hui plus sur la mise en concurrence que sur la coopération, devront sans doute évoluer) et la contribution à des communs. Un programme ambitieux, mais prometteur !

Ils devront parallèlement prendre part au débat sur les conséquences sociales et politiques de l'utilisation de ce type d'IA, et modéliser les approches vertueuses qui pourraient guider les acteurs économiques. Les prises de position appelant à une "pause" dans les développements de l'IA en alertant sur des risques civilisationnels s’aventurent sur un terrain extrêmement incertain : Gutenberg pouvait-il prévoir que l’imprimerie conduirait à la Réforme et aux guerres de religion ? Et d’ailleurs, s’il l’avait su, aurait-ce été une raison pertinente pour interdire cette innovation ? Et quand elles viennent de ceux qui précisément accélèrent ces développements, l'inquiétude semble très hypocrite...

Surtout, brandir un risque hypothétique de prise de pouvoir par les intelligences artificielles détourne le regard de questionnements beaucoup plus immédiats et concrets, sur la protection des données personnelles, sur les biais algorithmiques, sur la propriété intellectuelle, sur la concentration des pouvoirs… Ainsi, il n’est pas certain que ceux qui appellent à une mise en pause de la recherche dans le domaine ou à la mise en place de régulations spécifiques soient dénués d’arrière-pensée, à commencer par la protection d’avantages compétitifs. Ainsi, OpenAI prétend que l’open source dans le domaine de l’IA représenterait un danger grave de prolifération (en s’appuyant explicitement sur la métaphore du nucléaire), là où beaucoup d’autres pensent au contraire que l’open source est la condition minimale de l’auditabilité des modèles, d’une lutte contre les monopoles et d’un contrôle externe sur les IA.

Nous en sommes convaincus, et nous réjouissons de promouvoir cette approche au côté d'autres entreprises, laboratoires et chercheurs, auprès des pouvoirs publics français et européens.

Ivan P. Yamshchikov : "Il nous manque actuellement une méthodologie solide pour évaluer les LLM"
Ivan P. Yamshchikov : "Il nous manque actuellement une méthodologie solide pour évaluer les LLM"
Conversation

11/10/23

Pour optimiser votre expérience, nous collectons des données de navigation en utilisant les cookies (lire les mentions légales).
Êtes-vous d'accord ?
/