Lors du Sommet pour l’action sur l’IA qui avait lieu à Paris, le gouvernement français a présenté sa stratégie de diffusion de l’IA dans le secteur public dont son chatbot, équivalent à ChatGPT. Celui-ci accompagnera d’ici les prochaines semaines les 5,7 millions d’agents publics dans leurs recherches, préparation de courriers, de synthèses et de comptes-rendus. Toutefois, le gouvernement français n’est pas le seul à se demander quelles tâches seraient les mieux adaptées à l’Intelligence Artificielle (IA) et comment intégrer l’IA générative aux workflows concernés. En effet, les grands modèles de langage (LLM) et d’autres formes d’IA générative peuvent atteindre des niveaux de performance proches de ceux des êtres humains et peuvent être une aide importante pour certaines tâches.
Une contribution de Mark Day, Chief Scientist chez Netskope
Les LLM sont des modèles d’apprentissage automatique entraînés afin de comprendre et de générer des textes en langage naturel. ChatGPT is bullshit, le texte de Hicks, Humphries et Slater, développe la notion selon laquelle les LLM présentent les mêmes caractéristiques que les experts en « baratin ». Ces outils vont, en effet, avoir des « hallucinations » et avanceront des propos faux, engageant la responsabilité de celui qui reprends ces informations sans les vérifier.
Malgré leur popularité naissante, il est essentiel de savoir que le fonctionnement des LLM repose sur des statistiques, et non sur la vérité absolue. La plupart du temps, ces « statistiques fictives » semblent correctes parce qu’elles coïncident avec la réalité telle que le monde contemporain l’entend. Contrairement aux utilisateurs de ces outils, cependant, ils sont incapables de remettre en question leurs réponses. Lorsqu’elles ne coïncident pas avec la vérité ou à la réalité, les affirmations d’un LLM peuvent laisser perplexe ou induire en erreur. Toutefois, ce dernier ne voit aucune différence entre hallucination et réalité. Ainsi, dans le contexte de la vie publique, quelles tâches pourraient leur être confiées ?
LLM et secteur public
Le futur chatbot qu’utiliseront les agents du service public aura pour mission d’exécuter certaines tâches que les LLM maîtrisent : synthétiser, traduire, rédiger. Faut-il s’inquiéter du fait que ces tâches intègrent une certaine dose de baratin ? Quel est le préjudice si, par exemple, le résumé d’une loi est produit en incluant une citation apparemment plausible, mais qui s’avère entièrement fictive ?
C’est le genre de situation à laquelle est confronté tout utilisateur ayant eu recours à ce type d’outils dans le cadre de travaux sérieux. De manière générale, le risque de baratin peut être réduit dans deux situations : premièrement, si l’utilisateur peut immédiatement et facilement le détecter. Par exemple, parce que sa maîtrise du domaine lui permet d’identifier les inventions. Deuxièmement, lorsque l’utilisation d’un LLM est restreinte de telle sorte que le texte généré n’est en réalité qu’une présentation d’informations dont la fiabilité a déjà été vérifiée. Cela permet ainsi de limiter les possibilités d’intervention d’experts et de possibles ralentissements.
LLM et valeurs républicaines
Au regard des aptitudes dont les LLM ont déjà fait preuve et sont capables, une démarche de restriction peut paraître décevante. Cependant, maintenir un certain niveau de conservatisme présente l’avantage de rassurer et d’utiliser cet outil avec sérénité. Un usage plus ambitieux des LLM est certes une idée séduisante mais risque d’avoir un effet négatif sur la confiance et la sécurité des organisations.
Compte tenu de l’important potentiel qu’affiche l’IA pour optimiser le fonctionnement de certains départements comme ceux de la Santé, de l’Education, de la Justice ou encore des Armées, il est indispensable que les décideurs maîtrisent l’usage et cernent les limites des LLM et de l’IA. Cela permettra d’éviter des erreurs coûteuses ou l’érosion de la confiance et de bâtir un outil avec des standards élevés de fiabilité et de sûreté, porteur des valeurs de la France. Il est ainsi essentiel que les responsables s’interrogent sur les tâches qui pourraient être confiées à cet excellent « baratineur », en parallèle d’un accompagnement sur une meilleure compréhension et appropriation de l’IA.
À lire également : L’IA : nouvelle arme forte dans l’investissement technologique des États
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits