Rechercher

Accorder sa confiance à une IA est-il possible ?

IA
Asian woman standing against illuminated digital display on the street in city, speaking to virtual assistant, chatting AI chatbot app on smartphone. Concept of VR and AR technologies. Metaverse and futuristic data. People, AI, innovation and technology

Une contribution de Raphaël Braud, CTO de Castor & Pollux et créateur de Matcha, outil open source d’orchestration des IA

 

Echanger avec une intelligence artificielle est une expérience troublante qui induit des pensées animistes voire anthropomorphistes : serions-nous en face d’une intelligence alternative ? Peut-elle nous nuire à la façon d’une créature de Frankenstein ? Ou dispose-t-elle de principes “moraux”, comme ceux des robots d’Isaac Asimov ? Mais très vite, une réalité tristement banale nous rattrape : les IA actuelles n’ont ni âme ni éthique propre, elles font de leur “mieux” pour apporter des réponses, à partir des directives transmises par les créateurs de leur réseau neuronal, seuls décideurs de leur éthique… ou pas.

Les IA actuelles, ne présentent pas de menaces d’ordre existentiel mais plutôt d’ordre éthique avec des risques réels de prédation de données personnelles.

Ces premières IA, issues de très grandes entreprises, n’ont pas spécialement rassuré le grand public : les données confiées traversent les frontières physiques et numériques avant d’être hébergées sur des serveurs appartenant à des entreprises privées qui pourraient les utiliser à des fins qui échappent à tout contrôle.

Comment ne pas penser que “tout ce que nous dirons pourrait être utilisé contre nous” ?

La réalité pourrait dépasser nos intuitions : encore plus que tous les outils qui les ont précédées, les IA sont avides de données. Faudrait-il donc que chacun adopte une hygiène d’usage des IA en se posant les questions suivantes : dois-je transmettre telle ou telle donnée ? Puis-je en comprendre et en contrôler les usages ?

Autrement dit : est-ce pertinent – voire juste – de reporter cette responsabilité d’hygiène des données sur des utilisateurs déjà saturés par les multiples précautions d’usages des outils numériques ? Ces principes, sains pour un utilisateur final, devront – a fortiori – être rendus possibles par les entreprises désireuses de mettre à disposition des applications “augmentées par l’IA”. Il y aura besoin de preuves et de réassurances.

Sans internalisation des IA permettant un contrôle des flux de données et l’identification de leur topologie, il ne pourra pas y avoir de réassurance complète. Cette internalisation, éminemment souhaitable pour gagner la confiance des utilisateurs, pose néanmoins de nombreux problèmes techniques : les IA/Réseaux neuronaux nécessitent d’avoir une grande puissance de calcul ; les IA les plus connues n’étant disponibles que sous forme de service Saas propriétaire, elles ne peuvent être installées sur un serveur privé. Fort heureusement, des IA open sources arrivent à la rescousse, comme celle de Meta (Llama 3.X), nVidia (Nemotron et NVLM) ou Mistral (Mixtral). Plus légères et nécessitant moins de ressources matérielles, elles commencent à soutenir la comparaison avec le leader du marché, ChatGPT, et surtout elles peuvent être installées sur des serveurs privés.

L’internalisation ne sera cependant que la première pierre pour créer des IA acceptées…

Il faudra ensuite que les usages imaginés pour l’IA soient qualitatifs, que les IA apportent un vrai service aux utilisateurs et qu’elles ne soient pas cantonnées dans un rôle de chatbot, version interactive et “gadget” d’un formulaire de collecte de données qui ne pourraient que renforcer une défiance des utilisateurs.

Un vrai service sera la clé :

  • Les LLMs savent comprendre la sémantique de nos requêtes : il faut les utiliser pour enrichir les moteurs de recherches.
  • Les IA de traduction deviennent qualitatives : il devient possible de générer des résultats de recherche dans la langue native de l’utilisateur.
  • Les outils de data-analyse savent traiter de grands volumes de données, il ne reste qu’à les coupler à des LLMs et on obtient un outil de self-carisation.
  • Les IA “speech-to-text” fonctionnent enfin, les interfaces de saisies peuvent être révolutionnées pour permettre aux utilisateurs d’interagir avec un site web par la parole.

Combinons tous les services précédents et il devient, par exemple, imaginable, pour un usager, d’avoir des informations pertinentes sur l’optimisation de sa consommation énergétique simplement en parlant à une application de self-carisation.

Ces IA combinées ne créeront de la confiance que si elles offrent un vrai service aux utilisateurs finaux, pas un outil supplémentaire de collecte de données. Les solutions d’orchestration des IA commencent enfin à atteindre le stade de la maturité, désormais, c’est à nous, créateurs d’applications IA, de créer des vrais services utiles… pour nos clients.


À lire égalementComment Qobuz s’impose comme le “Hermès de la musique”

 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC