Rechercher

IA : quels garde-fous instaurer pour que la technologie gagne la confiance des organisations ?

« Pour chaque outil de sécurité conçu pour détecter une cyberattaque, les cybercriminels trouvent une solution de contournement invasive. Avec l’IA, le plus grand risque lié à la cybersécurité se situe donc au niveau de la formation. »

Une contribution de Sébastien Marotte, President EMEA Box

 

Selon le dernier baromètre de l’esprit critique d’Universcience, 61% des Français considèrent l’IA générative comme “une révolution technologique majeure du niveau de celle de l’imprimerie”. L’avancée que représente l’IA générative est indéniable et collective. Néanmoins cette technologie suscite de nombreuses questions et inspire la méfiance au sein des organisations. Surtout lorsque la confiance et la véracité des informations est en jeu : on touche ici du doigt le cœur du problème.

Comment savoir ce que notre moteur d’IA sait, et comment être sûr que ce qu’il apprend provient d’une source de vérité ?

Dans le cadre de l’infrastructure géante d’OpenAI et des autres plateformes, il est pratiquement impossible de supprimer les données inexactes, c’est pourquoi il incombe aux responsables de la sécurité de s’assurer que les LLM ne reçoivent que les bonnes informations au départ.

 

La fausse bonne idée : alimenter l’IA en code source de sécurité

Un outil d’IA peut être utilisé pour résoudre des tâches répétitives ou optimiser des modèles connus, de sorte que l’introduction d’un code de sécurité assaini dans un outil d’IA peut contribuer à rendre le code plus efficace. Cependant, même s’il est tentant de fournir à un modèle d’IA le code source de vos outils de sécurité, cette action s’accompagne d’un risque indésirable. Vous donnez essentiellement à votre modèle d’IA les outils dont il a besoin pour contourner votre système de sécurité et, à terme, créer des résultats malveillants.

Cela est particulièrement vrai lorsque vous vous lancez dans des cas d’utilisation créatifs ou innovants qui nécessitent d’introduire des données sensibles dans le modèle. Pour des raisons évidentes de confidentialité et de sécurité, ce n’est pas une bonne idée. Selon le mode d’apprentissage de la GenAI, il pourrait devenir très difficile, voire impossible, pour le modèle de désapprendre les données.

Pour chaque outil de sécurité conçu pour détecter une cyberattaque, les cybercriminels trouvent une solution de contournement invasive. Avec l’IA, le plus grand risque lié à la cybersécurité se situe donc au niveau de la formation.

 

Consolider les garde-fous et clarifier les codes

L’utilisation de l’IA pour écrire du code basique est un cas d’utilisation extrêmement utile. D’ailleurs, la plupart des organisations le font déjà. Les ingénieurs utilisent régulièrement ChatGPT, GitHub et d’autres outils GenAI pour écrire leur code quotidien. Mais d’une manière générale, les organisations d’ingénierie doivent créer des garde-fous autour du code créé par l’IA.

Le signal d’alarme est la capacité à faire la différence entre un code écrit par une machine et un code écrit par un être humain. S’il s’avère qu’il y a un problème avec le code écrit par la machine, il faut le signaler pour qu’il puisse être rapidement retiré ou corrigé.

Un autre élément à prendre en compte : le code écrit pour effectuer des tâches et traiter des données sensibles doit être examiné très attentivement avant d’être optimisé par l’IA. Une fois que ce code est soumis et appris, il devient en quelque sorte public et, une fois encore, il est impossible pour le modèle de désapprendre ce que vous lui avez enseigné. Réfléchissez à deux fois avant de partager vos secrets avec des inconnus.

 

L’IA doit prouver qu’elle est digne de confiance

Non seulement l’IA a besoin de temps et de données pour se développer, mais nous – les personnes en chair et en os – avons besoin de temps et d’informations pour nous habituer à faire confiance à l’IA. Lorsque le cloud a été introduit il y a une dizaine d’années, les gens étaient sceptiques à l’idée d’y placer leur contenu. Aujourd’hui, le stockage de contenus et même d’applications dans le nuage est considéré comme un statu quo et, en fait, comme une pratique exemplaire. Il a fallu des années pour atteindre ce niveau de confort, et il en ira de même avec l’IA.

Pour les entreprises et les professionnels de la sécurité, la confiance zéro est un mantra pour s’assurer que l’IA est utilisée correctement et que les fonctionnalités sont sécurisées.

Le Security AI Framework (SAIF) de Google est une tentative de créer des normes de sécurité autour de la construction et du déploiement de l’IA. Il s’agit d’un cadre conceptuel destiné à répondre aux préoccupations majeures des professionnels de la sécurité, reflétant l’idée de confiance zéro, mais spécifiquement dans l’espace de l’IA.

L’enthousiasme que provoque la GenAI est incontestable. Il est cependant crucial d’intégrer une stratégie de sécurité et de véracité des données dans les modèles et sur ce qu’ils produisent.

Avec la mise en place de garde-fous et un peu de temps, la confiance autour de l’IA en tant que concept augmentera.

 


À lire égalementAffirmer l’authenticité et les valeurs de sa marque à l’heure de l’IA

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC