ChatGPT a bouleversé nos habitudes de travail et notre quotidien. Chaque jour, plus de 100 millions d’utilisateurs s’en servent pour formuler plus d’un milliard de requêtes, selon les dernières données disponibles.
Malgré son succès mondial, le chatbot basé sur un grand modèle de langage (LLM) suscite des préoccupations majeures en matière de protection des données. Décrit comme un « trou noir » en termes de vie privée, il a été brièvement interdit en Italie en raison des doutes entourant la gestion des informations saisies par les utilisateurs.
OpenAI, le créateur de ChatGPT, reconnaît lui-même que les données saisies par les utilisateurs ne sont pas forcément protégées. Elles peuvent servir à améliorer les modèles d’intelligence artificielle, ce qui implique un risque d’exposition, voire d’accès par d’autres personnes. Certaines peuvent même être consultées par des humains pour vérifier qu’elles respectent les conditions d’utilisation.
Et comme pour tout service en ligne basé sur le cloud, la confidentialité des données dépend en grande partie du niveau de sécurité du fournisseur. Autrement dit, tout ce que vous y entrez doit être considéré comme potentiellement public.
Dans ce contexte, il y a certaines informations qu’il vaut mieux ne jamais partager avec ChatGPT — ou avec n’importe quel autre chatbot reposant sur une infrastructure cloud. En voici quelques-unes.
Requêtes illégales ou contraires à l’éthique
La plupart des chatbots d’intelligence artificielle sont équipés de garde-fous destinés à empêcher leur utilisation à des fins douteuses ou illicites. Si vous tentez de leur poser une question liée à une activité illégale ou contraire à l’éthique, non seulement votre demande risque d’être bloquée, mais elle pourrait aussi vous attirer des ennuis. Demander comment commettre un délit, orchestrer une fraude ou manipuler quelqu’un de manière malveillante n’a rien d’innocent — et peut être lourd de conséquences.
Les conditions d’utilisation de nombreux services d’IA sont très claires : toute tentative d’usage illégal ou abusif peut entraîner un signalement aux autorités compétentes. Et selon votre lieu de résidence, la législation applicable peut varier considérablement.
En Chine, par exemple, il est interdit d’utiliser l’IA pour remettre en cause l’autorité de l’État ou troubler l’ordre social. En Europe, la législation encadrant l’IA impose notamment d’étiqueter clairement les images ou vidéos générées par IA — comme les « deepfakes » — lorsqu’elles imitent des personnes réelles. Au Royaume-Uni, la loi sur la sécurité en ligne (Online Safety Act) considère comme un délit pénal le partage d’images explicites créées par l’IA sans le consentement de la personne concernée.
Taper ce genre de requêtes ne relève donc pas seulement d’un manque de jugement : cela peut vous exposer à des poursuites judiciaires, entacher la réputation du service utilisé, voire entraîner la suppression de votre compte.
Identifiants et mots de passe
Avec le développement rapide des intelligences artificielles dites « agentiques » — capables d’interagir avec des services tiers en notre nom — il peut être tentant de leur confier ses identifiants de connexion pour leur permettre d’agir à notre place. Mais attention : leur transmettre ce type d’information reste, à ce stade, une très mauvaise idée.
Une fois saisis dans un chatbot public, ces éléments sensibles échappent largement à votre contrôle. Il est déjà arrivé que des données personnelles saisies par un utilisateur réapparaissent accidentellement dans la réponse donnée à un autre. Le risque de fuite ou de mauvaise manipulation n’est donc pas théorique.
Tant que la sécurité des systèmes n’est pas totalement garantie et que la transparence sur le traitement des données reste limitée, mieux vaut éviter de transmettre à une IA vos identifiants, noms d’utilisateur ou informations d’accès — sauf si vous êtes absolument certain d’utiliser une solution hautement sécurisée et dédiée.
Informations financières
Pour les mêmes raisons de sécurité, il est fortement déconseillé de saisir des informations financières sensibles — comme un numéro de carte bancaire ou un identifiant de compte — dans un chatbot d’intelligence artificielle. Ces données ne devraient être transmises que via des plateformes sécurisées, conçues pour le commerce en ligne ou les services bancaires, avec des protections robustes comme le chiffrement des échanges ou la suppression automatique après traitement.
Les chatbots d’IA générative, eux, ne bénéficient d’aucune de ces garanties. Une fois l’information saisie, impossible de savoir comment elle sera stockée, traitée ou exposée. En fournissant ce type de données dans un environnement non sécurisé, vous prenez donc un risque réel : fraude, usurpation d’identité, tentatives de phishing ou même attaques par ransomware.
Informations confidentielles
Nous avons tous une responsabilité lorsqu’il s’agit de protéger des informations sensibles. Certaines obligations de confidentialité sont légales et automatiques — comme celles qui lient un médecin, un avocat ou un comptable à ses clients. D’autres sont implicites, notamment dans le cadre professionnel : de nombreux salariés ont un devoir de discrétion envers leur employeur.
Partager des documents internes, comme des comptes rendus de réunion, des notes de service ou des informations liées à des transactions, peut constituer une violation de cette confidentialité. C’est exactement ce qui est arrivé à Samsung en 2023, lorsqu’un de ses employés a accidentellement divulgué des secrets industriels via ChatGPT.
Même si l’IA peut sembler être un assistant efficace pour résumer ou analyser des documents, il est fortement déconseillé d’y introduire des contenus sensibles — sauf si vous êtes absolument certain que les données peuvent être partagées sans aucun risque.
Informations médicales
Il peut être tentant de demander à ChatGPT de jouer le rôle de médecin en diagnostiquant des symptômes ou en offrant des conseils médicaux. Cependant, cette pratique doit être abordée avec une grande prudence, d’autant plus que les récentes mises à jour permettent à l’IA de « se souvenir » des informations provenant de différents chats pour mieux comprendre l’utilisateur. Toutefois, aucune de ces fonctionnalités ne garantit la protection de la vie privée.
Il est donc essentiel de garder à l’esprit que nous avons très peu de contrôle sur ce qu’il advient des données que nous partageons. Cette précaution est d’autant plus importante pour les entreprises du secteur de la santé, qui manipulent des informations sensibles sur les patients. Elles risqueraient de faire face à des amendes considérables et à des dommages irréparables à leur réputation.
En résumé
Comme pour tout ce que nous partageons en ligne, il est sage de considérer qu’aucune donnée ne restera totalement privée. Il est donc préférable de ne rien divulguer que vous ne souhaiteriez pas voir rendu public. À mesure que les chatbots et autres agents d’IA deviennent de plus en plus présents dans nos vies, cette préoccupation deviendra d’autant plus cruciale. L’éducation des utilisateurs aux risques associés à ces technologies sera une responsabilité clé pour les fournisseurs de ces services. Mais il est également essentiel de se rappeler que la protection de nos données reste avant tout une responsabilité personnelle : à nous de veiller à leur sécurité et de comprendre comment les préserver.
Une contribution de Bernard Marr pour Forbes US – traduit par Lisa Deleforterie
À lire également : Grok 3, ChatGPT, Gemini… L’intelligence artificielle entre course technologique et enjeux de gouvernance
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits