Imaginez conduire une voiture sans code de la route pour faciliter et réguler la circulation : cela serait le chaos. Plus les véhicules sont nombreux, plus les risques augmentent. Tout comme la prise de conscience de l’impact environnemental des véhicules conduit à des efforts pour réduire leur empreinte carbone, il en va de même pour l’intelligence artificielle : des solutions moins énergivores sont nécessaires et doivent d’ores et déjà être envisagées.
Une contribution de Jennifer Belissent, Principal Data Strategist chez Snowflake
Jusqu’à présent, une grande partie du discours sur l’IA s’est concentrée sur des questions existentielles comme la singularité ou la menace de remplacement humain. Ce débat est à mon sens déjà dépassé. Et pour cause : l’intelligence artificielle influe déjà sur de nombreux aspects de notre vie. Heureusement, on constate aujourd’hui que le débat s’oriente vers des solutions pragmatiques. Il ne s’agit pas d’interdire l’IA, mais de développer des politiques atténuant les risques. Comme pour la conduite, on parle de limitations, de ceintures de sécurité et de formation. De même, une IA responsable repose sur des garde-fous assurant une utilisation maîtrisée.
Les bonnes règles en place
L’IA apporte des avancées majeures, de la détection du cancer à la réduction des déchets. Avec des règles adaptées, ses effets néfastes peuvent être limités. Partout, des organisations publient des directives, les gouvernements instaurent des régulations comme l’AI Act de l’Union européenne et les fournisseurs développent des outils pour plus de transparence.
Ces efforts sont essentiels pour identifier et atténuer les risques, sensibiliser les utilisateurs et responsabiliser les développeurs. De plus, la collaboration internationale joue un rôle important pour le futur et les différents accords ou sommets récents tels que les accords de Bletchley, l’AI Seoul Summit ou encore le Sommet pour l’Action sur l’Intelligence Artificielle à Paris montrent, par exemple, une volonté commune de coopérer pour renforcer la sécurité de l’intelligence artificielle. Au-delà des réglementations, la gouvernance des données et de l’IA au sein des organisations est une priorité. Atténuer les risques exige l’implication de tous, avec une formation sur l’usage des données et des politiques claires d’accès et d’utilisation pour garantir leur protection et une exploitation éthique.
Une base de données solide pour répondre aux ambitions de l’IA
Dans le monde de l’entreprise, la qualité et la diversité des données sont essentielles et une stratégie d’IA repose avant tout sur une stratégie de données. Des données riches et diversifiées ne nourrissent pas seulement les modèles, elles réduisent aussi les risques d’hallucinations et de biais. Les IA ne “créent” pas d’erreurs, mais peuvent s’appuyer sur des sources peu fiables, comme l’exemple absurde de l’IA suggérant d’ajouter de la colle à une sauce pizza.
L’intelligence artificielle améliore la qualité des données en détectant les anomalies, corrigeant les erreurs et renforçant la sécurité. Cependant, une gouvernance rigoureuse et des technologies de protection de la vie privée restent indispensables. Les données doivent être adaptées à chaque cas d’usage. Contrairement aux IA générales, celle d’entreprise vise des objectifs précis : prédire les ventes, recommander un produit, détecter des anomalies ou optimiser la supply chain. Le bon choix du modèle d’IA réduit les risques d’hallucination et de biais. Conçue pour un usage spécifique, elle est aussi plus efficiente en ressources.
Vers une IA plus verte
La durabilité est un des enjeux clés de notre société contemporaine et l’intelligence artificielle devrait pouvoir avoir un impact sur le climat en optimisant l’utilisation des combustibles fossiles et en favorisant d’autres formes d’énergie. Cependant, elle reste aujourd’hui très énergivore. ChatGPT, par exemple, consomme plus de 500 000 kWh par jour, soit l’équivalent de ce que consomment quotidiennement 180 000 foyers américains.
Pour garantir un véritable retour sur investissement, les entreprises doivent équilibrer expérimentation et utilisation stratégique de l’IA. Adopter des agents IA dédiés et bien formés est une première étape. Assurer la transparence permet de mesurer l’impact environnemental et les compromis réalisés pour la valeur de l’entreprise.
Construire un avenir plus sûr pour l’IA
Clairement, l’avenir d’une intelligence artificielle sécurisée se joue dès aujourd’hui. La collaboration internationale, illustrée par les Sommets mondiaux sur la sécurité et l’utilisation de l’IA, est prometteuse. En tirant parti des enseignements actuels, nous pouvons établir des normes solides pour l’IA de demain. Ces enseignements aideront à définir les exigences des futures plateformes de données et d’IA, intégrant diversité, sécurité, gouvernance et durabilité. La clé d’une intelligence artificielle plus sûre réside dans une compréhension approfondie de ses impacts, nourrie par une connaissance élargie et sociétale.
À lire également : IA Act : comment la France se prépare à une intelligence artificielle plus fiable, éthique et sécurisée
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits