Cela fait plus de 30 ans que je travaille sur le développement et l’utilisation de l’intelligence artificielle (IA), au sein des plus grandes et plus innovantes entreprises au monde. J’y ai découvert des principes simples :
* Ce n’est pas parce que quelque chose est « artificiel » qu’il est moralement neutre.
* La réaction des clients face aux progrès amenés par l’intelligence artificielle est tout aussi utile que l’IA elle-même.
* Les entreprises sont responsables du comportement de leurs systèmes.
L’IA devient « intelligente » uniquement si elle est capable d’apprendre à travers nous, les êtres humains, et des données que nous créons. Son comportement peut être facilement influencé et façonné par nos penchants, nos intentions et nos préférences. Notre responsabilité vis-à-vis de l’IA n’a jamais été aussi importante. Qui sera poursuivi si un drone autonome heurte une voiture autonome ? Est-ce qu’une compagnie d’assurance est pénalement responsable si son application météo ne prévoit pas la tornade qui cause plusieurs morts et blessés ?
Ces préoccupations constituent une réelle mise en garde. Et même si je reconnais ces risques, l’IA fait toujours partie de mon ADN. J’ai étudié l’intelligence artificielle à l’université dans les années 70, en plein hiver de l’IA. À cette époque, nous voulions apprendre aux ordinateurs à jouer aux échecs comme des êtres humains. Nous avions recours à des techniques de programmation déclarative et d’inférence qui n’avaient qu’une minuscule fraction de la puissance de calcul que l’on connaît aujourd’hui. (Aujourd’hui, certains aspects de l’IA sont commercialisés mais leurs noms ont changé : depuis les premiers travaux sur l’IA, nous avons créé des « systèmes experts », des « moteurs de règles métier » et la « programmation déclarative ».) Nous avions en tête d’apporter les bénéfices de notre technologie à la société. Mais pour y arriver, il nous reste encore beaucoup à apprendre !
Peu de temps après, en 1997, le Deep Blue d’IBM battait le champion du monde d’échecs Gary Kasparov en conditions de tournoi. En 2011, le superordinateur d’IBM, Watson, remportait le jeu télévisé américain Jeopardy face aux meilleurs joueurs de l’histoire de l’émission. L’année dernière, l’AlphaGo de Google battait le champion du monde Lee Sedol au jeu de Go.
Ces affrontements spectaculaires entre les machines et les plus grands « cerveaux » du monde démontrent que, si l’IA doit triompher, il faut prendre en compte très sérieusement la formule du scénariste star de Marvel, Stan Lee : « Un grand pouvoir implique de grandes responsabilités ».
C’est ce que nous apprend aussi la déclaration de Gary Kasparov à propos de sa défaite face à Deep Blue en 1997, une déclaration qu’il a par ailleurs partagée avec moi au cours d’une de nos conversations. Il est persuadé qu’IBM a utilisé un « Turc mécanique » sur Deep Blue avant la finale du tournoi. (L’expression « Turc mécanique » vient de l’automate à taille humaine créé par Wolfgang von Kempelen en 1770. À l’intérieur du prétendu automate se trouvait en fait un joueur humain qui faisait passer l’automate pour une machine capable de jouer aux échecs. S’il est vrai que l’automate a battu Napoléon, habiller le mannequin en Turc n’en restait pas moins raciste et insultant.) Kasparov pense qu’entre deux parties, les employés d’IBM modifiaient le programme de façon à le faire paraître suffisamment imprévisible pour le décourager. Ce qui l’a décontenancé et fait douter de son opposant, est la capacité de Deep Blue à changer soudainement de tactique.
La partie adverse aurait dû dévoiler le stratagème. Kasparov n’est pas contre une collaboration entre humains et ordinateurs, au contraire, il est même partisan des Advanced Chess qui consistent à faire jouer des humains entre eux, assistés par des programmes d’échecs. Mais pour lui, transparence, honnêteté et loyauté sont essentielles.
Nous devons utiliser l’IA en toute transparence, comme le souhaitent les consommateurs. Il faut reconnaitre que « IA + homme » valent forcément mieux que l’un ou l’autre. Nous devons donc trouver des moyens d’exploiter cette technologie afin d’augmenter la productivité des salariés sans pour autant faire des hommes des êtres remplaçables. Il a été prouvé que remplacer les êtres humains était une très mauvaise idée.
Une enquête menée auprès de 6 000 consommateurs à travers le monde a démontré que 70 % d’entre eux étaient prêts à utiliser l’IA pour faciliter leur vie quotidienne et que 40 % pensaient que l’IA pouvait améliorer le service client. Toutefois, 80% des sondés préfèrent continuer à parler à des êtres humains. Les personnes interrogées étaient plus favorables à l’alliance entre l’intelligence artificielle et les hommes, et restaient méfiantes vis-à-vis d’une IA indépendante.
Les entreprises ont encore du chemin à faire pour persuader les consommateurs du bien-fondé de l’utilisation de l’IA. En effet, nous demandons aux gens de nous laisser entrer dans leur vie de façon inédite. Leur méconnaissance de l’IA nous empêche donc d’établir une connexion avec eux. Celle-ci ne sera possible qu’en mettant en avant les qualités qui sont essentielles à nos yeux et aux leurs : transparence, honnêteté et loyauté.
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits