Rechercher

CES : la future Killer App attendra

IA
touching optical fiber

Le Consumer Electronics Show devait consacrer l’entrée de l’IA dans nos vies quotidiennes et démontrer la capacité de cette technologie à modifier profondément nos environnements de travail. A l’heure du bilan, il faut bien admettre que la promesse n’est pas tenue. Cette petite déception interroge l’organisation de l’industrie de l’IA et mérite bien les quelques lignes qui suivent.  

Une contribution d’Eric Braune et Anne-Laure Boncori 

 

Le Consumer Electronics Show (CES) qui s’est déroulé à Las Vegas du 9 au 12 janvier devait consacrer l’IA comme technologie la plus prometteuse de la décennie et certainement même au-delà. Le vice-président de Forrester, l’un des cabinets de recherche et de conseil les plus influents au monde, déclarait avant le salon que la seule question qui désormais se posait était de savoir quel pan de nos activités n’est pas encore touché par l’IA. Le salon accueillait 4 000 exposants, dont 1 200 start-ups venues du monde entier. Également, 60% des entreprises du classement Fortune 500 étaient annoncées et les observateurs attendaient le lancement d’une multitude d’innovations développant les potentialités offertes par l’IA.

 

Il faut bien avouer que la montagne a accouché d’une souris !

Quelques jours après la fermeture du CES, l’heure est au bilan et celui-ci apparaît bien maigre. Quelques robots conversationnels ont alimenté les reportages sur le salon. Le Rabbit R1, un organisateur supporté par l’IA, capable d’interagir avec un grand nombre d’applications numériques, a fait l’objet de nombreux papiers. La place accordée à ces produits dans les comptes-rendus du CES masque mal l’absence d’une « appli tueuse » (Killer App), susceptible de générer un attrait massif du public en raison de sa proposition de valeur unique et de sa capacité à modifier durablement nos comportements. Où sont le nouveau navigateur Internet, le prochain réseau social ou la domotique du futur ?  

Il est possible que les vives attentes suscitées par l’édition 2024 du CES aient trouvé leur justification dans la reproduction des schémas de développement de l’informatique personnelle dans les années 1980 ou de l’industrie Internet au mitan des années 1990. Ces deux révolutions se sont appuyées sur l’appropriation et le développement des technologies qui les soutenaient par un grand nombre d’entreprises innovantes. Des acteurs majeurs ont su fédérer les autres protagonistes du secteur autour de normes et de standards, si bien que la lutte concurrentielle s’est engagée entre les différents écosystèmes ainsi créés, tandis que la compétition animait ces derniers en interne de façon bénéfique. Chaque écosystème devant atteindre une masse critique, des acteurs clefs comme Apple ou Google n’ont pas ménagé leurs efforts pour créer de la valeur et apporter leur soutien aux entreprises désireuses de les rejoindre. Ils en sont devenus les firmes pilotes. La diffusion de connaissances au sein des écosystèmes et l’émulation générée par la concurrence entre ceux-ci ont été les ressorts de la diffusion de ces technologies dans les sphères économiques et sociales de nos sociétés.

 

Les entraves au développement et à la diffusion de l’IA

Nous ne reviendrons pas ici sur la lutte engagée entre Doomers et accelerationists au sein d’OpenAI à la fin de l’année dernière, même si celle-ci suffirait à illustrer les débats toujours en cours chez les grands intervenants du secteur. Le développement de l’IA et sa large diffusion dans un nombre croissant d’activités sont aujourd’hui entravés par le problème non résolu des droits de propriété intellectuelle et l’encadrement de plus en plus strict des modèles open source par les géants du secteur.

Le problème non résolu des droits de la propriété intellectuelle

Les dernières informations en provenance de Microsoft montrent l’état d’esprit actuel des géants du secteur. En effet, après avoir interdit à ses cadres de confier des documents confidentiels à ChatGPT, Microsoft annonce l’extension de l’engagement Copilot en matière de droits d’auteur, aux utilisateurs du service Azure OpenAI. Notamment, Microsoft s’engage à payer toutes les condamnations pour violation du droit d’auteur liée à l’utilisation des résultats du service Azure OpenAI. Ainsi, de façon très claire bien qu’un peu abrupte, Microsoft déclare : « Nous facturons nos clients commerciaux pour nos Copilotes, et si leur utilisation engendre des problèmes légaux, nous devons en faire notre problème plutôt que celui de nos clients. »

Cette garantie vise à répondre aux préoccupations des clients concernant leur responsabilité potentielle en matière de violation de la propriété intellectuelle qui pourrait résulter de l’utilisation des résultats des Copilots de Microsoft et du service Azure OpenAI. Suivant le cabinet d’avocats Gunderson Dettmer, qui représente plus de 280 entreprises spécialisées en intelligence artificielle, le risque de poursuite est loin d’être nul même s’il faudra des années avant que les tribunaux ne rendent leurs décisions finales.

De son côté, OpenAI empêche les utilisateurs de DALL-E de demander des images dans le style d’artistes vivants. Suivant le cabinet d’avocats précédemment cité, cette restriction constitue une ligne de défense crédible contre d’éventuelles actions en justice pour violation des droits de la propriété artistique.

Microsoft comme OpenAI sont sur la défensive et cette crainte de procès futurs s’oppose certainement au déploiement de partenariats plus nombreux. Ainsi, OpenAI a lancé son GPT store la semaine dernière mais la création et la proposition commerciale d’applications nouvelles, les GPTs reposant sur le modèle de langage d’OpenAI, sont réservés aux utilisateurs payants. Il semble qu’OpenAI, tout comme Microsoft, est prêt à prendre quelques risques pour leurs clients payeurs mais pas pour les autres. La logique qui sous-tend le GPT store est donc très différente de celle qui a prévalu lors du lancement des magasins d’applications d’Apple ou d’Android.

Les modèles Open source aux mains des géants du secteur

Les logiciels open source existent depuis des décennies. Nous leur devons le foisonnement des start-ups informatiques de la fin des années 1970 et l’adoption accélérée de l’ordinateur personnel. Ils ont également fortement contribué à la prolifération des sites web et des applications accessibles depuis Internet. Le développement de l’IA emprunte un tout autre chemin et plusieurs raisons méritent ici d’être évoquées.

En préambule, il paraît important de rappeler que les géants du secteur ne se sont pas opposés au développement de modèles open source et l’ont parfois encouragé. Ainsi, EleutherAI a été conçu grâce aux informations divulguées par OpenAI sur son modèle GPT-3. Par ailleurs,  LLaMA – mis au point par Meta – est le socle d’un grand nombre de modèles de langage développés par autant d’entreprises. Les positions d’OpenAI et Meta concernant le libre accès à leurs modèles est particulièrement louable. En effet, entraîner un nouveau modèle coûte aujourd’hui plus de 400 000$. De plus, la plupart des développeurs ne disposent pas des ressources nécessaires à l’entraînement de modèles de plus de 10 milliards de paramètres. Or, LLaMA et GPT-3 contiennent respectivement 65 et 175 milliards de paramètres. 

Par conséquent, dans l’industrie de l’IA, les modèles de langage utilisés par les géants du secteur et ceux des entreprises vantant l’open source ont les mêmes racines. L’émulation concurrentielle entre ces deux catégories d’entreprises est donc limitée.

Par ailleurs, la constitution d’un ensemble de données « propres » pour entraîner un modèle est particulièrement fastidieuse. Par exemple, EleutherAI a rassemblé des milliards de passages de texte pour rivaliser avec GPT-3. Dénommé « Pile », cet ensemble de données est accessible à l’ensemble des développeurs. Nous aboutissons donc à des modèles ayant la même racine et entrainés sur des ensembles identiques de données. Peut-il en être autrement ? Pour nettoyer une base de données de tout contenu haineux, violent ou pire, OpenAI a signé trois contrats d’une valeur totale de 200 000$ avec Sama une entreprise basée à San Francisco qui emploie des travailleurs au Kenya, en Ouganda et en Inde pour étiqueter les données de ses clients de la Silicon Valley. Encore une fois, les coûts de création d’une solution IA sont hors de portée de l’immense majorité des développeurs.

L’extension ou l’adaptation de quelques modèles pré-entraînés existants est la source de l’effervescence autour des modèles de langage open source. Ces derniers contribuent peu aux percées de la technologie fondamentale. Ainsi, la plupart des publications open source reposent sur les modèles gigantesques développés par de grandes entreprises aux ressources financières considérables.

Toutefois, ces grandes entreprises commencent à s’inquiéter très sérieusement de l’utilisation qui pourrait être faite de leurs modèles en libre accès. Entre de mauvaises mains, ces modèles de langage peuvent alimenter des discours haineux, de nombreuses formes de propagande ou produire de manière industrielle des logiciels malveillants.

Cette prise de conscience conduit aujourd’hui OpenAI, tout comme Meta, à resserrer drastiquement l’accès à leurs codes. Ainsi, la récente note technique de GPT-4 ne contient aucun détail sur l’architecture, le matériel, l’entraînement, et la construction de l’ensemble de données du modèle. Une rétroconception en open source de GPT-4, similaire à celle opérée par EleutherAI pour GPT-3, est donc inenvisageable. De son côté, Meta envisage de restreindre la diffusion de ses futurs modèles de langage à des partenaires académiques ayant des références très solides, dans le cadre d’accords de confidentialité ou de non-divulgation les empêchant de construire quoi que ce soit avec ces modèles, même à des fins de recherche.

Sans accès aux modèles de langage mis au point par les grands groupes, la prochaine génération d’innovateurs open source ne sera pas en mesure d’assurer la diffusion de l’IA à un nombre croissant de secteurs. Cette tâche incombera donc aux géants du secteur suivant des modalités et un calendrier dont ils seront les seuls maîtres. Pour notre part, nous continuerons de guetter l’arrivée des killer Apps de l’IA.

 

Eric Braune – Professeur associé – Omnes Education Research Center

Anne-Laure Boncori – Professeur Associée – Omnes Education Research Center

 

À lire également : L’intelligence artificielle générative : un enjeu d’adaptation collective

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC