Cette semaine, Nvidia et ARM, deux acteurs clés du monde de l’IA ont annoncé leur collaboration suite à une acquisition de 40 milliards de dollars. Cette synergie pourrait avoir des conséquences considérables sur les tendances technologiques les plus importantes du moment.
Les technologies développées par Nvidia et ARM sont dissimulées au grand public, mais l’on sait qu’elles ont fourni la puissance de calcul brute qui a conduit aux récents progrès de l’intelligence artificielle (IA), de l’Internet des objets (IdO), des voitures autonomes, de la personnalisation et des technologies portables, ainsi que du cloud et de l’edge computing.
Ainsi Nvidia, premier fabricant mondial d’unités de traitement graphique (ou GPU, des processeurs dédiés à l’analyse des mathématiques complexes nécessaires à la création d’images de pointe en temps réel), a fait l’acquisition d’ARM. Ces dernières années, le hardware produit par Nvidia s’est également révélé être l’outil le plus efficace sur le marché pour traiter les algorithmes tout aussi complexes utilisés dans les applications de machine learning et de deep learning.
Les GPU de Nvidia ont été appliqués pour la première fois à l’IA lors du projet Google Brain 2009 (largement considéré comme une avancée majeure dans le deep learning qui a rendu possible une grande partie des progrès réalisés au cours de la dernière décennie). Aujourd’hui, ils sont utilisés comme le « cerveau » de l’IA dans toutes les voitures commercialisées par Tesla.
Nouveau propriétaire d’ARM, basé au Royaume-Uni, Nvidia domine le marché des smartphones. ARM ne fabrique pas ses propres puces, mais concède des licences pour leur conception à des fabricants de téléphones du monde entier, dont Apple et Samsung. Plus récemment, l’entreprise a également conçu des puces de traitement AI spécialisées et une plateforme informatique AI pour développer et exécuter des applications AI industrielles.
Bien que les deux sociétés soient polyvalentes, elles dominent toutes deux le marché dans un domaine bien particulier : les GPU pour Nvidia, et les processeurs mobiles pour ARM. Le point commun entre les deux ? L’IA, bien évidemment. L’association de leurs forces donne naissance à un partenariat bien placé pour être leader dans un monde où les appareils intelligents et connectés sont de plus en plus présents.
Les processeurs d’ARM sont déjà présents dans des milliards d’appareils dans le monde entier. D’un point de vue stratégique, cela représente donc une acquisition importante pour Nvidia, qui pourra ainsi déployer sa technologie de deep learning. Ce dernier consiste à traiter les données en périphérie du réseau directement là où elles sont générées, plutôt que de les transférer vers un cloud ou un data center. D’ici quelques années, cette technologie devrait permettre d’augmenter la vitesse de traitement des données, de faire des économies d’énergie et d’améliorer la sécurité dans les opérations liées à la collecte et à l’analyse des données.
En bref, la fusion des ressources et des capacités de Nvidia et d’ARM les place dans une position unique pour capitaliser sur les tendances technologiques qui seront sans doute les plus importantes de la prochaine décennie.
Outre les actionnaires de Nvidia et d’ARM, les gagnants pourraient être les entreprises qui comptent sur l’exploitation de ces tendances pour générer de nouvelles sources de revenus, grâce à la fourniture de services de données. Une intégration plus efficace de l’IA dans l’ensemble des appareils qui composent l’Internet des objets, de la périphérie au cloud, représente plus de possibilités d’innover grâce à des déploiements technologiques connectés plus intelligents. La saisie et le traitement plus efficaces et plus sûrs des données sur nos appareils conduiront à des applications mobiles plus utiles (et plus sécurisées), mieux capables de suivre la croissance considérable de la quantité de données que nous sommes en mesure de saisir.
Mais il y aura probablement aussi des perdants de cette collaboration, en l’occurrence, les plus grands fournisseurs de processeurs pour les cloud data center (Intel et AMD). En raison de leur monopole, la plupart du machine learning dans le monde a jusqu’à présent été réalisé avec des processeurs Intel ou AMD, qui travaillent souvent avec les GPU Nvidia dans le cloud. Cela inclut les fonctions de base des géants du web comme Amazon, Google et Facebook, mais aussi celles effectuées sur leurs plateformes par des fournisseurs de services tiers, comme Netflix ou Uber.
Avec le passage au mobile, dans lequel ARM est le leader incontesté, les choses vont probablement changer. La collecte et l’analyse de données peuvent aujourd’hui être effectuées directement sur votre téléphone, comme les calculs basés sur vos données personnelles qu’Amazon effectue pour déterminer ce qu’il faut essayer de vous vendre, ou ceux effectués par Netflix ou Spotify pour prédire ce que vous voulez regarder/écouter par la suite. Cela pourrait conduire à des niveaux de personnalisation plus élevés et à des prédictions plus utiles, sans que les entreprises de la tech qui effectuent ce travail aient besoin de voir les données sur lesquelles les décisions sont basées.
Pour conclure, l’annonce de la fusion à 40 milliards de dollars ne devrait pas surprendre ceux qui ont suivi de près les deux entreprise, car elles ont souvent coopéré par le passé. Maintenant qu’elles sont prêtes à associer pleinement leurs forces, le secteur pourrait grandement évoluer d’ici quelques années.
Article traduit de Forbes US – Auteur : Bernard Marr
<<< À lire également : Navigation Sur Internet : Votre Historique Suffit À Vous Identifier >>>
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits