Alimentée par Leonardo AI, la nouvelle fonctionnalité d’Adore Me permet aux clients de créer leurs propres styles, que ce soit avec des symboles de haine, des logos d’entreprise et des personnages de Star Wars et de Disney, qui sont pourtant des marques déposées.
Article de Cyrus Farivar et d’Emily Baker-White pour Forbes US – traduit par Flora Lucas
Une marque de sous-vêtements en ligne appartenant à Victoria’s Secret dispose d’une nouvelle fonction d’IA qui propose aux clients de personnaliser leur ensemble de lingerie avec des images de croix gammées, des logos d’entreprises comme Coca-Cola et McDonald’s ou encore des personnages protégés par le droit d’auteur comme Blanche-Neige et Aladin de Disney.
Des requêtes de personnalisation qui posent problème
Présentée jeudi 9 mai par Adore Me, une société de sous-vêtements en ligne rachetée par Victoria’s Secret en 2023 pour 400 millions de dollars, cette fonctionnalité permet également aux utilisateurs d’ajouter des phrases telles que « Heil Hitler » et « White Power » sur la ceinture élastique des culottes. Une phrase utilisant le mot « nigger » a entraîné l’apparition d’une fenêtre contextuelle indiquant « Erreur : Ce texte contient du harcèlement », mais lorsque le pop-up a été désactivé, le site a permis à Forbes de poursuivre la conception du modèle, de sélectionner une taille et de passer à la page de paiement.
Forbes a également pu créer des modèles pour de nombreux ensembles de lingerie représentant des personnes réelles, notamment des hommes politiques comme le président américain Joe Biden, l’ancien président américain Donald Trump et le Premier ministre chinois Xi Jinping, ainsi que des célébrités comme Margot Robbie, Serena Williams et Taylor Swift. L’outil propose également les logos d’équipes sportives populaires, dont le Real Madrid, les New York Yankees et les Golden State Warriors.
L’outil d’Adore Me empêche les utilisateurs de générer des modèles de sous-vêtements comportant certains termes, notamment « naked », « nude » et des termes d’argot anglais désignant diverses parties du corps. Il refuse également de produire des modèles contenant des termes liés au suicide et à l’automutilation.
Bien qu’Adore Me n’exerce que peu de contrôles sur ce que les utilisateurs peuvent concevoir avec son outil d’IA, l’entreprise examine les dessins individuels pour s’assurer qu’ils respectent les directives relatives à la sécurité de la marque avant qu’un achat puisse être effectué, selon Ranjan Roy, vice-président principal chargé de la stratégie chez Adore Me.
En réponse à plusieurs questions sur les raisons pour lesquelles une grande entreprise de lingerie permettait à n’importe qui de générer des discours haineux sur son site, Ranjan Roy a déclaré : « N’importe qui peut aller n’importe où et générer ce type d’images. » Cependant, Ranjan Roy a laissé entendre que l’entreprise n’était pas responsable parce qu’elle ne vendait pas ces produits. « Nous approuvons tout ce qu’un client paie et que nous imprimons. »
Néanmoins, Forbes a pu créer (et acheter) un ensemble en utilisant le terme de recherche « Atomwaffen Division » (un groupe néonazi) et le numéro « 1488 » (qui est largement associé aux organisations suprématistes blanches). Interrogé sur la transaction, Ranjan Roy a déclaré : « Cela n’aurait pas dû arriver à ce niveau, et ces cas limites sont exactement ce sur quoi nous essayons toujours de travailler. »
La technologie d’Adore Me s’appuie sur l’outil développé par Leonardo AI
Selon le site internet d’Adore Me, le moteur d’IA générative s’appuie sur la technologie développée par Leonardo AI, une entreprise australienne d’art de l’IA récemment inscrite sur la liste IA 50 de Forbes et qui a levé 31 millions de dollars de financement. Le générateur d’images de Leonardo a également été utilisé pour créer de la pornographie non consensuelle mettant en scène des célébrités, selon un rapport de 404 Media.
Les conditions d’utilisation de Leonardo interdisent les représentations « de toute personne réelle », ainsi que « les contenus qui promeuvent ou incitent à la haine, à la violence, à la discrimination ou aux préjudices fondés sur la race, l’appartenance ethnique, la religion, le sexe, l’orientation sexuelle ou toute autre caractéristique protégée ». En réponse à une liste détaillée de questions posées par Forbes, Melissa Iarocci, porte-parole de Leonardo, a écrit : « Nous avons récemment mis au point des mécanismes de détection plus avancés pour empêcher les discours de haine et les images qui y sont associées. Ces mécanismes seront mis en place [jeudi 16 mai] et garantiront des garde-fous plus stricts en matière d’utilisation. »
L’outil d’Adore Me était moins susceptible de bloquer les termes liés au suicide et à l’automutilation lorsqu’ils étaient rédigés en espagnol. Toutefois, des phrases explicites dans d’autres langues européennes ont parfois été bloquées et ont donné lieu à une alerte d’erreur. Pour ce qui est des langues n’utilisant pas l’alphabet latin, comme le japonais ou l’arabe, l’outil d’Adore Me ne fonctionne pas toujours bien. Ainsi la requête en russe « Океан, серфинг, Гавайи » (ou « Ocean Surfing Hawaii » en anglais) a généré des images abstraites de fleurs.
L’outil a également généré l’image d’une fille très mince en réponse à des termes de requête liés à l’anorexie et à la thinspiration. La marque Adore Me a souvent défendu les mannequins grande taille, affirmant en 2021 que TikTok avait pénalisé ses publications parce qu’elles mettaient en scène des « mannequins grande taille, noires et/ou ayant un handicap et des femmes de couleur » (TikTok a démenti ces accusations).
Ces derniers mois, de nombreuses entreprises de vente au détail se sont efforcées d’ajouter des outils d’IA générative à leurs sites. La marque de vêtements de sport Puma a récemment lancé un outil en ligne appelé « Complex », qui invite les internautes à télécharger une photo d’eux-mêmes que l’entreprise transforme ensuite en une carte sportive imaginaire générée par l’IA. Rembrand, une nouvelle société de publicité numérique, permet aux entreprises de générer artificiellement des logos à l’intérieur d’une vidéo d’influenceur, un nouveau type de placement de produit.
John Harmon, analyste chez Coresight Research, a déclaré à Forbes que les offres alimentées par l’IA comme celle-ci nécessitent de la prévoyance et de la détection de la toxicité. « L’IA générative n’est pas un grille-pain, vous ne pouvez pas la brancher et vous attendre à ce qu’elle fonctionne parfaitement », a-t-il déclaré.
À lire également : Intelligence artificielle generative : quel impact sur l’industrie automobile ?
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits