Hupster

Tous les jours, une question sur l’économie de la création et tous les mercredis une saga décryptée sur une entreprise qui cartonne 💡

image_author_Hupster_null
Par Hupster
12 déc. · 2 mn à lire
Partager cet article :

👀 Peut-on virer les IA et les robots ?

👉 Ou comment on applique le langage du monde du travail à des machines...

☕️ Hello, non, ne riez pas, il s’agit d’une question très sérieuse. Et elle s’est déjà posée «en vrai». Un journal local à Hawaii qui avait « engagé » des présentateurs générés par l’IA pour mettre des infos en vidéos a préféré mettre fin à l’expérimentation: les robots n’avaient jamais réussi à trouver le bon ton, ni la bonne manière de prononcer certains noms hawaïens.

🧐 Rien de très surprenant jusqu’ici. Mais étonnement, tout le vocabulaire — le « wording »— utilisé dans la manière de rendre compte de cet événement relève du monde du travail. Ainsi, les robots ont été « virés ». Un abus de langage mais qui pose donc de bonnes questions : Peut-on virer une IA ou un robot ? Qui est responsable de leur licenciement, de leurs actes, de leurs fautes ?

🙋 Je suis allé poser ces questions un peu incongrues à Aurore Sauviat, avocate experte des sujets tech (vous pouvez d’ailleurs suivre son compte LinkedIn, elle parle régulièrement de ce genre de problématiques). Elle a répondu très sérieusement. Et finalement, mes questions n’étaient pas si connes.

🧨 Au programme : 504 mots pour 3 min de lecture. Enjoy ! David.


« Cette question est un sujet qui revient beaucoup dans notre cabinet d’avocats en ce moment. De quoi est-on responsable quand on met en place un chatbot et surtout quand il a des hallucinations ? Parce qu'avec l'IA, ces hallucinations sont inévitables. Et la réponse assez simple : on est toujours responsable des outils qu'on met en place. La personne morale qui les met en place sera la personne responsable juridiquement.

On peut même se référer à une jurisprudence existante, celle d’Air Canada. Je vous raconte l’histoire. Au départ, il y a un monsieur qui perd sa grand-mère. Certaines compagnies aériennes permettent d'avoir des billets d'avion à coût réduit quand on voyage pour cause de décès ou pour se rendre à un enterrement. L’homme va sur le chatbot de Air Canada, et il dit : « voilà, je viens de perdre ma grand-mère, je dois me rendre dans tel Etat, est-ce que je suis bien éligible à la réduction pour voyager pour cause de décès ? »

La jurisprudence Air Canada, ça vous parle ?

L'IA lui dit : « ouais, ouais, pas de problème, prenez votre billet, et puis une fois que vous avez effectué votre voyage, envoyez-nous votre billet, on vous assurera le remboursement. » L’homme enterre sa grand-mère, il demande le remboursement, et là, Air Canada lui dit : « ah bah non, en fait, votre voyage n’était pas éligible à cette offre-là ».

L’usager précise alors que c'est leur chatbot qui lui a donné cette information, et que c'est même pour ça qu’il a pris son billet chez eux. La défense d'Air Canada, c'est de dire que la vraie information était sur leur site internet, et qu’ils n’étaient pas tenus par ce qu’a dit le chatbot.

Forcément, le monsieur assigne Air Canada. La compagnie tente de plaider que le chatbot est une entité juridique, distincte et autonome. Forcément, le tribunal a dit non. Les entreprises sont responsables de leurs chatbots. Si une information trompeuse est donnée à un consommateur, l’entreprise doit prendre en charge le préjudice. Et c’est une règle universelle. »


UN MOT DE NOTRE SPONSOR

Sherpai, le guide IA pour atteindre les sommets des réseaux sociaux. Toutes vos données issues des réseaux sociaux au même endroit. L’intelligence artificielle pour les interpréter. Pour plus d’infos, contactez agathe@loopsider.com.


« Ce qui est sûr, c’est qu’on ne peut employer que des personnes physiques. Le droit du travail ne peut pas s’appliquer à des robots. En disant qu’on les licencie, on est en train de dévoyer le langage. Et derrière cet abus de langage, il y a une dérive générale sur tout ce qu'on lit sur l'intelligence artificielle, une profonde méconnaissance de la manière dont ça fonctionne. On se retrouve avec des antagonismes très forts entre les gens qui absorbent complètement l'outil et prennent tout au premier degré, et les autres qui le rejettent complètement comme si c'était le diable.

Il y a un vrai problème d'éducation sur la manière dont la technologie fonctionne, sur les aspects juridiques aussi. Je fais des formations sur les sujets IA, et en fait, en amont, je suis quand même obligée de faire des formations sur le droit : non, une IA n'est pas une entité juridique autonome, elle ne peut pas avoir des droits d'auteur par exemple, elle peut pas être employée par quelqu’un. Celui qui est responsable, c'est soit une personne morale, soit une personne physique. Quelqu’un qui a une existence juridique.»

(À demain pour une nouvelle question Hupster)


UN MOT DE NOTRE CHAINE YOUTUBE

Cette semaine, on reçoit l’un des plus fins connaisseurs de YouTube : Ludoc ! Co-créateur du Studio Bagel, bricoleur infatigable, et même aujourd’hui enquêteur pour sa propre chaine, il nous parle de ses souvenirs du Youtube des années 2010, de ses prochains projets en passant par quelques anecdotes complètement folles avec Snoop Dogg, Jean Roch et Lionel Messi (tout simplement) ! Pour voir tout ça, c’est ici. Hésitez pas à commenter la vidéo si ça vous a plu et à nous suggérer d’autres noms d’invités que vous voudriez voir sur la chaine.