jouvenot.com

La Transformation Digitale : Les questions éthiques en termes de dignité humaine

Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

La question essentielle qui me semblait nécessaire à développer est la dignité humaine dans une société de plus en plus digitale. Que devient la complexité de la nature humaine ? Peux-t-on parler encore de richesse de la diversité ?

Déshumanisation et employabilité

Bien que la robotique puisse apporter un grand soutien dans les soins de santé, le divertissement, la police et l’armée, il faut que la technologie soit appliquée dans un certain cadre réglementaire. Si ce n’est pas le cas, elle peut miner la dignité humaine. Il s’agit du risque d’objectivation ou d’instrumentalisation des personnes, c’est-à-dire de déshumanisation. Le secteur des soins de santé semble préoccupé par la mise en œuvre de la robotique. La façon dont les robots sont déployés semble être une préoccupation. M.Coeckelberg[1] soutient que les robots de soins ne devraient être utilisés que pour des « tâches de soins de routine ». Cela signifie des tâches pour lesquelles aucune implication émotionnelle, intime et personnelle n’est requise. Si des robots sont déployés pour remplacer le soignant, il y a un risque que les soins soient déshumanisés selon A.Sharkey[2]. Lorsque les robots prennent en charge des tâches telles que l’alimentation et le levage, les personnes en quête de soins peuvent se sentir traitées comme des objets. La plainte éthique au sujet de l’« objectivation » est liée à l’idée que les robots ne peuvent pas fournir de soins. L’argument sous-jacent est que les robots sont des dispositifs qui ne sont pas capables de reproduire l’empathie. Le contact humain est généralement considéré comme essentiel pour fournir de bons soins. La qualité de vie du patient doit donc être le principe directeur de la robotique dans les soins de santé selon A.Van Wynsberghe[3].

Il existe également un risque de déshumanisation dans d’autres domaines que la santé. Dans le domaine de la défense, les soldats qui contrôlent des robots armés à distance ne sont pas présents dans la zone dangereuse. Dans une telle situation, l’utilisation de robots téléguidés crée une distance émotionnelle et morale, entre l’action et les implications éthiques de cette action. Les partisans soutiennent que cela peut réduire la souffrance psychologique chez les soldats, tout en rendant les décisions plus rationnelles[4]. Les critiques craignent que le danger qui se cache dans la création d’une plus grande distance entre une action et ses conséquences amène les contrôleurs à prendre des décisions importantes, parfois de vie ou de mort, comme s’ils jouaient à un jeu vidéo. Les robots armés téléguidés peuvent augmenter le risque de déshumaniser l’ennemi et de désensibiliser le contrôleur selon L.Royakkers et Q.Van Est[5].

Un autre aspect qui a fait l’objet de nombreuses discussions ces dernières années est l’impact potentiel de la robotisation sur l’emploi. Les robots ne sont pas seulement capables de supporter des tâches humaines. Ils peuvent de plus en plus les remplacer et donc détruire des emplois. Deux écoles opposées dominent cette discussion sur l’effet de l’automatisation. D’une part, la robotisation mène à la croissance économique, à la croissance de l’emploi (de nouveaux emplois sont créés) et à une distribution acceptable de la richesse. D’autre part, la robotisation mène à une diminution des emplois et par conséquent à un déclin de la prospérité selon R.Van Est et L.Kool[6].

L’utilisateur standard peut ne pas être « si standard »…

Les systèmes biométriques peuvent donner à la fois des résultats « faux négatifs » et « faux positifs ». Vous obtenez un résultat « faux négatif » lorsque le dispositif d’identification ne reconnaît pas une personne autorisée. Ce n’est pas nécessairement un problème si elle peut immédiatement réessayer de s’identifier. Mais dans certains cas, ce taux d’erreur peut amener à des inconvenances. Par exemple, un automobiliste aux États-Unis s’est fait retirer son permis parce que le système de reconnaissance faciale l’a pris pour une autre personne. Il a fallu 10 jours de querelles bureaucratiques avant qu’il puisse prouver qui il était et finalement récupérer son permis[7]. Cet exemple montre que l’utilisation de systèmes biométriques peut mener à l’instrumentalisation de l’individu, réduisant ainsi ce dernier à un point de données dans un système. La convivialité de la biométrie est excellente si le système fonctionne bien. Mais pour ceux qui sont incorrectement identifiés et rendus suspects par le système, il est souvent très difficile de rectifier les erreurs. En outre, il semble que la biométrie ne puisse pas être utilisée pour tout le monde. Deux pour cent des empreintes digitales des personnes ne peuvent être « lues » parce qu’elles sont âgées ou à cause de certains traitements de chimiothérapie[8]. Ce type de problème se pose dans de nombreux systèmes numériques. Ils sont conçus sur la base de caractéristiques d’utilisateur standard, ce qui signifie qu’ils ne sont pas toujours applicables aux personnes qui ne répondent pas à ces critères, par exemple parce que leur nom ne correspond pas au système ou qu’elles ont changé de sexe.

Comportements contrôlés

Une des objections à la technologie persuasive est que les actions des utilisateurs n’ont plus rien à voir avec l’éthique. Ils ne prennent pas de décisions morales, mais se contentent d’afficher un comportement contrôlé selon A.Spahn[9]. Un système d’aide à la conduite, qui nous avertit en permanence si nous conduisons trop vite, peut être très efficace en matière de sécurité. Mais le risque est une certaine réduction de notre vigilance. La technologie persuasive est potentiellement un outil de réglementation puissant, mais les questions morales appellent un examen plus approfondi de son application en tant qu’instrument de réglementation technique. Les critiques brossent un tableau sombre et pessimiste de la technologie persuasive qui crée une société dont les citoyens sont contrôlés pour se comporter conformément à la norme, sans ressentir cette norme eux-mêmes. La critique sur l’Internet par E.Morozov[10] plaide donc en faveur d’une technologie qui stimule la capacité de délibération des individus. Ils doivent recueillir des informations, consulter d’autres personnes et échanger des arguments. L’objectif est d’encourager la réflexion menant finalement à un changement de comportement. Une voiture intelligente incite l’utilisateur à conduire de façon plus économique, mais ne pense pas à laisser la voiture dans le garage pendant une journée. De l’avis d’E. Morozov, la technologie persuasive devrait donc nous encourager à faire les bons choix.

Discrimination

Certains lecteurs se souviennent peut-être de Tay, un chatbot IA créé par Microsoft qui a fait sensation dés 2016.

Le bot a reçu un compte Twitter, et il a fallu moins d’une journée pour que les utilisateurs l’entraînent à poster des tweets offensifs soutenant Adolf Hitler et la suprématie blanche. Le problème ici venait du fait que le chatbot a été formé pour imiter les utilisateurs qui interagissant avec lui en ligne. Compte tenu de la nature souvent sombre de certains coins de l’Internet, on peut dire que les tweets racistes et misogynes n’étaient pas surprenants.

L’embarras a forcé Microsoft à retirer le compte pour éviter de nuire à son image. Bien que cet événement se soit avéré sans incidence pour la marque, il a déclenché un débat sérieux sur la possibilité que l’IA devienne une source de préjugés.

Toby Walsh a dit que la discrimination était l’une des « conséquences inattendues » que l’on peut attendre de la technologie. « Nous voyons cela avec un biais involontaire dans les algorithmes, en particulier l’apprentissage automatique (machine learning) qui menace de créer des préjugés raciaux, sexuels et autres que nous avons passé plus de 50 ans à essayer d’éliminer de notre société », a-t-il dit[11].

La question, disent les experts, est liée à la faisabilité de faire de l’IA un penseur objectif, rationnel, sans préjugés en faveur d’une race, d’un sexe ou d’une sexualité particulière.

Néanmoins, les chercheurs et les développeurs ont réfléchi sérieusement au sujet. Ils ont examiné la manière dont la technologie de reconnaissance faciale semble plus efficace pour discerner les visages blancs que les visages noirs. Ils ont aussi constaté que les systèmes d’IA de traitement du langage peuvent être biaisés, associant certains genres et races à des rôles stéréotypés.

Le gros problème dans la reconnaissance faciale est que des études montrent que les systèmes commerciaux sont plus précis si vous êtes blanc et de sexe masculin. Cela s’explique en partie par le manque de diversité dans les données, les personnes de couleur apparaissant moins fréquemment que leurs pairs.

IBM est l’une des entreprises qui tentent de lutter contre ce problème. Elle emploie même des chercheurs qui se consacrent à la lutte contre la discrimination dans le domaine de l’IA. Aujourd’hui, l’entreprise a annoncé deux nouveaux ensembles de données publiques que n’importe qui peut utiliser pour former des systèmes de reconnaissance faciale. L’un d’entre eux a été spécialement conçu pour aider à éliminer les préjugés.

Le premier ensemble de données contient 1 million d’images et aidera à former des systèmes qui peuvent repérer des attributs spécifiques, comme la couleur des cheveux, la couleur des yeux et les poils du visage. Chaque visage est annoté de ces caractéristiques, ce qui permet aux programmeurs d’affiner plus facilement leurs systèmes pour mieux distinguer, par exemple, une moustache. Ce n’est pas le plus grand ensemble de données publiques utilisé pour les systèmes de reconnaissance faciale, mais IBM dit que c’est le plus grand incluant des spécificités.

Le deuxième ensemble de données est le plus intéressant. Il est plus petit que le premier et contient 36 000 images. Mais les visages inventoriés sont un mélange égal d’ethnies, de genres et d’âges. De la même manière que les étiquettes d’attributs faciaux aident à former les systèmes d’IA à reconnaître ces différences, le fait d’avoir une diversité de visages devrait aider les systèmes à surmonter divers biais. Les deux ensembles de données ont été constitués à partir d’images affichées sur Flickr avec des licences Creative Commons, ce qui permet souvent de les utiliser à des fins de recherche.

Désocialisation et aliénation

La technologie de Réalité Virtuelle défie la distinction habituelle entre les mondes réels et virtuels. Cela fait craindre qu’à un certain moment, les individus ne puissent plus distinguer le « réel » du « faux ». Melson[12] craint que l’utilisation massive de ces technologies ne remplace notre interaction avec le monde. Madary et Metzinger[13] expriment même le danger que les utilisateurs fréquents de RV considèrent le monde réel et leur corps comme irréel, et que leur sens de la réalité se déplace exclusivement vers l’environnement virtuel. Ils finissent par négliger leur environnement physique et social réel.

En ce qui concerne le déplacement des contacts sociaux vers le monde virtuel, S.Turkle[14] craint que les individus perdent leurs compétences sociales. C’est-à-dire qu’ils ne sont plus capables de faire face au rejet et d’argumenter leur désaccord, si les contacts virtuels venaient à se généraliser dans le futur[15]. La crainte de S.Turkle sur la perte de cette compétence sociale est basée sur ses recherches concernant l’influence des médias sociaux et des téléphones mobiles sur la communication entre jeunes. S.Turkle soutient que la jeune génération est beaucoup moins empathique que les précédentes, parce que l’intimité peut être évitée et que les relations par le biais des médias sociaux ou de la RV sont moins contraignantes. T.Dotson[16] envisage même un avenir où nous aurons, exclusivement, des contacts avec des personnes virtuelles. Selon lui, cela contribuera à un changement indésirable dans la vision collective de la « sociabilité authentique ». Un petit groupe d’hommes japonais, surnommé « Otaku », a déjà indiqué qu’ils préfèrent une petite amie virtuelle à une vraie relation : « Avec de vraies petites amies, il faut envisager le mariage. J’y pense à deux fois avant de sortir avec une femme en 3D »[17]. Un autre risque selon F.O’Brolcháin[18] est que la RV peut créer une dépendance, tout comme le monde virtuel a produit d’autres dépendances. Les jeux de hasard et la pornographie sont constamment disponibles sur Internet, ce qui permet de nouvelles formes de dépendance en ligne.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

 

[1] M. Coeckelbergh, “Health care, capabilities, and AI assistive technologies”, 2010, Ethical Theory and Moral Practice, 13(2), 181–190.

[2] A. Sharkey, “Robots and human dignity: A consideration of the effects of robot care on the dignity of older people”, 2014, Ethics and Information Technology, 16(1), 63–75.

[3] A. Van Wynsberghe, « Robots in healthcare: Design, use and implementation», 2015, Farnham : Ashgate.

[4] P.Lee, “Remoteness, risk and aircrew ethos”, 2012, Air Power Review, 15(1), 1–19.

[5] L. M. M. Royakkers, & Q. Van Est, « The cubicle warrior: The marionette of the digitalized warfare”, 2010, Ethics and Information Technology, 12(3), 289–296.

[6] R. Van Est, L. Kool, « Working on the robot society. Visions and insights from science about the relation technology and employment.”, 2015, The Hague: Rathenau Institut.

[7] http://www.schneier.com/crypto-gram/archives/2011/0815.

[8] K.Renaud, A.Hoskins, R.Von Solms, « Biometric identification: Are we ethically ready?”, 12-13 août 2015, Information Security for South Africa (ISSA2015). Johannesburg, http://ieeexplore.ieee.org/document/7335051/?reload=true.

[9] A. Spahn, “Ideas in motion. Moralizing mobility? Persuasive technologies and the ethics of mobility”, 2013, Transfer, 3(2), 108-115.

[10] E. Morozov, “The rise of data and the death of politics”, 20 juillet 2014, The Guardian; https://www.theguardian.com/technology/2014/jul/20/rise-of-data-death-of-politics-evgeny-morozov-algorithmic-regulation.

[11] Toby Walsh, « 2062 : The world that AI Made », 2018, éditeur : LA TROBE University Press

[12] G.F.Melson, P. H. Kahn, A.Beck, & B. Friedman, “Robotic pets in human lives: Implications for the human-animal bond and for human relationships with personified technologies”, 2009, Journal of Social Issues, 65 (3), 545–569.

[13] M.Madary, T. K. Metzinger, “Real virtuality: A code of ethical conduct. Recommendations for good scientific practice and the consumers of VR-technology”, 2016, Frontiers in Robotics and AI, 3(3),  https://doi.org/10.3389/frobt.2016.00003.

[14] S. Turkle, “Alone together. Why we expect more from technology and less from each other”, 2011,New York: Basic Books.

[15] J. P Sullins, “Robots, love and sex: The ethics of building love machines”, 2012, Affective Computing, 3(4), 398–409.

[16] T.Dotson, “Authentic virtual others? The promise of post-modern technologies”, 2014, AI & Society, 29(1), 11–21.

[17] A.Rani, “The Japanese men who prefer virtual girlfriends to sex”, 2013, BBC, 24-10-2013. from http://www.bbc.com/news/magazine-24614830.

[18] F.O’Brolchain, T.Jacquemard, D.Monaghan, N.O’Connor, P.Novitzky, B. Gordijn, “The convergence of virtual reality and social networks: Threats to privacy and autonomy”, 2016, Science and Engineering Ethics, 22(1), 1–29.

Résumé
Article Name
La Transformation Digitale : Les questions éthiques en termes de dignité humaine
Description
La question essentielle qui me semblait nécessaire à développer est la dignité humaine dans une société de plus en plus digitale. Que devient la complexité de la nature humaine ? Peux-t-on parler encore de richesse de la diversité ?
Bertrand Jouvenot