Les machines vont elles nous tuer ?

Rosalie Bourgeois de Boynes
4 min readJan 17, 2019

L’utilisation de l’intelligence artificielle bouleverse transversalement toutes les industries qui existent. Plus que la simple automatisation mécanique des révolutions technologiques précédentes, l’intelligence artificielle nous confronte à l’indépendance des machines par rapport à l’homme. Les machines utilisant l’intelligence artificielle se divisent en deux catégories : celles, automatiques et préprogrammées, qui ont besoin de l’homme et ont une durée de vie limitée en termes de compétitivité, et celles, indépendantes, qui dépassent les attentes de leurs concepteurs en capacité d’apprentissage et en intelligibilité de fonctionnement.

Le concepteur d’IA peut-il perdre le contrôle d’une machine ? Courrons-nous le risque d’être asservi par la technologie ou bien le simple fait de s’interroger sur la responsabilité indépendante des algorithmes nous cache les véritables risques à l’œuvre, qui découlent des finalités des modèles et de leur utilisation, au titre desquels on compte le monopole, la pensée unique, l’hypercontrôle ?

Gouvernance et souveraineté : la prise de pouvoir par l’intelligence artificielle

L’intelligence artificielle a suscité des sentiments contradictoires entre enthousiasme et inquiétude, fascination et contestation. L’IA définissant avant tout le champ de recherches se donnant pour objectif de comprendre comment reproduire les fonctionnements de la cognition humaine, de nombreux penseurs sans formation informatique se sont livrés à des jeux de logique pour imaginer des « agents intelligents » puis ont désigné ces agents comme étant doté d’Intelligence Artificielle. Autrement dit, si leurs Design Fictions sont pleines d’enseignement pour de futures explorations, seules une minorité sont réellement exploitables par la data science qui fonctionne avec d’autres modèles et surtout d’autres outils de modélisation. N’en déplaise donc aux penseurs de la superintelligence et de la singularité (Asimov, Bostrom, MIRI, The Future of Humanity Institute, Kurzweil), ce sont bien les hommes qui contrôlent actuellement les machines et, si elles peuvent évoluer indépendamment de l’hommes, elles ne peuvent pas prétendre se donner leurs propres lois à elles-mêmes. Les algorithmes ne sont pas stricto sensu les nouveaux décideurs. En revanche, précisément parce qu’ils sont mis entre les mains d’une poignée d’hommes, il y a des risques que ces hommes-là agissent suivant leurs passions et non suivant leur raison. Là où l’avènement des superintelligences est hypothétique ; ce risque-là est bien actuel. L’intelligence artificielle peut en effet être programmée à des fins dévastatrices. Adorno écrit : « Ce n’est pas la technique qui est une fatalité, mais le fait qu’elle soit entrelacée avec les rapports sociaux dont elle a auparavant été désolidarisée »[1]. Ce n’est pas la machine en elle-même qui est une source d’asservissement, mais son utilisation. La question fondamentale est donc une question de gouvernance et de souveraineté. Il est de la responsabilité des acteurs publics et privés, au rang desquels on compte les GAFAM, de considérer le pouvoir qu’ils ont sur les personnes.

Big data et données personnelles

Les algorithmes de machine learning devant être entraînés sur de larges volumes de données pour gagner en probabilité de pertinence, la course à la collecte d’informations personnelles s’est étendue à l’ensemble des entreprises, faisant perdre l’anonymat et le caractère privé de la vie du « citoyen-consommateur », car plus on a de data, meilleur est le produit et meilleur est le produit, plus il y a de data collectée et de talents recrutés, et de meilleurs produits. Le RGPD (Règlement Général de Protection des Données) a apporté une réponse sur le traitement des données personnelles pour forcer à l’anonymisation des données et freiner la tendance à l’hyper-personnalisation des services et contenus, en désaccord avec le principe du droit à la vie privée. Il étend la protection des données de l’Union Européenne à l’ensemble des entreprises étrangères collectant les données des résidents européens depuis mai 2018. Les pénalités peuvent aller jusqu’à 4% du chiffre d’affaire de la dernière année fiscale pour la collecte et le traitement des données sans le consentement explicite des personnes.

5 principes éthiques de l’IA

La pensée unique

Les modèles d’intelligence artificielle étant pour la majorité des modèles statistiques, l’ouverture culturelle et le pluralisme démocratique sont mis en danger. En effet, si l’on prétend que l’intelligence artificielle est équivalente à l’intelligence humaine, alors on élague les irrégularités de l’intelligence humaine, donc la diversité d’opinions. Si dans un modèle mécanique, à un stimulus ne correspond qu’une seule réaction et que l’on observe une multitude de réactions humaines dans la vie de tous les jours, alors il est dangereux de calquer le fonctionnement humain sur le fonctionnement de la machine. Le problème d’un modèle de machine learning statistique est l’écrasement des franges aux extrêmes. Avec nos outils informatiques mobiles et individuels, nous sommes passés d’un système d’informations de masse à un système d’informations personnalisé. Autrement dit, ce que je lis sur mon fil d’actualités n’est pas la même chose que vous lisez. De même, imaginons passer de modèles d’intelligence artificielles générales vers des modèles personnalisés : quelles procédures imaginer pour éviter que l’utilisation des algorithmes n’ait pas pour effet l’imposition à tous de systèmes de valeurs particuliers ? Pouvons-nous éviter de voir les intérêts des développeurs et des acteurs privés déterminer les critères de fonctionnement des algorithmes ou encore ceux de l’entité qui a fourni les données traitées par l’algorithme ? En premier lieu, il convient de toujours encourager la recherche sur le fonctionnement de l’esprit humain dans sa complexité, et d’accélérer le développement de nouveaux modèles algorithmiques plus nuancés. En second lieu, la supervision humaine et les règles d’experts doivent rester une composante majeure de l’élaboration de ces modèles et une organisation plus transparente des comités d’éthique.

[1] Adorno, GS 8, 362

--

--

Rosalie Bourgeois de Boynes

I am a French AI enthusiast, looking forward to discovering the new developments of AI that would be closer to the way human brain functions.