Le 26 mai 2019, Beijing a publié des standards éthiques pour l’Intelligence Artificielle (Beijing AI Principles).

On imagine mal la Chine se soucier de considérations éthiques dans l’IA, à l’heure où la reconnaissance faciale dans l’espace public et la notion de crédit social semblent se déployer à l’échelle institutionnelle. Pourtant, les principes récemment publiés sont assez similaires à ceux émis par les institutions occidendales (UNESCO, OCDE ou encore Commission Européenne) : on y retrouve “le respect de la vie privée, de la dignité, de la liberté et des droits”.

Pourquoi les publier ?

Dans le contexte tendu de guerre économique déclarée entre la Chine et les Etats-Unis, on peut considérer que la publication de ces standards éthiques constitue une main tendue pour renouer un dialogue international dans le domaine de la tech.

Qui les publie ?

Ces principes ont été dévoilés par l’Académie  d’Intelligence Artificielle de Beijing (Beijing Academy of Artificial Intelligence – BAAI), l’Université de Peking, L’Université Tsinghua, l’Institut d’Automatismes et l’Institut des Technologies Computationelles de l’Académie des Sciences de Chine, et un groupe  d’industriels de l’IA incluant des entreprises telles que Baidu, Alibaba et Tencent (trois des fameux BATX chers à Laurent Alexandre – Xiaomi ne semble pas être signataire).

Quartiers généraux de la vidéosurveillance de Beijing, PRC
Que contient le texte ?

Voici en bref la traduction de ces différents standards éthiques pour l’Intelligence Artificielle.

Vous pouvez retrouver le texte détaillé en anglais ici, sur le site de la BAAI.

 

Recherche et développement :
  • faire le bien,
  • être au service de l’Humanité, se conformer aux valeurs humaines telles que dignité, liberté, autonomie…
  • être responsable, notamment au regard des impacts éthiques, légaux, sociaux,
  • maîtriser les risques,
  • être éthique, notamment réduire les biais et la discrimination “by design”,
  • refléter la diversité, être inclusif,
  • ouvrir et partager l’information, éviter les monopoles, pour le profit du plus grand nombre.

 

Usages :
  • utiliser avec sagesse et de façon appropriée, éviter les mésusages et les abus,
  • informer sur les droits des usagers et leurs intérêts, pour un consentement éclairé,
  • les professionnels de l’IA doivent être éduqués et formés régulièrement, notamment sur les impacts psychologiques, émotionnels, techniques de l’IA.

 

Gouvernance de l’IA :
  • l’IA doit aider et optimiser l’emploi humain, non le mettre en danger.
  • L’harmonie et la coopération doit être encouragées sur le sujet de l’IA entre les secteurs, les domaines, les organisations, les zones géographiques.
  • Les réglementations et les lois doivent régulièrement être révisées et adaptées afin de correspondre à la réalité du développement des technologies.
  • Les cas d’usages et l’étude de l’IA doivent être segmentés de façon fine afin de détailler les principes de façon spécifique et d’implémenter de façon adaptée.
  • La prise de décision doit être stratégique et la planification se faire à long-terme.
Que peut-on en conclure ?

Après la constitution d’un groupe de travail à l’UNESCO, la publication de guidelines de la Communauté Européenne,  l’adoption de principes par l’OCDE, et même des discussions au sein du secret et fantasmé groupe Bilderberg, à la suite de la Chine, c’est le Forum Economique Mondial qui a annoncé le 29 mai la création d’un Conseil Global de l’Intelligence Artificielle.

On peut et on doit sérieusement se poser la question de savoir quand ces règles se déclineront en obligations légales, et comment.


Also published on Medium.

About Author

Related posts

Laisser un commentaire