Réussir à créer une IA éthique


Pour réussir cela nous devons soulever toutes les questions éthiques (les combiner entre elles) et dépasser nos structures mentales, en combinant nos savoirs, en établissant notamment des réflexions pluridisciplinaires...  Les grands sujets actuels :

  • le design de l'attention (comment rendre nos outils corrects et non détournant notre attention ?)
  • la cryptographie
  • les mathématiques avec l'inférence bayésienne 
  • l'éthique (non comme morale locale et culturelle mais comme universalité)

Design éthique ou l'ethic by design


Télécharger
Méthode de diagnostic du design attentionnel
DESIGNER_ETHIQUE_DIAGNOSTIC_DESIGN_ATTEN
Document Adobe Acrobat 2.9 MB
Télécharger
CNIL La Forme des choix
LA_FORME_DES_CHOIX_CNIL.pdf
Document Adobe Acrobat 1.5 MB


Sur la cryptographie


Télécharger
David Pointcheval - Quelles garanties nous apporte la cryptographie (Collège de France)
UPL4049563471221856778_support_pointchev
Document Adobe Acrobat 4.5 MB
Télécharger
Martin Abadi Cryptograhie - Collège de France
UPL7415_cours5_cryptography.pdf
Document Adobe Acrobat 862.1 KB



IA & inférence bayésienne




Tentative de charte éthique pour IA


Du côté de la recherche

  • L'objectif de la recherche en IA devrait être de créer non pas une intelligence non dirigée, mais une intelligence bénéfique.
  • Les investissements dans l'IA devraient être accompagnés d'un financement de la recherche visant à garantir son utilisation bénéfique, y compris les questions épineuses en informatique, en économie, en droit, en éthique et en sciences sociales, telles que :
    • Comment rendre les futurs systèmes d'IA très robustes, afin qu'ils fassent ce que nous voulons sans dysfonctionner ou être piratés ?
    • Comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en préservant les ressources et l'objectif des personnes ?
    • Comment pouvons-nous mettre à jour nos systèmes juridiques pour qu'ils soient plus justes et efficaces, pour suivre le rythme de l'IA et pour gérer les risques associés à l'IA ?
    • À quel ensemble de valeurs l'IA devrait-elle s'aligner, et quel statut juridique et éthique devrait-elle avoir ?
  • Organiser un échange constructif et "sain" entre les chercheurs en IA et les décideurs politiques.
  •  Développer une culture de coopération, de confiance et de transparence devrait être encouragée parmi les chercheurs et les développeurs de l'IA.
  • Travailler et veiller ensemble à la sécurité. Les équipes qui développent des systèmes d'IA devraient coopérer activement pour éviter de faire des économies sur les normes de sécurité.

 

Du côté éthique

  • En matière de sécurité : Les systèmes d'IA doivent être sûrs et sécurisés tout au long de leur durée de vie opérationnelle, et ce de manière vérifiable lorsque cela est possible et réalisable.
  • Transparence des défaillances : Si un système d'IA cause un préjudice, il doit être possible d'en déterminer la raison.
  • Transparence judiciaire : Toute implication d'un système autonome dans la prise de décision judiciaire doit fournir une explication satisfaisante et vérifiable par une autorité humaine compétente.
  • Responsabilité : Les concepteurs et les constructeurs de systèmes d'IA avancés sont parties prenantes des implications morales de leur utilisation, de leur mauvaise utilisation et de leurs actions, avec la responsabilité et la possibilité de façonner ces implications.
  • Alignement des valeurs : Les systèmes d'IA hautement autonomes doivent être conçus de manière à ce que leurs objectifs et leurs comportements puissent être assurés de s'aligner sur les valeurs humaines tout au long de leur fonctionnement.
  • Valeurs humaines : Les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle.
  • Vie privée : Les personnes devraient avoir le droit d'accéder, de gérer et de contrôler les données qu'elles génèrent, étant donné le pouvoir des systèmes d'IA d'analyser et d'utiliser ces données.
  • Liberté et vie privée : L'application de l'IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue des personnes.
  • Bénéfices partagés : les technologies de l'IA doivent bénéficier au plus grand nombre de personnes possible et les rendre autonomes.
  • Prospérité partagée : La prospérité économique créée par l'IA doit être largement partagée, au bénéfice de l'ensemble de l'humanité.
  • Contrôle humain : Les humains devraient choisir si et comment déléguer des décisions aux systèmes d'IA, afin d'atteindre des objectifs choisis par les humains.
  • Non-subversion : Le pouvoir conféré par le contrôle de systèmes d'IA hautement avancés devrait respecter et améliorer, plutôt que subvertir, les processus sociaux et civiques dont dépend la santé de la société.
  • Une course à l'armement en matière d'armes autonomes létales devrait être évitée.
  • Mise en garde : en l'absence de consensus, il convient d'éviter les hypothèses fortes concernant les limites supérieures des capacités futures de l'IA.
  • L'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources appropriés.
  • Risques : Les risques posés par les systèmes d'IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet d'efforts de planification et d'atténuation proportionnels à leur impact attendu.
  • Auto-amélioration récursive : Les systèmes d'IA conçus pour s'auto-améliorer ou s'auto-répliquer de manière récursive d'une manière qui pourrait conduire à une augmentation rapide de la qualité ou de la quantité doivent être soumis à des mesures de sécurité et de contrôle strictes.
  • Bien commun : La superintelligence ne devrait être développée qu'au service d'idéaux éthiques largement partagés, et pour le bénéfice de toute l'humanité plutôt que pour celui d'un État ou d'une organisation.

 

Les choix éthiques possibles - combinatoire à faire

  • Éthique des vertus ou aréisme 
  • Éthique conséquentialiste
  • Éthique déontologique
  • Éthique minimale  

Éthique numérique