L’intelligence artificielle a encore récemment fait parler d’elle via AlphaGo, une IA de chez Google qui a réussi à battre le champion « humain » du jeu de Go. Au delà d’une pure puissance brute de calcul, cette discipline requiert un niveau élevé de réflexion en terme de stratégie. Autre fait marquant, historique même, les voitures autonomes ne sont désormais plus un fantasme : elles parcourent déjà nos routes. Ce type d’IA est celui qu’on qualifie aujourd’hui d’ « IA faible », c’est à dire capable d’exécuter une tâche bien spécifique, parfois mieux qu’un humain. L’objectif à long terme des chercheurs est de tendre vers l’ « IA forte », qui serait supérieure à l’intelligence humaine dans la plupart des tâches cognitives.

 

La Recherche, aujourd’hui et demain

Pour le moment, les recherches se concentrent sur tout ce que l’intelligence artificielle peut nous apporter de bénéfique, à travers des domaines variés tels que l’économie, la santé ou l’ingénierie. Il apparaît d’autant plus crucial que l’IA se comporte sans imprévu si cette dernière est en charge de conduire une automobile ou de piloter un avion. En allant plus loin dans cette réflexion, l’autre enjeu, finalement peu évoqué ces derniers temps, serait de prévenir les dérives d’une course à l’armement autonome.

Sur le long terme, il est important de se questionner sur ce qu’il adviendrait si jamais la technologie réussissait à engendrer cette IA forte et si cette dernière se montrait effectivement supérieure aux humains sur toute forme de tâche cognitive. Plus loin encore, on peut imaginer que cette IA supérieure serait capable d’effectuer des raisonnements complexes à une vitesse démesurée, pour creuser un écart finalement insurmontable avec l’intelligence humaine. Le résultat serait potentiellement spectaculaire, et on assisterait ainsi à la création de technologies révolutionnaires, qui nous aiderait à éradiquer la pauvreté, à éliminer tout risque pour l’environnement ou encore instaurer une paix universelle et durable. Au delà des scénarios de science-fiction, l’avènement de cette « super intelligence » pourrait bien être le tournant majeur de l’histoire de l’humanité.

 

https://iatranshumanisme.com/2016/06/02/vers-une-intelligence-artificielle-forte/

L’IA & l’Homme, main dans la main

 

Une intelligence artificielle peut-elle être dangereuse ?

La plupart des chercheurs s’accordent à penser qu’il est peu probable qu’une IA, aussi développée soit-elle, puisse « ressentir » des sentiments tels que de l’amour ou de la haine. En conséquence, l’idée qu’une IA puisse développer des traits de caractère bienveillants ou une quelconque animosité serait à écarter. Lorsqu’on évoque les risques liés à une dérive de l’IA, les experts de la question penchent de leur côté pour deux scénarios plausibles :

  • Le premier met en scène une situation où l’IA serait programmée pour effectuer des tâches bénéfiques pour l’humain, et utiliserait une logique implacable et destructrice pour atteindre un but noble. Cette éventualité montre à quel point il est crucial de réussir à aligner nos objectifs avec ceux d’une IA donnée. Imaginez-vous demander à votre voiture autonome de vous conduire d’un point A à un point B le plus rapidement possible : celle-ci s’exécuterait alors en ignorant toutes les règles du code de la route en roulant à tombeau ouvert pour remplir son objectif.

  • L’autre scénario décrit une IA qui serait volontairement programmée par l’humain pour semer la destruction. Tout comme les voitures, les armes autonomes vont vraisemblablement devenir une réalité. Aux mains de personnes mal intentionnées, ces dernières pourraient causer des dégâts importants. L’escalade d’une course à l’armement « intelligent » (peut-on vraiment dire cela d’une arme ?) pourrait glisser dans un affrontement meurtrier entre IAs, causant ainsi des pertes humaines massives, reléguées au rang de simples données aux yeux du système.

 

 

http://terminator.wikia.com/wiki/Cyberdyne_Systems

 

Ces exemples peuvent sembler exagérés, mais si on s’en tient au fonctionnement basique d’une IA, alimentée par des données spécifiques, une logique, fût-elle fantaisiste à nos yeux, restera une logique qui sera menée à terme, en dépit de toute forme de bon sens propre à l’esprit humain. Dans ce contexte, les garde-fous, qu’ils soient d’ordre techniques, moraux ou éthiques, prennent tout leur sens pour résoudre une équation dont la complexité s’intensifie avec les exploits de la technologie.

 

Éthique & Encadrement : Les 23 principes d’Asilomar

http://www.numerama.com/tech/228857-les-23-principes-dasilomar-veulent-encadrer-le-developpement-de-lintelligence-artificielle.html

Stephen Hawking & Elon Musk, ambassadeurs des 23 Principes d’Asilomar

 

En son temps, l’écrivain Isaac Asimov avait introduit les 3 lois de la robotique. Aujourd’hui, un collectif de plusieurs personnalités, notamment appuyé par l’astrophysicien Stephen Hawking et Elon Musk, l’emblématique patron de Tesla et de SpaceX, vient d’établir une charte pour un développement éthique et une régulation de l’intelligence artificielle. Ce programme, intitulé « Les 23 principes d’Asilomar » a pour objectif de fédérer les initiatives et les réflexions liées à l’IA autour d’un projet commun pour fixer les bases de l’éthique en la matière. À ce jour, plus de 800 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et 1200 personnalités de l’univers de la Tech ont signé cette charte, dont voici le détail :

  • 1 – Objectif de ces recherches : Le développement de l’IA ne doit pas servir à créer une intelligence sans contrôle mais une intelligence bénéfique.
  • 2 – Investissements : Les investissements dans l’IA doivent être soutenus par le financement de recherches visant à s’assurer de son usage bénéfique, qui prend en compte des questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales.
    [Quelques exemples : « Comment rendre les futures IA suffisamment solides pour qu’elles fassent ce qu’on leur demande sans dysfonctionnement ou risque d’être piratées ? » ou encore « Comment améliorer notre prospérité grâce à cette automatisation tout en maintenant les effectifs humains ?  »]
  • 3 – Relations entre les scientifiques et les législateurs : Un échange constructif entre les développeurs d’IA et les législateurs est souhaitable.
  • 4 – Esprit de la recherche : Un esprit de coopération, de confiance et de transparence devrait être entretenu entre les chercheurs et les scientifiques en charge de l’IA.
  • 5 – Éviter une course : Les équipes qui travaillent sur les IA sont encouragées à coopérer pour éviter les raccourcis en matière de standards de sécurité.
  • 6 – Sécurité : Les IA devraient être sécurisées tout au long de leur existence, une caractéristique vérifiable et applicable.
  • 7 – Transparence en cas de problème : Dans le cas d’une blessure provoquée par une IA, il est nécessaire d’en trouver la cause.
  • 8 – Transparence judiciaire : Toute implication d’un système autonome dans une décision judiciaire devrait être accompagnée d’une explication satisfaisante contrôlable par un humain.
  • 9 – Responsabilité : Les concepteurs et les constructeurs d’IA avancées sont les premiers concernés par les conséquences morales de leurs utilisations, détournements  et agissements. Ils doivent donc assumer la charge de les influencer.
  • 10 – Concordance de valeurs : Les IA autonomes devraient être conçues de façon à ce que leurs objectifs et leur comportement s’avèrent conformes aux valeurs humaines.
  • 11 – Valeurs humaines : Les IA doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité culturelle.
  • 12 – Données personnelles : Chacun devrait avoir le droit d’accéder et de gérer les données les concernant au vu de la capacité des IA à analyser et utiliser ces données.
  • 13 – Liberté et vie privée : L’utilisation d’IA en matière de données personnelles ne doit pas rogner sur les libertés réelles ou perçue des citoyens.
  • 14 – Bénéfice collectif : Les IA devraient bénéficier au plus de gens possibles et les valoriser.
  • 15 – Prospérité partagée : La prospérité économique permise par les IA devrait être partagée au plus grand nombre, pour le bien de l’humanité.
  • 16 – Contrôle humain : Les humains devraient pouvoir choisir comment et s’ils veulent reléguer des décisions de leur choix aux AI.
  • 17 – Anti-renversement : Le pouvoir obtenu en contrôlant des IA très avancées devrait être soumis au respect et à l’amélioration des processus civiques dont dépend le bien-être de la société plutôt qu’à leur détournement.
  • 18 – Course aux IA d’armement : Une course aux IA d’armement mortelles est à éviter.
  • 19 – Avertissement sur les capacités : En l’absence de consensus sur le sujet, il est recommandé d’éviter les hypothèses au sujet des capacités maximum des futures IA.
  • 20 – Importance : Les IA avancées pourraient entraîner un changement drastique dans l’histoire de la vie sur Terre, et doit donc être gérée avec un soin et des moyens considérables.
  • 21 – Risques : Les risques causés par les IA, particulièrement les catastrophiques ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur impact supposé.
  • 22 – Auto-développement infini : Les IA conçues pour s’auto-développer à l’infini ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.
  • 23 – Bien commun : Les intelligences surdéveloppées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l’humanité plutôt que pour un État ou une entreprise.

 

Le respect de ces engagements suffira-t-il à éviter le genre de scénarios catastrophe évoqués plus hauts ? Rien n’est jamais sûr, mais ce genre d’initiative constitue un exemple louable des réflexions à mener pour anticiper et encadrer la montée en puissance de l’intelligence artificielle.

 

IA : Cogito Ergo Sum

L’IA confrontée au Cogito Ergo Sum

 

Comment rester dans le jeu ?

Finalement, la grande question ne sera pas de savoir si la technologie réussira à donner naissance à une IA surdéveloppée – nous connaissons tous la réponse. Le cœur du débat se situe avant tout dans notre capacité à anticiper l’IA sous toutes ses formes puis de la contenir, pour enfin trouver notre place à ses côtés. L’Homme, de plus en plus dépendant de technologies « inanimées » (au sens premier du terme, c’est à dire sans âme) dans son quotidien, devra faire preuve de résilience et d’engagement pour échapper à une – possible – remise en question de son existence même par une intelligence artificielle douée d’une forme de raison.

http://www.influencia.net/fr/actualites/media-com,innovations,neuf-intelligences-homme-qui-gardera-main,6576.html

 

Sources :