L’homme d’affaires en innovation technologique Elon Musk a récemment exhorté les gouverneurs du pays à gérer l’intelligence synthétique «avant qu’il ne soit trop loin». Musk insiste sur le fait que la connaissance créée par l’homme symbolise une «menace existentielle pour l’humanité», selon un alarmiste qui confond la science de l’IA avec la science-fiction. Néanmoins, même les scientifiques de l’IA comme moi reconnaissent que vous avez des problèmes valables concernant son effet sur les armes, les emplois et la vie privée. Il est organique de remettre en question, peu importe si nous devons produire une IA quelconque. Je crois vraiment que la réponse sera oui. Mais ne devrions-nous pas prendre des mesures pour ne pas moins que de réduire les progrès de l’IA, dans l’intérêt de l’extrême prudence? Cependant, lorsque nous le ferons, des nations du monde entier comme la Chine nous dépasseront. Le cheval IA a encore quitté la grange, et notre meilleur pari serait d’essayer de le guider. L’IA ne devrait pas être militarisée, de même que l’IA devrait avoir un «changement inchangeable» imprenable. Au-dessus de cela, nous devons réglementer l’effet concret des méthodes de l’IA (à titre d’exemple, la sécurité des véhicules autonomes) plutôt que d’essayer de définir et de maîtriser dans le domaine amorphe et rapidement constructif de l’IA Je recommande environ trois règles pour la connaissance artificielle méthodes qui sont influencées par, mais créent encore plus, les « trois lignes directrices légales de la robotique » comment l’auteur de l’article Isaac Asimov a publié en 1942: Un robot pourrait ne pas endommager une personne ou, par l’inaction, permettre à un être humain de venir faire du mal à; un robot doit se conformer aux commandes qui lui sont présentées par des êtres humains, d’ailleurs quand ce genre de demandes bouleverserait avec la législation précédente; ainsi qu’un robot doit sauvegarder son propre style de vie tant que ces types de sécurité ne parviennent pas à entrer en conflit avec les deux dernières réglementations. Ces trois lois et réglementations sont sophistiquées mais ambiguës: en quoi consiste spécifiquement la blessure en matière d’IA? Je recommanderais une base beaucoup plus concrète pour éviter les dommages causés par l’IA, selon trois lignes directrices. Tout d’abord, un programme d’intelligence artificielle devrait faire l’objet d’une gamme complète de lois applicables à son opérateur humain. Ce principe s’appliquerait aux méthodes privées, corporatives et commerciales et gouvernementales. Nous ne voulons jamais que l’IA se livre à la cyberintimidation, soit à des manipulations ou à des menaces terroristes; nous ne voulons pas que le FBI décharge les méthodes d’IA qui poussent les individus à commettre des délits. Nous ne voulons pas d’automobiles autonomes qui voyagent au moyen de lumières rouges ou, pire encore, d’armes AI qui violent les traités internationaux. Notre loi populaire doit être modifiée afin que nous ne puissions pas dire que notre méthode d’IA a réussi une chose que nous ne pouvions pas saisir ou anticiper complètement. Fondamentalement, «Mon IA le fait» ne devrait jamais justifier le comportement de la loi. Ma deuxième ligne directrice est qu’un processus d’IA doit évidemment révéler qu’il n’est pas humain. Bien que nous ayons expérimenté en ce qui concerne les robots – des applications qui pourraient entamer un dialogue de plus en plus avancé avec de vrais hommes et femmes – la communauté a besoin d’être assurée que les solutions d’IA sont évidemment étiquetées comme ce genre de. En 2016, un bot appelé Jill Watson, qui a servi d’associé enseignant lors d’un cours de formation en ligne à Georgia Technical, a trompé les étudiants en leur faisant croire qu’il s’agissait d’un être humain. Une illustration beaucoup plus sérieuse sera la consommation répandue de robots politiques experts-Trump sur les réseaux sociaux depuis l’époque majeure aux alentours des élections de 2016, SEO Inside selon des chercheurs d’Oxford. Ma ligne directrice ferait en sorte que les hommes et les femmes sachent à quel moment un bot se fait passer pour quelqu’un. Nous avons certainement actuellement vu, par exemple, @DeepDrumpf – un bot qui a imité humblement Donald Trump sur Twitter. Les solutions d’IA ne se contentent pas de développer de faux tweets; ils génèrent également de fausses nouvelles. Des experts de l’Université de Washington ont récemment lancé un faux clip vidéo du précédent PDG, Barack Obama, dans lequel il semblait convaincant de discuter de mots greffés sur une vidéo en ligne de lui parlant d’une chose totalement différente. Ma troisième astuce est le fait qu’un processus d’IA n’est pas en mesure de conserver ou de révéler des détails personnels sans avoir été explicitement accepté par la méthode d’obtention de ces informations. En raison de leur capacité exceptionnelle à générer, enregistrer et analyser rapidement des informations, les méthodes d’IA se trouvent être dans un emplacement de premier plan pour obtenir des informations privées. Pensez à tous les chats qu’Amazon Echo – un «haut-parleur intelligent» trouvé dans de plus en plus de foyers – est au courant, ou peut-être les informations et les faits que l’enfant pourrait divulguer accidentellement à un jouet, par exemple une IA Barbie. Même des robots de ménage apparemment inoffensifs produisent des cartes de votre résidence. Ce sont certainement des informations que vous souhaitez réellement gérer.