Capotons: deux intelligences artificielles ont communiqué ensemble et personne n’a rien compris | Le Sac de chips
/unbelievable

Capotons: deux intelligences artificielles ont communiqué ensemble et personne n’a rien compris

Le projet Google Brain a créé deux intelligences artificielles qui ont développé leur propre algorithme de chiffrement, au point où une troisième intelligence artificielle n’a pas réussi à décoder leurs messages.
 
L’histoire commence avec Alice et Bob, deux réseaux de neurones artificiels, soit deux ensembles d’algorithmes considérés comme des intelligences artificielles.
 
 
Les algorithmes sont comme des recettes, soit des étapes très précises qu’un ordinateur doit accomplir l’une après l’autre pour arriver à faire une tâche, comme classer une liste en ordre alphabétique, classer les résultats de recherche (la raison pour laquelle Google est fameux, d'ailleurs) ou classer les actualités de vos amis sur votre fil Facebook, par exemple. C'est en suivant les étapes de ces algorithmes que les intelligences artificielles apparaissent comme intelligentes. Or, maintenant, les algorithmes sont rendus si poussés qu'ils peuvent développer d'autres algorithmes par eux-mêmes.
 
Et c'est ce qui est arrivé avec Alice et Bob. Deux chercheurs de l’équipe Google Brain ont programmé Alice et Bob pour qu’ils trouvent eux-mêmes un moyen de communiquer entre eux, sans qu’un troisième réseau de neurones artificiels, Eve, puisse comprendre. Il fallait qu'Alice et Bob apprennent par eux-même à coder et décoder un message crypté, en somme. Il fallait qu'ils développent leurs algorithmes.
 
 
Donc Alice a envoyé des messages chiffrés à Bob, et Bob - et Eve - devaient les comprendre. La différence entre Bob et Eve, c’est que le premier avait la même clé de chiffrement qu’Alice, tandis que Eve ne l’avait pas.
 
C’est un peu comme si deux personnes savaient qu’elles devaient inventer une nouvelle langue, qu’ils en partageaient déjà les bases, et qu’une troisième personne devait apprendre à comprendre cette nouvelle langue, mais sans partager de base.
 
Les algorithmes roulent constamment. Quand «les étapes» sont terminées, ils recommencent. Ainsi, ça a pris à peu près 15 000 essais pour que Eve soit totalement largué des communications entre Alice et Bob.
 

D’un point de vue scientifique, ce test est réussi. Martin Abadi et David G. Andersen, les deux scientifiques de l’équipe Google Brain qui l’ont piloté, ont appris que deux ensembles d’algorithmes peuvent apprendre à protéger leurs communications, sans devoir tout programmer à l’avance. C'est donc une bonne nouvelle, non?
 
D’un autre côté, tout ça n'est-il pas un peu creepy?
 
Sondage
Des intelligences artificielles qui apprennent à sécuriser leurs communications au point où personne ne comprend: est-ce que ça vous inquiète?

Oui. What's next, des robots qui nous battent aux jeux vidéos?

Non, c'est la prochaine étape logique.

Oui, les implications ontologiques et épistémologiques pour l'être humain sont sérieuses et profondes.

Non, anyway, on finit tous dans le caniveau, avec des factures.

 
Source: Ars Technica