Un robotiste gallois qui a programmé un groupe de robots pour agir de manière «éthique» a découvert que le comportement qui en résulte ressemblait étrangement à des groupes d'animaux.

Chris Headleand de l'Université de Bangor a construit une simulation utilisant des "agents" numériques avec une programmation extrêmement simple. Il a réglé le problème de manière à ce que les robots soient obligés d'atteindre une source d'énergie avant de manquer d'énergie et de «mourir» - et bien sûr, les automates ont immédiatement essayé de se regrouper autour de la source d'énergie, comme des manchots rassemblés pour se réchauffer..

Mais il a également constaté un comportement émergent, notamment une scission du groupe en différentes classes sociales. "Les agents les plus proches des ressources étaient vraiment calmes", a-t-il expliqué dans une interview à la BBC. "Mais ce qui était intéressant, ceux qui se trouvaient sur le cercle extérieur, à la périphérie des ressources, paniquaient et se retournaient. essayant constamment de plonger. "

Altruisme?

Le plus intéressant est que certains manifestaient même ce qui semblait être un comportement altruiste. "Nous avons vu des agents qui se sacrifiaient pour sauver d'autres", a déclaré Headleand. "Si vous commencez à essayer de décrire cela en utilisant un langage issu de la psychologie plutôt que de l'ingénierie, c'est le moment où cela devient tout à fait intéressant."

L’objectif final est de faire en sorte que les robots qui travaillent avec des humains au niveau le plus bas possible intègrent un comportement éthique, mais c’est encore loin..

"Nous ne disons pas que ces robots sont éthiques, mais dans certaines situations, ils peuvent se comporter de manière à sembler éthiques à un observateur", a expliqué Headeland. "Si cela ressemble à un canard et que les charlatans sont comme un canard, aux fins d'une simulation, je suis prêt à accepter que ce soit un canard."

  • La Nasa est sur le point de lancer une vraie soucoupe volante