La plupart d’entre nous sont capables de comprendre intuitivement les expressions faciales humaines: dans la conversation, des millions de mouvements musculaires minuscules changent nos yeux, notre bouche, notre position de tête et plus pour signaler à nos autres humains ce que nous pensons. Ces mouvements inconscients sont ce qui nous rend humain, mais ils rendent exceptionnellement difficile pour les robots de nous imiter.
Les chercheurs du laboratoire d’IA -pour Intelligence artificielle- de Facebook nous ont amené un peu plus loin, in finé à surmonter cet obstacle. Ils ont développé un robot animé qui est contrôlé par un algorithme artificiellement intelligent et conçu pour surveiller 68 points dans le visage humain pour les changements lors des conversations de Skype. Au fil du temps, l’AI a appris à choisir la réaction appropriée à ce qu’elle voyait, comme un signe d’accord, un éclat de surprise ou un rire quand son interlocuteur semblait trouver quelque chose de drôle. Les bénévoles qui ont regardé le robot réagir à une conversation humaine ont jugé qu’il était tout aussi naturel qu’une réaction organique et humaine.
La prochaine étape consistera a créer un robot ou une image de robot, qui va utiliser la technologie comme l’IA, pour rendre le robot « plus humain » et plus difficile à distinguer d’un être humain.
Devrions nous interdire, aussi, l’IA au même titre que les drones sous prétexte qu’ils peuvent voir ce que l’être humain ne peut voir.