21 novembre 2019

Le robot à l’égal de l’homme

par Melissa Gajahi

Les experts se mobilisent sur le sujet de l’éthique. Venus de toute l’Europe, 285 professionnels du monde de la robotique et de l’IA signent une lettre ouverte adressée à la Commission européenne. Ils contestent le projet d’instaurer une personnalité juridique aux robots d’intelligence supérieure. Rencontre avec l’auteure de cette lettre, Nathalie de NEVEJANS.

Des droits pour les robots

Pourquoi est-ce important de ne pas attribuer à un robot un statut de « personnalité juridique » ?

Il y a plusieurs raisons. La première est juridique. Il risque d’y avoir une déresponsabilisation du fabricant et du concepteur. Car aujourd’hui, lorsqu’un fabricant met en vente sur le marché un robot qui présente un défaut qui a causé un dommage à une victime, il a une responsabilité effective à divers titres. Mais le risque si l’on considère que la machine a une personnalité juridique, et donc est elle-même responsable de ses propres dommages, c’est que le fabricant ne le soit plus pour les défauts de son produit. Le risque c’est qu’on ne trouve plus de responsable humain ou alors, et c’est ce que je crains, que l’on considère que le propriétaire et donc l’utilisateur du robot est responsable pour sa machine. Il devrait donc être obligé de s’assurer pour tous les dommages possibles même ceux pour lesquels, en principe, il n’aurait pas à être responsable. C’est ce qui m’inquiète.

Si on considère qu’une machine a une personnalité juridique, on la met à l’égal de l’humain. D’un point de vue éthique, cela peut entrainer une confusion entre l’homme et la machine qui n’a aucun sens.

La deuxième raison est de l’ordre de l’éthique. Si on considère qu’une machine a une personnalité juridique, on la met à l’égal de l’humain. Ce qui fait que l’on assimile l’homme et la machine et qu’on les met sur le même plan. Je trouve ça très perturbant d’un point de vue éthique, parce que j’estime que ça entraîne une confusion entre l’homme et la machine qui n’a aucun sens. On doit continuer à les démarquer surtout que l’on est face à des robots humanoïdes très personnifiés qui portent déjà cette confusion, comme Pepper. On nous incite à penser qu’ils ont des sentiments à travers leurs expressions etc. Donc si un humain commence à penser qu’une machine a des sentiments et qu’on lui dit qu’il a les mêmes droits que lui, il va considérer que c’est un autre être humain et ça c’est insupportable. Et quand on y pense, les animaux qui sont des êtres sensibles n’ont pas ces droits. 

À quels dangers s’expose t-on ?

Mettre au même niveau l’homme et la machine. C’est intolérable d’un point de vue éthique et d’un point de vue humain. Si l’on considère que c’est une personne juridique, cela veut dire qu’on va lui accorder des droits, comme le droit à la dignité ou à l’intégrité par exemple. En bref, cela voudrait dire que l’humain ne pourrait plus débrancher sa machine, qu’il ne pourrait plus la jeter à la poubelle parce que la machine deviendrait une personne.

Quel cadre éthique faudrait-il instaurer ?

On pourrait instaurer une éthique de la machine. Pour l’instant, les scientifiques n’arrivent pas à la programmer parce que la machine n’a pas conscience de ses actes. Donc actuellement, l’éthique en IA et en robotique, c’est l’éthique des humains. C’est à dire que c’est l’éthique de l’homme qui va programmer et concevoir la machine, celle de celui qui va la vendre et enfin celui qui va l’utiliser et le mettre au service d’autres personnes.

Quel est le rôle d’un robot ?

En tant qu’outil, il doit permettre de simplifier, de faciliter ou de rendre plus agréable la vie d’êtres humains. Je pense que c’est la première règle et que ça pourrait être une règle d’éthique. Le robot ne doit pas être utilisé à des fins non éthiques, comme pour détruire, je pense aux robots militaires. On doit considérer que la machine doit apporter du bien à l’humanité, comme des robots chirurgicaux ou les robots désherbants agricoles auxquels on ne pense jamais, qui permet de ne plus mettre de pesticides dans les champs.

Le robot ne doit pas être utilisé à des fins non éthiques ; il doit apporter du bien à l’humanité.

Il y a énormément de machines qui apportent beaucoup, il y a énormément d’avantages mais aussi de risques. Les risques éthiques, on doit les comprendre, comme le contrôle ou la surveillance de l’humain. Il commence à y avoir des dérives.

Laisser un commentaire

*

*

0

Your Cart