Dans le cas d’un robot incapable d’interagir avec son environnement, le régime juridique applicable sera celui de la responsabilité du fait des choses (article 1242 du Code civil) – bien qu’une partie de la doctrine ait suggéré une analogie avec la responsabilité du fait des personnes voire des animaux qui apparaît peu pertinente d’un point de vue philosophique et éthique. Les gardiens des robots non intelligents, c’est à dire ceux qui les utilisent directement ou les programment pour une tâche, seront ainsi responsables des dommages causés par leurs robots. En effet, l’introduction de robots dans la société crée un risque dont bénéficient les utilisateurs. Il est donc logique de leur demander de répondre des dommages causés par le facteur de risque qu’ils introduisent.

Les gardiens des robots engageront donc leur responsabilité lorsque leurs machines auront causé un dommage alors qu’ils étaient en mouvement ou, lorsqu’ils sont inertes, s’ils présentent une anormalité. L’anormalité peut être constituée par une programmation erronée par le gardien si le robot peut être modifié par son acheteur. Le lien de causalité est ainsi réduit au minimum et s’approche des régimes de responsabilité de plein droit, ce qui devrait permettre une indemnisation adéquate des futures victimes des robots. Le régime de la responsabilité du fait des choses sera opposable aux robots doués d’une intelligence artificielle limitée.

À plus long terme les robots capables d’apprendre de leur environnement vont se démocratiser. Cette capacité les amènera à acquérir des connaissances des humains les entourant. Les machines se retrouveront ainsi dans un processus d’apprentissage semblable à celui des enfants. Les gardiens des robots se trouveront par conséquent dans une situation similaire à celle liant un parent à son enfant. Les gardiens des robots pourront ainsi engager leur responsabilité pour les faits commis par un robot à la suite d’une faute dans l’éducation comme cela avait été initialement le cas pour les parents du fait de leur enfant. La responsabilité ne sera donc pas celle de plein droit des parents pour leurs enfants car il serait contraire à l’éthique que d’assimiler un robot à un enfant. Il serait cependant nécessaire d’introduire un nouveau fondement de responsabilité pour le fait d’un robot mal éduqué. Il s’agirait d’un régime hybride entre la responsabilité du fait d’une chose, à cause de la machine, et du fait de l’enfant, à cause de l’éducation qu’elle recevra.

Le régime d’indemnisation pour les fautes commises à cause de l’apprentissage d’un robot sera donc divisé entre l’application de l’indemnisation des produits défectueux lorsque la machine ne présentera pas le seuil de sécurité légitimement attendu, et les hypothèses où l’apprentissage par les humains aura amené le robot à commettre une faute. Néanmoins, certains dommages risquent de ne pas être pris en charge. Il est donc souhaitable de créer un fond d’indemnisation des victimes de dommages causés par les robots qui pourrait être financé par l’introduction d’une taxe sur la vente de ces machines.

Les mesures de sécurités introduites dans les robots ne pourront que limiter les dommages mais ne pourront pas les empêcher. Ce risque sera particulièrement préoccupant en matière de transport.