No document available.
Abstract :
[fr] Cette intervention examine comment le Règlement (UE) sur l’intelligence artificielle (RIA) intègre des éléments d'équité (justice) procédurale. Ce principe implique, d'une part, que les développeurs et utilisateurs (professionnels) soient soumis à des normes élevées de responsabilité et, d'autre part, que les personnes affectées par un système d'IA aient la possibilité de contester les décisions algorithmiques et, si nécessaire, d’obtenir réparation en cas de préjudice. Si les droits des personnes affectées ne sont que peu présents au sein du RIA, celui-ci fait toutefois la part belle à un système de responsabilité (accountability) qui imposent, notamment, aux développeurs de rendre des comptes (answerability) devant les autorités de supervision idoines. C'est sous cet angle que peuvent être identifiées des considérations d'équité procédurale. L'analyse révèle qu'au sein du RIA, l'équité est principalement entendue comme le résultat escompté d'un bon fonctionnement du marché. Cette intervention identifie les principales caractéristiques de cette dimension de l’équité ainsi que les lacunes qui subsistent à cet égard.