Nous caractérisons la règle de partage de responsabilité socialement optimale dans une situation où un concepteur développe une intelligence artificielle (IA) à destination d'utilisateurs humains. Le concepteur choisit un niveau d'investissement dans le développement de l'autonomie de l'IA et fixe un prix de vente. L'utilisateur choisit ensuite d'acquérir ou non l'IA. Même si l'IA est utilisée, son autonomie reste limitée, nécessitant l'intervention de l'utilisateur dans certaines situations. Les utilisateurs sont sujets à de l'inattention comportementale, réduisant l'efficacité de leurs interventions (une mauvaise intervention crée un dommage). En conséquence, il est supposé que l'IA est plus performante que l'utilisateur humain. De plus, certains utilisateurs ne sont pas conscients d'être sujets à de l'inattention comportementale. Nous mettons en évidence l'existence d'un arbitrage lors du choix du partage de responsabilité. Sous certaines conditions, le concepteur investit insuffisamment dans le développement de l'autonomie de l'IA. Le décideur public peut inciter ce dernier à augmenter son investissement en augmentant la part du dommage qu'il supporte. D'un autre côté, une telle hausse de la responsabilité du concepteur peut freiner la diffusion de l'IA, réduisant ainsi le surplus social.
- Poster