1.26

La atribución de responsabilidad civil por actos de sistemas autónomos de inteligencia artificial: desafíos para el derecho privado

Universidad de Granada

La progresiva incorporación de sistemas de inteligencia artificial dotados de autonomía funcional y capacidad de aprendizaje plantea desafíos estructurales al modelo tradicional de responsabilidad civil del Derecho privado. A diferencia de otras tecnologías, estos sistemas pueden generar daños jurídicamente relevantes sin una conducta humana directa, mediante procesos decisionales opacos y causalidades distribuidas que dificultan la aplicación del esquema clásico de imputación por culpa del artículo 1902 del Código Civil.

El presente trabajo aborda esta problemática desde una perspectiva dogmática y sistemática, analizando, en primer lugar, los rasgos técnicos de la inteligencia artificial autónoma que inciden en la imputación civil, en particular la autonomía decisional, la opacidad algorítmica y el sesgo como riesgo estructural. A partir de ello, se examinan los límites del modelo subjetivo de responsabilidad y se rechaza tanto su aplicación mecánica como la proclamación de un régimen general de responsabilidad objetiva por el mero uso de inteligencia artificial.

Sobre esta base, el estudio propone una arquitectura escalonada de imputación del daño algorítmico, que distingue entre los supuestos imputables a un defecto de seguridad del sistema considerado como producto, sometidos al régimen de responsabilidad objetiva de la Directiva (UE) 2024/2853, y aquellos derivados del despliegue, configuración o uso profesional del sistema, en los que la responsabilidad se articula a través de una culpa normativa fundada en el incumplimiento de deberes legales y técnicos de diligencia ex ante.

El trabajo defiende, en este contexto, un modelo de atribución funcional del riesgo algorítmico, orientado a identificar a los operadores que ocupan posiciones estructuralmente relevantes en la creación, organización o explotación del riesgo y que se encuentran en mejor situación para prevenirlo o asegurar sus consecuencias. Este enfoque permite garantizar la reparación efectiva del daño sin recurrir a ficciones como la personalidad jurídica de la inteligencia artificial y sin sacrificar los principios estructurales del Derecho civil.

Attributing Civil Liability for Acts of Autonomous Artificial Intelligence Systems: Challenges for Private Law

The increasing deployment of artificial intelligence systems endowed with functional autonomy and learning capabilities poses structural challenges to traditional civil liability frameworks in private law. Unlike previous technologies, such systems may cause legally relevant harm without direct human conduct, through opaque decision-making processes and distributed causal chains that undermine the applicability of classical fault-based liability under Article 1902 of the Civil Code.

This article addresses these challenges from a doctrinal and systematic perspective. It first examines the technical features of autonomous AI systems that are legally relevant for civil liability—namely decisional autonomy, algorithmic opacity, and algorithmic bias as a structural risk. On this basis, the study analyses the limits of the traditional fault-based model and rejects both its mechanical application and the introduction of a general strict liability regime for the mere use of artificial intelligence.

The article then advances a structured and differentiated framework for the attribution of algorithmic harm. It distinguishes between damages attributable to a lack of safety of the AI system as a product, subject to the strict liability regime established by Directive (EU) 2024/2853, and damages arising from the deployment, configuration, or professional use of AI systems, where liability is grounded in a form of normative fault based on the breach of legally defined ex ante duties of diligence.

Within this framework, the article advocates a model of functional risk attribution, aimed at identifying those operators who occupy structurally relevant positions in the creation, organization, or exploitation of algorithmic risk and who are best placed to prevent or insure against its harmful consequences. This approach ensures effective compensation without resorting to legal fictions such as AI legal personhood and preserves the core principles of civil liability law.

Keywords. , , , ,
Abigail Quesada Páez, «La atribución de responsabilidad civil por actos de sistemas autónomos de inteligencia artificial: desafíos para el derecho privado. », InDret 1.26 ,pp. 193-226