Publication:
IA e Ius ante el legado de Asimov

Loading...
Thumbnail Image

Publication date

Reading date

Event date

Start date of the public exhibition period

End date of the public exhibition period

Advisors

Authors of photography

Person who provides the photography

Journal Title

Journal ISSN

Volume Title

Publisher

Tirant lo Blanch
Export

Research Projects

Organizational Units

Journal Issue

Abstract

Este estudio sitúa el debate jurídico sobre inteligencia artificial y robótica en una genealogía intelectual que arranca con Asimov. Las Tres Leyes de la robótica se presentan como mecanismos de seguridad imaginados para neutralizar el miedo a la tecnología y, al mismo tiempo, revelar nuestra dependencia de ella. A partir de los dilemas internos que Asimov explora (conflictos entre leyes, situaciones límite y la posterior formulación de una “Ley Cero” orientada al bien de la humanidad), el autor extrae una enseñanza metodológica: cuando se intenta traducir principios éticos a reglas operativas, aparecen zonas grises inevitables (qué valores se priorizan, quién decide y a costa de quién). Desde esa base, se examina cómo ese legado inspira guías contemporáneas, en especial los Principios Asilomar (2017), poniendo el acento en dos cuestiones. La primera es la dimensión geopolítica y de seguridad: la existencia de robótica militar y el riesgo de carrera armamentística muestran que el ideal de “no hacer daño” no opera como límite absoluto, sino como aspiración fácilmente desplazable por intereses estratégicos. La segunda es la necesidad de introducir un enfoque de precaución. A través de la crítica de la VDW (Federación de Científicos Alemanes), se cuestiona el optimismo utilitarista que presupone un desarrollo ilimitado de la IA y se plantea, como brújula jurídica, el principio de precaución europeo y la conveniencia de fijar límites más nítidos al I+D, especialmente ante la posible transición de la IA estrecha (ANI) hacia una IA general (AGI) y, por automejora recursiva, hacia una superinteligencia (ASI). El estudio también recorre la respuesta institucional europea, así la Resolución del Parlamento Europeo de 2017 sobre robótica aparece como un punto de inflexión: por un lado, reclama reglas de responsabilidad y transparencia compatibles con valores humanistas sin frenar la innovación; por otro, abre debates de calado (como la “personalidad electrónica”) y apunta soluciones pragmáticas para daños causados por sistemas cada vez más autónomos (seguro obligatorio y fondo de compensación). En paralelo, se destaca el retraso europeo frente a otras potencias, la dependencia tecnológica respecto de grandes plataformas y la dificultad de imponer estándares propios sin “soberanía digital”, ilustrándolo con ejemplos de IA que difuminan la interacción humana tales como ciertos sistemas conversacionales. Como tesis final, el capítulo desplaza la discusión desde “regular después” hacia “diseñar con límites desde el principio”, sugiriendo que el núcleo no es solo repartir responsabilidades o exigir transparencia, sino decidir si la IA debe quedar como herramienta bajo control del usuario o si conviene impedir desde el propio código conductas dañinas incluso cuando medien órdenes humanas. Esa tensión se hace visible en escenarios como la conducción autónoma, donde los incentivos comerciales pueden chocar con códigos éticos exigentes. Con todo, el estudio concluye subrayando el objetivo último de las directrices europeas: ganar la confianza pública, un propósito que conecta con Asimov, pero cuya realización efectiva depende de cómo se gestionen los intereses y las asimetrías tecnológicas en juego.

Doctoral program

Related publication

Research projects

Description

Bibliographic reference

FERNÁNDEZ-PACHECO ALISES, G./LLAQUET DE ENTRAMBASAGUAS, J.L. (dirs.), El sistema jurídico ante la digitalización. Estudios de Derecho Público y Criminología, pp. 75-96

Photography rights