FacebookXWhatsAppCopy k
Cuando el Rover Opportunity se encontraba explorando Marte, una tormenta de arena provocó la pérdida de comunicación con la NASA y sus responsables estuvieron ocho meses tratando de recuperar el contacto.
El principal motivo para querer, con tanto ímpetu, volver a ponerlo en operación es que había prestado importantes servicios a la misión. Pero, más allá de este interés, lo cierto es que los científicos e ingenieros… ¡le tenían cariño!: sorprendieron al mundo, tratando de provocar reacciones en el robot mediante una lista de canciones y, cuando ya fue evidente que no conseguirían respuesta, en los comunicados oficiales se emplearon palabras de elogio tales como «perseverancia» o «valentía».
Este fue el caldo de cultivo perfecto para que, cuando un periodista especializado en temas científicos publicó un tuit, en el que comentaba que la última información que la NASA había captado del robot fue «my battery is low and it’s getting dark», los medios se hicieron eco de la noticia y las redes hirvieron con comentarios emotivos por la muerte tan poética de Opportunity. De poco sirvió que el reportero aclarara que era una frase que había utilizado para traducir de manera sencilla todos los informes de error que llegaban desde el Rover antes de perder contacto: las «últimas palabras» de Opportunity ya habían calado y se habían convertido en un lema para honrarlo.
Y es que, como se constató, un gran número de personas está dispuesto a asumir con facilidad sentimientos y reacciones humanas en los robots. Por ello, teniendo en cuenta que previsiblemente nuestra relación con estas herramientas será cada vez más habitual, desde el ámbito jurídico surge la duda: ¿tendremos que reconocerles algún tipo de derechos y obligaciones?
La personalidad jurídica — es decir, la expresión que designa la capacidad para ser titular de derechos y obligaciones — es una de las mayores problemáticas de esta rama del conocimiento. Se trata de una cuestión esencial, pues determina quién es persona en términos jurídicos. Y, aunque en las últimas décadas parecía una cuestión más pacífica, los grandes avances en robótica y en inteligencia artificial han reabierto el debate.
Las principales preocupaciones en este ámbito han surgido al plantearse qué ocurre cuando entes portadores de inteligencia artificial y con cierta autonomía, provocan daños o hieren a personas, como, por ejemplo, coches y drones sin piloto. Hasta el momento, las reglas vigentes en materia de responsabilidad civil han sabido detectar la culpa humana tras el fallo, sin cambios en la normativa. Ahora bien, el centro del debate está en la hipótesis de que la capacidad de tomar decisiones autónomas de los robots llegue a ser tan perfecta que no se pueda determinar qué humano ha sido responsable del fallo.
Imagen de : NASA
Esta duda ha llevado a la Comisión Europa a proponer, como idea sobre la que reflexionar, la creación de «una personalidad jurídica específica para los robots, de forma que […] puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar […]».
La Unión Europea, a priori, no específica qué derechos y obligaciones supondría esta personalidad, pero diversos autores han propuesto diferentes tesis: las más innovadoras consideran que estos robots autónomos constituirán una nueva categoría ontológica, entre las personas y las cosas, pero diferente a ambos. Sin embargo, alejados de esa tesis, la mayoría de los autores europeos que se han pronunciado, han destacado que se trataría de un reconocimiento jurídico dirigido a derechos de naturaleza patrimonial.
El estudio de la evolución histórica del concepto de personalidad jurídica debería prevenirnos de cometer los mismos errores que en otras épocas y nos hace constatar que existen numerosas dudas que deberían despejarse con respecto a los robots, mucho antes de plantearnos una posible personalidad. Por poner un ejemplo, ¿es necesario un envoltorio físico para poder ser considerado responsable de un daño? Generalmente, se prima a aquellos entes que pueden actuar por ellos mismos en el mundo físico; sin embargo, teniendo en cuenta las prestaciones cada vez más avanzadas de, por ejemplo, los asistentes personales, ¿no podrán causar daños igualmente importantes, aunque no lo provoquen ellos directamente con su estructura? Por otro lado, algunos autores se plantean si el verdadero motivo subyacente no es, en realidad, asegurarles a los fabricantes de robots que no deben preocuparse por las inversiones que hagan en este sector. Es decir, que la propuesta no esté motivada tanto por razones jurídicas de fondo, sino por cuestiones político-económicas. De hecho, esa es la postura que defienden abiertamente quienes argumentan que una regulación que busque la responsabilidad humana no solo desincentiva a los empresarios — chilling effect —, sino que supondría mayores trabas para la víctima a la hora de demandar.
Estos dos ejemplos, aunque señalados de manera muy resumida, son solo una muestra de por qué no deberíamos caer en el error de asumir que la ampliación del concepto de personalidad es una cuestión sencilla y la manera más eficiente de resolver las legítimas preocupaciones que surgen en torno a esta cuestión. Todo ello sin entrar en qué especialistas en la materia ponen en duda que realmente la inteligencia artificial llegue a un punto de perfeccionamiento en el que no se pueda identificar la actuación humana.
Tenemos que ser muy cuidadosos con el uso del término ‘persona’ en un contexto jurídico, pues todo indica que una parte de la sociedad asumiría un reconocimiento de determinadas cualidades puramente humanas, sobre todo, teniendo en cuenta que parece que en un futuro los robots se emplearán para asumir roles de cuidadores, lo que puede provocar una fuerte carga emocional. De hecho, dos investigadores, Neil Richards y William Smart, ya le han puesto nombre a esta idea titulándola «la falacia del androide».
Para evitar caer en esa falacia, los estudiosos del derecho tenemos que intentar que el legislador entienda bien la naturaleza de estos desarrollos tecnológicos para no dejarse deslumbrar por sus espectaculares resultados, pero, sobre todo, que se fundamente en una argumentación filosófica sólida y coherente con todo el sistema, para asegurar soluciones a largo plazo que no provoquen confusión fuera del ámbito jurídico.
REDACCIÓN ANDREA PADRÓN VILLALBA
ILUSTRACIÓN VERÓNICA MORALES
Archivado en: Revista HipótesisEtiquetas: Número 5, Artículo, Ciencia y tecnología, Hipótesis, Andrea Padrón Villalba, Universidad de La Laguna
Doctoranda y profesora ayudante en el área de Derecho Mercantil de la ULL. Sus líneas de investigación son el derecho societario, el derecho concursal, el concepto de personalidad jurídica y la influencia de las nuevas tecnologías en la normativa.
Derecho Mercantil
apadronv@ull.edu.es