Robots, Inteligencia Artificial y Ética

24 octubre, 2016

La aparición, el desarrollo y la multiplicación anunciada de robots, drones (aviones no tripulados), vehículos y otros sistemas autónomos en nuestra vida cotidiana representa probablemente un cambio más sustancial de lo que podría parecer. Algo lo suficientemente importante para que hagamos una pausa y reflexionemos sobre las consecuencias de estos cambios. De hecho, ésta es la postura de algunas personalidades del mundo científico.

Vamos a tratar de establecer cuál es el problema y entenderlo un poco mejor…

Coches no tripulados y Inteligencia Artificial (I.A.)

¿Comprarías un coche que elegiría matarte para salvar otras vidas?

La expansión de la I.A. y de los sistemas “inteligentes”, que cuentan con autonomía y capacidad de decisión, replantea un abanico de problemas clásicos propios de la filosofía, como por ejemplo aquellos relacionados con los dilemas morales. Por ejemplo el dilema del tranvía [1], un experimento clásico en estudios de ética y moral, se convierte ahora en una realidad concreta.

Definición del problema del tranvía:

Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas caminando por la vía dando la espalda al tranvía, de tal forma que no ven su llegada. Si el tranvía sigue su camino, matará a estas cinco personas. Afortunadamente, es posible accionar un botón que encaminará al tranvía por una vía diferente, pero por desgracia, hay una persona en esta vía que moriría si el tren pasa por allí.

¿Pulsarías el botón que cambia el tranvía de vía? En este dilema moral clásico existen dos opciones:

(1) no hacer nada, con lo que el tranvía matará a las cinco personas en la vía principal.

(2) realizar la acción de cambiar el tranvía de vía, donde solo mataría a una sola persona.

¿Cuál es la opción más ética? ¿Qué debería hacer una máquina en este caso? Si fueras programador/a de la I.A. de un sistema autónomo, ¿cómo deberías programar este sistema? Son algunas de las preguntas que los investigadores estudian mediante este tipo de dilemas, como en este estudio que nos permite descubrir las grandes contradicciones morales que pueden darse con los coches autónomos.

Uno siempre puede objetar que hay una diferencia entre lo dicho y lo hecho, especialmente en estos casos de toma de decisión bajo presión y en situaciones de emergencia. Es verdad. Pero gracias a la realidad virtual los investigadores pueden ahora someter a los participantes a este tipo de experimentos poniéndoles en situación y observando directamente cómo se comportan en lugar de preguntarles cuál sería su comportamiento en una situación imaginada.

Robots con derecho a matar

Pero, hasta ahora hemos hablado de muerte accidental… ¿Qué ocurre con aquellos casos de muerte intencional? ¿En qué casos podría estar justificado que una máquina tuviese derecho a matar?

Recientemente (el 7 de julio de 2016) en los EE.UU. se dio una situación que implicaba un robot utilizado para matar. En concreto, la policía usó por primera vez un robot teleoperado para matar a una persona. En este caso podemos considerar que el robot fue utilizado como un arma, ya que fue tele-operado por un humano… caso que se acerca al uso de drones para matar y que no es nuevo. En efecto, durante la última década, la expansión del uso de vehículos no tripulados armados ha cambiado la forma de hacer la guerra, trayendo nuevos desafíos morales, éticos y legales.

Son armas controladas por humanos, pero los rápidos avances en la tecnología permiten imaginar a muy corto plazo el desarrollo de armas totalmente autónomas. Unas armas robotizadas capaces de elegir su objetivo y disparar a blancos que son seres humanos, sin ninguna intervención humana.

Esto es lo que preocupa a muchos científicos y personalidades como Elon Musk y Stephen Hawking, junto con Steve Wozniak, Noam Chomsky, o Demis Hassabis, el jefe ejecutivo de la compañía de inteligencia artificial Google DeepMind, y muchos más… Todos están promoviendo con la campaña: “Stop Killer Robots!”  la prohibición mundial de las “armas autónomas”, advirtiendo que esta etapa en la humanidad correspondería a una revolución en armamento comparable a la pólvora o las armas nucleares. El Sr. Hawking, ha escrito que, si bien el desarrollo de la inteligencia artificial podría ser el evento más grande en la historia humana «por desgracia, podría también ser el último».

Mientras estos científicos insisten en que es necesario darle más importancia a la ética y reflexionar sobre la seguridad antes de dar más pasos adelante, algunas empresas ya trabajan en proyectos concretos y demuestran mucho interés por el tema. Google por ejemplo que ha comprado 8 compañías de robótica en 6 meses en el año 2013. Una de estas adquisiciones, Boston Dynamics, tiene ya listos unos robots humanoides muy avanzados, como el Petman, y su nueva generación, u otro robot de cuatro patas, con la capacidad de tirar bloques de hormigón.

De la misma forma que se ha establecido un primer código de conducta para el uso de la realidad virtual, sería probablemente bueno definir algo parecido para el uso de la I.A. y los robots. Por lo menos no debería ser descuidado.

[1] El problema se introdujo por primera vez por Philippa Foot en 1967, pero también analizado extensivamente por Judith Thompson, Peter Unger, y Frances Kamm.

Pierre Bourdin es profesor de los Estudios de Informática, Multimedia y Telecomunicación. Ingeniero de informática y robótica. Pionero de la realidad virtual y de la programación 3D, está finalizando un doctorado bajo la supervisión del profesor Mel Slater del EventLab en la UB. Su línea de investigación considera el uso de la realidad virtual como herramientas para estudiar el comportamiento de personas dentro de mundos virtuales tanto a nivel tecnológico com a nivel psicológico.

(Visited 75 times, 1 visits today)
Autor / Autora
Comentarios
Manolo Palao24 octubre, 2016 a las 1:21 pm

Muy acertado. Enhorabuena. 🙂

Responder
    Pierre Bourdin25 octubre, 2016 a las 1:00 am

    Gracias por su comentario.
    Me alegro que le haya gustado.

    Responder
Miguel Martín10 noviembre, 2016 a las 11:58 pm

Buen articulo Pierre.
Este tipo de dilemas los podemos encontrar también en medicina, por ejemplo, mantener con vida a un paciente donante de órganos o ‘dejarlo’ morir y con los órganos salvar a otros pacientes.
Al final habrá una función coste-beneficio de la que habrá que buscar el máximo beneficio con el mínimo coste.
El problema es encontrar esa función y que sea ética.
Los casos en los que hay un humano detrás (drones, etc) el dilema es el que puede tener un soldado ‘tradicional’ en cualquier conflicto armado.

Responder
    Pierre Bourdin15 noviembre, 2016 a las 4:52 pm

    Gracias por tu comentario.
    Estoy de acuerdo contigo, en medicina también hay muchos casos críticos de este tipo, otro que me viene a la mente, es cribar, separar los pacientes en medicina de emergencia, en caso de desastre, como terremotos etc… cuando superas el numero de pacientes que puedes tratar y tienes que eligir, quien puede esperar, quien no, quien puedes salvar y quien no… cualquier medico o socorrista quien ha enfrentado esta situación, no sale el mismo hombre…
    En el caso de los drones, ademas del conflicto que puede tener un soldado ‘tradicional’, hay el desequilibrio de la situación, lo que refuerza el conflicto ético y moral, creo.

    Responder
Carme Viladoms13 noviembre, 2016 a las 8:18 pm

Son necesarios artículos informativos como este . Muy logrado

Responder
    Pierre Bourdin15 noviembre, 2016 a las 4:54 pm

    Gracias Carme.

    Responder
Anónimo21 mayo, 2017 a las 8:43 pm

Buen artículo, me gustaría leer las fuentes. Si no es mucha molestia podría comentar algunos títulos. Saludos.

Responder
Jairo Cardona1 octubre, 2018 a las 3:29 pm
Deja un comentario