¿Robótica Libre? Isaac Asimov vs Richard Stallman

23 mayo, 2013

[versió en Català]

Esta entrada trata sobre dos de los personajes destacados y de mayor influencia en diferentes épocas de mi vida. Por un lado, Isaac Asimov [1], autor de innumerables éxitos en el ámbito de la ciencia ficción y uno de los escritores cuyas obras  –tanto de ficción como de divulgación científica– devoré con mayor avidez durante mi etapa adolescente y los primeros años de vida adulta. Entre muchos otros motivos, Asimov es reconocido como “el padre de la robótica”, si bien su influencia en este ámbito se limita a “teorizar” sobre un futuro de coexistencia entre la humanidad y unos robots comparables, en cuanto a facultades cognitivas, a nosotros gracias a sus potentes “cerebros positrónicos”. Entre sus muchas obras centradas en este tema, quizá la más conocida sea la recopilación de relatos “Yo, robot” [2] donde se formulan las  famosas “tres leyes de la robótica” [3] (que posteriormente serían cuatro), las cuales se ilustran a través de un conjunto de historias intrigantes e ingeniosas sobre la interacción de robots y seres humanos en un escenario futuro.

Isaac Asimov.. Fuente : SAdreams @ DeviantArt - Licencia: CC BY-NC-ND 3.0
Isaac Asimov. Fuente : SAdreams @ DeviantArt – Licencia: CC BY-NC-ND 3.0

Por otro lado, Richard Stallman [4], el reconocido padre del movimiento del software libre, creador de la Free Software Foundation (FSF) [5] y del proyecto GNU [6], como ingeniero informático, impacta en toda mi carrera profesional y académica, tanto por cuestiones técnicas (gracias a la disponibilidad de programas libres de gran calidad) como filosóficas (¿debe ser libre todo el software?) La designación como director del Máster de software libre de la UOC entre los años 2002 y 2009, y el hecho de continuar como profesor responsable de varias de sus asignaturas, convierten a Stallman en una figura prominente en mi reciente trayectoria personal.

Richard Stallman. Fuente: chrys @ Wikipedia - Licencia: CC BY 2.0
Richard Stallman. Font: chrys @ Wikipedia – Llicència: CC BY 2.0

Eso me lleva a plantearme la pregunta siguiente: ¿existe algún tipo de vínculo o relación entre ambas figuras? Bueno, aunque sea superficial, la verdad es que sí que es posible encontrar algunas coincidencias. Si Asimov es el responsable de enumerar las cuatro leyes de la robótica (véase la tabla a continuación), empezando desde la cero hasta la tercera, Stallman, fundador de la FSF, es el ideólogo de la definición del software libre [7] basada también en cuatro principios o “libertades”, desde la cero hasta la tercera (reproducidas en la misma tabla).

Ley o Libertad

Robótica

(Asimov)

Software libre

(Stallman)

0Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.La libertad de usar el programa, con cualquier propósito
1Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que usted quiera. El acceso al código fuente es una condición necesaria para ello.
2Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley (y la Ley 0).La libertad de redistribuir copias para ayudar a su prójimo.
3Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Leyes (y también con la Ley 0).La libertad de distribuir copias de sus versiones modificadas a terceros. Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones. El acceso al código fuente es una condición necesaria para ello.

Más allá de esta curiosidad o coincidencia numérica, ¿podemos establecer algún tipo de paralelismo o “enfrentamiento ficticio” entre ambos personajes? Pues bien, para empezar podemos afirmar que tanto las cuatro leyes de la robótica como las cuatro libertades del software libre persiguen un fin ético concreto, con unos principios filosóficos basados en el bien común, ya sea este la integridad de las personas y de la humanidad en el caso de Asimov, o la preservación de las libertades individuales para Stallman.

¿Estarían, pues, de acuerdo Stallman y Asimov en sus planteamientos respectivos? Para contestar a esta pregunta, permítanme un ejercicio mental e imaginemos, por un momento, a un Stallman que no se hubiese dedicado a desarrollar software sino a la creación de robots, dedicado y consagrado a la definición de la filosofía y los principios de la robótica libre.

¿Cómo serían las leyes (libertades) de la robótica libre, si Stallman se hubiera dedicado a la robótica en lugar del software? Creo que, en tal caso, podríamos encontrar algo parecido a esto:

–         Libertad 0: es la libertad de usar el robot, con cualquier propósito.

Esto incluiría dañar a toda la humanidad (incumplimiento de la Ley 0 de Asimov), eliminar a un vecino molesto (conflicto con la primera Ley), desobedecer las órdenes de un ser humano o ignorarlas (conflicto con la segunda Ley) o autodestruirse si es lo que al creador de robots le apetece (conflicto con la tercera Ley), entre muchas otras posibilidades.

–         Libertad 1: es la libertad de estudiar cómo funciona el robot, y cambiarlo para que haga lo que usted quiera. El acceso a los esquemas de los circuitos y de la mecánica del hardware del robot y al código fuente de su software es una condición necesaria para ello.

Evidentemente puedo cambiar al robot para hacer lo que yo quiera y eso me permite incumplir, nuevamente,  las cuatro leyes de Asimov, si así lo deseo.

–         Libertad 2: La libertad de crear clones de un robot y redistribuirlos para ayudar a su prójimo.

No sé si Asimov estaría muy de acuerdo con esto. Seguramente el escritor vislumbró varios escenarios de futuro en que los fabricantes robots quedarían protegidos por patentes o alguna forma de propiedad intelectual que los haría incompatibles con esta libertad.

–         Libertad 3: La libertad de distribuir clones de sus versiones modificadas a terceros. Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones que usted haya realizado en su robot. El acceso los esquemas y al código fuente del robot es, nuevamente, una condición necesaria para ello.

No creo que Asimov pensase en este modelo de distribución de robots “tuneados”, sinceramente.

Parece, pues, que hemos encontrado un serio conflicto entre el futuro imaginado por uno de los autores más prolíficos y aplaudidos de la ciencia ficción con uno de los personajes más influyentes de la tecnología actual. ¿Cuántos de ustedes están leyendo este artículo usando Mozilla Firefox o un dispositivo Android, por ejemplo?

Sin embargo, como ya he comentado, ambos personajes perseguían como fin último el “Bien” en mayúsculas, cada uno interpretándolo en un contexto y un momento histórico diferentes. Para Asimov queda claro que el bien que hay que proteger, a toda costa, es el ser humano (primera Ley), o la humanidad (Ley cero) llevando el asunto al límite. Asimov predice un escenario concreto en que deben evitarse los conflictos entre humanos y robots. No es difícil imaginarse a los robots como usurpadores, en muchos casos, del bienestar de las personas, al reemplazar la mano de obra humana en actividades profesionales cada vez más sofisticadas. La manera de resolver este conflicto en sus historias es dotar a los humanos de un poder supremo sobre los robots, hasta el punto de que cualquier persona pueda ordenar a un robot su autodestrucción sin que éste tenga la opción de oponerse a obedecerla. Este escenario, evidentemente, peca de ingenuo. En un futuro donde se desarrollasen tales robots dotados de poderosas funcionalidades de inteligencia artificial en sus cerebros positrónicos, ¿qué impediría, por ejemplo, a los gobiernos construir versiones militares de estos robots para sus objetivos, obviando las leyes de Asimov diseñadas para proteger a las personas?

Por otro lado, el Stallman ficticio dedicado a la fabricación de robots buscaría como fin último proteger la libertad del creador, del ingeniero, de manera que sus homólogos pudieran estudiar los progresos de sus diseños y –¿por qué no?– mejorarlos si cabe. ¿Quiere esto decir que a Stallman no le preocupa el bienestar y la protección de las personas y de la humanidad? En absoluto. Stallman obviaría estas cuestiones dejándolas a discreción de los entornos legales de cada territorio. Las leyes serían, en última instancia, las encargadas de proteger a la ciudadanía mediante los sistemas establecidos con tal finalidad. Las leyes humanas, y no las incrustadas en la tecnología, son las que ahora nos prohíben circular más allá de ciertos límites de velocidad pese a que los vehículos puedan fácilmente superarlos. Los principios éticos y morales de una tecnología no se incrustan en el diseño de sus componentes mecánicos y electrónicos, sino que se fijan con los sistemas legales definidos a tal efecto.

Filosóficamente hablando, quizá se antoje menos inquietante, aunque más utópico, el futuro imaginario esbozado por Asimov, con unos robots limitados por diseño, que la más que plausible realidad alternativa plasmada en los principios y libertades del software, perdón, de la robótica libre de nuestro Stallman de ficción.

Referencias

[1] http://es.wikipedia.org/wiki/Isaac_Asimov

[2] http://es.wikipedia.org/wiki/Yo_robot

[3] http://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica

[4] http://es.wikipedia.org/wiki/Richard_Stallman

[5] http://www.fsf.org/

[6] http://www.gnu.org/

[7] http://www.gnu.org/philosophy/free-sw.es.html

El Dr. David Megías Jiménez es profesor de los Estudios de Informática, Multimedia y Telecomunicación, coordinador del programa de doctorado en Tecnologías de la Información y de Redes, coordinador del grupo de investigación  K-ryptography and Information Security for Open Networks (KISON) y director adjunto del programa de doctorado en Sociedad de la Información y del Conocimiento del IN3.


Aquesta entrada tracta sobre dos dels personatges destacats i de més influència en diferents èpoques de la meva vida. D’una banda, Isaac Asimov [1], autor d’innombrables èxits en l’àmbit de la ciència ficció i un dels escriptors les obres del qual  –tant de ficció com de divulgació científica– vaig devorar amb més avidesa durant la meva etapa adolescent i els primers anys de vida adulta. Entre molts altres motius, Asimov és reconegut com “el pare de la robòtica”, si be la seva influència en aquest àmbit es limita a “teoritzar” sobre un futur de coexistència entre la Humanitat i uns robots comparables, quant a facultats cognitives, a nosaltres gràcies als seus potents “cervells positrònics”. Entre les seves moltes obres centrades en aquest tema, potser la més coneguda sigui la recopilació de relats “Jo, robot” [2] on es formulen les  famoses “tres lleis de la robòtica” [3] (que posteriorment serien quatre), les quals s’il·lustren a través d’un conjunt d’històries intrigants i enginyoses sobre la interacció de robots i éssers humans en un escenari futur.

Isaac Asimov.. Fuente : SAdreams @ DeviantArt - Licencia: CC BY-NC-ND 3.0
Isaac Asimov. Font:  SAdreams @ DeviantArt – Llicència: CC BY-NC-ND 3.0

D’altra banda, Richard Stallman [4], el reconegut pare del moviment del programari lliure, creador de la Free Software Foundation (FSF) [5] i del projecte GNU [6], com a enginyer informàtic, impacta en tota la meva carrera professional i acadèmica, tant per qüestions tècniques (gràcies a la disponibilitat de programes lliures de gran qualitat) com a filosòfiques (ha de ser lliure tot el programari?) La designació com a director del Màster de programari lliure de la UOC entre els anys 2002 i 2009, i el fet de continuar com a professor responsable de diverses de les seves assignatures, converteixen a Stallman en una figura prominent en la meva recent trajectòria personal.

Richard Stallman. Fuente: chrys @ Wikipedia - Licencia: CC BY 2.0
Richard Stallman. Fuente: chrys @ Wikipedia – Licencia: CC BY 2.0

Això em porta a plantejar-me la pregunta següent: existeix algun tipus de vincle o relació entre ambdues figures? Bé, encara que sigui superficial, la veritat és que sí que és possible trobar-hi algunes coincidències. Si Asimov és el responsable d’enumerar les quatre lleis de la robòtica (vegeu la taula a continuació), començant des de la zero fins a la tercera, Stallman, fundador de la FSF, és l’ideòleg de la definició del programari lliure [7] basada també en quatre principis o “llibertats”, des de la zero fins a la tercera (reproduïdes en la mateixa taula).

Llei o Llibertat

Robòtica

(Asimov)

Programari lliure

(Stallman)

0Un robot no pot fer mal a la Humanitat o, per inacció, permetre que la Humanitat sofreixi dany.La llibertat d’usar el programa, amb qualsevol propòsit
1Un robot no pot fer mal a un ésser humà o, per inacció, permetre que un ésser humà pateixi dany.La llibertat d’estudiar com funciona el programa, i canviar-ho perquè faci el que vostè vulgui. L’accés al codi font és una condició necessària per a això.
2Un robot ha d’obeir les ordres donades pels éssers humans, excepte si aquestes ordres entressin en conflicte amb la primera Llei (i la Llei 0).La llibertat de redistribuir còpies per ajudar altri.
3Un robot ha de protegir la seva pròpia existència en la mesura en què aquesta protecció no entri en conflicte amb la primera o la segona Lleis (i també amb la Llei 0).La llibertat de distribuir còpies de les seves versions modificades a altri. Això li permet oferir a tota la comunitat l’oportunitat de beneficiar-se de les modificacions. L’accés al codi font és una condició necessària per a això.

Més enllà d’aquesta curiositat o coincidència numèrica, podem establir algun tipus de paral·lelisme o “enfrontament fictici” entre tots dos personatges? Doncs bé, per començar podem afirmar que tant les quatre lleis de la robòtica com les quatre llibertats del programari lliure persegueixen una fi ètica concreta, amb uns principis filosòfics basats en el bé comú, ja sigui aquest la integritat de les persones i de la Humanitat en el cas d’Asimov, o la preservació de les llibertats individuals per a Stallman.

Estarien, doncs, d’acord Stallman i Asimov en els seus plantejaments respectius? Per contestar a aquesta pregunta, permetin-me un exercici mental i imaginem, per un moment, un Stallman que no s’hagués dedicat a desenvolupar programari sinó a la creació de robots, dedicat i consagrat a la definició de la filosofia i els principis de la robòtica lliure.

Com serien les lleis (llibertats) de la robòtica lliure, si Stallman s’hagués dedicat a la robòtica en lloc del programari? Crec que, en tal cas, podríem trobar alguna cosa semblat a això:

–         Llibertat 0: és la llibertat d’usar el robot, amb qualsevol propòsit.

Això inclouria danyar tota la humanitat (incompliment de la Llei 0 d’Asimov), eliminar a un veí molest (conflicte amb la primera Llei), desobeir les ordres d’un ésser humà o ignorar-les (conflicte amb la segona Llei) o autodestruir-se si és el que al creador de robots li ve de gust (conflicte amb la tercera Llei), entre moltes altres possibilitats.

–         Llibertat 1: és la llibertat d’estudiar com funciona el robot, i canviar-lo perquè faci el que vostè vulgui. L’accés als esquemes dels circuits i de la mecànica del maquinari del robot i al codi font del seu programari és una condició necessària per a això.

Evidentment puc canviar al robot per fer el que jo vulgui i això em permet incomplir, novament,  les quatre lleis d’Asimov, si així ho desitjo.

–         Llibertat 2: La llibertat de crear clons d’un robot i redistribuir-los per ajudar altri..

No sé si Asimov estaria molt d’acord amb això. Segurament l’escriptor va albirar diversos escenaris de futur en què els fabricadors robots quedarien protegits per patents o alguna forma de propietat intel·lectual que els faria incompatibles amb aquesta llibertat.

–         Llibertat 3: La llibertat de distribuir clons de les seves versions modificades a altri. Això li permet oferir a tota la comunitat l’oportunitat de beneficiar-se de les modificacions que vostè hagi realitzat en el seu robot. L’accés els esquemes i al codi font del robot és, novament, una condició necessària per a això.

No crec que Asimov pensés en aquest model de distribució de robots “tunejats”, sincerament.

Sembla, doncs, que hem trobat un seriós conflicte entre el futur imaginat per un dels autors més prolífics i aplaudits de la ciència ficció amb un dels personatges més influents de la tecnologia actual. Quants de vostès estan llegint aquest article usant Mozilla Firefox o un dispositiu Android, per exemple?

No obstant això, com ja he comentat, tots dos personatges perseguien com a fi últim el “Bé” en majúscules, cadascú interpretant-lo en un context i un moment històric diferents. Per a Asimov queda clar que el bé que cal protegir, costi el que costi, és l’ésser humà (primera Llei), o la Humanitat (Llei zero) portant l’assumpte al límit. Asimov prediu un escenari concret en què cal evitar els conflictes entre humans i robots. No és difícil imaginar els robots com a usurpadors, en molts casos, del benestar de les persones, en reemplaçar la mà d’obra humana en activitats professionals cada vegada més sofisticades. La manera de resoldre aquest conflicte en les seves històries és dotar els humans d’un poder suprem sobre els robots, fins al punt que qualsevol persona pugui ordenar a un robot la seva autodestrucció sense que aquest tingui l’opció d’oposar-se a obeir-la. Aquest escenari, evidentment, seria ingenu. En un futur on es desenvolupessin aquests robots dotats de poderoses funcionalitats d’intel·ligència artificial en els seus cervells positrònics, què impediria, per exemple, als governs construir versions militars d’aquests robots per als seus objectius, obviant les lleis d’Asimov dissenyades per protegir les persones?

D’altra banda, el Stallman fictici dedicat a la fabricació de robots buscaria com a fi últim protegir la llibertat del creador, de l’enginyer, de manera que els seus homòlegs poguessin estudiar els progressos dels seus dissenys i –per què no?– millorar-los si convé. Vol dir això que a Stallman no li preocupa el benestar i la protecció de les persones i de la Humanitat? En absolut. Stallman obviaria aquestes qüestions deixant-les a la discreció dels entorns legals de cada territori. Les lleis serien, en última instància, les encarregades de protegir a la ciutadania mitjançant els sistemes establerts amb aquesta finalitat. Les lleis humanes, i no les incrustades a la tecnologia, són les que ara ens prohibeixen circular més enllà de certs límits de velocitat malgrat que els vehicles puguin fàcilment superar-los. Els principis ètics i morals d’una tecnologia no s’incrusten en el disseny dels seus components mecànics i electrònics, sinó que es fixen amb els sistemes legals definits amb aquest efecte.

Filosòficament parlant, potser semblaria menys inquietant, encara que més utòpic, el futur imaginari esbossat per Asimov, amb uns robots limitats per disseny, que la més que plausible realitat alternativa plasmada en els principis i llibertats del programari, perdó, de la robòtica lliure del nostre Stallman de ficció.

Referències

[1] http://ca.wikipedia.org/wiki/Asimov

[2] http://ca.wikipedia.org/wiki/Jo,_robot

[3] http://ca.wikipedia.org/wiki/Lleis_de_la_rob%C3%B2tica

[4] http://ca.wikipedia.org/wiki/Stallman

[5] http://www.fsf.org/

[6] http://www.gnu.org/

[7] http://www.gnu.org/philosophy/free-sw.es.html

El Dr. David Megías Jiménez és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació, coordinador del programa de doctorat en Tecnologies de la Informació i de Xarxes, coordinador del grup de recerca K-ryptography and Information Security for Open Networks (KISON), i director adjunt del programa de doctorat en Societat de la Informació i del Coneixement de l’IN3.

(Visited 41 times, 1 visits today)
Autor / Autora
Comentarios
Pepe29 mayo, 2013 a las 6:49 pm

Siguiendo esta línea de pensamiento: no quiero imaginarme cómo sería el matrimonio libre para Stallman.
Libertades del matrimonio libre:
0 – Libertad de usar a tu cónyuge con cualquier propósito.
1 – Libertad de estudiar y modificar a tu cónyuge para que haga lo que quieras. Posibilidad de hipnotizar al cónyuge es necesaria.
2 – Libertad de compartir tu cónyuge con para ayudar a tus amigos.
etc, etc.

🙂

Responder
    David Megías30 mayo, 2013 a las 9:49 am

    La verdad es que no sé qué diría Stallman sobre tu propuesta, pero yo no puedo realizar ninguna valoración del mismo sin el consejo de mi abogado 😉

    Responder
Deja un comentario