El bueno, el robot y el malo: del diseño ético a la moralidad artificial

1 diciembre, 2020

(Més avall trobareu la versió en català d’aquest contingut.)

Vamos a imaginar una situación hipotética. Has pedido un préstamo a tu banco para comprar una casa, has entrado en un proceso de selección para el trabajo de tu vida, o esperas impaciente los resultados del último examen de tus estudios. En quién confiarás más para que decida si te concede el préstamo, si pasas de fase en el proceso de selección, o en la corrección de ese último examen: ¿en un trabajador humano, o en un avanzado algoritmo de Inteligencia Artificial?

A pesar de que, inicialmente, se pensaba que los algoritmos nos ayudarían a tomar decisiones más justas y desprovistas de prejuicios humanos, la progresiva integración de sistemas de Inteligencia Artificial (IA) en distintos campos ha mostrado como, lamentablemente, esto no es así. Un repaso rápido a algunas de las noticias detrás de las palabras “algoritmo” y “prejuicio” nos lleva a casos como los de un algoritmo usado en el sistema judicial en los EUA que muestra prejuicios raciales; o un algoritmo usado en la contratación laboral que muestra preferencias sexistas; o un algoritmo usado para predecir notas en el Reino Unido que asigna resultados injustos. ¡Parece que ni siquiera los algoritmos pueden desprenderse de los prejuicios y las desigualdades sociales!

A raíz de la aparición de múltiples casos como esos, el estudio de las consideraciones éticas en el diseño de la IA ha ganado más y más importancia en los últimos años. Cada vez hay más equipos interdisciplinarios de investigadores que plantean y analizan las posibles consecuencias éticas que la integración de un sistema de IA puede tener sobre sus usuarios, o sobre la población en general, antes de decidir cómo debe llevarse a cabo esa integración.

Noia en un espai immersiu.

El estudio de las consideraciones éticas en la IA suele abordarse, tradicionalmente, a través del diseño ético. El diseño ético busca prevenir e impedir, o al menos mitigar, las posibles consecuencias adversas que pueden producirse al integrar un sistema de IA en un cierto contexto. Este trabajo se basa en analizar la forma en que la IA recoge y procesa los datos, en entender cómo el sistema toma decisiones y, más importante aún, en evaluar las posibles consecuencias perjudiciales que esas decisiones pueden tener. La calidad de los datos, la anonimización de los usuarios, la mitigación de desigualdades existentes, y la prevención de ciertas decisiones y acciones son algunos ejemplos de las dimensiones a tener en cuenta en el diseño ético de un sistema de IA.

Sin embargo, el diseño ético tiene ciertas limitaciones. Concretamente, el fundamento del diseño ético se basa en prevenir, de entrada, situaciones en las que puedan producirse efectos éticos adversos que se quieren evitar. No obstante, a medida que los sistemas de IA se vuelven más y más autónomos, la cantidad de posibles escenarios, decisiones y cadenas de efectos en que esos sistemas deberán tomar decisiones aumenta exponencialmente: coches automáticos, sistemas de armamento autónomo, robots médicos, tutores personalizados para la educación… Ese crecimiento en la autonomía de los sistemas hace más y más difícil prever, de antemano y de forma exhaustiva, todos los posibles casos en que las consecuencias éticas de una decisión deben tenerse en cuenta. El diseño ético a priori se vuelve, de pronto, insuficiente. Tal y como un ser humano debe ser capaz de entender la dimensión ética de sus acciones y debe poder evaluar, al momento, cual es la mejor decisión a tomar (incluso cuando se encuentra con casos que nunca había considerado anteriormente), igualmente una IA a la que confiamos decisiones tan importantes como la aceptación de un préstamo, la asignación de un trabajo, o el futuro de nuestra educación, debería ser capaz de ello.

El campo de la “moralidad artificial” (también llamado “ética de las máquinas”, “ética computacional”, o “moralidad computacional”) estudia cómo integrar el razonamiento moral en la IA. Teniendo en cuenta que, cuanta más autonomía ganan los sistemas de IA, más difícil se vuelve usar el diseño ético para prever todos los posibles escenarios que sean éticamente relevantes, la moralidad artificial busca codificar la dimensión moral de las posibles decisiones dentro del propio sistema. Tal y como la IA usa nociones como “rendimiento”, “utilidad”, o semejantes para decidir qué acción tomar, entender y codificar la “moralidad” de una decisión (entendiendo como esta afecta, beneficiosamente o perjudicialmente, a los usuarios) permitiría integrar un razonamiento ético más versátil en sistemas autónomos.

Dron sobrevolant un territori.

Así pues, la dimensión ética de una IA equipada con moralidad artificial no solo dependería de aquellas situaciones que los ingenieros hubieran podido prever de entrada, sino que podría, idealmente, “entender” las consecuencias morales de situaciones genuinamente nuevas en las que se encontrara. A modo de ejemplo, en el caso de algoritmos que muestran prejuicios raciales, el diseño ético podría pasar, entre otras opciones, por procesar los datos antes de ser usados por el algoritmo con el objetivo de eliminar cualquier información racial que pudiera servir a la IA para encontrar patrones injustos (por ejemplo, concluir que los ciudadanos de una cierta raza son más propensos a delinquir que los de otra raza). En cambio, la moralidad artificial no se basaría en “esconder” aquellos campos que no deberían ser utilizados, sino en implementar una IA que sea capaz de “entender” que las consecuencias éticas y morales de usar dichos campos son indeseables y que, por lo tanto, no deben tenerse en cuenta para esa toma de decisiones. Tal y como apuntan los investigadores Caliskan, Bryson y Narayanan: “awareness is better than blindness”.

Sin embargo, el reto de la moralidad artificial no es sólo un reto tecnológico (¡aunque también lo es!). De entrada, es necesario entender cuáles son los posibles riesgos, beneficios y efectos perjudiciales que se pueden producir; esto requiere un conocimiento de varios contextos, de sus usuarios y de las posibles acciones que puedan darse. Esto suele necesitar, además, un conocimiento de la realidad social del momento, así como de las distintas desigualdades que puedan existir entre grupos de población, zonas geográficas, etc. Además, está el enorme reto conceptual de identificar y representar de forma computacional la dimensión ética de una decisión, además de entender cómo esto se puede integrar en las fórmulas matemáticas que el sistema de IA usará, finalmente, para decidir qué curso de acción sigue. Debido a su complejidad e interdisciplinariedad inherente, el diseño ético y la moralidad artificial son algunos de los retos de investigación que se proponen a los estudiantes del Máster en Ingeniería Computacional y Matemática de la UOC , así como del Doctorado en Tecnologías del Aprendizaje de la UOC. 

Así pues, se trata de un reto detrás del que encontramos desde ingenieros y roboticistas, hasta filósofos, eticistas y psicólogos… ¡No es de extrañar que el razonamiento moral se considere como uno de los razonamientos más complejos que el ser humano puede realizar!

Nena asiàtica saludant un robot.

La moralidad artificial podría ayudar a que los sistemas de IA tomaran decisiones más justas y éticamente beneficiosas no solo para los usuarios directos de esos sistemas, sinó para el resto de la sociedad. Sin embargo, aún quedan muchas preguntas pendientes que la moralidad artificial necesitará responder antes de poderse poner en práctica de forma general. ¿Puede una máquina llegar a “entender” la dimensión ética y moral de sus decisiones? Si es que sí, ¿hasta dónde puede llegar? ¿Podría contribuir eso a “deshumanizar” el campo de la ética? Y, quizás la pregunta más fundamental, y que vendría antes de todas las anteriores: ¿es ético poner números a la ética?

El bo, el robot i el dolent: del disseny ètic a la moralitat artificial

Imaginem-nos una situació hipotètica. Has demanat un préstec al teu banc per comprar una casa, has entrat en un procés de selecció per la feina de la teva vida, o esperes impacient els resultats de l’últim examen dels teus estudis. En qui confiaràs més perquè decideixi si et concedeix el préstec, si passes de fase en el procés de selecció, o en la correcció d’aquest últim examen: en un treballador humà, o en un avançat algoritme d’Intel·ligència Artificial?

Tot i que, inicialment, es pensava que els algoritmes ens ajudarien a prendre decisions més justes i desproveïdes de prejudicis humans, la progressiva integració de sistemes d’Intel·ligència Artificial (IA) en diferents camps ha mostrat com, lamentablement, això no és així. Un repàs ràpid a algunes de les notícies darrere de les paraules «algoritme» i «prejudici» ens porta a casos com el d’un algoritme usat en el sistema judicial dels EUA que mostra prejudicis racials; o un algoritme usat en la contractació laboral que mostra preferències sexistes; o un algoritme usat per predir notes al Regne Unit que assigna resultats injustos. Sembla que ni tan sols els algoritmes poden desprendre’s dels prejudicis i les desigualtats socials!

Arran de l’aparició de casos com aquests, l’estudi de les consideracions ètiques en el disseny de la IA ha guanyat més i més importància en els últims anys. Cada vegada hi ha més equips interdisciplinaris d’investigadors que plantegen i analitzen les possibles conseqüències ètiques que la integració d’un sistema d’IA pot tenir sobre els seus usuaris, o sobre la població en general, abans de decidir com s’ha de dur a terme aquesta integració.

Noia en un espai immersiu.

L’estudi de les consideracions ètiques en la IA sol abordar-se, tradicionalment, a través del disseny ètic. El disseny ètic busca prevenir i impedir, o al menys mitigar, les possibles conseqüències adverses que poden produir-se a l’integrar un sistema d’IA en un cert context. Aquest treball es basa en analitzar la forma en què la IA recull i processa les dades, en entendre com el sistema pren decisions i, més important encara, en avaluar les possibles conseqüències perjudicials que aquestes decisions poden tenir. La qualitat de les dades, l’anonimització dels usuaris, la mitigació de desigualtats existents, i la prevenció de certes decisions i accions són alguns exemples de les dimensions a tenir en compte en el disseny ètic d’un sistema d’IA.

No obstant això, el disseny ètic té algunes limitacions. Concretament, el fonament del disseny ètic es basa en prevenir, d’entrada, situacions en què es puguin produir efectes ètics adversos que es volen evitar. No obstant això, a mesura que els sistemes d’IA es tornen més i més autònoms, la quantitat de possibles escenaris, decisions i cadenes d’efectes en què aquests sistemes hauran de prendre decisions augmenta exponencialment: cotxes automàtics, sistemes d’armament autònom, robots mèdics, tutors personalitzats per a l’educació… Aquest creixement en l’autonomia dels sistemes fa més i més difícil preveure, de forma anticipada i exhaustiva, tots els possibles casos en què les conseqüències ètiques d’una decisió s’han de tenir en compte. El disseny ètic a priori es torna, de sobte, insuficient. Tal com un ésser humà ha de ser capaç d’entendre la dimensió ètica de les seves accions i ha de poder avaluar, al moment, quina és la millor decisió a prendre (fins i tot quan es troba amb casos que mai havia considerat anteriorment), també una IA a la qual confiem decisions tan importants com l’acceptació d’un préstec, l’assignació d’una feina, o el futur de la nostra educació, hauria de ser capaç d’això.

El camp de la «moralitat artificial» (també anomenat «ètica de les màquines», «ètica computacional», o «moralitat computacional») estudia com integrar el raonament moral en la IA. Tenint en compte que, com més autonomia guanyen els sistemes d’IA, més difícil es torna usar el disseny ètic per preveure tots els possibles escenaris que siguin èticament rellevants, la moralitat artificial busca codificar la dimensió moral de les possibles decisions dins el propi sistema. Tal i com la IA fa servir nocions com «rendiment», o «utilitat» per decidir quina acció prendre, entendre i codificar la «moralitat» d’una decisió (entenen com aquesta afecta, beneficiosament o perjudicialment, als usuaris) permetria integrar un raonament ètic més versàtil en sistemes autònoms.

Dron sobrevolant un territori.

Així doncs, la dimensió ètica d’una IA equipada amb moralitat artificial no només dependria d’aquelles situacions que els enginyers haguessin pogut preveure d’entrada, sinó que podria, idealment, «entendre» les conseqüències morals de situacions genuïnament noves en què es trobés. A tall d’exemple, en el cas d’algoritmes que mostren prejudicis racials, el disseny ètic podria passar, entre d’altres opcions, per processar les dades abans de ser usades per l’algoritme amb l’objectiu d’eliminar qualsevol informació racial que pogués servir a la IA per trobar patrons injustos (com per exemple, concloure que els ciutadans d’una certa raça són més propensos a delinquir que els d’una altra raça). En canvi, la moralitat artificial no es basaria en «amagar» aquells camps que no s’haurien de considerar, sinó en implementar una IA que sigui capaç d’»entendre» que les conseqüències ètiques i morals d’usar aquests camps són indesitjables i que, per tant, no s’han de tenir en compte per a aquesta presa de decisions. Tal i com apunten els investigadors Caliskan, Bryson i Narayanan: «awareness is better than blindness».

Nena asiàtica saludant un robot.

No obstant això, el repte de la moralitat artificial no és només un repte tecnològic (tot i que també ho és!). D’entrada, cal entendre quins són els possibles riscos, beneficis i efectes perjudicials que es poden produir; això requereix un coneixement de diversos contextos, dels seus usuaris i de les possibles accions que puguin donar-se. Això sol necessitar, a més, un coneixement de la realitat social del moment, així com de les diferents desigualtats que hi pugui haver entre grups de població, zones geogràfiques, etc. A més, hi ha l’enorme repte conceptual d’identificar i representar de forma computacional la dimensió ètica d’una decisió, a més d’entendre com això es pot integrar en les fórmules matemàtiques que el sistema d’IA farà servir, finalment, per decidir quin curs d’acció segueix. Degut a la seva complexitat i interdisciplinarietat inherent, el disseny ètic i la moralitat artificial són alguns dels reptes de recerca que es proposen als estudiants del Màster en Enginyeria Computacional i Matemàtica de la UOC, així com del Doctorat en Tecnologies de l’Aprenentatge de la UOC.

La moralitat artificial podria ajudar a que els sistemes d’IA prenguessin decisions més justes i èticament beneficioses no només pels usuaris directes d’aquests sistemes, sinó també per a la resta de la societat. No obstant, encara queden moltes preguntes pendents que la moralitat artificial necessitarà respondre abans de poder-se posar en pràctica de forma general. Pot una màquina arribar a «entendre» la dimensió ètica i moral de les seves decisions? Si és que sí, fins on pot arribar? Podria contribuir això a «deshumanitzar» el camp de l’ètica? I, potser la pregunta més fonamental, i que vindria abans de totes les anteriors: és ètic posar números a l’ètica?

Autor / Autora
Investigador postdoctoral del grupo SmartLearn de la Universitat Oberta de Catalunya (UOC) y Doctor en Sociedad de la Información y el Conocimiento por la UOC. Sus intereses de investigación se centran en temas de Inteligencia Artificial y Ética, así como en Filosofía y Ética de la Tecnología.
Comentarios
Deja un comentario