Dilemas éticos en los usos de la tecnología (II)

15 junio, 2016

Y hoy reanudamos la discusión que dejamos pendiente la semana pasada en esta entrada.

Naturalmente, la tendencia del quantified self nos lleva a pensar en los usos de los datos que generan Fitbits y demás dispositivos que miden nuestra actividad física diaria. ¿Queremos que, por ejemplo, nuestra aseguradora sepa realmente cuan sedentarios son nuestros hábitos? Por otra parte, comienza a haber casos en que el acceso a la información recogida por estos dispositivos ha sido muy útil y Apple acaba de abrir el código de CareKit, que de nuevo pone de manifiesto la utilidad potencial de este tipo de dispositivos y los datos que recogen.

A esta preocupación creciente por la privacidad y los datos, se añaden también los usos que dan las empresas a los datos que recopilan de sus usuarios. Parecía que esta inquietud había quedado resuelta con los terms and conditions, pero ahora surge una nueva pregunta: ¿qué ocurre si estas empresas quiebran o son adquiridas por otras compañías? Aparentemente, hay un grupo considerable de empresas que no se hacen responsables de los usos que se podrían dar a estos datos en esta circunstancia.

Y más allá de las protecciones que nos ofrecen las condiciones legales, hay que considerar los potenciales problemas de seguridad que pueden dar lugar a filtraciones involuntarias de datos. Dos ejemplos que muestran esta situación son: El primero, un análisis de la seguridad de la plataforma Samsung Smart Home que es, como mínimo, alarmante para los ocupantes de viviendas donde se haya instalado; el segundo, que seguramente resulte más llamativo, tiene que ver con la tendencia de conectar a la red juguetes sexuales.

No es necesario que los datos acaben en manos de un hacker black hat para que se cree debate, tal y como ha demostrado no hace mucho la polémica entre el FBI y Apple (y los métodos cuestionables del FBI para romper el cifrado del iPhone). El debate público ha ayudado, seguro, a que prácticamente todas las aplicaciones de mensajería hayan aplicado cifrado «end to end» a sus servicios. Y esta mejora en la seguridad, a su vez, ha motivado un segundo debate sobre la seguridad de los correspondientes protocolos y sobre la información que se puede extraer de los metadatos que quedan fuera de este cifrado. En ausencia de mecanismos para romper cifrados robustos, los sistemas judiciales oponen otras alternativas: en Estados Unidos un hombre ha sido encarcelado por negarse a descifrar un disco duro (era sospechoso de poseer pornografía infantil).

La percepción pública de estos problemas está creciendo. El Washington Post cita un informe de la National Telecommunications & Information Administration que afirma que un porcentaje sensible de estadounidenses está empezando a dejar de utilizar determinados servicios en la red dando como motivo la falta de seguridad y privacidad.

Esto en cuanto a los datos recopilados, pero también hay que tener en cuenta los algoritmos que se aplican a estos datos. El tema de moda hace apenas semanas en la prensa de los Estados Unidos es el presunto sesgo liberal de las trending news de Facebook. Cada vez más algoritmos ayudan a tomar decisiones que nos afectan. Un primer caso que nos toca de cerca es, naturalmente, el uso de asistentes en educación, que en algunos casos pueden tomar decisiones que se podrían considerar segregación. Uno de los motivos de preocupación es que muchos de esos algoritmos están diseñados por un perfil muy limitado de personas (hombres, blancos, residentes en Silicon Valley, de entre 25 y 45 años de edad, de nivel económico alto). El problema ha llegado, como mínimo, a hacer que desde la Casa Blanca se afirmase que es un tema que debe considerarse seriamente. La necesidad de transparencia de los algoritmos, y los problemas obvios de hacer transparentes estos algoritmos, son cada vez más tema de conversación. ¿Qué pasa si hay un error en un programa que se utiliza para tomar decisiones médicas? Empieza a haber, por ejemplo, literatura científica sobre el uso de máquinas en procesos judiciales. Naturalmente, la llegada inminente de coches con capacidades de conducción autónoma ha dado lugar a preocupación sobre qué pasará cuando empiece a haber los primeros inevitables accidentes. Si un robot mata, ¿debemos considerarlo un asesinato o responsabilidad civil del fabricante (o del instalador / configurador)?

No queremos alargar demasiado y los temas a tocar son muchísimos, pero tampoco queremos dejar de hablar de drones. No han tardado en aparecer muchos usos que no se habían considerado. Considérese, por ejemplo, el ciudadano que ha decidido que su misión particular, y ajena en ocasiones a los límites legales, de acabar con la prostitución le ha llevado a usar drones para espiar a las trabajadoras sexuales de sus alrededores. Pero los que cuestionan (o cuestionamos) la moralidad de este uso (que seguro que pueden imaginar mecanismos para utilizar drones para usos vandálicos o que vulneran la privacidad de las personas), también deben pensar en la tribu de la Guayana que ha comprado y montado un dron barato (al menos relativamente barato) para denunciar la tala ilegal de árboles (de nuevo, potencialmente huyendo de los límites de la legalidad). O en los descubrimientos científicos que nos está trayendo el hecho de que haya artilugios así en manos de particulares, o el hecho de que la National Science Foundation haya dado financiación para drones para proteger la vida salvaje

Nuevas tecnologías y los usos no previstos que les damos. ¿Bendición o maldición?

It's complicated

(Visited 65 times, 1 visits today)
Autor / Autora
Etiquetas
Comentarios
Deja un comentario