Test de Turing, prueba NO superada

10 junio, 2014

Esta semana pasada, muchos medios TIC han publicado la noticia de un avance tecnológico sin precedentes: un superordenador ha superado el test de Turing.

Alan Turing, en su artículo «Computing Machinery and Intelligence» del año 1950, propuso una posible forma de decidir si un sistema era inteligente o no. Este test se basaba en hacer conversar a dicho sistema con un entrevistador de forma ciega, es decir, el entrevistador sólo tendría acceso a sus mensajes y respuestas. A través de ellos, debería decidir si estaba interactuando con otra persona o una máquina. Un sistema realmente inteligente debería ser capaz de convencer a su interlocutor que no es un programa, demostrando su comprensión del lenguaje, capacidad comunicativa, conocimiento del mundo, sentido común, memoria, etc.

Test de Turing: El entrevistador C debe decidir quién es el ordenador, A o B. Fuente: Wikipedia - Licencia: Dominio público.
Test de Turing: El entrevistador C debe decidir quién es el ordenador, A o B. Fuente: Wikipedia – Licencia: Dominio público.

La noticia no podía llegar en un momento más propicio: el 7 de junio se cumplían 60 años del suicidio de Alan Turing. Sin embargo, a medida que se ha ampliando la información, han ido apareciendo dudas:  ¿Por qué la fuente de la noticia es una nota de prensa y no un artículo científico? ¿Cómo se ha fijado la frontera del 30% de éxito como límite para superar el test? ¿Se trata realmente de un superordenador o es sólo un chatbot que analiza las frases y aplica un conjunto reducido de reglas?

Hay algunos atajos que un entrevistador puede usar para detectar si su interlocutor es un programa, centrándose en su humanidad más que en su inteligencia. Preguntas como “¿En qué año naciste?», “¿Cómo se llama tu madre?», “¿Qué cenaste ayer?» o “¿Cuántos brazos tienes?” podrían revelar la naturaleza de nuestro interlocutor. Es por ello que, para superar un test de Turing, además de ser inteligente un programa debe ser capaz de asumir un papel “humano” y mentir de forma coherente y convincente.

También existen atajos desde la perspectiva de los programas «imitadores de humanos». Algunos programas pretenden superar el test intentando única y exclusivamente crear una duda razonable en el entrevistador, sin que haya una IA profunda como base. Es como el mal estudiante que sólo quiere aprobar el examen, aunque no tenga ni idea de los contenidos. El ejemplo paradigmático, Eliza, se hace pasar por un psicólogo que desvía las preguntas del entrevistador devolviéndolas al más puro estilo del psicoanálisis  “¿Por qué me haces esta pregunta?», “¿Cómo te sientes acerca de este tema?», … Ello no les resta complejidad y algunos son obras maestras de la programación y de la psicología humana. Sin embargo, no representan una revolución en el campo de la IA.

En esta ocasión el programa se hace llamar Eugene Goostman y se presenta como un niño ucraniano de 13 años. El tema de la edad no es baladí, ya que se utiliza como excusa para justificar los errores del programa o su curiosidad por el interlocutor (pregunta continuamente para ganar tiempo y desviar la atención sobre sí mismo). Vaya, que Eugene es un campeón en el ámbito de mentir de forma convincente. Sin embargo, aunque Eugene sabe bastantes cosas, parece tener problemas relacionados con su conocimiento del mundo. Por ejemplo, conoce a Alan Turing o a Eliza (y tiene un buen concepto de ella). Pero es incapaz de responder preguntas como “¿Cuántas patas tiene un camello? ¿Y un milpiés?” y en otros casos simplemente evita responder, dado que no comprende la pregunta. Viendo esto, aunque haya conseguido convencer a 1 de cada 3 entrevistadores que era humano, quizás sea pronto para lanzar grandes titulares sobre el progreso de la IA.

Algún día, los avances de la IA permitirán que un programa mantenga una conversación con un humano sin que éste lo perciba. De momento, colguemos un cartel de «Próximamente».

(Visited 2.429 times, 1 visits today)
Autor / Autora
Robert Clarisó Viladrosa
Comentarios
Deja un comentario