Computación cuántica (II): un nuevo paradigma

El modelo actual de ordenador no es el único posible. Existen otros paradigmas para diseñar un ordenador que son radicalmente diferentes al modelo “convencional”. Un potencial cambio de paradigma se refiere a la electrónica digital: los ordenadores representan la información de forma discreta, usualmente con los valores 0 o 1. Para hacerlo, se consideran dos niveles de voltaje: el nivel “tierra” (0) y el voltaje proporcionado por la fuente de alimentación (1), con un cierto margen de tolerancia para cada nivel. A partir de estos valores pueden realizarse operaciones lógicas (las definidas en el álgebra de Boole, como AND, OR o NOT), que en la práctica se implementan como puertas lógicas mediante transistores que transmiten o bloquean el voltaje para reflejar el resultado de la operación. Pero también hay dispositivos que utilizan un modelo de computación analógica, donde la información se almacena como una magnitud continua: no hay rangos de valores discretos (entre A y B, el valor es X), sino que se utiliza el valor completo de una magnitud. El uso de valores continuos introduce el problema del ruido: fluctuaciones imprevistas que pueden distorsionar este valor y que limitan el rango de valores observables y la precisión. Este problema también aparece en la electrónica digital, pero se resuelve con los márgenes de tolerancia definidos para cada nivel de voltaje. Cabe destacar que esta magnitud puede ser el voltaje en un cable, pero también podrían ser magnitudes mecánicas (p.ej. la contracción de un muelle elástico) o hidráulicas. Así pues, no es necesario limitarse a propiedades electrónicas para implementar un ordenador: es posible cambiar a un paradigma basado en otras...

Computación cuántica (I): el fin de los ordenadores clásicos

Los ordenadores actuales son descendientes de la Máquina de Turing. Este modelo matemático fue creado por Alan Turing para dar respuesta al Entscheidungsproblem (en alemán, “problema de decisión”), una de las cuestiones centrales de la informática teórica. Las Máquinas de Turing utilizan como memoria una cinta con un número infinito de posiciones y un cursor que puede leer una posición de la cinta, modificar su contenido o desplazarse una posición a la izquierda o a la derecha. El “código” de la máquina de Turing es el conjunto de reglas predefinidas que indican qué acciones debe realizar el cursor según el contenido de la cinta, mientras que los “datos de entrada” sería el contenido inicial de la cinta. También es posible definir una Máquina de Turing Universal que recibe como entrada el código de una máquina de Turing y unos datos de entrada y simula la ejecución de dicha máquina de Turing. Esta Máquina de Turing Universal es uno de los antecesores del concepto de “programa almacenado”: pensar en el programa como un dato más que puede leerse (para ejecutarse) o incluso modificarse. Puede parecer un concepto evidente, pero hasta ese momento la mayoría de máquinas tenían un propósito específico (un problema, una herramienta). Esta idea de máquina “programable y de propósito general” se había utilizado en el campo de las máquinas de tejer (para coser patrones complejos definidos mediante una tarjeta perforada), pero aquí se aplicaba a la realización de cálculos. Aunque excelente como modelo teórico, la Máquina de Turing tiene una arquitectura poco útil desde un punto de vista práctico y existen formas de diseñar una máquina más...

Informáticas en el cine: Figuras Ocultas

De vez en cuando nos encontramos a informáticos en el cine o en la tele. A veces nos gusta la representación de la profesión en la pantalla (véase Juegos de Guerra o la televisiva Halt and Catch Fire, en ocasiones nos disgustan (ver The Imitation Game, y vamos a intentar olvidar como buenamente podamos las barbaridades mucho peores que vemos con una cierta frecuencia). En ocasiones, eso sí, la representación de la película es tan buena que IBM aprovecha para hacer un poco de marketing con el tema… (Hay un par de clips más muy recomendables aquí y aquí, aún más en el sitio que han dedicado a la película y a sus esfuerzos por la diversidad en el campo de la ciencia, la tecnología, la ingeniería y las matemáticas.) Como habríais adivinado aún sin leer el título de la entrada, estamos hablando de Hidden Figures (traducida por aquí como Figuras Ocultas, que pierde el juego de palabras del original (figures significa cifras, además de figuras) pero hemos visto traducciones mucho peores), estrenada por aquí el pasado fin de semana, y que me permito recomendar encarecidamente que vayáis a ver. La película se centra en los personajes de Katherine Johnson, Mary Jackson y Dorothy Vaughan, tres mujeres negras nacidas entre 1910 y 1921 en Estados Unidos que, implausiblemente, llegaron a desempeñar cargos de responsabilidad en la NASA. Implausiblemente por ser mujeres y negras, por haber nacido cuando nacieron y porque, por si la historia no fuera lo suficientemente complicado hasta aquí, nuestra historia tiene lugar a principios de la década de los sesenta en Virginia, Estados Unidos, un estado...

El fractalista: Benoît Mandelbrot

La suerte (buena o mala) de tener un buen amigo que en estos tiempos que corren se arriesga a poner una librería, y que este amigo conozca las debilidades de uno, es que acabas acumulando demasiados libros pendientes de leer en la mesilla de noche. Entre mis debilidades (en todas sus acepciones) están la informática (por supuesto), la física (frontera, si es posible y si me es posible) y la historia de la ciencia y l@s que la dictan. Es así como cayó en mis manos la autobiografía del matemático Benoît Mandelbrot, conocido principalmente por acuñar (y trabajar en) el concepto de fractal. Como informático, de los recuerdos que me quedan de la carrera, los fractales me traen a la cabeza los gráficos por ordenador y la compresión de datos. Supongo que si fuese “teleco” me sonaría también a antenas. Y si fuese matemático, incluso los entendería. 😉 Antes de hablar del libro, eso sí, permítanme una pequeña (extremadamente divulgativa ausente de notación matemática) aproximación al concepto, para saber de qué estamos hablando. Los fractales son objetos geométricos que muestran la misma estructura a diferentes escalas de “zoom”. En la naturaleza, son frecuentes, y de hecho, antes que Mandelbrot los “nombrase” por primera vez, ya se habían identificado varios. Un ejemplo claro, para visualizar el concepto, es la imagen que acompaña a esta entrada: el brócoli. Dejando de lado otras características de este vegetal, si observamos su geometría, nos damos cuenta que al aproximarnos y aislar una de las partes, volvemos a tener una estructura similar a la original,… Una vez tenemos una ligera idea de qué es un...

La importancia de la Historia de la Informática

Se han ido Prince, Bowie, Lou Reed. Y algún día, mal que nos pese, lo harán los Coen, Springsteen, Jagger… ¿Os suenan? Este año también ha fallecido Wesley Clark, por ejemplo. ¿Os sonaba? 2011, un año fatídico para la historia de la informática, se recordará como el año en que falleció Steve Jobs. Pero también es el año de las muertes de John McCarthy, Jean Bartik, Dennis Ritchie o Paul Baran, por ejemplo. ¿Os suenan estos? Clark diseñó el primer ordenador personal. Bartik fue una de las programadoras originales del ENIAC. McCarthy fue el padre de la tan de moda inteligencia artificial. Ritchie, quizá el más conocido de este grupo, coinventó el lenguaje C y fue pieza clave del nacimiento de Unix. A Baran le debemos muchas de las innovaciones que nos dieron las redes informáticas. Y algún día se nos irán los Cerf, los Kay, los Metcalfe…. Nos acordamos de Jobs y todo el mundo conoce a Gates y a Zuckerberg, sí (como mínimo estos dos últimos programaron lo suyo en su momento, especialmente Gates, pero a pesar de su fama ninguno de ellos ha hecho ninguna gran aportación técnica a la historia de la informática). También es conocido Alan Turing (gracias a una película que, por cierto, es lamentable desde el punto de vista histórico, ya hablamos de ella por aquí en su momento). Pero el imaginario popular de la informática va muy poco más allá, desafortunadamente. De Claude Shannon (este año se celebra su centenario) o Grace Hopper (inventó el compilador, y también le hemos dedicado algún espacio en este blog) se acuerdan pocos, muy pocos....
Informáticos en la tele: Halt and Catch Fire

Informáticos en la tele: Halt and Catch Fire

Hemos hablado alguna vez por aquí de cómo trata Hollywood a los informáticos, tanto cuando lo hace bien (el caso de Juegos de Guerra) como cuando no (es el caso de la reciente The Imitation Game). Desafortunadamente, lo malo es bastante más frecuente que lo bueno. Es por ello que cuando surge un buen ejemplo uno corre a ponerse delante de la tele…. Y este es el caso de Halt and Catch Fire, cuya segunda temporada acaba de comenzar, tanto en Estados Unidos como en España, de la mano de AMC (disponible en plataformas digitales y cable). La temporada pasada AMC se atrevió a producir un drama de época (sí, hacer una serie ambientada en los ochenta es ya hacer una serie de época, mucho me temo). El éxito que habían acumulado con Mad Men les animó a seguir picando piedra a la caza de una nueva veta del filón (algo poco habitual: los dramas son más caros de producir que las comedias y el precio se dispara aún más si hace falta trabajar los decorados porque son de otro tiempo). Para bien o para mal, decidieron fijarse en un periodo que es especialmente relevante para la audiencia de este blog: el momento en que la informática personal comenzó a popularizarse, a inicios de los ochenta. La crítica fue buena pero la audiencia no acompaño demasiado. Aún así, afortunadamente, la perseverancia y la capacidad de asumir riesgos son mucho mayores a la hora de producir series televisivas que con las películas y, así, AMC se ha atrevido con una segunda temporada. La primera temporada se centra en las aventuras...