El azar.

De entre los fenómenos del mundo, hay tantos que damos por sentado sin preguntarnos nada como si fueran evidentes por sí mismos, sin embargo, al examinarlos más de cerca comenzamos a caer en una espiral de dudas. Se hacen difusos, y su explicación nos evade.

La aleatoriedad es sin duda uno de estos fenómenos que impregna nuestra vida cotidiana. Autores como Nassim Nicholas Taleb o Gregory Chaitin hacen del azar un eje filosófico en el entendido de que lo que en realidad podemos saber de la realidad, lo que alcanzamos a comprender intelectualmente, es un parte mucho menor de lo que creemos, de manera que lo imprevisto, lo azaroso, es realmente lo que gobierna nuestras existencias.

Empecemos con las definiciones (y sus problemas).

Definimos la aleatoriedad como el fruto del azar, y así conseguimos un bonito ejemplo de definición circular. Así que me referiré al azar o a la aleatoriedad como si fuera el mismo fenómeno (y parece que lo es). Ahora, tiremos una moneda y tomémosla en el aire.

Antes de abrir el puño, no sabemos que nos encontraremos, solamente sabemos que la posibilidad de que sea águila o sol (que es como llamamos en México a las caras de las monedas) es del 50%. 

Ocurre entonces que antes de conocer el resultado, tenemos solamente las probabilidades de dicho resultado y la incertidumbre de éste; y entre la oscura probabilidad y la clara certeza se encuentra el azar. La aleatoriedad puede ser aproximada como nuestro desconocimiento o ignorancia acerca del siguiente miembro de una serie de eventos (si supiéramos con certeza que la siguiente tirada de dados nos traerá un seis, ya no podríamos hablar de la aleatoriedad de la tirada).

Entonces, desde que decimos esto, podemos ver que la aleatoriedad solamente puede ser definida a priori, esto es, antes de que el hecho del que hablamos se haya establecido. Otra manera de definir la aleatoriedad es llamarla ausencia de orden (aunque ésta es una definición negativa, en el sentido de que define por lo que no es). Según Gregory Chaitin, las definiciones de aleatoriedad tienden a agregarse una sobre de la otra como si al tiempo de encontrar una definición y mirar atentamente, encontráramos nuevos hechos que justifiquen agregarle algo más a la definición que ya teníamos.

Existen varias fuentes de las que podemos obtener aleatoriedad, éstas son los sistemas con alta entropía, los sistemas caóticos, y la incertidumbre cuántica, además de la pseudoaleatoriedad generada por algoritmos.

La entropía

Podemos obtener aleatoriedad desde el ruido blanco, el movimiento browniano, o algún otro sistema altamente entrópico, muy bien, pero ¿qué queremos decir con entropía?

La entropía ha sido definida de muchas maneras, aquí vamos a resumir una de las maneras en que podemos llegar a la definición de entropía desde la teoría de la información de Shannon.

En la teoría de la información de Shannon, tenemos una cantidad llamada información de Shannon, que tiene un nombre engañoso pues en realidad lo que mide es la falta de información.

No sé si el lector jugó alguna vez un juego llamado “Adivina quién”. Es un juego de dos jugadores en el que cada uno tenía un tablero con los rostros de los jugadores impresos en tarjetas. El objetivo del juego era adivinar quién era el personaje del otro jugador para lo que íbamos preguntando acerca de sus características físicas de manera que pudiéramos eliminar los personajes que no cumplían con la característica acerca de la cual preguntábamos. Por ejemplo, si preguntábamos si el personaje era mujer y contestaban que sí, podíamos eliminar a todos los hombres. Bueno, una manera de aproximarnos a la medida de información de Shannon es pensándola como el número de preguntas que tenemos que hacer para llegar a la respuesta correcta.

Ahora, si quisiéramos adivinar la posición de una canica en una caja podríamos proceder de igual manera, preguntando si la partícula está en la mitad superior (o inferior, o derecha o izquierda) de la caja, y después de saber la respuesta, preguntar si está en la mitad (superior o inferior, o lo que sea) de la mitad restante, hasta llegar al resultado. Y de nuevo tenemos la medida de la información de Shannon al contar el número de preguntas que tenemos que hacer para llegar a saber donde estaba la canica.

Entonces, si tenemos dos canicas nuestra medida de la información de Shannon aumenta, pues tenemos que hacer más preguntas (hay más estados posibles). Y si tenemos muchas, pero muchas canicas diminutas, un mol de canicas, por ejemplo, nuestra medida de la información de Shannon, las preguntas que tengo que hacer para encontrar el estado exacto de las canicas en un instante dado, será muy alta ¡Acabamos de modelar un gas encerrado en una caja, en donde las diminutas canicas son las moléculas del gas rebotando en las paredes de la caja!

Ahora podemos ver como es que las ecuaciones para la entropía pueden construirse a partir de la teoría de la información de Shannon.

Ahora, recordemos que dijimos que la medida de la información de Shannon en realidad mide nuestra falta de información o, dicho de otra manera, la cantidad de preguntas que tenemos que hacer para llegar a encontrar nuestra partícula (o nuestro personaje de Adivina quién), entonces podemos relacionar esto con lo que dijimos anteriormente, acerca de que la aleatoriedad tiene que ver con la ignorancia (que puede ser definida como falta de información).

El caos.

La impredecibilidad es propia de los sistemas complejos (como el clima) y tiene mucho que ver con la sensibilidad a las condiciones iniciales (es como si hubiera muchas ruletas al centro de las ecuaciones que modelan el clima) y ambos fenómenos son estudiados por la teoría del caos, que no es una sola teoría sino un Chop-suey de teorías de distintas disciplinas que tienen algunos factores en común.

En teoría del caos son comunes los sistemas caóticos que presentan comportamientos predecibles en lo general e impredecibles en lo particular, como los atractores extraños o los fractales. Además, el caos muchas veces tiene islas de orden, en que el sistema entero parece ponerse de acuerdo para generar estabilidades, como en el caso de las olas gigantes, los rayos globulares, o las nubes morning glory.

La cuestión de si la impredecibilidad (de los sistemas caóticos) es lo mismo que el azar es todavía una cuestión abierta. Al parecer si nos atenemos a nuestra definición de que es aleatorio aquello que no puede predecirse a priori, resultará que aleatoriedad e impredecibilidad son sinónimos. Sin embargo, tenemos que recordar que los sistemas caóticos aunque impredecibles al detalle, pueden ser predecibles a gran escala. Por ejemplo, es más fácil predecir el comportamiento general de un fenómeno atmosférico (y por tanto hacer un pronóstico a un día) que los detalles de éste. Acaso en algunos de estos sistemas pueda hablarse de una aleatoriedad de grano fino.

Incertidumbre cuántica

Fue una conmoción para la física, esa ciencia tan pagada de sí misma, cuando se enunció el principio de incertidumbre. Resulta ser que entre más se conoce la velocidad de una partícula menos se sabe acerca de su posición, y que lejos de ser este un problema de precisión instrumental es más bien un hecho del mundo cuántico en que las partículas habitan.

De hecho, la incertidumbre cuántica se desprende de los postulados mismos de la teoría cuántica y dicha incertidumbre permite que algunos hechos cuánticos puedan ser utilizados como generadores de números aleatorios ¡Para algo tenía que servir la incertidumbre¡

Llegados a este instante podríamos pensar que por fin encontramos una fuente de aleatoriedad donde ésta no dependa de la ignorancia, sino muy al contrario, del conocimiento mismo del mundo físico, pues al ser la incertidumbre inherente a la teoría la aleatoriedad es inevitable.

Y tal vez sea así, o tal vez no. La física no es una ciencia completa y terminada, y algunas de las interpretaciones de la física cuántica proponen variables ocultas para explicar lo que vemos como incertidumbre con lo que tal vez nuestra aleatoriedad no sea otra cosa que (¡otra vez!) ignorancia o desconocimiento  acerca de las variables ocultas que causan el comportamiento aparentemente impredecible del mundo cuántico.

Series aleatorias y pseudoaleatorias.

En física y en matemáticas hay cálculos muy complicados que pueden ser aproximados mediante métodos aleatorios. Un ejemplo de esto es el Método de Monte Carlo (llamado así por el famoso casino). Se puede encontrar aquí la teoría y aquí un video muy bonito de como aproximar el calculo de PI mediante una diana en la pared y dardos arrojados aleatoriemente sobre dicha diana.

Los métodos que consiguen una aleatoriedad más real son también los que necesitan más tiempo para conseguirlo, pues toman variables del entorno físico, sean los dardos en la diana,  el clima, el movimiento browniano, o los fenómenos cuánticos. Dichos métodos por su naturaleza no pueden ser adaptados a aplicaciones que requieran respuestas más veloces que la que el entorno puede alimentar (aunque esto ha mejorado últimamente).

Mucho más veloces son los programas generadores de números pseudoaleatorios, sin embargo, dicha aleatoriedad será prefijada como “pseudo” pues al ser las computadoras máquinas deterministas, en principio siempre generarán los mismos conjuntos de números (claro que en la práctica se toman precauciones para que esto no ocurra, pero no por ello dejan de ser pseudoaleatorios los resultados).

 Ahora, antes dijimos que la aleatoriedad lo era solamente a priori, además aproximamos la definición de aleatoriedad como nuestra ignorancia acerca del siguiente miembro en una secuencia. Entonces, estas series de números presentan un problema: una vez generadas dejan de ser estrictamente aleatorias, pues ya conocemos su secuencia.

Claro, hay métodos estadísticos para comprobar que una secuencia sea aleatoria, éstos tienen que ver con parámetros como el número de veces que los números aparecen en la serie, o las veces que un mismo número sale repetido y cuantas repeticiones (llamadas corridas) de este tipo se dan; sin embargo, estas pruebas estadísticas no están definiendo la aleatoriedad, aunque ayuden a comprobar la ausencia de orden. Recordemos que dijimos antes que la ausencia de orden es una definición negativa de aleatoriedad.

Debido a esta contradicción es que se han desarrollado diversas definiciones para las secuencias aleatorias, de modo que salvando el hecho de que dichas secuencias ya no son aleatorias en el sentido de desconocidas a priori, todavía puedan ser definidas como aleatorias por contraposición a las secuencias que presentan orden.

Aleatoriedad computacional.

Entonces, tenemos estas secuencias aleatorias o pseudoaleatorias que pasan las pruebas estadísticas de aleatoriedad, y necesitamos una definición positiva para ellas.

En la historia de las grandes ideas tenemos que muchas veces estas surgen simultáneamente en más de una mente, como si las ideas estuvieran esperando las condiciones para surgir. Así pasó con el cálculo de Leibnitz y Newton, con la tabla periódica de Mendeléiev y Lothar Meyer, y con la aleatoriedad algorítmica de Kolmogórov y Chaitin.

La aleatoriedad de Chaitin-Kolmogorov, también conocida como aleatoriedad algorítmica, dice a grosso modo que una serie de números realmente aleatorios son aquellos que solamente puedan ser generados por un programa de tamaño igual o mayor a la serie.

Hay secuencias que a primera vista pueden parecer desordenadas, por ejemplo, una secuencia de un millón de dígitos dentro de la serie de Pi; sin embargo, ese millón de dígitos puede ser generado por un programa muy pequeño, entonces se dirá que tiene una complejidad algorítmica menor que otra serie que no pueda ser generada por un programa menor a la serie misma.

Sin embargo, hay un detalle: Gregory Chaitin, uno de los matemáticos que le da nombre a la definición que acabamos de mencionar, ha demostrado que no se puede demostrar que un programa que arroja determinado resultado no pueda escribirse de manera más corta.

Entonces, volviendo a la definición que dice que una secuencia aleatoria será aquella que necesita de un algoritmo igual de grande que la secuencia misma, resulta que no podemos saber si en el futuro encontraremos un programa más corto que produzca dicha secuencia, con lo que la secuencia dejaría de ser aleatoria.

Con lo que volvemos a la importancia de la ignorancia en nuestra definición de aleatoriedad.

En resumen, la aleatoriedad es una medida de nuestra ignorancia de un hecho, de una teoría o de un algoritmo (Chaitin diría que estoy redundando pues una teoría es lo mismo que un programa computacional). Una medida de nuestras limitaciones actuales, que es a la vez una herramienta mental muy útil, mientras no confundamos su utilidad con su verdad.

Aunque esto puede decirse de cualquier herramienta mental, dichas herramientas dejan de ser útiles cuando las extendemos más allá del campo que le es propio. Recuerdo una maestra de química orgánica que tuve, que después de explicarnos la teoría por la cual las moléculas se enlazaban y reaccionaban, nos recordaba que eso no significaba que las moléculas fueran así. Solamente significaba que estábamos aprendiendo una manera de modelar el comportamiento de las moléculas, una manera de explicarnos las observaciones. Era una teoría muy buena, muy útil, pero no era la realidad. La realidad es incognoscible.

Y es que la aleatoriedad es una herramienta paradójica pues, aunque sigue siendo una manera de nombrar o definir ciertos fenómenos del mundo, lo hace recordándonos una y otra vez nuestra ignorancia acerca de ello. Como si fuera un eterno recordatorio de nuestros límites.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *