Vida antes de la Tierra

Vía Max Andrews supe de este preprint en el arXiv que me pareció interesantísimo: Life Before Earth. Más allá de los nombres y credenciales que aparecen en el texto, Alexei Sharov y Richard Gordon, no tengo ni idea quiénes son los autores. El artículo llama inmediatamente la atención porque dice que la vida debió originarse hace más o menos 9700 millones de años en las cuentas más alegres (suponiendo que la complejidad genética es solo exponencial); es decir, alrededor de 2 veces la edad de la Tierra.  Pero que si se tiene en cuenta la existencia de efectos potenciales hiperexponenciales, el origen podría ir más para atrás en el tiempo hasta hace 13750 millones de años, es decir, hace aproximadamente 3 veces la edad de la Tierra y prácticamente en el inicio de la Vía Láctea.

El artículo no es tanto sobre cómo se originó la vida, sino sobre una regresión lineal en escala logarítmica al pasado. Es decir, a partir de la complejidad presente retrocede en el tiempo para ver cuándo se dio el origen de la vida.

Sugiere que la vida puede haber comenzado con elementos heredables únicos que serían funcionalmente equivalentes a un nucleótido y que, eliminando redundancias en la funcionalidad de los nucleótidos, se espera que la complejidad genética haya incrementado exponencialmente desde su inicio hasta ahora (¡una suposición fuertísima la del crecimiento exponencial!). Atribuye semejante velocidad de crecimiento a 3 factores principalmente: (1) Cooperación genética, (2) duplicación genética con su consiguiente especialización y (3) surgimiento de nichos funcionales nuevos asociados con los genes existentes.

Dentro de las implicaciones que tiene tan antigua fecha para el origen de la vida, mencionan los autores las siguientes:

(1) Que desde la formación de algún par de bases genéticas (AT o CG) hasta el surgimiento de la primera bacteria pasaron 5000 millones de años.

(2) Que el ambiente en el cual la vida llegó a desarrollarse hasta un estado procariota (como las bacterias) pudo haber sido muy diferente al supuesto en la Tierra.

(3) Que no había vida inteligente en el universo antes de que apareciera en la Tierra, lo cual echa por el piso cualquier hipótesis de panspermia dirigida por extraterrestres, como la de Francis Crick.

(4) Que, obviamente, hubo panspermia.

(5) Que replicar experimentalmente el origen de la vida quizás necesite emular muchos eventos raros acumulados.

(6) Que la famosa ecuación de Drake para adivinar la cantidad de civilizaciones en el universo probablemente está errada (por el punto 3).

Contrario a Ray Kurzweil y su tesis de las máquinas espirituales, dice el artículo que no estamos llegando al punto de una “singularidad tecnológica”. Es decir, el punto en que las máquinas se reproduzcan solas y remplacen a los seres humanos. Más bien, pasará que la tecnología se usará para producir cada vez más “mejoras” en los humanos, como incrementar la inteligencia y la memoria, o hacer una especie de nube de almacenamiento con los cerebros de todos o varias personas. Sin embargo, dice que la complejidad funcional de la civilización humana también crece exponencialmente y se dobla más o menos cada 20 años. Reconoce que es difícil mejorar ese tiempo de 20 años por situaciones como el decrecimiento de la población en los países desarrollados, incremento del desempleo, problemas ambientales no resueltos y las amenazas de guerra, entre otros.

El artículo concluye con un llamado a mirar el asunto desde la “disciplina creciente de la biosemiótica, en la cual los organismos se consideran ‘agentes’ activos”. Significa esto que no solo debe considerarse la información à la Shannon, sino que debe considerarse el contenido semántico de esa información (digamos, un subconjunto mucho más reducido y específico de la información de Shannon. Lo cual me recuerda la razón por la que Kolmogorov inventó la teoría de recursión: porque la sola improbabilidad de los eventos que pueden ocurrir con un alfabeto no le permitía diferenciar si algunos de ellos poseían contenido semántico). Por eso hace un llamado a considerar de nuevo en la ciencia los objetivos y los significados. O sea, considerar la existencia de teleología, una posición que poca recepción tiene desde el neodarwinismo porque resultaría contradictoria a este, pero que está siendo requerida a gritos por la ciencia en este momento, a mi juicio, porque es innegable en que el contenido semántico de la información genética están presentes  los “objetivos y significados” necesarios para la realización de los procesos biológicos. Por es cierra diciendo que debe considerarse la evolución desde esta nueva perspectiva de información con significado.

Un artículo muy estimulante y altamente provocador.

Variables aleatorias uniformes en bolas abiertas en el infinito

El siguiente es el Lema 3 en un viejo artículo de Mathew Penrose que estoy estudiando.

Suponga que \textbf X(d) y \textbf Y(d) son variables aleatorias independientes y uniformemente distribuidas en la bola B(0,1) en d dimensiones. Entonces

1.

\lim_{d\rightarrow\infty}\textbf P[|\textbf X(d)|>3/4]=1

2.

\lim_{d\rightarrow\infty}(\sup {\textbf P[|\textbf X(d)-x|\leq1]:x\in\mathbb R^d,|x|\geq 3/4})=0

3.

\lim_{d\rightarrow\infty}\textbf P[|\textbf X(d)-\textbf Y(d)|\leq1]=0.

Prueba:

El número 1 es trivial, pero demostrémoslo aquí en aras de hacer el ejercicio completo:

\textbf P[|\textbf X(d)|>3/4]=1-\textbf P[|\textbf X(d)|\leq3/4]

=1-\frac{\pi_d(3/4)^d}{\pi_d}

=1-(3/4)^d

que tiende a 1 cuando d\rightarrow\infty . Aquí \pi_d es el volumen de la bola de radio 1 en d dimensiones.

Para demostrar el número 2, nótese que

|\textbf X(d)-x|^2=|x|^2+|\textbf X(d)|^2-2|\textbf X(d)\cdot x| .

Por la parte 1, es suficiente probar que |\textbf X(d)\cdot x| converge a 0 en probabilidad y uniformemente en \{x:3/4\leq |x|\leq 2\}. Escríbase \textbf X(d) en coordenadas, como (X^1(d), X^2(d),\ldots,X^d(d)) y x=\{x^1,\ldots,x^d\}. Por simetría (la bola unitaria es igual en todas las direcciones), puede suponerse que x es colineal a e_1=\{1,0,\ldots,0\}, luego \textbf X(d)\cdot x tiene la misma distribución que X^1(d)x^1 y por lo tanto también la misma distribución que |x|X^1(d). De nuevo, por simetría, las componentes de \textbf X(d) tienen todas la misma distribución (así no sean independientes unas de otras); así que, usando el hecho de que la suma de los cuadrados de las componentes es 1, obtenemos que \textbf E[|X^1(d)|^2]\leq 1/d , de modo que X^1(d) converge a 0 en L^2  y, por lo tanto, también en probabilidad.

El número 3 es consecuencia directa del número 1 y el número 2.

LaTeX en gmail y en chat de gmail

Gracias a mi amigo Juan Pablo Sáenz, supe de este post en el que mencionan un par de plug-ins para gmail que hacen mucho más agradable la vida de quienes solemos enviar ecuaciones en los correos electrónicos o quisiéramos añadirlas en el chat de gmail.

El primero y más fácil de usar es un script de Greasemonkey para Firefox llamado TexTheWorld. Tiene la ventaja de que funciona fácil tanto en el correo como en el chat. Otra gran ventaja es que aun si la contraparte no tiene el plug-in instalado, ella puede ver el texto compilado en \LaTeX mientras tenga HTML en el cliente del correo.

El segundo se llama GmailTex. Y debo decir que me pareció engorrosísimo ponerlo a funcionar porque, aparte del plug-in, pide instalar las fuentes usando un motor que se llama MathJax, al que después de instalado se le debe corregir una cosa por dentro para que compile el texto de \LaTeX. GmailTex tiene además un subscript para el chat de gmail y  otro subscript para páginas que contegan código \LaTeX mas no lo compilen (como arXiv)… pero yo no logré poner a andar ninguno de esos dos subscripts. En fin, dada la incomodidad y la dificultad de la instalación, la única ventaja que tiene este plug-in sobre el primero es que funciona para otros browsers diferentes a Firefox (aunque aún no para Safari, tristemente).

***

Esta entrada me hace entender cómo se han de sentir los profesores y padres cuando nos cuentan a las nuevas generaciones (me di por quinceañero yo) que a ellos les tocaba programar en tarjetas perforadas. En poco tiempo diré a mis estudiantes: «Por allá cuando yo hice mi doctorado, no se podía añadir ecuaciones de \LaTeX en el chat ni en los correos». Entonces mis estudiantes me devolverán una mirada perpleja y el más atrevido me dirá: «¿O sea que aparte de entender la matemática en un correo a usted le tocaba decifrar todo ese código fuente de \LaTeX? ¡Uy, profe, qué mamera!».

Matemáticos políticos

A raíz del coyuntural momento que vive Colombia, hace pocos días escribí en facebook y en twitter cuánto me alegraba que dos matemáticos, uno de ellos profesor del departamento de estadística de la Universidad Nacional de Colombia (donde yo estudié), puedieran llegar a ser presidente y vice-presidente del país, casi ciertamente esperaría yo. Me refiero, claro, a Antanas Mockus y Sergio Fajardo. Después de un interesante cruce de comentarios con mi colega y viejo amigo Ricardo Pachón, él me sugirió hacer una entrada en este blog con la información que conseguimos en unas búsquedas rápidas por google. Esta entrada es resultado de eso.

Me señaló Pachón a un presidente indio llamado Radhakrishnan (confieso que copié y pegué el nombre de wikipedia, a mi la dislexia digital no me daría para escribir eso sin equivocarme). Él en realidad no fue matemático. La anécdota está más bien por el lado de haberse cruzado con el gran Ramanujan alguna vez. El genio fue a pedir la bendición del presidente antes de irse a Cambridge a estudiar porque una diosa, decía Ramanujan, le había dicho en un sueño que así lo hiciera. Radhakrishnan fue un filósofo y profundo erudito en religiones comparadas, además del primer vice-presidente (1957-1962) y segundo presidente de la India  (1962-1967).

Luego la búsqueda me llevó a James Abraham Garfield, presidente número 20 de Estados Unidos. Quizás el dato más interesante sobre este gato (usted me perdonará la redundancia, yo no tengo la culpa de que así se llame) está en una demostración muy original que hizo del teorema de Pitágoras. Cuatro meses después de haber asumido el poder, alguien le disparó. Pero no se engañe, a él no lo mataron las balas. Lo mataron los médicos cochinos que lo atendieron: lntentaron extraerle la bala sin lavarse las manos, le infectaron la herida y por eso murió. El estudio forense mostró que la sola bala no habría podido matarlo.

Párrafo al margen. Una pregunta: ¿Alguien podría decirme si después de la revolución francesa ha habido algún país con más magnicidios presidenciales que Estados Unidos? Feo deporte ese de andar matando o intentando matar presidentes: rápidamente se me vienen a la cabeza Lincoln, Garfield, Kenneddy y casi Reagan; debe haber más pero no soy nada experto en historia gringa. No es que uno como colombiano tenga mucha autoridad moral, claro, pero en general en mi país los mataban era de candidatos, no de presidentes: Gaitán, Galán, Pizarro, Jaramillo Ossa y Gómez Hurtado (quien no era candidato cuando lo mataron pero ya lo había sido) se me vienen rápido a la mente. Feo deporte ese también, obvio.

Volviendo a los matemáticos presidentes, encontramos un enlace con varios nombres interesantes para destacar:

Corazón Aquino, presidente de Filipinas (1986-1992). Hizo un minor en matemáticas, fue la primera mujer elegida democráticamente en su país.

Alberto Fujimori, presidente de Perú (1990-2000), viejo conocido en América Latina. Estudió ingeniería agrícola en la Universidad Agraria La Molina, posteriormente estudió física en la Universidad de Estrasburgo (Francia) y finalmente hizo una maestría en matemáticas en la Universidad Wisconsin-Milwaukee. Sería interesante conocer en qué área profundizó pero la verdad no tengo idea. En cuanto a su política, si se ha de mencionar algo bueno, sería el casi exterminio de Sendero Luminoso, la guerrilla peruana (todavía recuerdo el día de la captura de Abimael Guzmán Reynoso… yo también tuve perubólica). Fujimori cayó en fuertes extremos dictatoriales como clausurar el Congreso del Perú y tuvo grandes líos de derechos humanos por los que hoy purga una condena en su país. Comenzó siendo un gran ejemplo de las luchas contra las guerrillas y llevó alguna prosperidad económica,  pero terminó hundido en escándalos de corrupción y de ejecuciones extrajudiciales. ¡No sea mal pensado, lector,  estamos hablando de matemáticos, no de abogados de más al norte!

Lee Hsien Loong, actual primer ministro de Singapur. Un tipo brillante con otro de esos nombres impronunciables. Estudió matemáticas en el afamadísimo Trinity College de la Universidad de Cambridge, donde se graduó con honores y con una profundización en ciencia computacional. Después hizo una maestría en administración pública en Harvard. Como dato curioso, el salario de Loong es el más alto entre todos los presidentes del mundo, llega casi a los US$3 millones.

Paul Painlevé, dos veces primer ministro de Francia (1917, 1925). Quizás el más productivo en términos matemáticos de todos los mencionados. Su investigación se dio en las ecuaciones diferenciales y hasta hay unas funciones con su nombre: los trascendentes de Painlevé, que recientemente se han usado en la mecánica estadística, sería interesante explorar esa parte. En la década de los veinte del siglo pasado, Painlevé comenzó a estudiar la nueva teoría de la relatividad general de Einstein. Propuso un sistema de coordenadas especial para la métrica de Schwarzschild. Se sabe que alguna vez en Berlín Painlevé se encontró con Einstein, allí hablaron sobre paz y políica internacional, pero no discutieron nada sobe matemáticas.

Éamon de Valera, presidente de Irlanda (1959-1973). Fue profesor de matemáticas antes de la independencia de Irlanda.

Además de estos presidentes, el enlace menciona a los siguientes matemáticos políticos en altos rangos:

George Saitoti, vice-presidente de Kenya (1989-1997, 1999-2002) y futuro candidato presidencial del mismo país, según él lo ha manifestado. Tiene un PhD en topología algebraica de la Universidad de Warwick en Inglaterra.

Simeon DeWitt, el primer graduado de matemáticas de Rutgers, fue asesor militar de George Washington.

Ralph Abernathy, la mano derecha de Martin Luther King Jr., se graduó matemático con honores de la Univesidad Estatal de Alabama.

William J. Perry, antiguo secretario de defensa de Estados Unidos, obtuvo su maestría en Stanford y su doctorado en matemáticas de la Universidad Estatal de Pennsylvania. Su orientador de tesis en la maestría fue el gran George Polya.

Seguramente hay más nombres, pero estos fueron los que encontré. Si usted sabe de más y quiere compartirlos deje su comentario, por favor.

Cómo generar una función del mismo orden y otros pensamientos sobre la revisión de pares

La academia tiene cosas curiosas. Por ejemplo uno de los tesoros guardados en más alta estima por la ciencia moderna es la identidad secreta de los pares que evalúan los artículos que los otras personas escriben. Lo de la identidad secreta puede hacerlos sonar a emocionantes súper héroes pero para los autores de artículos neófitos, como yo, sus comentarios suelen ser casi otro problema de investigación que ameritaría una tesis aparte. Mi comentario va a que, por más secreto que sea el proceso, dada la naturaleza de mi investigación, tengo un grupo bien cerrado de personas (tres) que, creo, pudieron ser los posibles referees de uno de mis papers.

No sé cómo tomarán las correcciones los autores senior de artículos científicos, pero en mi caso cada comentario de los referees en uno solo de mis papers es como si fuera una estocada y me alborota la gastritis. Al comienzo no fue así, creí que podía resolver sus cuatro correcciones principales fácilmente (las otras, que hubo más, eran de estilo y typos); pero con el correr de los días, al ver que no entiendo sus apreciaciones y cuando las entiendo no sé cómo solucionarlas, mi percepción se está convirtiendo rápidamente en que la corrección no es cosa sencilla. O tal vez sí y me estoy dejando abrumar.

La verdad a mí jamás se me habrían ocurrido esas correcciones que me hicieron así que de veras agradezco que me las hayan hecho evidentes. Pero duele un poco en el ego por varias razones que no mencionaré. Una amiga, quien tiende a ver las cosas siempre por el lado positivo, me planteó una idea diferente para solucionar parte de mi dilema interno de sentirme minúsculo: «Míralo por el otro lado —me dijo—: existen pocas personas en el mundo que pueden corregir lo que tú haces». Esa percepción es interesante porque me resuelve en mucho el golpe al ego (y lo acepto, ese me dolió bastante)… la cosa es que el ego arreglado no me soluciona el problema matemático, lo que necesito resolver para ver mi artículo publicado :-/.

En fin, con base en eso quiero aquí mostrar un argumento muy simple de dos funciones del mismo orden: Sean g(x)=\frac{x-1-\log x}{x} y f(x)=\frac{(x-1)^2}{2}. El referee dice que las dos funciones son del mismo orden cuando x\rightarrow1, cosa que es fácilmente verificable, como procederé a mostrar. Decir que las dos funciones son del mismo orden cerca de 1 es decir \lim_{x\rightarrow1}g(x)/f(x)=K, donde K es una constante diferente de 0. La razón es que si K se va para infinito en el límite entonces g crece más rápido que f y si K va para cero en el límite entonces f crece más rápido que g. Entonces, por definición de las dos funciones, tenemos que

\lim_{x\rightarrow1}g(x)/f(x)=\lim_{x\rightarrow1}\frac{2(x-1-\log x)}{x(x-1)^2}.

Ahora, llámeme superficial pero, como numerador y denominador van para 0 cuando x va para 1, la herramienta que yo uso para determinar este tipo de afirmaciones es la nunca bien ponderada pero siempre útil regla de L’Hopital, de la cual obtenemos:

\lim_{x\rightarrow1}g(x)/f(x)=\lim_{x\rightarrow1}g'(x)/f'(x)=\lim_{x\rightarrow1}\frac{2(1-1/x)}{(x-1)^2+2x(x-1)}.

Y esa última igualdad se puede re-escribir menos feo así:

\lim_{x\rightarrow1}\frac{2(x-1)}{x(x-1)^2+2x^2(x-1)}.

Luego, podemos volver a aplicar L’Hopital:

\lim_{x\rightarrow1}\frac{2}{(x-1)^2+2x(x-1)+4x(x-1)+2x^2}.

Y al final el límite es 2/2=1. La pregunta que me surge —la que inspira esta entrada— es cómo el señor referee encontró f(x) (sobre todo porque la encontró de tal manera que perjudica lo que quiero hacer con g(x)). Una vez tengo f(x) mostrar que las dos son del mismo orden cerca de 1 es fácil, pero ¿cómo encontrar f(x) originalmente? No lo he intentado pero la idea de «delvolverse» usando integración me suena un poco muy esotérica, la verdad.

Idealizaciones en el infinito

Esta entrada no tiene nada que ver con hipótesis del continuo ni nada de esas cosas. Tan apasionante como pueda resultar su estudio, no es el tema que me interesa tocar en este momento. El objetivo es más mundano, más terreno: un intento de responder a una pregunta que me han hecho varias veces: ¿Cuál es la idea de trabajar con sistemas infinitos de objetos matemáticos? Objetos matemáticos aquí no tiene un significado claro, pueden ser dimensiones, funciones o cualquier otro concepto matemático o al menos matematizable.

La pregunta parece natural. De hecho, en la estadística son muy conocidos los métodos que permiten la reducción en las dimensiones de la información para hacer más manejable su estudio; tal es el caso del análisis de componentes principales. Así las cosas, ¿cuál es la intención de los matemáticos cuando quieren trabajar con sistemas infinitos?

Pues la primera respuesta es el interés puramente teórico. Tomemos el ejemplo de la cantidad de dimensiones. Suponga que usted sabe que cierto modelo, teorema o resultado en movimiento de partículas, por decir algún área, se cumple en dimensiones 1 y 2. La pregunta sobre cómo extender el resultado al caso de dimensiones mayores es absolutamente natural. Como dice Grimmett en su conocido libro Percolation (una de las frases que aparecen a la derecha de este blog): «Los matemáticos tienen considerable talento en el arte de la generalización». Las aplicaciones quizás vengan después, pero realmente esa no tiende a ser una preocupación del teórico. Mi orientador me dijo alguna vez de manera muy graciosa que el matemático que investiga pensando en las aplicaciones es como quien se pone a pensar en la sobrepoblación mundial durante su noche de bodas.

La segunda razón la voy a trascribir de unas notas excelentes de Hans-Otto Georgii et al sobre mecánica estadística tituladas The random geometry of equilibrium phases (p. 11):

As all systems in nature are finite, one may wonder why we consider here systems with infinitely many constituents. The answer is that sharp results for bulk quantities can only be obtained when we make the idealization to an infinite system. The thermodynamic limit eliminates finite size effects (which are always present but which are not always relevant for certain phenomena) and it is only in the thermodynamic limit of inifinite volume that we can get a clean and precise picture of realistic phenomena such as phase transitions or phase coexistence. This is a consequence of the general probabilistic principle of large numbers. In this sense, infinite systems serve as an idealized approximation to very large finite systems.

Aunque Georgii hace alusión al límite termodinámico, pues está hablando de mecánica estadística, la idea se puede extrapolar en general a toda la matemática: Cuando los sistemas finitos son muy grandes, es mejor tratarlos como si fueran infinitos porque las respuestas van a ser muy aproximadas a la realidad y mucho más fáciles de obtener (por los teoremas límite en el caso de la probabilidad) que estudiar cada uno de los elementos en el sistema finito. Precisamente cuando se está trabajando con sistemas finitos grandes hay dos situaciones: Primero, puede ser que los recursos computacionales sean insuficientes para la labor (créalo o no, la computación sigue bastante colgada para algunas aplicaciones interesantes, tema sobre el cual podría escribir una entrada posterior). Pero aun si no son insuficientes, las aproximaciones por teorema central del límite y por las leyes de los grandes números —en el caso de la probabilidad— son tan exactas que mal vale la pena el esfuerzo y el gasto de evaluar cada elemento del sistema por separado.

En resumen y para terminar, encuentro dos razones principales: la primera, absolutamente válida para el matemático, es el interés natural en generalizar los resultados o encontrar propiedades en «el inifinito»; tal es el caso de las dimensiones (vea por ejemplo tres artículos de Matthew Penrose aquí, aquí y aquí, todos relacionados con «grandes dimensiones»). Y la segunda razón, de interés para la ciencia, es porque tales resultados suelen ser excelentes aproximaciones de los grandes sistemas finitos en estudio, como en la mecánica estadística que tan bien explica Georgii.

Martes 20 de octubre en radio

Mañana martes 20 de octubre, 2:00 pm (-5 GMT), estoy invitado a la emisora de la Universidad Santo Tomás en su programa de estadística. La idea es hablar sobre mi experiencia como estudiante en el exterior. Un buen amigo del pregrado, Francisco Rincón, quien también acaba de llegar al país tras haber realizado una maestría en estadística espacial en la Universidad de Glasgow, es el otro invitado al programa. Si quiere oírlo, puede hacerlo a través del enlace provisto. La invitación es de Andrés Gutiérrez, profesor de estadística de la Santo Tomás, el blogger más popular de estadística en Colombia y quizás en toda América Latina.