HPC & Algorítmica. Premio Nobel de Quimica 2013 para modelos / algoritmos de Dinámica Molecular.

1. En este blog no se suele comentar sobre premios de ningún tipo salvo que tengan que ver de manera muy directa con sus contenidos habituales, que cuando se trata de premios suelen ser de algorítmica. El año pasado ya comentamos sobre el premio Nobel de Economía, que se concedió básicamente por el diseño, invención o descubrimiento de un algoritmo.

Este  año el premio Nobel de Física se ha concedido para un resultado

cuya obtención hubiese sido imposible sin la existencia de sistemas HPC, controlados por miles de experimentadores (esto era un componente informático del famoso acelerador). Sin embargo las personas que han tomado la decisión sobre el premio se han olvidado (y tienen sus motivos) de esta contribución y este se ha concedido exclusivamente a dos de los varios teóricos que descubrieron esta posibilidad teórica. Esta concesión está siendo bastante debatida, pero en ningún caso por motivos científicos (que podría ser por ejemplo considerar la concesión prematura). El resultado se considera sólido desde el punto de vista científico y el debate es más bien un debate de revista del corazón.

2. En fin me ha interesado más la concesión del Premio Nobel de Química dado que es sobre un campo de aplicaciones de las ciencias de la computación sobre el que desconozco casi todo. Técnicamente se le llama Dinámica Molecular (o DM; el enlace lo es al artículo  de Wikipedia en castellano; es más completo el escrito en inglés).

Extracto.

En general, los sistemas moleculares son complejos y consisten de un gran número de partículas, por lo cual sería imposible encontrar sus propiedades de forma analítica. Para evitar este problema, la DM utiliza métodos numéricos. La DM representa un punto intermedio entre los experimentos y la teoría. Puede ser entendida como un experimento en la computadora.

Me interesaría conocer tanto el tipo de algorítmos que se utilizan en este campo, que parecen ser numéricos (más propios de la matemática continua que de la discreta,  aunque entiendo que al final todo se acaba discretizando) y la teoría de complejidad computacional asociada (que será la propia de los algoritmos numéricos, es decir ninguna, ya se sabe que no existe ningún paradigma comunmente aceptado sobre esto; ya escribí una entrada sobre ello hace lo que  a mi me parecen siglos….).

Uno de las aplicaciones de software más usados en Dinámica Molecular es CHARMM cuyo diseño ha liderado precisamente uno de los receptores del Nobel de Química este año, Karpus. Esta aplicación que es de pago incluso para académicos (quien sino iba a utilizarlo) la comecializa la empresa Accelrys. Estas aplicaciones no suelen ser baratas, lo cual a mi me parece una muy buena noticia.

Levitt otro de los premiados, ha estado implicado últimamente en el desarrollo de CASP, un experimento colectivo que tiene que ver con el problema de plegamiento de proteínas, que ya me suena mucho más y uno de cuyos modelos, de complejidad computacional perfectamente conocida, es puramente discreto.

El tercero, Warshel, made major contributions in introducing computational methods for structure function correlation of biological molecules, pioneering and co-pioneering programs, methods and key concepts for detailed computational studies of functional properties of biological molecules including Cartesian-based force field programs,[13][14] the QM/MM method for simulating enzymatic reactions,[15]the first molecular dynamic simulation of a biological process,[16][17] microscopic electrostatic models for proteins,[18] free energy perturbation in proteins [19] and other key advances. Ahí es nada…

En fin, si quieres profundizar solo un poco más puedes leer el documento científico que proporcionan en la propia página del Nobel, que explica el estado del arte antes  de la aparición de estos tres investigadores y explica sus contribuciones, que han sido conjuntas (es decir se han obtenido como colaboraciones entre ellos). Si quieres profundizar mucho más puedes ver este otro enlace, que no obstante es algo anticuado.

4.  Parece que los métodos,  que combinan métodos de la física clásica con los de la química cuántica para simular el  movimiento de electrones (estamos hablando de química), sólo proporcionan una aproximación, pero son suficientemente satisfactorios.

No se que opinarán los expertos con respecto al horizonte de investigación en este campo. Quiero decir, estos descubrimientos ¿ son el Levallois de este campo o hemos llegado ya a la luna ?.

En cualquier caso, viendo todo esto uno se pregunta si para estos investigadores, formados en ciencias sustanciales (es decir aquellas que tratan de entes que nos proporciona la realidad dada, en oposición a las formales, que tratarían más bien de constructos artificiales, creados por el hombre), como la química tiene alguna relevancia práctica o de cualquier tipo la teoría de la Complejidad Computacional,  que adopta un enfoque puramente abstracto y formal (y pasa lo mismo con otros campos como la física o la economía que tampoco parecen valorar los resultados de esta disciplina; aunque existen algunos puentes, no acaban de ser muy transitados; quizás la realidad no sea tan compleja como  les parece a algunos).

Pregunta que me hago, y que no contestaré, por falta de tiempo. Si veo que alguien la contesta de manera directa o indirecta en algún blog, actualizaré.

Actualización, unos minutos despúes: algunos artículos relevantes sobre esto son este y sobre todo este, de 1994, que entra de lleno en este debate.  Es descargable en PDF, se títula Computational Complexity, protein structure prediction and the Levinthal paradox y uno de los autores es precisamente Martin Karplus. Por el abstract,que copiamos literalmente, parece ser crítico con el enfoque de complejidad computacional

The task of determining the globally optimal (minimum-energy) conformation of a protein given its potential-energy function is widely believed to require an amount of computer time that is exponential in the number of soft degrees of freedom in the protein. Conventional reasoning as to the exponential time complexity of this problem is fallacious – it is based solely on the size of the search space – and for some variants of the protein-structure prediction problem the conclusion is likely to be incorrect. Every problem in combinatorial optimization has an exponential number of candidate solutions, but many such problems can be solved by algorithms that do not require exponential time.

We present a critical review of eff orts to characterize rigorously the computational requirements of global potential-energy minimization for a polypeptide chain that has a unique energy minimum corresponding to the native structure of the protein. An argument by Crippen (1975) demonstrated that an algorithm for global minimization will exhibit exponential worst-case time complexity if it utilizes only a Lipschitz condition on the function. Additional information must be exploited by an algorithm if eciency is to be achieved. More recent arguments (Ngo and Marks, 1992; Unger and Moult, 1993; Fraenkel, 1993) based on the theory of NP-completeness (Garey and Johnson, 1979) imply that exploiting the functional form of the potential energy is not enough to make the problem eciently solvable. The conclusions that may be drawn from the NP-completeness results are rigorous but sub ject to precise caveats. We elaborate on these caveats in detail. 

We also discuss the relationship of this line of inquiry to the Levinthal paradox. The Levinthal paradox refers to the observation that although a protein is expected to require exponential time to achieve its native state from an arbitrary starting con guration, the physical process of folding is not observed to require exponential time. The usual arguments underpinning the exponential-time expectation require the use of a model of protein folding that cannot be justi fied.

We propose a more rigorous reformulation of the Levinthal paradox based on computational complexity. (The existence of this reformulation suggests that it may be important to consider computational complexity in theoretical analyses of folding rates.) Other reformulations of the Levinthal paradox may be possible, but they are beyond the scope of this review. The analysis of protein-structure prediction via computational complexity theory, as reviewed here, is by no means complete. We conclude with suggestions about how to extend the analysis.

 Actualización día siguiente: 

Bien pensado, y sin haber leído el paper de Karplus, que seguramente es muy interesante, y desconociendo si cambió su postura al respecto (tengamos en cuenta que es de 1994) esto puede ser un falso debate. Una problema es que un modelo capture bien la realidad o sea el único que pueda capturarla. Y otro problema es que dado un modelo se pueda afirmar con seguridad cual es su complejidad computacional.

El primer problema,  la adecuación del modelo a la realidad, es cosa de los científicos sustanciales, a ellos les corresponde resolverlo. Y precisamente la ciencia está  para, a medida que avanza, proporcionar modelos más adecuados y eficientes. Es decir que captando el mínimo posible de información nos permitan predecir o diseñar etc…Por ello la relación del  modelo con la realidad es dinámica.

El segundo  problema, la clasificación del problema por su  complejidad computacional es cosa de los teóricos computacionales. Su input es un modelo formal. En esto no se ha  avanzado mucho, ya que la teoría de complejidad computacional, de momento se basa más en conjeturas que en conocimiento cierto, pero está claro que lo intentan…

Ahora bien, si da la impresión de que a veces tanto los científicos como los teóricos de la complejidad computacional, cuando realizan algunas afirmaciones están confundiendo los modelos con la realidad. Es decir en vez de decir el problema de plegamiento de proteínas es difícil (por ejemplo NP-hard), se debería de decir, los modelos actuales del problema de plegamiento de proteínas, basados en el conocimientos científicos actuales, son difíciles.

Terms and conditions: 1. Any commenter of this blog agrees to transfer the copy right of his comments to the blogger. 2. RSS readers and / or aggregators that captures the content of this blog (posts or comments) are forbidden. These actions will be subject to the DMCA notice-and-takedown rules and will be legally pursued by the proprietor of the blog.

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s


A %d blogueros les gusta esto: