Algoritmica y complejidad computacional. Nuevos resultados sobre permutaciones.

mayo 21, 2018

Compilamos en esta entrada dos nuevos “resultados” relacionados con el tema de permutaciones / grafos de Cayley, resultados que hemos visto muy por encima (prácticamente solo los títulos) y tenemos que mirar en detalle.  Aparentemente están relacionados, pero ya digo que tengo que mirarlos en detalle.

1.El primero  es un resultado que al parecer resuelve un problema que estaba abierto desde hacía tiempo. Los dos artículos son los siguientes.

–Circular support in random sorting networks, by Dauvergne and Virág,

–The Archimedean limit of random sorting networks by Duncan Dauvergne.

Una entrada de un blog en la cual hablan sobre este resultado.

2.El segundo es una solicitud de patente en EEUU. Y según hemos visto también es ¿ una patente coreana ?. Con el buscador cuántico de Google a veces es complicado volver a encontrar los resultados. Como el gato, a veces aparecen (estan vivis) y a veces no (estan muertos) ¿¿¿???.  Encontrada de nuevo. Es una aplicación también, entiendo que surcoreana:고전적 프로세서 상에서 양자-유사 계산을 에뮬레이트하기 위한 퀀톤 표현

El colega inventor es Arun Majumdar, y el titular es la empresa Kyndi Inc. Hemos encontrado esta solicitud de patente pues citan a una de las nuestras en ella.

Es curioso pues nuestro resultado utilizamos una terminología (entangled / entrelazado) que se utiliza también en mecánica / computación cuántica (conjuntamente con la superposición, el entrelazado sería uno de los fenómenos puramente cuánticos que harían posible una computación más rápida en los sistemas cuánticos con respecto a los clásicos; supuestamente), pero ya decimos en la propia patente que no tiene nada que ver con nada cuantico. En nuestro caso la utilizamos pues pensamos en su momento que es una palabra descriptivamente adecuada para la propiedad que intentamos describir con ella. No obstante esto nos da una idea:  estamos pensando constituir una sociedad que se llame “The Genomic Quantum Deep Learning Blockchain S.A.” 😉

Nota. Quede claro que no estamos ironizando sobre la empresa titular de la patente. Entre sus fundadores esta uno de los pioneros de la IA no basada en Machine Learning y en la empresa proponen un enfoque menos de caja negra. Obviamente, tampoco sobre el inventor. La ironia está relacionada con lo comentado en la entrada sobre criptomonedas. Fin de nota.

En fin, no pensamos que (el examinador) nos mencione por esto en concreto. En fin, espero que tras leerla en detalle no tengamos que decir en algún momento:

“¡¡¡ Cuan tontos fuimos por no haber visto esto antes !!!”.

Quanton representation for emulating quantum-like computation on classical processors

Abstract
The Quanton virtual machine approximates solutions to NP-Hard problems in factorial spaces in polynomial time. The data representation and methods emulate quantum computing on classical hardware but also implement quantum computing if run on quantum hardware. The Quanton uses permutations indexed by Lehmer codes and permutation-operators to represent quantum gates and operations. A generating function embeds the indexes into a geometric object for efficient compressed representation. A nonlinear directional probability distribution is embedded to the manifold and at the tangent space to each index point is also a linear probability distribution. Simple vector operations on the distributions correspond to quantum gate operations. The Quanton provides features of quantum computing: superpositioning, quantization and entanglement surrogates. Populations of Quantons are evolved as local evolving gate operations solving problems or as solution candidates in an Estimation of Distribution algorithm. The Quanton representation and methods are fully parallel on any hardware.

Extractos.

    DETAILED DESCRIPTION OF THE EMBODIMENTS

  • [0069]
    Performing an approximation to quantum computing by treating permutations as representative of model states provides the interpretation that all states are simultaneously computed by iteration. Treating distributions as approximating density functionals, estimating distributions, coupling these distributions to state spaces represented by permutations, computing based on these distributions, reasoning with these distributions over the symmetric group and structure learning using the present Quanton model are the central ideas as described by embodiments of the present disclosure.
  • [0070]
    The search space of solutions in permutation problems of n items is n factorial. The search space is usually denoted as Sn, in reference to the symmetric group of size n. In general, permutation problems are known as very hard problems when n goes above a relatively small number and their computational complexity demonstrated that many of the typical permutation problems is NP-hard. In view of their complexity, computing optimal solutions is intractable in general. For this reason, invented the Quanton in order to put in place a data structure designed to work, at worst approximately, and at best in certain special cases, exactly, at the factorial sizes of the search space.
  • [0071]
    Furthermore, noting that Quantum computing also has a very large space in terms of solution possibilities, the Quanton data structure and methods, using the unique, efficient and computable model described in the present disclosure built on the idea of permutation as computation (aka permutational quantum computing), the Quanton is devised herein to emulate Quantum computing as a virtual machine.
  • [0072]
    Now, referring to FIG. 1, which provides a Quanton Overview, there are two parts to the overall procedure: first, there is the local procedure for creating the Quanton for use in emulating localized (to the Quanton) computational operations and then there is the global procedure for evolving the Quanton or a population of Quantons to learn about incoming data problems. This is done in order to produce optimal solutions based on the procedure of Estimation of Distribution (EDA) algorithms, also known as Probabilistic Model Building Genetic Algorithm (PMBGA).
  • [0073]
    The Quanton uses embeds permutations in special way that allows the permutations to each have a unique index (by using a lattice) into a continuous probability space. The produces a unique encoding for operations that enable it to mimic quantum gates. Hence quantum gates are embedded in a continuous probabilistic vector space in which fast vector computations perform the equivalent of complex quantum gate operations, transforming inputs to outputs, or, equivalently, computing quantum transitions from state to state. Given that all permutations are simultaneously available as indexed on the Quanton, every continuous vector space operation, therefore, updates all permutations simultaneously since it is the probability density distribution that is performing the update. In this sense the Quanton represents a superposition of all potential solutions. The Quanton represents quantized discrete structure because of its lattice and entanglements are represented by correlations between variables that emerge as a result of an evolutionary process that surfaces the entangled states as solution sets to the input query state (i.e. the data to be learned or solved).

….

  •  A permutation distance function is used to measure the Quantum Gate solution. If the distance is small, then a solution is near. If the distance is far, then solution is still to be found. A critical piece of the Quanton is, therefore, the choice of a permutational distance function. There are several choices for the distance functions, such as the Hamming Distance between the output bit-strings of gate operations or Levenstein Distance as an edit distance between bit strings of the gate operations. However, the disclosure uses a permutational distance that is more closely aligned with the probabilistic nature of quantum systems: the distance measurement on permutations is based on the generalized Mallows model following the teachings of J Ceberio, E Irurozki, A Mendiburu, J A Lozano, “A review of distances for the Mallows and Generalized Mallows estimation of distribution algorithms”, Computational Optimization and Applications 62 (2), 545-564 and is incorporated herein in its entirety.
  • [0085]
    The distance measure is an analog to the Levenstein Edit distance measure between strings except that in this case, The Mallows model is use which is a distance-based exponential model that uses the Kendall tau distance in analogy with the Levenstein measure: given two permutations σ1 and σ2, the measure counts the total number of pairwise disagreements between σ1 and σ2 which is equivalent to the minimum number of adjacent swaps to convert σ1 into σ2. As noted in section of the present disclosure corresponding to FIG. 39, this is actually equivalent to a Quantum Gate operator in the Quantum Permutational computation regime presented in this disclosure. Hence, the evolution, using this distance measure, seeks optimal quantum circuits performing the problem solving.

Por lo que hemos resaltado en negrita, pensamos que los dos resultados mencionados podrían estar relacionados, pero ya decimos que tenemos  que verlos los dos con mas detalle…

Actualizaremos la entrada en su momento.

Anuncios

Trade Lane Megacities. Empresas, empresarios y su expresion ideologica antes de la Primera Globalizacion.

mayo 11, 2018

1.En nuestro ultimo viaje a Cantabria, en una de las localidades que visitabamos nos llamo la atencion una construccion cuyo tipo,  por su tamano y forma no supimos identificar en ese momento: monasterio ? casona ? Etc…

En una busqueda posterior nos quedo claro que se trataba de una casona, construida a funales del s XVII por un notable local, que llego a ser Obispo de Cadiz. Paso a un descendiente cuya biografia nos llamo la atencion.

nació el 14 de mayode 1709 en la localidad cántabra de Isla, perteneciente al municipio de Arnuero; heredó los privilegios y mayorazgos de sus antecesores.

Empleó su fortuna en el impulso y promoción de la industria y la agricultura de la región, relanzando la ferrería que su madre poseía en Marrón, además de instalar otras en AmpueroCereceda, una fábrica de loza en el lugar de Isla, dos fábricas de harina en Santander y otra de cordobanes, suelas y vaquetas también en Marrón.

Comooor ???  Un serial entrepreneur avant la lettre ??? Este personaje, como figura sociologica  nos parecio completamente extemporanea para ese momento.

Incluso tratandose del XVIII. No es un siglo que conozcamos especialmente bien de la historia de Espana, pero esta figura en este momento (muere en 1788), incluso en una region de Espana que es en si misma atipica (la zona cantabrica: una pequena parte de Galicia, Asturias, Cantabria, Pais Vasco y Baztan navarro) nos choco.

Esto nos hizo plantearnos la pregunta que vamos a intentar responder en esta entrada: era este personaje un tipo de figura realmente atipica, un outlier estadistico, o es solo la punta de un iceberg de considerable tamano ?.

2. Estoy leyendo sobre historia del pensamiento economico. Hacia anos que no leia sobre estos temas. La redaccion de la entrada (todavia inacabada) sobre criptomonedas ha reavivado el interes.

Ya nadie duda, tras la llamada de atencion de Schumpeter (y otros anteriormente, como Soyou, Larraz o Grice-Hutchinson) que en Espana hubo en el XVI y XVII abundante pensamiento economico y de calidad. Practicamente todos los temas que luego fueron topicos de la disciplina, ya se discutian en la Espana de esa epoca. No podia ser de otra manera pues en Espana fuimos los primeros en experimentar los grandes cambios que dispararon el inicio de este tipo de reflexiones que tan poco habian interesado durante la epoca heroica anterior, mas interesada en aspectos espirituales y / o militares.

En la imagen siguiente, miembros de la Escuela de Salamanca.

 

Nota.

Obviamente la motivacion de una teoria economica producida por una escuela de este tipo, de raiz escolastica, no puede ser la misma que la de individuos ocupando posiciones en grandes companias comerciales, que produjo el mercantilismo.

La motivacion de la escolastica es, literalmente, la de un confesor que tiene que orientar a unos fieles que siguen una cosmovision, y el producto economico esta mezclado con otros productos ideologicos de esta misma cosmovision, hay que destilarlo y recomponerlo para poder juzgarlo como tal, como producto puramente economico.

Pero interesa conocer, y desconozco si se ha realizado un estudio en profundidad al respecto, si en materias economicas, se puede meter a toda la escolastica en un mismo saco (como al parecer siguen haciendo algunos historiadores) aun aceptando que la motivacion era la misma, o no es asi.

Concretamos mas la pregunta: es la “economia” de Sto. Tomas exactamente la misma que la de la llamada Escuela de Salamanca o habia algo nuevo en esta ?. Si esta nueva generacion de escolasticos se enfrento a nuevas realidades, es posible que tuviesen que generar tambien nuevas respuestas.

Si uno ve los temas (no hace falta leer el contenido) de los ultimos representantes de esta corriente, como Mariana o Valencia, desde luego parecen ser pre-modernos (quiero decir medievales): el fiel es el Rey, y se le instruye sobre como debe de relacionarse con una institucion, la Moneda. Este es el tema de Biel, y seguramente tambien el de Copernico (tan moderno en otros aspectos). Este aparente inmovilismo es seguramente una falsa apariencia. Pasado el frenesi, la fenomenologia economica de finales del 500 era mas parecida a la de finales del 400 que a la de 50 anos antes. Esta ultima daba pie a una teoria moderna.

Y si hubo avance en la ultima escolastica con respecto a la anterior, cabe preguntarse cuan lejos llegaron en este avance, en comparacion por ejemplo con los practicantes contemporaneos del mismo genero, pero con distinta motivacion.

Por otra parte, otros historiadores afirman que el arbitrismo no es mas que una variante hispana del mercantilismo. Nosotros no lo vemos tan claro. Pero seguimos leyendo…

Fin de nota.

En este caso lo que nos llama la atencion, e igual cambiaremos de opinion a medida que vayamos leyendo es el punto de vista desde el que se escribia sobre estos temas: tenemos a los academicos, en su mayoria clerigos (el enfoque de la Escuela de Salamanca), y tenemos a los arbitristas, en su mayoria  cortesanos (para entendernos, funcionarios publicos). No damos nombres, son bien conocidos. Una excepcion a esta regla puede ser Penso de la Vega, pero es tardio y geograficamente excentrico.

Esto contrasta con Inglaterra, donde el genero de la Economia Politica nace y se desarrolla en un entorno de comerciantes (aunque escrbiesen sobre temas de interes mas general, publicos): Gresham, Malynes, Misselden, Mun…Pero eran comerciantes todos ellos implicados en asuntos publicos.

En Francia, aparentemente, el caso es mas parecido al espanol: ya desde la Edad Media tenemos a Buridan, Oresmes y luego en la moderna  Bodino. El “contubernio” Estado-Comerciantes no se inicia hasta Colbert (segunda mitad del XVII).

Y lo mismo ocurre con Italia, lo cual si cabe es todavia mas sorprendente: Pierozzi, Botero, Davanzati…

Como en Italia, en Espana no faltaban mercaderes….

Si la neocolastica es la forma en la que la Iglesia  encaja la nueva fenomenologia economica, el mercantilismo es la forma en la que la encaja la nueva forma politica que se ha venido en llamar Estado Moderno en el cual el origen de las clases politicas / administrativas contrasta con el de las de la Monarquia Feudal.

Si la Iglesia era una institucion milenaria, la formacion del Estado Moderno  es contemporanea de la nueva fenomenologia economica. Tanto es asi que no es facil determinar que fue causa y que fue efecto.

Como fue este tema en realidad en toda Europa Occidental ?

Nota. Ciencia, tecnologia y econosociedad Moderna.

Sociedad

En estos siglos, corren en paralelo varios procesos en principio independientes (no todos ellos, algunos estan vinculados), que indican un claro cambio hacia la mentalidad moderna, y que acabaran siendo vinculados bajo un mismo paraguas ideologico durante la Ilustracion: la idea de secularizacion (Reforma), la idea de un conocimiento naturalista (Ciencia), la idea de Estado Moderno (como superacion de la Monarquia Medieval, donde el Rey, primus interpares esta mas pendiente de los senores feudales de su propio reino que de los otros reinos),  la idea de desarrollo economico y cambio social (Economia).

Ciencia.

Sobre el Renacimiento y el origen de la ciencia ya hicimos una entrada en profundidad. La disciplina que tiro del carro fue la fisica (incluimos la Astronomia; el factor comun es claro) y los grandes hitos son bien conocidos: 1543 Copernico, 1609 Kepler, 1632 Galileo y 1687 Newton.

Tecnologia.

[(Abrimos parentesis dentro de la nota.

Siempre acabamos hablando de tecnologia…Es lo que mas nos interesa ahora mismo. Deberia de existir una ciencia de la tecnologia. Ya existen los elementos. No se si los estudios CTS  es exactamente la idea que tenemos. Solo en parte.

Nuestra vision de la tecnica/tecnologia es de larga perspectiva. El Neolitico supuso un cambio de mentalidad radical con respecto al periodo anterior. Y el Bronce a su vez  supuso un gran avance con respecto al Neolitico (escritura, regadio a gran escala etc…), produciendo un tipo de sociedad muy caracteristica, muy elitista y muy localizada. El Hierro / Antiguedad fue democratizador (escritura alfabetica, monta de caballo y camello, se empiezan a dominar algunos mares, hay una primera secularizacion con el paso de la economia-templo a la economia-palacio, hay un primer pensamiento universalista, durante la era axial, seguido de un primer pensamiento naturalista ya en la Antiguedad…).

Esta vision de sistema tecnico asociado a una determinada epoca ya existe por ejemplo en Munford. Y seguramente no es el primero en expresarla. Sin embargo que yo sepa no esta claro que determina las relaciones sincronicas entre los diferentes componentes del sistema tecnico en un momento dado, asi como las relaciones del sistema tecnico con otros sistemas sociales (economico, politico, reproductivo, de conocimiento) y sobre todo los mecanismos mediante los cuales se pasa de un sistema tecnico a otro posterior, en principio con progreso de por medio.

Ya hemos hablado de todo esto en otras entradas. Como se ve un primer paso es identificar los campos tecnologicos que marcan la diferencia. En todo momento, hay avances tecnologicos paralelos en multiples campos. Hoy esto es mucho mas acusado. Algunos acaban marcando la diferencia.

Y ya hemos dado una primera respuesta a este problema de valoracion: informacion, energia, materia, movimiento. Aunque esto pueda parecer muy abstractoabstracto, hay una buena razon para concentrarse en los avances en estos cuatro campos: toda tecnica no es mas que un procedimiento, una secuencia de acciones compuestas de materia, energia, movimiento e informacion. Por lo tanto un avance significativo en cualquiera de estos cuatro campos se tiene que trasladar a todo el sistema tecnico. El movimiento es necesario en toda tecnica tanto para el acopio de los materiales, energia y a veces informacion, necesarios para la aplicacion de la tecnica, como durante la aplicacion de esta. Y el concepto de materia debe de entenderse en el sentido mas amplio posible, incluyendo la materia viva (el sistema tecnico del Neolitico consistio precisamente en tratar a la materia viva como objeto tecnico; en este sentido una mutacion genetica, cuando es fruto de una domesticacion, no es mas natural que cualquier otraotro accion tecnica). Todo esto parece evidente, aunque seguramente es incompleto.

Incompleto. Por ejemplo, el lector pensara, con razon, que cualquiera que se deje fuera los avances tecnologicos relacionados con la salud, tiene que tener un concepto muy estrecho de avance tecnologico.

Y lo mismo si dejamos fuera avances institucionales, que en el fondo es de lo que hablamos en esta entrada. Precisamente cuando hoy los avances institucionales tienen o mas bien podrian tener una cristalizacion tangible como plataformas tecnologicas…En una entrada anterior ya dijimos que queremos integrar esto de alguna manera en el esquema de avance tecnologico asociado a cada tipo de sociedad que manejamos.

Con respecto a los avances medicos, mirando hacia atras con una perspectiva de largo plazo, han tenido poco peso. Los verdaderos avances son muy recientes, casi de la sociedad contemporanea. Pensamos que esta dimension jugara un papel mas importante en un futuro.

E incompleto porque tambien habria que hablar de necesidades, que de alguna manera configuran la demanda de tecnicas y tecnologias.

En fin la tecnologia, tan presente hoy, ha sido invisible a los dioses, mamporrero de la ciencia, una abstraccion para la economia, una aberracion ontologica para la filosofia y caja de herramientas para la ingenieria. No encuentra su lugar en el orden de las cosas. Y sin embargo, tan presente hoy como ayer y marcando el ritmo de los tiempos.

Si hubiese una ciencia de la tecnologia, donde se situaria dentro del conjunto de saberes ? Lo dejamos como pregunta.

En cualquier caso una pregunta mas interesante es si se puede mirar a este campo de la realidad con una vision diferente a la de la caja de herramientas, si su desarrollo historico obedece a alguna logica. Pensamos que si, y por lo tanto que es posible una ciencia de la tecnica / tecnologia autonoma, independientemente de cual sea su lugar. En este campo opera un fenomeno de transversalidad sincronica similar al que ya hemos comentado en otras entradas con respecto al campo del arte. Pero son dos campos sujetos a logicas completamente diferentes. En uno no es complicado definir una medida de progreso vinculado al cambio. En el otro hay cambio, un cambio no arbitrario, pero no esta tan claro que se pueda hablar de progreso. Las fuerzas que causan el cambio diacronico estan menos claras. Son mas bien magicas.

Anadimos algunos nombres que han escrito sobre estos temas tecnologicos desde un punto de vista historico, filosofico, politico e ideologico, sociologico, economico etc…: el mito del Golem, Bacon, St Simon y Comte , Veblen y Burnham, Leroy-Gourhan, Munford, Kapp, Gille, White, Cardwell, Heidegger, Ortega y Gasset, el movimiento Technocracy Inc, liderado por Howard Scott y seguido por Henry Gantt, Mary Parker Follet,  Herbert Croly (yano hemos hablado en otras entradas), Bell y Galbraith y sus publicaciones sobre sociedad industrial y tecnocracia, el movimiento Cypherpunk (sobre el que hemos hablado en la entrada sobre criptomonedas), el movimiento actual vinculado a la Singularidad, liderado por Kurzweil y seguido por otros…

Para mas nombres ver la lista de historiadores de la tecnologia a los que se les ha concedido la medalla Leonardo da Vinci.

https://en.m.wikipedia.org/wiki/Leonardo_da_Vinci_Medal

La profesion de Ingeniero emerge durante la Edad Moderna y se empieza a institucionalizar durante el s XVIII (muy en paralelo con la de Economista). Desde ese momento y acompanando a las diferentes oleadas de avances tecnicos / tecnologicos han ido emergiendo “profetas” de la tecnofilos y tecnofobos. Los Tecnofilos en general han sido ingenieros practicantes de la tecnologia mas puntera y expansiva en ese momento: Bacon (al que no se puede calificar como ingeniero), con la oleada moderna, St Simon con la Primera Revolucion Industrial, Scott y otros con la Segunda Revolucion Industrial, Kurzweil y otros ahora con la revolucion TIC.

La existencia de estos profetas que surfean desde lo alto las oleadas tecnologicas es algo no solo inevitable, sino conveniente, y entiendo que muy utiles para el historiador de la tecnologia, pues permiten identificar estas oleadas de avances. Cuando no aparecen, hay calma en las aguas tecnologicas.

Cerramos parentesis)].

Estos cambios en la mentalidades se han visto acompanados, o mas bien precedidos por cambios tecnologicos (en el tratamiento de la informacion, en los medios de transporte, en los materiales, en la energia, en la agricultura): imprenta y reloj mecanico (informacion), polvora (materia/energia/movimiento), navegacion oceanica (transporte/movimiento)…

Este es el kit tecnologico de la modernidad, suponiendo un avance importante con respecto al kit tecnologico que habia predominado desde el Hierro hasta este momento, pasando por la Antiguedad (cuyo chispazo cientifico y tecnologico finalmente se apago).

Notese que la mayoria de estas innovaciones no se originan en Europa y ya se conocen en ella uno o dos siglos antes del periodo sobre el que hablamos (aunque la historia de estas tecnologias, su origen y difusion, no esta todavia 100% clara).

Aunque este tema necesita mayor reflexion, diria que la polvora (los explosivos) es un digno sucesor de los metales en los avances relacionados con los materiales. Tienen muchas aplicaciones similares y en muchas de ellas van de la mano (armas por ejemplo o mineria). Pensemos en como la pistola no es mas que la mejora conceptual de la espada o de la lanza. El concepto y proposito del diseno es exactamente el mismo: conseguir hacer dano a tu enemigo sin que este te lo haga a ti. La pistola que incorpora la explosion y la bala consigue esto de manera mas eficaz que la espada o lanza, entre otras cosas ampliando el radio de accion. La bomba atomica ha llevado este principio al extremo. Todo esto que podria parecer anecdotico, no lo es. Uno de los elementos de la politica es la territorialidad. Y este desarrollo en el campo de los armamentos afecta a tamano de los territorios. Ceteris paribus, a mayor radio de accion de un arma individual, mayor el territorio que se puede controlar con una misma cantidad de individuos. Esto vale para los dos aspectos en los que se expresa el orden politico, exterior (defensa de fronteras, en cuyo caso se tiene que controlar una circunferencia y figuras topologicamente equivalentes) e interior (en cuyo caso se tiene que controlar una superficie). En Europa y otras zonas, coincidiendo con el uso de la polvora se empiezan a expandir territorios ( incluyendo en su seno anteriores unidades politicas, donde se hablan lenguas diferentes, prefigurando el problema actual del nacionalismo), configurando en parte el paisaje geopolitico actual. Con el armamento nuclear todo esto ha cambiado, de una manera que no tenemos clara todavia (aunque suponemos que los estrategas militares si la tendran), y tampoco es el objeto de la entrada. Por supuesto la politica exterior e interior, el orden politico interno e internacional, es mas que esto: tambien consta de diplomacia y ley.

En materia de energia la primera Modernidad no era muy diferente de la Antiguedad, aunque la idea de explosion y su control si parecen nuevas. Pero el gran avance fue posterior, la electricidad, con la que empieza la epoca de la Primera Globalizacion. La situacion actual es diferente: Bomba Atomica, Computador Electronico, abono artificial y mecanizacion del campo…

Economia.

Diria que la idea de desarrollo economico (cuya materializacion en esa epoca es el mercantilismo) nace con los arbitristas, concretamente con el contador burgales Luis Ortiz y su Memorial de 1558 (desconozco si tuvo difusion o no, en Iberia y/o Europa). Ortiz fue un outlier en su tiempo. Se adelanta al arbitrismo espanol y al mercantilismo europeo casi medio siglo. Pero no salio de la nada. Felipe II acababa de aterrizar en el trono, y el Reino acababa de tener su primera quiebra. Sus propuestas eran atinadas ? aunque radicales. Requiere un estudio mas detallado. Activismo economico, pero no ciencia economica todavia.

Un poco antes, pero casi contemporaneos, dentro de la corriente escolastica, habia surgido un primer intento de conocimiento teorico de la economia, con Azpilicueta en 1556 con su Comentario de cambios. Y continuado por Mercado en 1569 Tratos y 1571 Suma. Es decir en un corto periodo de unos 10 anos nace el enfoque moderno de la economia. De nuevo conocimientos teoricos, que no cientificos todavia. No cientificos en su proposito, en su intencion. No podian serlo, aunque si hubo avances en sus resultados con respecto al conocimiento anterior.

Todo este fuego intelectual, el de los segundos escolasticos y el de los arbitristas, creado por la chispa de la nueva fenomenologia quedo apagado y la atencion sobre temas economicos resurgio en otros lugares, con otras pretensiones, cientificas ya, y con un campo del saber ya bien delimitado, focalizado en cuestiones puramente economicas.

Resurgio en Francia, con los Fisiocratas, finalmente otro disparo con polvora mojada, y  en UK con los clasicos.  Cantillon y Petty son a la vez precursores (del clasicismo britanico) y epigonos (del mercantilismo).

Lo que sucedio entre el neoescolasticismo/arbitrismo y los clasicos de la economia politica, que se puede decir comienzan con Smith en torno a 1750, es algo que no tengo claro. En general se otea muy de pasada. Por que no se apago el fuego en Uk ?. Podria perfectamente haber pasado, como en la Monarquia Hispanica…

Petty (1623-1687) que yo sepa es el primero que tiene pretensiones de realizar una ciencia de la economia, de corte inductivo. De joven conocio Francia y los Paises Bajos. Inicialmente academico, medico, paso a ser burocrata con Cromwell. Por lo tanto ademas de hombre de accion, fue cientifico (medico) y abrazo la mentalidad cientifica, que ya estaba bien arraigada en el XVII (todavia no en el XVI, salvo en determinados circulos). Fue uno de los fundadores de la Royal Society. En economia politica, formo una cierta escuela (John Graunt, Charles Davenant, William Fleetwood, Gregory King).Un buen enlace sobre Petty: https://en.m.wikisource.org/wiki/Petty,_William_(1623-1687)_(DNB00)

Cantillon es uno de los eslabones entre los dos periodos. Doblemente: eslabon en el tiempo y en el espacio, pues tenia una pata en Inglaterra y otra en Francia, y esto sin desgarrarse. Todo lo contrario: cogio de unos y de otros, realizando una fusion que ya era casi clasica.

O Brien hace un buen estudio de la escuela clasica. Los primeros capitulos de su libro son muy interesantes. No he leido el resto. Destaca como influencia de los Clasicos, desdeque el punto de vista paraeconomico a los iusnaturalistas protestantes (Grocio, Pufendorf, Hutcheson), a sus criticos (Hume, muy amigo de Smith, por cierto) y desdea el punto de vista economico a los Fisiocratas. Minimiza la influencia de mercantilistas, librecambistas y deen la escuela de Petty. Los librecambistas surgen como reaccion a los mercantilistas y aplican el mismo estilo poco teorico.

Ilustracion y Enciclopedismo.

La Ilustracion, si intentamos ir mas alla del lugar comun, es un fenomeno complejo, de perfiles difusos. Se puede ver como la recepcion en Francia ( y su posterior difusion desde aqui al resto de Europa) de fenomenos sociales e ideas que se habian originado en Inglaterra ?.

En lo que sigue nos centramos en uno de sus manifestaciones mas conocidas, el Enciclopedismo.

Es una corriente que se identifica con el XVIII frances, en el contexto de la Ilustracion y por lo tanto relevante para contextualizar el conocimiento en la epoca pre-clasica.

Cabe senalar que el genero literario /editorial de Enciclopedia, como recopilacion de los conocimientos de una epoca es muy anterior al XVIII y practicado en toda Eurasia. El lector puede ver alaeste respecto este articulo muy completo de la Wikipedia en castellano (mucho mejor que el ingles): https://es.m.wikipedia.org/wiki/Enciclopedia

Podemos citar algunos ejemplos que se salen de la tradicion de la Europa Occidental: la Brihat Samhita del VI ad en la India, la Suda bizantina del s X, y muy interesante, los Cuatro grandes libros de Song, del s. X y la Yongle Dadian terminada en 1403, durante la Dinastia Ming. Para mas sobre la historia delde enciclopedismo chino se puede ver este enlace: https://en.m.wikipedia.org/wiki/Chinese_encyclopedia

Tambien hay multiples obras del mismo tipo y tiempo islamicas. El tema es complejo y lo dejamos aqui.

Como se sabido el estilo moderno europeo nace con Chambers, del cual se derivaria la famosa Encyclopedie de Diderot y D Alembert que trabajaron para el editor Le Breton. A continuacion la vision que tenian estos autores de la organizacion del conocimiento. Vemos que la Economia aparece en el apartado Raison, Philosophie, Sciences de L Homme, Morale, Particulier, Sciences des Lois et Jurisprudence, Economique. Al mismo nivel Politique.

Como se ve, relacionan cada una de las facultades delmentales entendimiento o mentales (memoria, razon, imaginacion) con un campo del saber (historia, filosofia y poesia). Notese como la tecnica pertenece a la historia, apartado Usages e la Nature, y luego divididas por el tipo de materia que la tecnica procesa. Hoy se tiende mas a utilizar la energia como eje de clasificacion o mas bien de periodizacion de la tecnica. Y la poesia, vinculada a la imaginacion, es lo que hoy entendemos por ficcion.

Realmente Morale se debe de considerar como una ciencia de la accion humana, dentro de la cual hay una parte general que seria la ciencia de los valores (eticos, del bien y del mal) y otra la teoria de la accion natural, politica y economica, es decir la aplicacion de la teoria de los valores a estos campos concretos de la accion. El campo natural se refiere a lo civil no economico.

Se nos antoja, esta vision enciclopedica del conocimiento extrana. Y ha tenido sus consecuencias en la division de saberes actual, tambien extrana en algunos puntos.

De cualquier manera el proyecto enciclopedico frances arranca, en torno a 1750, en un momento interesante:

–por una parte, la llamada Revolucion cientifica ya esta consolidada. La forma de conocimiento cientifico ya es un modelo a seguir, que es empieza a diferenciar nonodel solo del providencialismo teista, sino de las filosofias naturalistas de corte racionalista.  Newton publica su tratado en 1687, y a estas alturas, pese a determinados conceptos que no gustan, sus resultados ya estan aceptados y son bien conocidos en Francia gracias a la divulgacion por parte de Voltaire. La concepcion cientifica de Descartes, mas cualitativa y deductiva da paso a la concepcion newtoniana, mas cuantitativa y empirica.

El articulo completo del que hemos extraido la imagen: https://www.persee.fr/doc/rnord_0035-2624_1995_num_77_312_5052

–pero por otra parte todavia no ha comenzado la Revolucion Industrial. Los grandes inventos que abanderan este cambio tecnologico todavia no se han llevado a cabo.

–la situacion politica del Antiguo Regimen no se ve de momento alterada. Como ya hemos visto, gracias a algunos avances tecnicos,  las unidades politicas son mayores e incorporan dentro de una misma frontera unidades politicas menores constituidas anteriormente. Surge el problema de como integrar las Cortes de tipo estamental, que siguen una logica territorial, en la unidad mayor. Problema no menor pues las Cortes, entre otras cosas, aprueban los impuestos y los proyectos de la unidad mayor pueden no ser compartidos por todas las unidades menores. En paralelo, el rol militar de la Nobleza, vinculado a la caballeria, se ha devaluado. Y con el nuevo entorno economico y politico se requiere una nueva clase de funcionario publico, bien formado. La clase noble es insuficiente, en numeros (demograficamente) y valores. Las clases burguesas nutren en parte este funcionariado. Es la noblesse de robe. Pero tampoco el burgues de gremio, el tercer estado, encuentra su lugar en el nuevo orden.  Finalmente, con la difusion de las nuevas ideas naturalistas, el rol del clero se ha devaluado tambien.

Quizas el lector se pregunte tambien como se transmitian las ideas mas alla de sus creadores. Esto variaba segun los paises. En Francia existia la institucion de los Salons y de las Salonnieres, que antecede a la Ilustracion y la sucede, pero fue quizas  ese momento en el que cobra mayor importancia. Estos salones son las nuevas Iglesias, espacios de sociabilidad y transmision de ideas, pero seculares. En otros paises esta misma funcion de foro secular se realiza en otras instituciones mas o menos formales, aunque tambien hubo algunos salones.

https://fr.m.wikipedia.org/wiki/Femmes_et_salons_litt%C3%A9raires

Francia esta sin duda ninguna en el centro geografico de Europa Occidental (UK, Espana, Francia, Alemania, Italia) y en multiples ocasiones ha ejercido, si no de generador de ideas, si de corredor entre las otras partes. Un corredor-procesador pues al llegar a Pais siempre quedaban barnizadas con un toque especial, antes de ser difundidas. Escandinavia, Mahgreb y Europa del Este no son Europa Occidental, pero de alguna manera la orbitaban. La francesa es otra de las civilizaciones que se vieron afectadas negativamente por los descubrimientos atlanticos. No fue inmediato, pero sucedio.

Fisiocratas.

En Francia hubo mercantilismo y hubo librecambismo. Como se pega el salto a la Fisiocracia ?

 

Colmeiro, (1918-1894), que escribio cuando ya la economia clasica dominaba en casi toda Europa (no en Alemania o en el Imperio Austrohungaro, que al no encontrarse en la fachada Atlantica no experimentaron la fenomenologia de la misma manera, por no hablar de su constitucion tardia como Estado, y desarrollaron un tipo de conocimiento economico, el cameralismo, mas particularista y provinciano, con una vision mas integrada de las ciencias sociales y por lo tanto con un objeto menos delimitado) en su gran libro donde recopila bibliografia de corte economica en Espana (ya lo hizo antes McCulloch para UK) anadiendo breves comentarios en cada obra (en total resena unas 405 obras, que no es poco), no trata bien en general a los arbitristas. Juzgaba con la seguridad del que ha dejado atras el pasado, progresando.

Pero, luego a su vez los clasicos fueron despreciados. Todavia hoy no esta claro el status cientifico de la economia, de las ciencias sociales en general. No cabe duda de que para desenvolverse en determinadas actividades es mejor conocer sus resultados que no conocerlos. Pero proporcionan el mismo tipo de conocimientos que otro tipo de ciencias ?

Es sorprendente que todos estos procesos independientes sobre los que hablamos (secularizacion, naturalizacion, estatalizacion, desarrollismo), que parecen tener causas dispares,  se diesen en una misma ventana temporal. Ahora mismo no vemos ninguna necesidad de que esto ocurriese de esta manera.

Por supuesto, a la idea del desarrollo economico contribuyo no poco el descubrimiento de America. Por varias vias: la primera, la entrada de metales que alteraron significativamente la fenomenologia economica hasta el punto de que habia una nueva realidad que habia que explicar (para el teorico) y de la que uno podia beneficiarse (el Estado, el comerciante); de acuerdo con esto se empezo a escribir sobre estos temas de una manera diferente a como se habia realizado antes; la segunda el descubrimiento de otras sociedades, con otras formas de organizacion y en otros estadios de desarrollo. El dominio de los mares por parte de los europeos luego permitio conocer mejor otras sociedades con las cuales Europa no salia tan bien parada.

https://www.institutcoppet.org/2014/02/22/la-chine-modele-des-economistes-francais

Lo que estudiamos, el desarrollo pensamiento economico, tiene, aparentemente el problema, que se da en muchos otros fenomenos historicos: su singularidad.

Esto, y el enlace anterior, nos lleva a plantearnos una pregunta cuya respuesta no tengo clara: existio una corriente continua de pensamiento economico en China ?. Esto es especialmente relevante con respecto a la dinastia Song (durante la cual e experimentaron importantes avances tecnologicos, los mismos que fueron la base del despegue de la Modernidad en Europa). Y en la Ming hubo exploracion geografica. Lo vamos a dejar como pregunta.

. Fin de nota.

3.En esta entrada vamos a recopilar informacion que nos permita contestar a las dos preguntas que nos hemos planteado en los dos puntos anteriores. Hemos intentado combinar las dos en el titulo. Con respecto a la primera,  no nos vamos a limitar a Espana.

Claramente la economia politica fue un genero de expresion ideologica para la emergente clase burguesa de Inglaterra, que enseguida empezo a ocupar cargos publicos en el emergente Estado, pero no parece que lo fuese para el resto de Europa occidental.

En fin, los interrogantes estan claros.

Con respecto a las respuestas,

Lee el resto de esta entrada »

Trade Lane Megacities. Historia del pensamiento economico global.

mayo 9, 2018

Existen ya excelentes historias del pensamiento economico. Entre otras la seguramente insuperada de Schumpeter, autor sobre el que hemos hablado en la entrada anterior. Es un libro que siempre me hubiese gustado tener pero nunca compre. Tengo otros de la misma tematica (Barber, Emile James, Estape, Galbraith, Heilbroner, Hu Jichuang), pero…Si tengo alal menos otro libro suyo mas manejable: 10 Grandes Economistas.

Y uno de los rasgos que diferencia a Schumpeter es precisamente su apertura a corrientes de pensamiento economico no anglosajonas (aunque lamentablemente se centro en el pensamiento occidental).

El libro al que hacemos homenaje en esta entrada, de muy reciente publicacion, da un paso mas alla, como se puede ver en el indice. Obviamente es de multiples autores. Su editor es un prestigioso historiador economico.

No vamos a hacer mas comentarios, salvo el siguiente, que se refiere tambien al libro que resenamos en la entrada anterior: si esto es el postmodernismo identitario, bienvenido sea.

Hay ya version espanola.

 

Actualizacion 14 de mayo.

Finalmente he comprado el libro. Segun voy leyendo, irregular. Algunos articulos informativos, otros prescindibles. Claro, que donde no hay, dificil es sacar. Pero incluso donde hay, algunos articulos dejan que desear.

La conclusion es que me alegro de habermelo comprado. Un buen primer mapa gracias al cual se puede profundizar en las zonas mas interesantes.

Fin actualizacion.

Trade Lane Megacities. Mujeres economistas.

mayo 8, 2018

En la entrada anterior, hemos comentado de forma anecdotica que hemos sido coleccionistas de libros (fisicos)  de clasicos del pensamiento economico.

Nos costo bastante reunir la coleccion, antes de la emergencia de Internet. Ya no tienen valor…

Y entre ellos, ninguna autora…

Buscando informacion sobre Schumpeter, tan buen escritor como economista, he encontrado este enlace sobre un libro sobre mujeres economistas.

Por cierto, pensamos que Schumpeter seguramente hubiese sido todavia mejor economista si no se hubiese dedicado a sus otros grandes retos.

Nota. El estilo de Schumpeter es altamente estimulante. Tiene  pasion por el objeto que estudia y la transmite con el entusiasmo de que solo los grandes escritores son capaces.

Al margen del estilo diria que por su atencion a la innovacion / emprendiento y a la dinamica / desarrollo economico, (mas que a la estatica) tan de actualidad en este nuevo siglo, su contenido, su figura, se esta agrandando.

Dinamica y desarrollo no estan necesariamente unidos, pero pueden estarlo.  Desarrollo en economia es parecido a desarrollo en biologia: se trata de explicar en que condiciones y como emerge la sociedad compleja. Institucionalmente hablando. Que nos queda por ver en este sentido ?.

Nos da la impresion que el siglo XXI se ve ensimismado en la tecnologia, miope con respecto al desarrollo institucional. O a lo mejor ya somos un organismo maduro al que solo le queda envejecer antes de morir. Y sin embargo, como hemos argumentado en otras entradas, lo uno y lo otro acaban estando relacionados. De cualquier manera no es miopia sino ceguera. Y no es exclusiva de nuestra epoca, sino propia tambien de cualquier epoca anterior.

Dinamica es como responde esta sociedad, compleja o no, a los cambios (exogenos, endogenos). Como recupera el equilibrio (y entonces no tiene tanto que ver con el desarrollo) o avanza a un nuevo estadio (y entonces es causa de desarrollo). Dinamica por lo tanto es, siguiendo con la analogia biologica, homeostasis, fisiologia.

Ademas de su estilo y contenido, parece que tuvo una vida atipica dentro de su profesion. Volo fuera de la torre de marfil.

Fin de nota.

Todos conocemos ya grandes nombres de mujeres de otras disciplinas cientificas. He de confesar que uno, personalmente, de todos los nombres que aparecen en el indice del libro mencionado, conocia una (como economista): Joan Robinson, de la que ademas tengo un libro.

A otras las conocia como activistas o pensadoras politicas (Luxemburgo), escritoras (Pardo Bazan, que a alguno sorprendera ver aqui; Ayn Rand, a la que conocia tambien activista del individualismo capitalista), historiadoras (Grace-Hutchinson, de la que tengo un libro), o me sonaba el nombre sin saber muy bien pq (Vera Smith, Concepcion Arenal).

A  la tercera mujer de Schumpeter, que aparece, no la conocia de nada. Especialista en historia de la economia japonesa.

Hacemos la entrada como recordatorio para irlas conociendo en un futuro.

Teoria general de las criptomonedas: economia y negocios / inversion.

mayo 5, 2018

Esta es una nueva version del texto que aparecia en la postdata de la entrada anterior. Ya dijimos que seguramente hariamos una entrada especifica y eliminariamos el texto de la parte anterior.

Seguimos trabajando en el tema sobre todo en determinados puntos mas cuantitativos. La version sera definitiva cuando eliminemos estas dos ultimas frases.

Escribimos desde el smartphone. No nos resulta comodo poner acentos y a veces el corrector juega malas pasadas. Pedimos disculpas al lector por ello.

Lee el resto de esta entrada »

Trade Lane Megacities. Dubai.

mayo 3, 2018


 

IP. El caso CRISPR.

mayo 2, 2018

En esta entrada combinamos muy brevemente dos materias que nos interesan: la propiedad intelectual y la genetica / genomica (sobre la que hemos hablado en las recientes entradas).

Y lo hacemos muy brevemente. Con un enlace. 

Al parecer hay un problema de patentes de por medio. Cuando nos documentemos quizas ampliemos la entrada.

 

 

Trade Lane Megacities. El desplazamiento oeste-este de la zona de la zona de humedad longitudinal.

mayo 1, 2018

1.En este blog no nos gusta, en general, explicar la (pre) historia por el cambio cimatico.

Muy extremos tienen que ser los eventos climaticos para que afecten de manera radical a los acontecimientos humanos.

Mas cuanto mas avanzada sea tecnologicamente una sociedad. Precisamente la tecnologia es aquello que nos hace independientes de los eventos del entorno.

Dicho esto, las sociedades poco avanzadas tecnologicamente, como las del Mesolitico, las del Neolitico o incluso las del Bronce (todavia con una tecnologia bastante aparatosa) si eran mucho mas dependientes de su entorno y podrian verse afectadas radicalmente por acontecimientos climaticos.

2.Nos hacemos estas reflexiones tras las utimas lecturas (y entradas en el blog) sobre las sociedades de estas epocas.

Y segun recuerdo, las mismas reflexiones nos hicimos en una ronda de lecturas anterior de hace uno, dos o tres anos (no recuerdo bien cuando fue) pero no fuimos capaces de articular la hipotesis tal y como lo hacemos ahora.

Es muy posible que lo que nosotros, quizas ingenuamente, expresamos como hipotesis, sea ya un hecho cientifico perfectamente conocido, descubierto hace ya anos o decadas, bien por un investigador de reconocido prestigio, bien por algun cientifico ciudadano. Nos alegraria que asi fuese, pues nos ahorraria el trabajo.

O de manera alternativa es muy posible que lo que describimos no sea real. Que las fases humedas de las diferentes zonas sean independientes unas de otras, hayan tenido lugar en diferentes momentos y no tengan nada que ver con el deshielo tras el LGM.

3.La hipotesis es como sigue.

Da la impresion (impresion cuya comprobacion esperamos poder realizar en el futuro) de que en la ultima glaciacion (LGM, de momento nos olvidamos el Younger Dryas, y no pq no tuviese consecuencia) la zona de convergencia intertropical (o aquello que afecta al desarrollo de los monzones)  estaba en un estado extremo, y que a medida que este evento extremo se va superando, la zona de convergencia intertropical (o lo que sea) va pasando gradualmente a otro estado extremo, que seria el actual.

Al pasar de un estado extremo al otro, la (s) zona(s) o franja(s) digamos longitudinal de lluvias (monzonicas: atlanticas, indicas y pacificas) se ha(n) ido desplazando de este a oeste, afectando este desplazamiento a las sociedades que se cruzando por su camino. Para bien o para mal: a veces causando colapsos y migraciones, y otras lo contrario, espectaculares desarrollos civilizacionales.

Segun esto, primero fue el Sahara Humedo, luego el Levante Humedo, luego la Arabia Humeda, luego el Iran Humedo, luego el valle del Indo Humedo, y finalmente la situacion actual.

Nota. Diria que la(s) zona(s) longitudinal(es) humeda(as) no tienen exactamente una orientacion norte-sur, sino sureste-noroeste, pero tampoco lo tengo claro ahora mismo. Fin de nota.

Lo que queremos decir, expresado de manera mas abstracta, es que al pasar de un extremo al otro, hay una o varias zonas humedas longitudinales (solo en la zona intertropical ?) que se han ido desplazando de este a oeste.

Entiendo que en principio tienen que ser tres franjas, una por cada oceano.

Igual el fenomeno no es de desplazamiento oeste-este, sino mas bien de alargamiento de la franja humeda en direccion norte-sur, o una combinacion de los dos.

Dejamos aqui, expresada de manera tan aproximada (ahora mismo no recuerdo exactamente cual era la relacion de la zona de convergencia intertropical con los monzones, y como se manifiestan estos en cada uno de los oceanos) esta hipotesis, que esperamos poder comprobar en un futuro.

Segun el consenso actual, no se habria llegado al extremo. El desplazamiento sigue…

P.s. Habiamos titulado la entrada de otra manera: El desplazamiento de la zona de convergencia intertropical.

Pero lo hemos cambiado a ultima hora…

 

Trade Lane Megacities. Barreras y corredores de alcance afro-euroasiático.

abril 27, 2018

Esta entrada consta de cuatro partes.

En la primera presentamos las dos principales barreras geográficas que han limitado el movimiento de poblaciones en Afro-Eurasia. En una nota al final de esta parte profundizamos sobre la arqueologia varias zonas que se encuentran en la frontera mas activa de la primera barrera (Semireche = IAMC, Xinjiang, Fergana, Sogdiana, Bactria, Mar de Aral). Y, como no, hacemos nuestras aportaciones (aunque informadas) especulativas sobre la expansiones indo-iranias.

En la segunda complementamos o matizamos lo descrito en el primer punto, planteando algunos interrogantes.

En la tercera señalamos las diversas zonas de Eurasia dónde emergieron sociedades del Bronce sobre un trasfondo Neolítico. Hablamos de BMAC, de Jiroft, de Helmand, de IVC.

En la cuarta comentamos sobre las diversas expansiones pre-históricas e históricas que se realizaron desde Eurasia del norte hacía el este o sur, reseñando muy brevemente las diversas explicaciones que se les ha dado.

Ya hemos escrito entradas en profundidad sobre varias de estas zonas, pero siempre con una optica temporal centrada en el Hierro y en tiempos historicos. En esta entrada nos interesa mas el Neolitico y Bronce (ya hay resultados iluminadores e interesantes de arqueogenetica que van aclarando algunos de los interrogantes).

La mirada de la entrada es de águila (o de grajo, el lector dirá…), es decir, sin profundizar. Nos interesa una panorámica general en el espacio y en el tiempo.Ni aguila, ni grajo. Al final nos esta quedando de tuneladora. O de topillo. El lector dira…

Hemos actualizado una entrada el 18 de mayo de 2017 con comentarios sobre las expansiones IE, de acuerdo con las últimas publicaciones de arqueogenética.  

1.Si algo se puede concluir de los estudios arqueo-genéticos y biqo-geográficos de la especia humana realizados en los últimas décadas es que la geografía física (mares, cadenas montañosas, desiertos, grandes ríos) es una dato dado, que no podemos cambiar. Al menos así ha sido hasta ahora…

El mar ha sido la gran barrera hasta hace poco, y esto hace que hablemos de afro-eurasia, que es una unidad terrestre. Incluso costas visibles desde un lado y otro, como las que separa el Estrecho de Gibraltar, se han dado la mano en muy pocas ocasiones. Se veían, conocían su existencia pero en pocas ocasiones se ha pasado la barrera en una dirección u otra. Lo mismo podemos decir de Bab el- Mandeb.

A continuación describimos las dos mayores barreras euroasiáticas, por orden de importancia.

Primera. Dentro de la unidad terrestre que es afro-eurasia, la formidable barrera constituida por la secuencia Himalaya-Karakorum-Pamir-Tien Shan-Altai-Yablonoi ha sido sin duda la mayor mayor barrera biogeográfica. Separa Eurasia en el eje este-oeste. Al este de esta barrera las cuencas de los grandes ríos del extremo oriente que desembocan en el Pacífico: Amur, Usuri, Amarillo, Yangtsé, Perla, Hong, Mekong, etc…Estos ríos recorren tres de las cuatro penínsulas o salientes del bloque euroasiático. Birmania es una excepción pues sus cuencas desembocan en el Índico pero tiene una biogeografía humana más propia del este. Esta barrera seguramente se pasó en el paleolítico, y luego no se volvió a superar hasta bien avanzada la historia y aun así el intercambio entre las dos zonas ha sido escaso. A través de esta barrera hay varios corredores este-oeste, bien montañosos (el que recorrió la ruta de la seda en varios momentos de la historia), bien esteparios (como el corredor de Dzungaria). Ya hemos hablado sobre ellos en entradas anteriores. A toda la parte de esta barrera localizada al norte del Pamir (e incluido este) ahora se le llama IAMC (Inner Asia Mountain Corridor) y al parecer constituye una cierta unidad arqueológica desde el Bronce. Unidad que comparte con las estepas euroasiáticas de las que forma parte. Al sur del Pamir, lo que encontramos son montañas sobre todo secas, con lo cual la diferenciación está justificada. El IAMC coincide prácticamente con la provincia actual de Almaty en Kazakhstan.

Segunda. La siguiente gran barrera está unida a la anterior en su prolongación occidental y sigue una dirección este-oeste. Es la constituida por la secuencia de montañas  Hindu Kush-Spin Ghar-Koh e-Sulayman-Koh i Baba-Kopet Dag-Alborz-Gran y Pequeño Cáucaso-Cadena Póntica-Nudo Armenio-Zagros-Tauros, y los diversos desiertos que rodean algunas de estas cadenas. Esta barrera separa Eurasia del Norte de Eurasia del Sur. Al sur los grandes ríos del sur de Eurasia que desembocan en el Índico: Brahmaputra, Ganges, Indo, Tigris y Eufrates. Estos ríos recorren dos de la peninsulas del bloque euroasiático: subcontinente indio y Arabia.De nuevo aquí existen una serie de corredores naturales que hacen más fácil su paso. En estos corredores encontramos a ciudades como Mazar e-Sharif-Kabul-Pesawar, en el corredor que une el Amu Darya con el Indo o Hyderabad-Quetta-Kandahar en el que une el Indo con el Helmand (desde la depresión de Helmand se puede ir en varias direcciones), o Teheran-Hamadan-Kermanshah-Bagdad a lo largo del corredor que une BMAC con Mesopotamia (la unión de Mesopotamia con el Indo vía terrestre es mucho más compleja, o al menos yo no la conozco bien), o Tbilisi-Yerevan-Tabriz-Bagdad a lo largo del corredor que une Eurasia del norte con Eurasia del sur a través del Cáucaso (¿ cual sería la principal ciudad histórica al norte del Caúcaso que habría que añadir a estas ?. Lo ignoro ahora mismo). Nótesen las dimensiones del bloque formado por el Hindu Kush-Spin Ghar-Suleyman-Baba. El Hindu Kush supera los 7000 msnm en algunos picos, el Spin Ghar los 4000, las montañas Suleimán los 3500 y el Koh i-Baba roza los 5000 msnm. La distancia desde Zahedan hasta Gilgir es de 2000 km. Y desde Pesawar a Mazar e Sharif casi 700 km. A toda la zona situada al norte de esta barrera y al este del Caspio, se le llama ahora BMAC (Bactrio Margina Archeological Complex) o Civilización del Oxus, y se puede considerar también una unidad arqueológica. Luego fue el Khorasan. Como en el caso del IAMC, ahora estamos empezando a desvelar los secretos de su población. Al sur de esta zona el área arqueológico de Mesopotamia y IVC (Indus Valley Civilisation), ambos muy activos ya desde el neolítico. El Ganges no se desarrolló prácticamente hasta el Hierro. Como en el caso anterior, en esta encontramos diversos corredores naturales que permiten el paso norte sur, sobre los que hemos hablado en diversas entradas anteriores. Estos corredores han sido más transitados que los que superan la barrera anterior, ya desde el Neolítico.

Los dos principales corredores que unen Eurasia del Oeste con Eurasia del Este son completamente diferentes. Uno transcurre (el que pasa desde BMAC a Xinjiang), a través de desiertos, oasis y altas montañas más o menos áridas. En este caso, en las mismas latitudes, pasamos de BMAC primero a Xinjiang, luego al corredores de Gansu que deja al norte el Gobi y al sur las montañas Kunlun, y finalmente a la cuenca del río Amarillo. Es el paralelo 40º que pasa por Samarkanda y Beijing (también por Madrid :-)). El otro, el corredor de Dzungaria, que pasa de Zetisu (Semireche o Almaty) a Dzungaria y luego a la meseta de Mongolia y finalmente a la cuenca del Amur, pasa a fundamentalmente a través de estepas y altas montañas. Sigue más o menos el paralelo 45º. Notese que muy cerca del corredor este-oeste del paralelo 40º encontramos al corredor norte sur de Kabul.

Antes del dominio de los mares y océanos esta zona en torno al Pamir desde dónde se puede acceder a dos de las principales penísulas euroasiáticas era una de las más centrales de todo Afro-Eurasia. Y pensamos que la otra zona más central era la linea que va desde el norte del Caúcaso hasta el Delta del Nilo, desde dónde se puede acceder a Eurasia del Noroeste, y a dos de las penínsulas de Afro-Eurasia: Arabia y África. Entre estas dos zonas de enorme centralidad dos corredores también importantes dado que de alguna manera permiten unir estas dos zonas con tanta centralidad: el corredor digamos, de Teherán, y el corredor digamos, del Urmia. Son dos pasos norte-sur, pero que además controlan el paso terrestre más directo entre las dos zonas indicadas en dirección este-oeste. La única manera de evitar pasar por ellos era la ruta terrestre a través del sur de Irán y Baluchistán (que no sabemos si llegó a existir, y si llegó a hacerlo, que forma tuvo), o la ruta marítima a través del Golfo Pérsico y la costa de Makrán. Una vez dominados todos los océanos y mares, las zonas más centrales son tres: el entorno del Estrecho de Algeciras-Tanger, el entorno del Estrecho de Malaca, y el entorno del Istmo de Panamá. De todos los nodos principales de la ruta central, estos son los tres más importantes pues unen los océanos Indico-Mediterráneo, Atlántico-Ártico, y Pacífico. Hemos hablado largo y tendido sobre estas zonas en el blog.

Nota. IAMC, FERGANA Y ZERAFSHAN, BATRIA, XINJIANG, MAR DE ARAL.

Lee el resto de esta entrada »

Complejidad computacional. La complejidad de algunos problemas bioinformáticos.

abril 24, 2018

1.A raíz de la última entrada estoy leyendo sobre técnicas bioinformáticas.

Es interesante pues en un método bioinformático se combinan pasos puramente bioquímicos / biomoleculares, cuya lógica solo los expertos o iniciados pueden llegar a comprender con pasos puramente informáticos (que incluso alguien como el que escribe estas líneas puede llegar a comprender).

Como ejemplos de pasos u operaciones biomoleculares podemos poner los siguientes (note el lector la similitud entre algunas de las operaciones biomoleculares y los componentes de un lenguaje de programación):

–la electroforesis, que separa una cadena molecular,sea de nucleotidos, de aminoacidos o de cualquier otro tipo de componentes, en partes más pequeñas,

–el famoso PCR o la clonación molecular, que permiten replicar-multiplicar una determinada cadena molecular de manera eficiente (en este caso se considera eficiente lo exponencial),

–la sonda de hibridación, que hace las funciones de un molde que permite determinar si una determinada cadena molecular existe en una “solución” bioquímica,

–las técnicas de fluorescencia, que permiten identificar componentes de una cadena molecular o mas en general etiquetar componentes bioquimicos,

Combinando las operaciones anteriores se pueden obtener ya verdaderos “algoritmos” biomoleculares, como:

–el método de Sanger, que supone la primera generación de métodos de secuenciación: Gracias a la incorporación de las técnicas fluorescentes, el diseño de fluoróforos, el avance en enzimología y la introducción de la electroforesis capilar, el método de Sanger aumentó su eficiencia, pasando a ser conocido como el método de Sanger automatizado, y marcando el inicio de las tecnologías de secuenciación de primera generación.  

los métodos de secuenciación segunda generación (NGS), también llamados High-throughput DNA sequencing o Massively Parallel Sequencing. Desde 2010 ya se comercializan sistemas de tercera generación que obtienen reconstrucciones de genomas de mejor calidad (here we consider third generation technologies to be those capable of sequencing single molecules, negating the requirement for DNA amplification shared by all previous technologies; se trata de obtener la mayor cantidad de información posible con los pasos puramente biomoleculares directos, evitando así los pasos biomoleculares de fraccionamiento y amplificación y la cocina puramente informática asociados a ellos; se obtienen lecturas de segmentos más largos que exigen menos cocina). No tengo claro el estatus actual de esta nueva tecnología. Parece que en el momento de escribir estas líneas, al menos han encontrado su nicho. Más sobre esto en el punto  2 de esta entrada.

–el Southern Blot, método de detección de secuencias, que combina varias de las técnicas anteriores para detectar secuencias moleculares o su evolución,

–el Microarray o chip que, cómo el anterior, permite la detección de secuencias moleculares de forma masiva en paralelo, etc…).

Como se ve, las máquinas bioinformáticas, son un tipo muy diferente de máquinas a las que estamos acostumbrados a ver, y combinan ambos tipos de pasos para resolver problemas bioinformáticos. El input suele ser bioquímico / biomolecular y a lo largo del método se combinan técnicas bioquímicas e informáticas para obtener un output que suele ser puramente informático.

Hay varios tipos de problemas bioinformáticos (posiblemente un nombre mas adecuado para los temas sobre los que hablamos en esta entrada sea el de genomica computacional) que destacan sobre los demás: secuenciación de ADN (dada una molecula de adn, que es un input bioquímico, determinar su secuencia de nucleotidos, secuencia que se puede expresar como una palabra en un alfabeto de cuatro letras y por lo tanto es un output informático), alineamiento de secuencias de ADN (el alineamiento es la comparación de dos o más secuencias bioquímicas; ahora mismo no sabría expresar este problema en forma de input / output bioquímicos / informáticos), ensamblado de secuencias de ADN  (dadas una serie de secuencias, que serían el input, ensamblar un genoma completo, que sería el output),  plegamiento de proteínas (dado como input la estructura primaria de una proteina determinar su estructura terciaria, que sería el output; idem anterior). No son los únicos. Según recuerdo ya hemos comentado en algunas entradas sobre algunos de estos problemas.

He encontrado un artículo interesante sobre la complejidad computacional de los pasos puramente informáticos (a los que se puede llamar algoritmos) de los métodos bioinformáticos.

Complexity issues in computational biology
Jacek Blazewicz Marta Kasprzak∗
Institute of Computing Science, Poznan University of Technology,
and Institute of Bioorganic Chemistry, Polish Academy of Sciences, Poznan, Poland

Abstract
The progress of research in the area of computational biology, visible in last decades, brought, among others, a new insight into the complexity issues. The latter, previously studied mainly on the ground of computer science or operational research, gained by a confrontation with problems from the new area. In the paper, several complexity issues inspired by computational biology are presented.

La fecha del artículo debe de ser 2011 o 2012. Me ha interesado pues comentan que, primero, para resolver estos problemas primero se generan grafos, y segundo el problema que se debe de resolver en muchos casos es el problema de recorridos hamiltonianos.

 The paper is organized as follows. Section 2 describes several classes of graphs with the background in computational biology and their impact on computational complexity of combinatorial problems. In  Section 3 it is shown how presence or absence of experimental errors affects computational complexity of biological problems, resulting even in a distinct way of proving their NP-hardness. Similarities and differences between DNA computers and nondeterministic Turing machines are discussed in Section 4. We conclude the paper in Section 5.

Hago la entrada para leerlo con más detalle en otra ocasión. Si tras la lectura en diagonal del artículo me he enterado bien, sólo se trata de la complejidad computacional de los pasos puramente informáticos. Sin embargo entiendo que también se debe de considerar la complejidad de los pasos puramente bioquímicos. Por ejemplo el PCR hace uso de la reproducción exponencial. Dejamos este apunte sobre un tema que requiere mayor estudio.

2.Es interesante que la emergencia de la biología moderna (la biología molecular, en gran parte basada en la revolución del ADN) es casi contemporánea de la emergencia del computador electrónico.

Si un computador electrónico trata de controlar la corriente eléctrica para representar inputs y manipularla para resolver cálculos, una máquina bioinformática trata de controlar procedimientos biomoleculares / bioquímicos para resolver problemas, de momento, biológicos. Y lo hace apoyándose en la informática. En general se trata de convertir información que está en forma biomolecular o bioquímica en información puramente informática. De extraer de los objetos biologicos la información que contienen. La informática es la herramienta, el medio; la biología es el producto, el fin. De esta concepcion de la bioinformatica es de la que hablamos en esta entrada.

Nota. En realidad, al final, de lo que se trata es no solo de extraer información (de esto, gracias a los avances en los métodos que se han ido reseñando, ya hay abundantes bases de datos), sino conocimiento, entre otras para aplicaciones médicas o agroalimentarias. Y en esto la genómica sigue siendo, al parecer, una promesa. Todavía en 2018. Por supuesto con algunos éxitos, como el que hemos reseñado en la entrada anterior sobre arqueogenética.

Obviamente, el sector biotech (nuevo nombre para viejo sector) es mucho mas amplio que el sector de la genómica. Se basa en muchas otras tecnologías, se utilizan muchos otros tipos de máquinas,  y está muy sano. Fin de nota.

Por otra parte, como el lector sabe, la idea de controlar procesos bioquímicos para resolver problemas que no tienen nada que ver con la biología ya existe y se llama biocomputación, cosa muy diferente a la bioinformática. En el caso de la biocomputación, representamos un problema cualquiera en forma bioquímica, y se utilizan métodos bioquímicos (y entiendo que también informáticos) para resolverlos. El output será una forma bioquímica que podemos traducir fácilmente a una forma informática. La biología es la herramienta, el medio; el tratamiento de la información (el calculo)  es el producto, el fin. Este campo de la biocomputación sigue, al parecer, avanzando (resultado de 2013, en el que hablan de las Bil Gates) y avanzando (resultado de 2016, según un artículo periodístico, y el correspondiente artículo técnico: Parallel computing with molecular motor-propelled agents in nanofabricated networksBy Dan V. Nicolau, Jr et al. 2016. PNAS), pero no sabemos si ya hay una industria vinculada a estos avances. Quizás se necesite un idem para ello. Al margen de estos proyectos biocomputacionales, es posible que los actuales bioinformáticos estén ahora mismo, sin saberlo, con fines puramente biológicos, diseñando las herramientas que se utilizarán en los biocomputadores (sin finalmente esta tecnología se acaba adoptando).

Nota. La terminología no está del todo clara, como queda patente en este artículo. Fin de nota.

En fin, como hemos visto en el primer punto, las máquinas bioinformáticas son producto de la convergencia de estos dos campos, la biología molecular y la ingeniería electrónica. A continuación compilamos algunos artículos que nos cuentan como ambos llegaron a converger y sobre la organización de este sector económico, según vayamos encontrando. Es curioso ver que aunque los dos campos convergen, siguen siendo compartimentos estancos: por ejemplo, diría que los algoritmos de bioinformática y sus autores son poco conocidos entre los informáticos.

–The origins of bioinformatics.

Abstract

Bioinformatics is often described as being in its infancy, but computers emerged as important tools in molecular biology during the early 1960s. A decade before DNA sequencing became feasible, computational biologists focused on the rapidly accumulating data from protein biochemistry. Without the benefits of super computers or computer networks, these scientists laid important conceptual and technical foundations for bioinformatics today.

–uno de los subcampos de la bioinformática son las bases de datos de objetos biológicos como genes (secuencias de nucleótidos), proteínas (secuencias de aminoácidos) etc…y su fácil manipulación (de las bases de datos). La pionera en este campo fue Margaret Dayhoff , cuyo primer contacto con un sistema informático fue en 1957. En  1962 co-publicó un artículo entitled “COMPROTEIN: A computer program to aid primary protein structure determination” that described a “completed computer program for the IBM 7090” that aimed to convert peptide digests to protein chain data. They actually began this work in 1958, but were not able to start programming until late 1960.

–1970. Algoritmo de Needleman-Wunsch para alineamiento de secuencias de nucleotidos. Basado en programacion dinamica.

–1973, Edwin Southern crea el método Southern blot. En este artículo analizan el tema desde el punto de vista de la propiedad intelectual y del emprendimiento: Southern era academico, cedio al dominio publico su invención (no tenía más remedio), pero en 1995, cuando cambió la actitud con respecto al emprendimiento por parte de académicos creó una biotech, Oxford Gene Technology.

–1976-1977. Método (biomolecular) de secuenciación Maxam-Gilbert.  Allan Maxam and Walter Gilbert’s 1977 paper “A new method for sequencing DNA” Es el primer método de la primera generación.  Gilbert recibió el Premio Nobel por este método. Maxam era un estudiante de doctorado de Gilbert.

–1977. Frederick Sanger desarrolla el método (biomolecular) de secuenciación que lleva su nombre. Es de los pocos investigadores que ha recibido dos premios Nobel. Uno por secuenciar proteinas (insulina). Otro por secuenciar ADN (phi x 174) y por el método de secuenciación que lleva su nombre.

Como se ve la obtención de las primeras secuencias se hizo de manera artesanal. Pero en los 70 las necesidad de métodos generales y rápidos de secuenciación: The first method for determining DNA sequences involved a location-specific primer extension strategy established by Ray Wu at Cornell University in 1970.[14] DNA polymerase catalysis and specific nucleotide labeling, both of which figure prominently in current sequencing schemes, were used to sequence the cohesive ends of lambda phage DNA.[15][16][17] Between 1970 and 1973, Wu, R Padmanabhan and colleagues demonstrated that this method can be employed to determine any DNA sequence using synthetic location-specific primers.[18][19][20] Frederick Sanger then adopted this primer-extension strategy to develop more rapid DNA sequencing methods at the MRC CentreCambridge, UK and published a method for “DNA sequencing with chain-terminating inhibitors” in 1977.[21] Walter Gilbert and Allan Maxam at Harvard also developed sequencing methods, including one for “DNA sequencing by chemical degradation”. 

–1979. Artículo de Rodger Staden. Presenta un primer programa de secuenciación de ADN. Al parecer se sigue utilizando. 

–1981. Algoritmo de Smith-Waterman. Para alineamiento de secuencias. Basado en programacion dinamica.

–1990. BLAST. Heuristica para búsqueda de secuencias en bases de datos. Varios autores. Se parte de una secuencia lineal y completa dada y se buscan secuencias lineales y completas similares disponibles en las bases de datos disponibles. Es una variante del problema de alineamiento.

–1994. Transformada (algoritmo) de alineación Burrows-Wheeler. Método de compresión que combinado con otros métodos se utiliza para alineamiento o mapeado de lecturas (que suponen un muestreo del genoma completo secuenciado por NGS). Esta es otra variante del problema de alineamiento. En este caso el input es por un lado una secuencia de referencia en forma lineal y completa (por ejemplo un genoma completo humano obtenido anteriormente y disponible en alguna base de datos) y por otro lado un conjunto de “lecturas” (palabra técnica) obtenido al aplicar un método NGS. Esta alineación o mapeado es otra operación básica, consecutiva a la secuenciación NGS, que se utiliza como paso previo para otros objetivos de mayor contenido biológico (genotipado, asignación de SNPs, obtención del exoma etc…). El conjunto de lecturas suponen una muestra del genoma secuenciado y mapeando esta muestra al genoma de referencia podemos obtener estos otros objetivos.  En este caso los creadores de la transformada eran informáticos y su objetivo no era bioinformático. Existe una implementación optimizada de este método llamada BWA, que es muy utilizada. Pero hay otros muchos métodos

Secuenciación de genomas. Historia, estado del arte y futuro. La secuenciación de genomas (o proteinas) es el campo dónde más se pone de manifiesto la interacción entre lo biomolecular y lo informático. Proporciona la materia prima (secuencias de nucleotidos o de aminoacidos) que luego se va a utilizar en todos los otros métodos. Por ello se ha invertido mucho esfuerzo en obtener métodos rápidos y económicos, con éxito. Como hemos visto a mediados de los 90, y más todavía en los 2000 se pasa de necesitar métodos rápidos (que es lo que proporcionan las técnicas de primera generación)  a necesitar métodos industriales, de un rendimiento de una escala mucho mayor, y se obtienen los métodos ya comentados como el Microarray o los NGS. Hoy abundan los métodos de secuenciación. Y ya se puede escribir una historia sobre el tema, ordenada por generaciones de secuenciadores.

Esto es lo que han realizado en este interesante artículo. : The sequence of sequencers. History of sequencing DNA (2015).    Extracto: We review the drastic changes to DNA sequencing technology over the last 50 years. First-generation methods enabled sequencing of clonal DNA populations. The second-generation massively increased throughput by parallelizing many reactions. Third-generation methods allow direct sequencing of single DNA molecules.

Lo mismo hacen en este artículo de Nature de 2017. DNA sequencing at 40: past, present and future. This review commemorates the 40th anniversary of DNA sequencing, a period in which we have already witnessed multiple technological revolutions and a growth in scale from a few kilobases to the first human genome, and now to millions of human and a myriad of other genomes. DNA sequencing has been extensively and creatively repurposed, including as a ‘counter’ for a vast range of molecular phenomena. We predict that in the long view of history, the impact of DNA sequencing will be on a par with that of the microscope.

En este enlace una presentación bastante técnica y de 2013 sobre las tecnologías de secuenciación.

Y en este muy interesante artículo de 2017, escrito por un experto, aunque en un estilo periodístico, nos comentan sobre la organización industrial del sector y sobre los proyectos publicos o privados de genómica alcance nacional presentando una serie de datos muy interesantes:  The next generation sequencing (NGS) market, including but not limited to WGS, was valuedat €4.6Bn in 2015 and is expected to reach €19Bn by 2020. Many private companies, such as Illumina, Roche, Life Technologies and Pacific Biosciences, are rushing into NGS to answer the rising sequencing needs…../…..Back in 2003, the International Human Genome Sequencing Consortium kicked-off the genome analysis race by sequencing a complete human genome after years of worldwide collaboration and billions of investment. A few years later, the price of WGS reached $1,000. According to Illumina, it is “expected one day” that whole genome sequencing will cost less than $100. On one hand, pocket NGS is not yet practical or economical. On the other hand, most available equipment is still quite expensive. For example, Illumina’s NovaSeq 5000 costs around €800,000 and a NovaSeq 6000 reaches almost €1M…./….In 2016, France announced the “France Medecine Genomique 2025” program, aiming to open 12 sequencing centers and ensure 235,000 WGS a year. The French government is planning to inject €670M in this program, whose main aim is to use WGS as a diagnostics tool. Last but not least, China has been an unbeatable leader in genome sequencing for years now. In 2010, the BGI genomics institute in Shenzhen was probably hosting a higher sequencing capacity than that of the entire United States. China’s sequencing program is not just aiming for thousands but rather one million human genomes and will include subgroups of 50,000 people, each with specific conditions such as cancer or metabolic disease. There will also be cohorts from different regions of China “to look at the different genetic backgrounds of subpopulations.”…../…..It is difficult to anticipate the impact of WGS in modern medicine, but ethical issues regarding privacy of health data have already emerged. It is obvious that no one would like to see GAFA (Google, Apple, Facebook, Amazon) selling genome data as they are probably already doingwith personal data from their users.

Un muy interesante artículo sobre las fuerzas que están presionando los costes de secuenciación de genomas a la baja. Al principio nos ilustran a viste de pájaro sobre el desarrollo del sector: In the 1950s, the contemporaneous development of biopolymer sequencing and the digital computer started a digital revolution in the biosciences. Then in the late 1970s, the advent of the personal computer (PC) and Sanger sequencing led to an appreciable amount of sequence data being generated, stored in databases, and conceptualized within a computational framework [1234]. Communal sequence databases were developed in the 1980s [56], but most investigators worked with data of a scale that allowed transfer to and processing on a local client. In the 1990s, the rise of the Internet facilitated increased data sharing, and analysis techniques began to shift to programs hosted on websites [7]. In the mid-2000s, the most recent big change occurred with the advent of cloud computing and next generation sequencing (NGS), which led to a dramatic increase in the scale of datasets (Fig 1) [48]. This necessitated changes in the storage infrastructure; databases such as the European Nucleotide Archive [9] and the Sequence Read Archive (SRA) [10] were created to store and organize high-throughput sequencing data. The SRA has grown significantly since its creation in 2007, and it now contains almost four petabases (4 × 1015 bases), approximately half of which are open access [11]. These datasets present a challenge because they are too large for the old sharing and analysis paradigms, but recent innovations in computational technologies and approaches, especially the rise of cloud computing, provide promising avenues for handling the vast amounts of sequence data being generated.

–A diferencia de los métodos de secuenciación que combinan pasos biomoleculares con pasos puramente informáticos, los métodos de solución del problema de alineamiento NGS (por llamarlo de alguna manera, el lector comprenderá) son puramente informáticos. En la introducción de este artículo dónde hablan de un nuevo algoritmo llamado Kart, nos hacen una buena presentación de la situación a vista de pájaro:

Next-generation sequencing (NGS) allows biologists to investigate genome-wide variation at nucleotide resolution. It has contributed to numerous ground-breaking discoveries and become a very popular technique for sequencing DNA and characterizing genetic variations in populations. Since new sequencing technologies can produce reads on the order of million/billion base-pairs in a single day, many NGS applications require very fast alignment algorithms. The traditional sequence alignment approaches, like BLAST (Altschul et al., 1990) or BLAT (Kent, 2002), are unable to deal with the huge amount of short reads efficiently. Consequently, many aligners for NGS short reads have been developed in recent years. They can be classified into two categories according to their indexing methods: hash tables and suffix array/BWT. A hash table based aligner uses all the subsequences of k-mers to obtain the occurrence locations. In contrast, a suffix array/BWT based aligner finds the maximal exact matches (MEM) between the read sequence and the reference genome. Each category of read aligners has its own merits and deficiencies. However, suffix array/BWT based aligners are more popular due to the efficiency of memory consumption.

Aligners based on hash tables include CloudBurst (Schatz, 2009), Eland (proprietary), MAQ (Li et al., 2008a), RMAP (Smith et al., 2008), SeqMap (Jiang and Wong, 2008), SHRiMP (Rumble et al., 2009), ZOOM (Lin et al., 2008), BFAST (Homer et al., 2009), NovoAlign (proprietary), SSAHA (Ning et al., 2001), and SOAPv1 (Li et al., 2008b). Most hash table based aligners essentially follow the same seed-and-extend strategy (Li and Homer, 2010). A representative algorithm of this strategy is BLAST. BLAST keeps the occurrence locations of each k-mer of the database sequences in a hash table and then uses the given query’s k-mers to scan and find exact matches by looking up the hash table. An exact match is used as a seed to extend the alignment using Smith-Waterman algorithm between the query and the reference sequence.

Aligners based on suffix array or using Burrorws-Wheeler transform (BWT) (Wheeler, 1994) include Bowtie (Langmead and Salzberg, 2012Langmead et al., 2009), BWA (Li and Durbin, 2009), BWA-SW (Li and Durbin, 2010), BWA-MEM (Heng Li), SOAPv2 (Li et al., 2009), CUSHAW (Liu et al., 2012), Subread (Liao et al., 2013), HISAT/HISAT2 (Kim et al., 2015), HPG-aligner (Tarraga et al., 2014)and segemehl (Hoffmann et al., 2009). Most aligners in this category rely on a suffix array to identify the maximal exact matches (called MEMs) and then build alignments based on the exact matches, which is also similar to the seed-and-extend methodology. One exception is the Subread aligner, which adopts a seed-and-vote step to determine the mapped genomic location with multiple seeds from a read sequence. The major advantage of using suffix arrays is that repetitive subsequences need to be aligned only once because they are collapsed onto a single path (Li and Homer, 2010).

Though current short read aligners provide solutions for mapping the massive amount of read sequences produced by NGS technologies, some are not fast enough and some are not accurate enough. Moreover, the third generation sequencing technologies raise further challenges for data analysis, namely, extremely long read sequences and much higher error rate. For example, the PacBio RS II system can generate reads in the length of 5500–8500 bp on average, but the single-read accuracy is only about 87%. Most short read aligners have difficulty in processing those read sequences.

–Como estamos viendo, la algorítmica vinculada a problemas de genómica NGS es bastante nueva, pero la temática ya da para escribir un libro (2017): Algorithms for Next-Generation Sequencing Data: Techniques, Approaches, and applications. Mourad Elloumi.  Tiene una parte de indexado, compresión y almacenaje; una parte de métodos de corrección de errores; una parte para los algoritmos de alineación NGS; y una parte para los algoritmos de ensamblado.

–La bioinformática (y más en concreto la genómica computacional), no se reducen a los métodos de secuenciación. Una buena presentación de la situación actual de la bioinformática.

un informe sobre la situación de la genética clínica y genómica en España.