Archive for the ‘BIOLOGIA’ Category

Trade Lane Megacities. Barreras y corredores de alcance afro-euroasiático.

abril 27, 2018

Esta entrada consta de cuatro partes.

En la primera presentamos las dos principales barreras geográficas que han limitado el movimiento de poblaciones en Afro-Eurasia. En una nota al final de esta parte profundizamos sobre la arqueologia varias zonas que se encuentran en la frontera mas activa de la primera barrera (Semireche = IAMC, Xinjiang, Fergana, Sogdiana, Bactria, Mar de Aral). Y, como no, hacemos nuestras aportaciones (aunque informadas) especulativas sobre la expansiones indo-iranias.

En la segunda complementamos o matizamos lo descrito en el primer punto, planteando algunos interrogantes.

En la tercera señalamos las diversas zonas de Eurasia dónde emergieron sociedades del Bronce sobre un trasfondo Neolítico. Hablamos de BMAC, de Jiroft, de Helmand, de IVC.

En la cuarta comentamos sobre las diversas expansiones pre-históricas e históricas que se realizaron desde Eurasia del norte hacía el este o sur, reseñando muy brevemente las diversas explicaciones que se les ha dado.

Ya hemos escrito entradas en profundidad sobre varias de estas zonas, pero siempre con una optica temporal centrada en el Hierro y en tiempos historicos. En esta entrada nos interesa mas el Neolitico y Bronce (ya hay resultados iluminadores e interesantes de arqueogenetica que van aclarando algunos de los interrogantes).

La mirada de la entrada es de águila (o de grajo, el lector dirá…), es decir, sin profundizar. Nos interesa una panorámica general en el espacio y en el tiempo.Ni aguila, ni grajo. Al final nos esta quedando de tuneladora. O de topillo. El lector dira…

Hemos actualizado una entrada el 18 de mayo de 2017 con comentarios sobre las expansiones IE, de acuerdo con las últimas publicaciones de arqueogenética.  

1.Si algo se puede concluir de los estudios arqueo-genéticos y biqo-geográficos de la especia humana realizados en los últimas décadas es que la geografía física (mares, cadenas montañosas, desiertos, grandes ríos) es una dato dado, que no podemos cambiar. Al menos así ha sido hasta ahora…

El mar ha sido la gran barrera hasta hace poco, y esto hace que hablemos de afro-eurasia, que es una unidad terrestre. Incluso costas visibles desde un lado y otro, como las que separa el Estrecho de Gibraltar, se han dado la mano en muy pocas ocasiones. Se veían, conocían su existencia pero en pocas ocasiones se ha pasado la barrera en una dirección u otra. Lo mismo podemos decir de Bab el- Mandeb.

A continuación describimos las dos mayores barreras euroasiáticas, por orden de importancia.

Primera. Dentro de la unidad terrestre que es afro-eurasia, la formidable barrera constituida por la secuencia Himalaya-Karakorum-Pamir-Tien Shan-Altai-Yablonoi ha sido sin duda la mayor mayor barrera biogeográfica. Separa Eurasia en el eje este-oeste. Al este de esta barrera las cuencas de los grandes ríos del extremo oriente que desembocan en el Pacífico: Amur, Usuri, Amarillo, Yangtsé, Perla, Hong, Mekong, etc…Estos ríos recorren tres de las cuatro penínsulas o salientes del bloque euroasiático. Birmania es una excepción pues sus cuencas desembocan en el Índico pero tiene una biogeografía humana más propia del este. Esta barrera seguramente se pasó en el paleolítico, y luego no se volvió a superar hasta bien avanzada la historia y aun así el intercambio entre las dos zonas ha sido escaso. A través de esta barrera hay varios corredores este-oeste, bien montañosos (el que recorrió la ruta de la seda en varios momentos de la historia), bien esteparios (como el corredor de Dzungaria). Ya hemos hablado sobre ellos en entradas anteriores. A toda la parte de esta barrera localizada al norte del Pamir (e incluido este) ahora se le llama IAMC (Inner Asia Mountain Corridor) y al parecer constituye una cierta unidad arqueológica desde el Bronce. Unidad que comparte con las estepas euroasiáticas de las que forma parte. Al sur del Pamir, lo que encontramos son montañas sobre todo secas, con lo cual la diferenciación está justificada. El IAMC coincide prácticamente con la provincia actual de Almaty en Kazakhstan.

Segunda. La siguiente gran barrera está unida a la anterior en su prolongación occidental y sigue una dirección este-oeste. Es la constituida por la secuencia de montañas  Hindu Kush-Spin Ghar-Koh e-Sulayman-Koh i Baba-Kopet Dag-Alborz-Gran y Pequeño Cáucaso-Cadena Póntica-Nudo Armenio-Zagros-Tauros, y los diversos desiertos que rodean algunas de estas cadenas. Esta barrera separa Eurasia del Norte de Eurasia del Sur. Al sur los grandes ríos del sur de Eurasia que desembocan en el Índico: Brahmaputra, Ganges, Indo, Tigris y Eufrates. Estos ríos recorren dos de la peninsulas del bloque euroasiático: subcontinente indio y Arabia.De nuevo aquí existen una serie de corredores naturales que hacen más fácil su paso. En estos corredores encontramos a ciudades como Mazar e-Sharif-Kabul-Pesawar, en el corredor que une el Amu Darya con el Indo o Hyderabad-Quetta-Kandahar en el que une el Indo con el Helmand (desde la depresión de Helmand se puede ir en varias direcciones), o Teheran-Hamadan-Kermanshah-Bagdad a lo largo del corredor que une BMAC con Mesopotamia (la unión de Mesopotamia con el Indo vía terrestre es mucho más compleja, o al menos yo no la conozco bien), o Tbilisi-Yerevan-Tabriz-Bagdad a lo largo del corredor que une Eurasia del norte con Eurasia del sur a través del Cáucaso (¿ cual sería la principal ciudad histórica al norte del Caúcaso que habría que añadir a estas ?. Lo ignoro ahora mismo). Nótesen las dimensiones del bloque formado por el Hindu Kush-Spin Ghar-Suleyman-Baba. El Hindu Kush supera los 7000 msnm en algunos picos, el Spin Ghar los 4000, las montañas Suleimán los 3500 y el Koh i-Baba roza los 5000 msnm. La distancia desde Zahedan hasta Gilgir es de 2000 km. Y desde Pesawar a Mazar e Sharif casi 700 km. A toda la zona situada al norte de esta barrera y al este del Caspio, se le llama ahora BMAC (Bactrio Margina Archeological Complex) o Civilización del Oxus, y se puede considerar también una unidad arqueológica. Luego fue el Khorasan. Como en el caso del IAMC, ahora estamos empezando a desvelar los secretos de su población. Al sur de esta zona el área arqueológico de Mesopotamia y IVC (Indus Valley Civilisation), ambos muy activos ya desde el neolítico. El Ganges no se desarrolló prácticamente hasta el Hierro. Como en el caso anterior, en esta encontramos diversos corredores naturales que permiten el paso norte sur, sobre los que hemos hablado en diversas entradas anteriores. Estos corredores han sido más transitados que los que superan la barrera anterior, ya desde el Neolítico.

Los dos principales corredores que unen Eurasia del Oeste con Eurasia del Este son completamente diferentes. Uno transcurre (el que pasa desde BMAC a Xinjiang), a través de desiertos, oasis y altas montañas más o menos áridas. En este caso, en las mismas latitudes, pasamos de BMAC primero a Xinjiang, luego al corredores de Gansu que deja al norte el Gobi y al sur las montañas Kunlun, y finalmente a la cuenca del río Amarillo. Es el paralelo 40º que pasa por Samarkanda y Beijing (también por Madrid :-)). El otro, el corredor de Dzungaria, que pasa de Zetisu (Semireche o Almaty) a Dzungaria y luego a la meseta de Mongolia y finalmente a la cuenca del Amur, pasa a fundamentalmente a través de estepas y altas montañas. Sigue más o menos el paralelo 45º. Notese que muy cerca del corredor este-oeste del paralelo 40º encontramos al corredor norte sur de Kabul.

Antes del dominio de los mares y océanos esta zona en torno al Pamir desde dónde se puede acceder a dos de las principales penísulas euroasiáticas era una de las más centrales de todo Afro-Eurasia. Y pensamos que la otra zona más central era la linea que va desde el norte del Caúcaso hasta el Delta del Nilo, desde dónde se puede acceder a Eurasia del Noroeste, y a dos de las penínsulas de Afro-Eurasia: Arabia y África. Entre estas dos zonas de enorme centralidad dos corredores también importantes dado que de alguna manera permiten unir estas dos zonas con tanta centralidad: el corredor digamos, de Teherán, y el corredor digamos, del Urmia. Son dos pasos norte-sur, pero que además controlan el paso terrestre más directo entre las dos zonas indicadas en dirección este-oeste. La única manera de evitar pasar por ellos era la ruta terrestre a través del sur de Irán y Baluchistán (que no sabemos si llegó a existir, y si llegó a hacerlo, que forma tuvo), o la ruta marítima a través del Golfo Pérsico y la costa de Makrán. Una vez dominados todos los océanos y mares, las zonas más centrales son tres: el entorno del Estrecho de Algeciras-Tanger, el entorno del Estrecho de Malaca, y el entorno del Istmo de Panamá. De todos los nodos principales de la ruta central, estos son los tres más importantes pues unen los océanos Indico-Mediterráneo, Atlántico-Ártico, y Pacífico. Hemos hablado largo y tendido sobre estas zonas en el blog.

Nota. IAMC, FERGANA Y ZERAFSHAN, BATRIA, XINJIANG, MAR DE ARAL.

(more…)

Anuncios

Complejidad computacional. La complejidad de algunos problemas bioinformáticos.

abril 24, 2018

1.A raíz de la última entrada estoy leyendo sobre técnicas bioinformáticas.

Es interesante pues en un método bioinformático se combinan pasos puramente bioquímicos / biomoleculares, cuya lógica solo los expertos o iniciados pueden llegar a comprender con pasos puramente informáticos (que incluso alguien como el que escribe estas líneas puede llegar a comprender).

Como ejemplos de pasos u operaciones biomoleculares podemos poner los siguientes (note el lector la similitud entre algunas de las operaciones biomoleculares y los componentes de un lenguaje de programación):

–la electroforesis, que separa una cadena molecular,sea de nucleotidos, de aminoacidos o de cualquier otro tipo de componentes, en partes más pequeñas,

–el famoso PCR o la clonación molecular, que permiten replicar-multiplicar una determinada cadena molecular de manera eficiente (en este caso se considera eficiente lo exponencial),

–la sonda de hibridación, que hace las funciones de un molde que permite determinar si una determinada cadena molecular existe en una “solución” bioquímica,

–las técnicas de fluorescencia, que permiten identificar componentes de una cadena molecular o mas en general etiquetar componentes bioquimicos,

Combinando las operaciones anteriores se pueden obtener ya verdaderos “algoritmos” biomoleculares, como:

–el método de Sanger, que supone la primera generación de métodos de secuenciación: Gracias a la incorporación de las técnicas fluorescentes, el diseño de fluoróforos, el avance en enzimología y la introducción de la electroforesis capilar, el método de Sanger aumentó su eficiencia, pasando a ser conocido como el método de Sanger automatizado, y marcando el inicio de las tecnologías de secuenciación de primera generación.  

los métodos de secuenciación segunda generación (NGS), también llamados High-throughput DNA sequencing o Massively Parallel Sequencing. Desde 2010 ya se comercializan sistemas de tercera generación que obtienen reconstrucciones de genomas de mejor calidad (here we consider third generation technologies to be those capable of sequencing single molecules, negating the requirement for DNA amplification shared by all previous technologies; se trata de obtener la mayor cantidad de información posible con los pasos puramente biomoleculares directos, evitando así los pasos biomoleculares de fraccionamiento y amplificación y la cocina puramente informática asociados a ellos; se obtienen lecturas de segmentos más largos que exigen menos cocina). No tengo claro el estatus actual de esta nueva tecnología. Parece que en el momento de escribir estas líneas, al menos han encontrado su nicho. Más sobre esto en el punto  2 de esta entrada.

–el Southern Blot, método de detección de secuencias, que combina varias de las técnicas anteriores para detectar secuencias moleculares o su evolución,

–el Microarray o chip que, cómo el anterior, permite la detección de secuencias moleculares de forma masiva en paralelo, etc…).

Como se ve, las máquinas bioinformáticas, son un tipo muy diferente de máquinas a las que estamos acostumbrados a ver, y combinan ambos tipos de pasos para resolver problemas bioinformáticos. El input suele ser bioquímico / biomolecular y a lo largo del método se combinan técnicas bioquímicas e informáticas para obtener un output que suele ser puramente informático.

Hay varios tipos de problemas bioinformáticos (posiblemente un nombre mas adecuado para los temas sobre los que hablamos en esta entrada sea el de genomica computacional) que destacan sobre los demás: secuenciación de ADN (dada una molecula de adn, que es un input bioquímico, determinar su secuencia de nucleotidos, secuencia que se puede expresar como una palabra en un alfabeto de cuatro letras y por lo tanto es un output informático), alineamiento de secuencias de ADN (el alineamiento es la comparación de dos o más secuencias bioquímicas; ahora mismo no sabría expresar este problema en forma de input / output bioquímicos / informáticos), ensamblado de secuencias de ADN  (dadas una serie de secuencias, que serían el input, ensamblar un genoma completo, que sería el output),  plegamiento de proteínas (dado como input la estructura primaria de una proteina determinar su estructura terciaria, que sería el output; idem anterior). No son los únicos. Según recuerdo ya hemos comentado en algunas entradas sobre algunos de estos problemas.

He encontrado un artículo interesante sobre la complejidad computacional de los pasos puramente informáticos (a los que se puede llamar algoritmos) de los métodos bioinformáticos.

Complexity issues in computational biology
Jacek Blazewicz Marta Kasprzak∗
Institute of Computing Science, Poznan University of Technology,
and Institute of Bioorganic Chemistry, Polish Academy of Sciences, Poznan, Poland

Abstract
The progress of research in the area of computational biology, visible in last decades, brought, among others, a new insight into the complexity issues. The latter, previously studied mainly on the ground of computer science or operational research, gained by a confrontation with problems from the new area. In the paper, several complexity issues inspired by computational biology are presented.

La fecha del artículo debe de ser 2011 o 2012. Me ha interesado pues comentan que, primero, para resolver estos problemas primero se generan grafos, y segundo el problema que se debe de resolver en muchos casos es el problema de recorridos hamiltonianos.

 The paper is organized as follows. Section 2 describes several classes of graphs with the background in computational biology and their impact on computational complexity of combinatorial problems. In  Section 3 it is shown how presence or absence of experimental errors affects computational complexity of biological problems, resulting even in a distinct way of proving their NP-hardness. Similarities and differences between DNA computers and nondeterministic Turing machines are discussed in Section 4. We conclude the paper in Section 5.

Hago la entrada para leerlo con más detalle en otra ocasión. Si tras la lectura en diagonal del artículo me he enterado bien, sólo se trata de la complejidad computacional de los pasos puramente informáticos. Sin embargo entiendo que también se debe de considerar la complejidad de los pasos puramente bioquímicos. Por ejemplo el PCR hace uso de la reproducción exponencial. Dejamos este apunte sobre un tema que requiere mayor estudio.

2.Es interesante que la emergencia de la biología moderna (la biología molecular, en gran parte basada en la revolución del ADN) es casi contemporánea de la emergencia del computador electrónico.

Si un computador electrónico trata de controlar la corriente eléctrica para representar inputs y manipularla para resolver cálculos, una máquina bioinformática trata de controlar procedimientos biomoleculares / bioquímicos para resolver problemas, de momento, biológicos. Y lo hace apoyándose en la informática. En general se trata de convertir información que está en forma biomolecular o bioquímica en información puramente informática. De extraer de los objetos biologicos la información que contienen. La informática es la herramienta, el medio; la biología es el producto, el fin. De esta concepcion de la bioinformatica es de la que hablamos en esta entrada.

Nota. En realidad, al final, de lo que se trata es no solo de extraer información (de esto, gracias a los avances en los métodos que se han ido reseñando, ya hay abundantes bases de datos), sino conocimiento, entre otras para aplicaciones médicas o agroalimentarias. Y en esto la genómica sigue siendo, al parecer, una promesa. Todavía en 2018. Por supuesto con algunos éxitos, como el que hemos reseñado en la entrada anterior sobre arqueogenética.

Obviamente, el sector biotech (nuevo nombre para viejo sector) es mucho mas amplio que el sector de la genómica. Se basa en muchas otras tecnologías, se utilizan muchos otros tipos de máquinas,  y está muy sano. Fin de nota.

Por otra parte, como el lector sabe, la idea de controlar procesos bioquímicos para resolver problemas que no tienen nada que ver con la biología ya existe y se llama biocomputación, cosa muy diferente a la bioinformática. En el caso de la biocomputación, representamos un problema cualquiera en forma bioquímica, y se utilizan métodos bioquímicos (y entiendo que también informáticos) para resolverlos. El output será una forma bioquímica que podemos traducir fácilmente a una forma informática. La biología es la herramienta, el medio; el tratamiento de la información (el calculo)  es el producto, el fin. Este campo de la biocomputación sigue, al parecer, avanzando (resultado de 2013, en el que hablan de las Bil Gates) y avanzando (resultado de 2016, según un artículo periodístico, y el correspondiente artículo técnico: Parallel computing with molecular motor-propelled agents in nanofabricated networksBy Dan V. Nicolau, Jr et al. 2016. PNAS), pero no sabemos si ya hay una industria vinculada a estos avances. Quizás se necesite un idem para ello. Al margen de estos proyectos biocomputacionales, es posible que los actuales bioinformáticos estén ahora mismo, sin saberlo, con fines puramente biológicos, diseñando las herramientas que se utilizarán en los biocomputadores (sin finalmente esta tecnología se acaba adoptando).

Nota. La terminología no está del todo clara, como queda patente en este artículo. Fin de nota.

En fin, como hemos visto en el primer punto, las máquinas bioinformáticas son producto de la convergencia de estos dos campos, la biología molecular y la ingeniería electrónica. A continuación compilamos algunos artículos que nos cuentan como ambos llegaron a converger y sobre la organización de este sector económico, según vayamos encontrando. Es curioso ver que aunque los dos campos convergen, siguen siendo compartimentos estancos: por ejemplo, diría que los algoritmos de bioinformática y sus autores son poco conocidos entre los informáticos.

–The origins of bioinformatics.

Abstract

Bioinformatics is often described as being in its infancy, but computers emerged as important tools in molecular biology during the early 1960s. A decade before DNA sequencing became feasible, computational biologists focused on the rapidly accumulating data from protein biochemistry. Without the benefits of super computers or computer networks, these scientists laid important conceptual and technical foundations for bioinformatics today.

–uno de los subcampos de la bioinformática son las bases de datos de objetos biológicos como genes (secuencias de nucleótidos), proteínas (secuencias de aminoácidos) etc…y su fácil manipulación (de las bases de datos). La pionera en este campo fue Margaret Dayhoff , cuyo primer contacto con un sistema informático fue en 1957. En  1962 co-publicó un artículo entitled “COMPROTEIN: A computer program to aid primary protein structure determination” that described a “completed computer program for the IBM 7090” that aimed to convert peptide digests to protein chain data. They actually began this work in 1958, but were not able to start programming until late 1960.

–1970. Algoritmo de Needleman-Wunsch para alineamiento de secuencias de nucleotidos. Basado en programacion dinamica.

–1973, Edwin Southern crea el método Southern blot. En este artículo analizan el tema desde el punto de vista de la propiedad intelectual y del emprendimiento: Southern era academico, cedio al dominio publico su invención (no tenía más remedio), pero en 1995, cuando cambió la actitud con respecto al emprendimiento por parte de académicos creó una biotech, Oxford Gene Technology.

–1976-1977. Método (biomolecular) de secuenciación Maxam-Gilbert.  Allan Maxam and Walter Gilbert’s 1977 paper “A new method for sequencing DNA” Es el primer método de la primera generación.  Gilbert recibió el Premio Nobel por este método. Maxam era un estudiante de doctorado de Gilbert.

–1977. Frederick Sanger desarrolla el método (biomolecular) de secuenciación que lleva su nombre. Es de los pocos investigadores que ha recibido dos premios Nobel. Uno por secuenciar proteinas (insulina). Otro por secuenciar ADN (phi x 174) y por el método de secuenciación que lleva su nombre.

Como se ve la obtención de las primeras secuencias se hizo de manera artesanal. Pero en los 70 las necesidad de métodos generales y rápidos de secuenciación: The first method for determining DNA sequences involved a location-specific primer extension strategy established by Ray Wu at Cornell University in 1970.[14] DNA polymerase catalysis and specific nucleotide labeling, both of which figure prominently in current sequencing schemes, were used to sequence the cohesive ends of lambda phage DNA.[15][16][17] Between 1970 and 1973, Wu, R Padmanabhan and colleagues demonstrated that this method can be employed to determine any DNA sequence using synthetic location-specific primers.[18][19][20] Frederick Sanger then adopted this primer-extension strategy to develop more rapid DNA sequencing methods at the MRC CentreCambridge, UK and published a method for “DNA sequencing with chain-terminating inhibitors” in 1977.[21] Walter Gilbert and Allan Maxam at Harvard also developed sequencing methods, including one for “DNA sequencing by chemical degradation”. 

–1979. Artículo de Rodger Staden. Presenta un primer programa de secuenciación de ADN. Al parecer se sigue utilizando. 

–1981. Algoritmo de Smith-Waterman. Para alineamiento de secuencias. Basado en programacion dinamica.

–1990. BLAST. Heuristica para búsqueda de secuencias en bases de datos. Varios autores. Se parte de una secuencia lineal y completa dada y se buscan secuencias lineales y completas similares disponibles en las bases de datos disponibles. Es una variante del problema de alineamiento.

–1994. Transformada (algoritmo) de alineación Burrows-Wheeler. Método de compresión que combinado con otros métodos se utiliza para alineamiento o mapeado de lecturas (que suponen un muestreo del genoma completo secuenciado por NGS). Esta es otra variante del problema de alineamiento. En este caso el input es por un lado una secuencia de referencia en forma lineal y completa (por ejemplo un genoma completo humano obtenido anteriormente y disponible en alguna base de datos) y por otro lado un conjunto de “lecturas” (palabra técnica) obtenido al aplicar un método NGS. Esta alineación o mapeado es otra operación básica, consecutiva a la secuenciación NGS, que se utiliza como paso previo para otros objetivos de mayor contenido biológico (genotipado, asignación de SNPs, obtención del exoma etc…). El conjunto de lecturas suponen una muestra del genoma secuenciado y mapeando esta muestra al genoma de referencia podemos obtener estos otros objetivos.  En este caso los creadores de la transformada eran informáticos y su objetivo no era bioinformático. Existe una implementación optimizada de este método llamada BWA, que es muy utilizada. Pero hay otros muchos métodos

Secuenciación de genomas. Historia, estado del arte y futuro. La secuenciación de genomas (o proteinas) es el campo dónde más se pone de manifiesto la interacción entre lo biomolecular y lo informático. Proporciona la materia prima (secuencias de nucleotidos o de aminoacidos) que luego se va a utilizar en todos los otros métodos. Por ello se ha invertido mucho esfuerzo en obtener métodos rápidos y económicos, con éxito. Como hemos visto a mediados de los 90, y más todavía en los 2000 se pasa de necesitar métodos rápidos (que es lo que proporcionan las técnicas de primera generación)  a necesitar métodos industriales, de un rendimiento de una escala mucho mayor, y se obtienen los métodos ya comentados como el Microarray o los NGS. Hoy abundan los métodos de secuenciación. Y ya se puede escribir una historia sobre el tema, ordenada por generaciones de secuenciadores.

Esto es lo que han realizado en este interesante artículo. : The sequence of sequencers. History of sequencing DNA (2015).    Extracto: We review the drastic changes to DNA sequencing technology over the last 50 years. First-generation methods enabled sequencing of clonal DNA populations. The second-generation massively increased throughput by parallelizing many reactions. Third-generation methods allow direct sequencing of single DNA molecules.

Lo mismo hacen en este artículo de Nature de 2017. DNA sequencing at 40: past, present and future. This review commemorates the 40th anniversary of DNA sequencing, a period in which we have already witnessed multiple technological revolutions and a growth in scale from a few kilobases to the first human genome, and now to millions of human and a myriad of other genomes. DNA sequencing has been extensively and creatively repurposed, including as a ‘counter’ for a vast range of molecular phenomena. We predict that in the long view of history, the impact of DNA sequencing will be on a par with that of the microscope.

En este enlace una presentación bastante técnica y de 2013 sobre las tecnologías de secuenciación.

Y en este muy interesante artículo de 2017, escrito por un experto, aunque en un estilo periodístico, nos comentan sobre la organización industrial del sector y sobre los proyectos publicos o privados de genómica alcance nacional presentando una serie de datos muy interesantes:  The next generation sequencing (NGS) market, including but not limited to WGS, was valuedat €4.6Bn in 2015 and is expected to reach €19Bn by 2020. Many private companies, such as Illumina, Roche, Life Technologies and Pacific Biosciences, are rushing into NGS to answer the rising sequencing needs…../…..Back in 2003, the International Human Genome Sequencing Consortium kicked-off the genome analysis race by sequencing a complete human genome after years of worldwide collaboration and billions of investment. A few years later, the price of WGS reached $1,000. According to Illumina, it is “expected one day” that whole genome sequencing will cost less than $100. On one hand, pocket NGS is not yet practical or economical. On the other hand, most available equipment is still quite expensive. For example, Illumina’s NovaSeq 5000 costs around €800,000 and a NovaSeq 6000 reaches almost €1M…./….In 2016, France announced the “France Medecine Genomique 2025” program, aiming to open 12 sequencing centers and ensure 235,000 WGS a year. The French government is planning to inject €670M in this program, whose main aim is to use WGS as a diagnostics tool. Last but not least, China has been an unbeatable leader in genome sequencing for years now. In 2010, the BGI genomics institute in Shenzhen was probably hosting a higher sequencing capacity than that of the entire United States. China’s sequencing program is not just aiming for thousands but rather one million human genomes and will include subgroups of 50,000 people, each with specific conditions such as cancer or metabolic disease. There will also be cohorts from different regions of China “to look at the different genetic backgrounds of subpopulations.”…../…..It is difficult to anticipate the impact of WGS in modern medicine, but ethical issues regarding privacy of health data have already emerged. It is obvious that no one would like to see GAFA (Google, Apple, Facebook, Amazon) selling genome data as they are probably already doingwith personal data from their users.

Un muy interesante artículo sobre las fuerzas que están presionando los costes de secuenciación de genomas a la baja. Al principio nos ilustran a viste de pájaro sobre el desarrollo del sector: In the 1950s, the contemporaneous development of biopolymer sequencing and the digital computer started a digital revolution in the biosciences. Then in the late 1970s, the advent of the personal computer (PC) and Sanger sequencing led to an appreciable amount of sequence data being generated, stored in databases, and conceptualized within a computational framework [1234]. Communal sequence databases were developed in the 1980s [56], but most investigators worked with data of a scale that allowed transfer to and processing on a local client. In the 1990s, the rise of the Internet facilitated increased data sharing, and analysis techniques began to shift to programs hosted on websites [7]. In the mid-2000s, the most recent big change occurred with the advent of cloud computing and next generation sequencing (NGS), which led to a dramatic increase in the scale of datasets (Fig 1) [48]. This necessitated changes in the storage infrastructure; databases such as the European Nucleotide Archive [9] and the Sequence Read Archive (SRA) [10] were created to store and organize high-throughput sequencing data. The SRA has grown significantly since its creation in 2007, and it now contains almost four petabases (4 × 1015 bases), approximately half of which are open access [11]. These datasets present a challenge because they are too large for the old sharing and analysis paradigms, but recent innovations in computational technologies and approaches, especially the rise of cloud computing, provide promising avenues for handling the vast amounts of sequence data being generated.

–A diferencia de los métodos de secuenciación que combinan pasos biomoleculares con pasos puramente informáticos, los métodos de solución del problema de alineamiento NGS (por llamarlo de alguna manera, el lector comprenderá) son puramente informáticos. En la introducción de este artículo dónde hablan de un nuevo algoritmo llamado Kart, nos hacen una buena presentación de la situación a vista de pájaro:

Next-generation sequencing (NGS) allows biologists to investigate genome-wide variation at nucleotide resolution. It has contributed to numerous ground-breaking discoveries and become a very popular technique for sequencing DNA and characterizing genetic variations in populations. Since new sequencing technologies can produce reads on the order of million/billion base-pairs in a single day, many NGS applications require very fast alignment algorithms. The traditional sequence alignment approaches, like BLAST (Altschul et al., 1990) or BLAT (Kent, 2002), are unable to deal with the huge amount of short reads efficiently. Consequently, many aligners for NGS short reads have been developed in recent years. They can be classified into two categories according to their indexing methods: hash tables and suffix array/BWT. A hash table based aligner uses all the subsequences of k-mers to obtain the occurrence locations. In contrast, a suffix array/BWT based aligner finds the maximal exact matches (MEM) between the read sequence and the reference genome. Each category of read aligners has its own merits and deficiencies. However, suffix array/BWT based aligners are more popular due to the efficiency of memory consumption.

Aligners based on hash tables include CloudBurst (Schatz, 2009), Eland (proprietary), MAQ (Li et al., 2008a), RMAP (Smith et al., 2008), SeqMap (Jiang and Wong, 2008), SHRiMP (Rumble et al., 2009), ZOOM (Lin et al., 2008), BFAST (Homer et al., 2009), NovoAlign (proprietary), SSAHA (Ning et al., 2001), and SOAPv1 (Li et al., 2008b). Most hash table based aligners essentially follow the same seed-and-extend strategy (Li and Homer, 2010). A representative algorithm of this strategy is BLAST. BLAST keeps the occurrence locations of each k-mer of the database sequences in a hash table and then uses the given query’s k-mers to scan and find exact matches by looking up the hash table. An exact match is used as a seed to extend the alignment using Smith-Waterman algorithm between the query and the reference sequence.

Aligners based on suffix array or using Burrorws-Wheeler transform (BWT) (Wheeler, 1994) include Bowtie (Langmead and Salzberg, 2012Langmead et al., 2009), BWA (Li and Durbin, 2009), BWA-SW (Li and Durbin, 2010), BWA-MEM (Heng Li), SOAPv2 (Li et al., 2009), CUSHAW (Liu et al., 2012), Subread (Liao et al., 2013), HISAT/HISAT2 (Kim et al., 2015), HPG-aligner (Tarraga et al., 2014)and segemehl (Hoffmann et al., 2009). Most aligners in this category rely on a suffix array to identify the maximal exact matches (called MEMs) and then build alignments based on the exact matches, which is also similar to the seed-and-extend methodology. One exception is the Subread aligner, which adopts a seed-and-vote step to determine the mapped genomic location with multiple seeds from a read sequence. The major advantage of using suffix arrays is that repetitive subsequences need to be aligned only once because they are collapsed onto a single path (Li and Homer, 2010).

Though current short read aligners provide solutions for mapping the massive amount of read sequences produced by NGS technologies, some are not fast enough and some are not accurate enough. Moreover, the third generation sequencing technologies raise further challenges for data analysis, namely, extremely long read sequences and much higher error rate. For example, the PacBio RS II system can generate reads in the length of 5500–8500 bp on average, but the single-read accuracy is only about 87%. Most short read aligners have difficulty in processing those read sequences.

–Como estamos viendo, la algorítmica vinculada a problemas de genómica NGS es bastante nueva, pero la temática ya da para escribir un libro (2017): Algorithms for Next-Generation Sequencing Data: Techniques, Approaches, and applications. Mourad Elloumi.  Tiene una parte de indexado, compresión y almacenaje; una parte de métodos de corrección de errores; una parte para los algoritmos de alineación NGS; y una parte para los algoritmos de ensamblado.

–La bioinformática (y más en concreto la genómica computacional), no se reducen a los métodos de secuenciación. Una buena presentación de la situación actual de la bioinformática.

un informe sobre la situación de la genética clínica y genómica en España.

 

Trade Lane Megacities. Genética e historia.

abril 23, 2018

1.Como hemos estado leyendo últimamente sobre estos temas, y ante la insatisfacción de lo que encontrábamos en la web sobre algunos interrogantes, hemos hecho inventario de la literatura física que tenemos al respecto para ver si podía ser de ayuda.

No ha sido el caso, pero hemos encontrado desempolvado esta “joya”, publicada en 1993. Hoy agotado.  Realmente, su valor es más que nada histórico. Me imagino que yo lo compré ese mismo año (mi interés en estos temas era muy reciente entonces y no recuerdo muy bien como llegué a ellos).

Como se ve en el índice del volumen (segunda fotografía), la metodología de combinar genética, arqueología y lingüística ya estaba bien establecida. Y se ha avanzado bastante en dos de los tres frentes (genética, arqueología), menos diría yo en el tercero (lingüística, cada nuevo resultado sigue siendo bastante controvertido), y nada en desarrollar métodos que nos permitan obtener conocimiento cierto al combinar resultados de estas tres disciplinas. La combinación sigue siendo parcial,  soft science.  Nuestra opinión, claro. Faltan buenos modelos de antropología cultural que integren de manera coherente todo el material.

Nota histórica. Entre los autores aparecen algunos de los pioneros de los diversos campos y técnicas. Otros se han dedicado a otros temas.

Es interesante que con los últimos resultados de arqueogenética de 2018 se están removiendo los cimientos de todas las épocas pasadas y los temas tratados en los capítulos 1, 2 y 3, que parecían ya resueltos, están de nuevo de plena actualidad

Con respecto a los aspectos genéticos, la época de publicación de este número era la época del ADN mitocondrial, que si no recuerdo mal duró toda esta década. En los 2000, tras el éxito del  Proyecto Genoma Humano / Celera que proporcionaba una referencia comparativa de genomas completos, y con los inicios de la genómica, ya se empezaron a realizar estudios sobre el cromosoma Y, y volví a interesarme por estos temas, siempre como espectador.

Es la época en la que se publicaron los libros de Oppenheimer (Los senderos del Edén, 2003 edición inglesa, 2004 edición española; en la parte de agradecimientos Oppenheimer nos cuenta a quien se deben los principales avances en estos campos. Todo esto no podía ser muy nuevo pues el ADN como soporte informacional  de la vida no se descubre hasta mediados del XX (Watson y Crick, 1953). Oppenheimer no cita, pero es relevante, los primeros trabajos de Pauling y  Zuckerkandl  sobre relojes moleculares. En paralelo se realizan los primeros intentos midiendo  variables biológicas de poblaciones humanas en el marco de la genética de poblaciones, quizás no demasiado fructíferas pero que fueron los primeros hitos metodológicos (siempre se cita a Cavalli-Sforza en este contexto), el primer trabajo que utilizaba variables genéticas, cuyo impacto de alguna manera creó todo este campo (tras los avances de Douglas Wallace sobre la genética del ADN mitocondrial y las primeras comparaciones realizadas con este tipo de ADN por Wesley Brown, es el de  Cann, Stoneking y Wilson: Cann laid the experimental groundwork for the concept of Mitochondrial Eve, and the consequent Out of Africa theory. From late 1970s she had collected mtDNA samples from women of different ethnic backgrounds, such as from AsiaSouth PacificEurope and Americans of African descent. The data were used in her PhD thesis in 1982. Following her research, a junior graduate student Mark Stoneking added samples from aboriginal Australians and New Guineans. In 1987, after a year of delay, their collective paper was published in Nature in which their findings indicated that all living humans were descended through a single mother, who lived ~200,000 years ago in Africa.[4] The theoretical mother of all humans popularly became the Mitochondrial Eve, and the underlying concept directly implies recent African origin of modern humans, hence, the tenet of the so-called Out of Africa theory; Wilson ya había publicado antes, en los 60, sobre relojes moleculares, concepto clave dado que permiten una datación aproximada) o de Spencer Wells, bajo el auspicio de National Geographic (escrito en 2004, versión inglesa de 2006 y española de 2007), en el que combinan las dos líneas uniparentales para obtener una narrativa sobre la dispersión del hombre moderno. Hoy ambas superadas, pero marcaron hito.

Y en la década de los 2010, genomas completos uniparentales (no se puede pedir más), genomas completos autosomales (idem), adn autosomal (problabmente este tema no se desarrolló antes por la limitación de recursos computacionales y de las metodologías para analizar estos datos) y arqueogenética. La arqueogenética lleva ya varias décadas en acción (ver también este enlace, más relacionado con el campo de ADN antiguo, que es más amplio que el de la arqueogenética pues incluye el estudio de organismos no humanos; el primer congreso de Anciente DNA fue en 1991 en UK, como no; y un artículo de periódico sobre el tema…¡¡de 1985!!), pero está explotando y viviendo su fase mediática ahora; el próximo gran avance aquí debería de ser una base de datos completa, bien organizada, que contenga información sobre todos los estudios de ADN antiguo, en todas sus dimensiones biológicas y culturales, uniparental, autosomal, época, contexto arqueológico etc…, accesible a todos y manipulable por cualquier usuario; actualmente hay ya unas 1400 muestras de adn antiguo, seguramente en los próximos años se duplicarán, y  encontrar información completa al respecto empieza a ser misión imposible…).

Fin de nota.

Los que somos veteranos sabemos que la genética aplicada a temas históricos, aunque de nuevo actualmente ocupa portadas de periódicos, no es cosa nueva. Esta oleada (vinculada a las nuevas tecnologías capaces de analizar ADN de restos antiguos con cierta calidad y a los últimos resultados derivados de la aplicación de estas nuevas tecnologías, que culminan con la publicación de un libro de uno de los protagonistas, sobre el que se está hablando mucho últimamente y nosotros no vamos a hablar) es la tercera o cuarta oleada de alto nivel mediático relacionado con este tema.

En la oleada mediática anterior, más o menos de mediados de los 2000, los medios de comunicación finalmente abandonaron el tema. ¿ Motivo ?. Orden + contraorden = desorden. Es decir se publicaban resultados, en general en base a genética uniparental de poblaciones actuales, bastante contradictorios entre ellos. Y, como es habitual, estos resultados se transformaban en grandes titulares en los medios generalistas. Al aparecer grandes titulares contradictorios, perdían crédito.

Y la realidad es que en torno a 2010 quedó claro que los estudios de genética de poblaciones actuales no eran la mejor vía para estudiar la historia de estas poblaciones. Ni frecuencia ni varianza eran buenos indicadores de lo que podía haber ocurrido en el pasado. Y se empezó a profundizar en la vía arqueogenética, cosa que fructificó pues hubo avances tecnológicos que lo permitieron.

Nota. No vamos a hablar (ya lo hemos hecho en múltiples entradas hace años) del desarrollo en paralelo que se hizo con la mercantilización de estas tecnologías, con la aparición de empresas de genealogía genética ni la linea de investigación de ciencia ciudadana, a través de blogs, foros y otros medios web. Que yo sepa la primera empresa que lanzó oferta sobre estos temas, FTDNA, aparece en el 2000. Me temo que en España no termina de calar. Y uno de los blogs de referencia sobre estos temas (que yo seguí casi desde sus inicios) se empezó a publicar en 2004. Hoy casi abandonado, pero otros han recogido el testigo, con menor calidad de análisis, pensamos. Fin de nota.

2. ¿ Que aporta la genética y más concretamente la arqueogenética a la Historia ?.  ¿ Que está aportando esta  nueva disciplina a la ciencia de la Historia (pre-Historia) ?.

Para contestar a la pregunta vamos a utilizar un símil con el teatro para que  el lector lo comprenda.

–Hay ocasiones en las que solo disponemos de objetos arqueológicos no textuales. En este caso es como una representación teatral, en la que los actores son fantasmas mudos que mueven objetos bien identificables y visibles. Se mueven los objetos, pero no sabemos quien los mueve. Como una novela de nouveau roman, no muy interesante. Y todo queda demasiado abierto.

–Hay ocasiones en las que solo disponemos  de objetos arqueológicos no textuales y textos escritos en lenguas que no podemos leer. No las hemos descifrado. La situación no es muy diferente de la anterior. El resultado es enigmático, también abierto, y por lo tanto insatisfactorio.

–Hay ocasiones en las que solo disponemos de objetos  no textuales y objetos textuales en lenguas que podemos leer (sabemos como suenan) pero no comprendemos los sonidos. Esto ya es un avance, pero sigue siendo insatisfactorio.

–Hay ocasiones en las que disponemos de objetos no textuales y objetos textuales en lenguas que podemos leer. Aquí la situación ya es la de la historia. Sin embargo todavía quedan muchas incógnitas.

Si en los  casos anteriores, sobre todo en los tres primeros, añadimos datos arqueogenéticos, sustituimos los fantasmas por actores de carne y hueso. Y estos actores se pueden relacionar con los de otras épocas y lugares. Mucho más interesante sin duda. Aunque por supuesto siempre queremos más…

Pero si lo que aportase la genética a la historia sólo fuese esto, protagonismo, sería anecdotico, superficial (como superficiales son la mayoría de los comentarios que se realizan en los foros). Creo que el verdadero valor de estas ya no tan nuevas herramientas es otro. Cómo es sabido la Historia es el laboratorio de las Ciencias Sociales. Si queremos obtener teorías correctas tenemos que conocer con exactitud como se desarrollaron los acontecimientos y quienes fueron los agentes. A la hora de contestar a determinados importantes interrogantes teórico-históricos, en mucha ocasiones se llega a un punto muerto: no sabemos que fue primero, no sabemos quien fue el agente. El conocimiento del antes y del después es condición necesaria para poder determinar la causa y el efecto. Y la identificación del agente es condición necesaria para determinar si un determinado efecto (por ejemplo un avance tecnológico) se debe a una invención independiente, a una difusión o a una migración. La arqueogenética es informativa (obviamente, no es la panacea universal) para resolver algunas de estas cuestiones.

Por ello pese a los malos usos  que se puedan hacer de estas “nuevas” herramientas (que sin duda ya se están haciendo; no entendemos algunos de los charcos en los que se ha metido el autor del último libro de cabecera al respecto, libro sobre el que no vamos a hablar) desde este blog las seguimos apoyando. Y pensamos que los practicantes de las Humanidades (saco en el que muchas veces se mete a la Historia) deberían de prestarles más atención (aunque somos conscientes de que no son técnicas accesibles ni fáciles de utilizar).

P.s. A continuación varios artículos de prensa que recogen de manera más o menos explícita los últimos resultados de arqueogenética.

Prensa española en el contexto de la publicación de varios libros sobre el Neolítico. En España es un tema sensible. Hablan de manera muy velada, muy tangencial, sobre arqueogenética. Al margen de este tema, tras leer este artículo da la impresión de que el culpable de todo ahora no es el Capitalismo sino el Neolítico. Me pregunto si los autores de estos libros no son los mismos de siempre…Como si los neolíticos hubiesen tenido elección. Como si la tuviésemos nosotros ahora en la época actual.

Prensa india. Al parecer en la India, la publicación de estos estudios sobre prehistoria tienen verdaderas consecuencias actuales. Es decir, al parecer, se les da mucha más importancia de lo que se debería, en nuestra opinión  Pese a ello le dan un tratamiento mucho más explícito en la prensa. En otros países, como es bien conocido, la publicación de este tipo de estudios, la realización de este tipo de tests, está prohibida.

una tesis reciente sobre el caso griego. No la he leído. El estilo parece post-moderno….

Podríamos poner muchos más ejemplos extraídos de medios anglos, que publican mucho más extensamente sobre estos temas.

 

Trade Lane Megacities. Corredores y rutas transdesérticos afroeuroasiáticos.

marzo 3, 2018


Estamos escribiendo una entrada sobre las rutas transaharianas, tema que ya abordamos hace años y queremos abordar de nuevo con mayor profundidad histórica. Entrada que por ello, por intentar cubrir un período histórico más amplio, parece que no vamos a terminar nunca. Por ello anticipamos parte del contenido en esta breve entrada.

1.La pregunta. Nos llama la atención que se hable de rutas transdesérticas norte-sur sobre todo en África y Oriente Medio occidental (Arabia). Para no hacer el mapa más confuso, no hemos señalado las rutas norte-sur en diagonal, que consta que existieron (por ejemplo del Nilo / Egipto al Niger / Gao). Hablamos de estas rutas diagonales en la nota final.

En Eurasia cuando pensamos en rutas a través de zonas esteparias o de zonas dónde predomina el binomio desierto / oasis pensamos más bien en movimientos este-oeste (las diversas Rutas de la Seda).  Los movimientos transdesérticos norte-sur siempre se han descrito más bien como episodios accidentales, migraciones huracanadas de corta duración (la primera, atravesando los desiertos del Kazakstán, sería la de los Indiranios; esto sería así en cualquiera de las hipótesis que están sobre la mesa).

¿ No han existido entonces en los extensos desiertos de Asia Cental que recorren Eurasia desde el Caspio hasta casi el Pacífico rutas transdesérticas que hayan canalizado comercio con cierta continuidad como en África y Arabia ? (more…)

Trade Lane Megacities. ¿ Juega Dios al billar ?: sistemas meteoclimáticos.

abril 11, 2017

Disclaimer. Esta entrada se redactó casi en su totalidad los días 10 y 11 de agosto de 2013, con ediciones en enero de 2014. Estaba redactando una entrada sobre la historia de las redes comerciales en el Mar de Arabia (en sentido amplio, incluyendo Mar Rojo y Golfo Pérsico)  y me di cuenta que para comprender la dinámica histórica de esta zona era imprescindible conocer bien el fenómeno de los monzones.  Esto me llevó a leer sobre metereología y climatología y decidí incluir un punto en la entrada sobre los fundamentos básicos de esta disciplina. Finalmente se me complicó la  vida en múltiples aspectos y no pude terminarla, ni siquiera la parte climatologica.

Recientemente, por motivos que no viene al caso hacer explícitos, de nuevo me he interesado por Arabia y su historia pre-islámica y tras redactar la entrada anterior he comenzado a leer sobre historia del  sur de Arabia (Yemen, Omán, Golfo Pérsico en general). Y de nuevo he topado con el fenómeno de los monzones. Y me he acordado de esta entrada de hace años. Tras leerla de nuevo (y no me suelo releer), veo que el punto sobre fundamentos climatología es publicable como entrada independiente, con mínimas ediciones, incluso aunque esté incompleto.  Para no caer en ese problema en el que todo bloguero habrá caído, que podemos denominar el problema de la entrada de la marmota (esa entrada a la que se vuelve siempre pero que no se termina por publicar), aplicando los principios de que es más bueno avanzar que quedarse parado y de que lo mejor es enemigo de lo bueno, la publicamos casi tal cuál, con mínimas ediciones y añadidos. 

Los añadidos son:

–Punto I, principios I6 y I7;

–Punto II, estaba bastante incompleto. He añadido los efectos de los cambios en excentricidad, oblicuidad  y otros copiando directamente de wikipedia. He añadido los puntos sobre la precesión absidal e inclinación completos. 

Veo que cuando lo escribí tenía muy claros conceptos, que ahora, al releerlo, me quedan menos claros. A determinadas edades, tres años pueden marcar una importante diferencia…

El título es nuevo, es decir de hoy 17 de diciembre de 2017 y es una variación de una frase bien conocida. Expresa la posibilidad que tendría un hipotético Dios creador de crear planetas con climas a su gusto. El lector lo comprenderá tras leer la entrada. Finalmente comentar que he visto que hace unos tres años escribíamos en un tono de gravedad torera que hemos mantenido.  

Actualización 11 de abril de 2017. De nuevo una trayectoria vital inesperada nos lleva a interesarnos por estos temas medioambientales. No vamos a trabajar en ella pero si nos interesa tenerla publicada. La  publicamos  tal cual. Repetimos una vez más, lease con prudencia y sentido crítico: es un borrador, está inacabada y puede contener errores. Fin de actualización.   

0. Introducción.

(more…)

El LA. Ojo con las conclusiones prematuras…

abril 5, 2017

…en base a pocas muestras.

Somos humanos y anticipamos.  Aquí lo llevamos diciendo desde hace años. Y lo vemos continuamente tanto en comentarios a estudios científicos en foros o blogs (incluso en opiniones prematuras emitidas por los propios científicos, lo cual si cabe es más sorprendente) como en resultados de ciencia ciudadana. Lo que hoy aparenta ser una certeza definitiva,  mañana se evapora. Un árbol no es un grafo: por todo nodo solo puede llegar una rama y salir otra.

Todo esto es una muestra que se va construyendo poco a poco (en algunos caso de muy poco en poco) y de manera sesgada. Y puede haber sorpresas. Y esto último no excluye a los estudios científicos de antigüedades (sí a los de actualidades, si están bien hechos; esto si pueden ser científicos o aproximarse al máximo).

Estadísticamente un árbol filogenético es lo mismo que cualquier otro estadístico o medida poblacional. El problema es estimar un árbol poblacional en base a una muestra. Muestra que no siempre puedes diseñar. Es decir: en que medida representa el árbol muestral al poblacional. Y este aparato estadístico matemático sólo se puede aplicar  si la muestra ha sido seleccionada de manera aleatoria. Creo recordar que ya hicimos una entrada metodológica sobre este tema. Si la localizo la enlazaré aquí.

En la entrada metodológica o en otra ya hemos hablado del objeto básico, la matriz de individuos por pares de bases. En la segunda dimensión con las tecnologías de secuencia entiendo que ya estamos  cerca de lo máximo que se puede conseguir (salvo en antigüedades, dado que la materia prima se encuentra deteriorada). En la primera, número de individuos, no recuerdo cuantos eran suficientes. Entiendo que depende de los objetivos.

En los dos primeros casos, no es una crítica. Diría que no puede ser de otra manera: lo que hay es lo que hay, y punto. El cadáver que se incineró, fue comido por las bestias o se desintegró por el calor, no se puede reencarnar ni recalcificar (obviamente me refiero a las antigüedades). Y al vivo no se le puede obligar pistola en mano a hacerse una prueba. Y al ciudadano medio estos temas le son completamente indiferentes.

En fin: uno arriba y…¡¡ 3 menos abajo !!.

P.s. ¿ Que fenómeno psicológico explicará la necesidad de anticipación publica que tanto se pone de manifiesto en los foros y comentarios en la Web ?.

Bien pensado esto es absurdo: o no hay suficiente información y entonces casi siempre acertar es pura suerte, y no tiene mérito, o ya hay de sobra, cualquiera habría acertado y tampoco tiene mérito.

(more…)

El LA. Fecha estimada de mezcla.

marzo 23, 2017

He estado trasteando muy brevemente con la nueva experiencia

(more…)

Trade Lane Megacities. El determinismo en la localización de las civilizaciones hidráulicas prístinas: cuaderno de investigación.

enero 16, 2017

Disclaimer. 

La entrada se ha redactado en tiempos libres de los días 14, 15, 16 17, 18 y 21 de enero de 2017.

Fin de disclaimer.  

0. Introducción.

Las Ciencias Sociales son conocidas por el carácter más bien abstracto, difuso e inconcreto de muchos de sus resultados. El objeto que estudian, la sociedad-cultura es tan abierto, está tan sujeto a múltiples factores, muchos de ellos desconocidos, que es muy difícil determinar las causas  de la estructura y dinámica de los fenómenos sociales. Digamoslo claramente: el objeto es inaprensible y los resultados, muchas veces volátiles. Y seamos humildes: si hemos tardado milenios en explicar fenómenos aparentemente tan simples como la caída de un cuerpo, no podemos esperar explicar de manera sencilla una cosa tan compleja como la  sociedad.

Sin embargo  ayer, redactando una nota a una entrada sobre la primera sociedad agrícola  basada en la irrigación documentada en Oriente Medio (y en todo el globo), me refiero a Ubaid-Uruk-Sumer me ha sorprendido ver que la  localización de todas las primeras sociedades agrícolas de secano (el llamado Neolítico) y de regadío (que coincide básicamente con el Calcolítico y la Edad del Bronce) obedece a un patrón que se puede determinar casi con exactitud matemática. Y es un patrón que como veremos tiene su lógica: estas primeras sociedades se emergieron en el punto geográfico en el que emergieron y prosperaron por unos motivos o causas muy concretos.

Cierto es que las sociedades del pasado, de cazadores-recolectores y agrícolas o ganaderas dependían mucho más de variables ecológicas que las sociedades industriales contemporáneas. Y esto facilita determinar las causas de su forma y dinámica. La sociedad moderna, liberada de su naturaleza,  es pájaro libre cuya trayectoria es más complicada de escudriñar.

Sobre todo esto es sobre lo que hablábamos en la nota de la entrada anterior que en parte copiamos a continuación, con una redacción muy modificada ya que al final nos quedó algo confusa. La redacción es en forma de cuaderno de investigación, pues en realidad lo que estamos planteando es  una hipótesis y nos planteamos analizar todos los casos, los que cumplen con la hipótesis y las excepciones.

Aunque gracias a la información que  hemos obtenido sobre las sociedades  basadas en la irrigación del Bronce ya tenemos alguna idea sobre por qué el Neolítico prístino se originó en las zonas dónde se originó, no tenemos del todo claro de momento la lógica de esta fase revolucionaria de la dinámica de las civilizaciones y nos centramos en los cambios del Calcolítico / Bronce que tenemos ya mucho más claros.

Aunque nosotros hemos vivido como descubrimiento lo que narramos en la entrada, es muy posible o casi seguro que lo que escribimos sea ya un tópico entre los expertos y simplemente hayamos descubierto América, a estas alturas del partido. Nos excusa que no hemos leído, ni mucho menos, toda la literatura sobre este tema.

O podría ser que lo que presentamos sea de estos descubrimientos que en retrospectiva son tan evidentes (irrigación en zonas áridas: ¡¡ pues vaya !!) que nadie los publicaría como tal sin sonrojarse, salvo en un blog con un título que no tiene nada que ver con los contenidos que aparecen en las entradas :-), y como una entrada más. Esperamos que no  sea así y que el lector no experto (e incluso algún experto que otro), a medida que va leyendo, experimente, por lo menos en un primer  momento, la misma sensación de descubrimiento que nosotros

Ciertamente posiblemente lo más complicado no sea explicar la emergencia de este tipo de civilizaciones en las zonas dónde se daban las condiciones que constituyen nuestra hipótesis, sino explicar por qué, en algunos casos, no emergieron en estas zonas favorables, pero proporcionando explicaciones dentro del marco de la propia hipótesis (todavía no teoría), es decir sólo con los elementos que ésta nos proporciona (que son básicamente dos, gradación en tres bandas húmeda, mixta o esteparia y árida o desértica, y presencia de agua sea en forma de río, lagos o acuíferos), sin recurrir a otros factores ad-hoc (como pensamos que hace Diamond continuamente, ver bibliografía).

En fin por lo comentado anteriormente, como siempre nos interesa detectar todo lo publicado anteriormente con un mismo  enfoque al nuestro: determinismos geográficos-ecológicos en el origen de las civilizaciones prístinas. Ponemos  en marcha el  radar y vamos tomando nota (el punto 3 de la entrada es un punto de recomendaciones bibliográficas , comenzando por Wittfogel, siguiendo por Service y otros, y es aquí dónde vamos a ir anotando las referencias que vaya detectando el radar que está funcionando bien: Carneiro, Cohen, Claessens, Ostrovski etc…).

Resumimos el contenido de la entrada:

–En un primer punto exponemos la hipótesis y como hemos llegado a su planteamiento.

–En un segundo punto revisamos los casos que hemos/ estamos considerando, los que confirman y los que podrían refutar la hipótesis.

–En un tercer punto damos algunas sugerencias de lectura (las pocas que conocemos).

–Y terminamos con un epílogo.

Nota 1.

Cada tengo más claro  que todas las grandes transiciones de la sociedad-cultura (civilización), Neolítico, Bronce, Hierro, Industrialización por utilizar los términos más convencionales, han estado localizadas en lugares muy concretos del globo y que dificilmente podrían haberse desarrollado en otros.  Parece como si en todo momento de la historia de la Humanidad algunos puntos del globo hayan estado en la vanguardia, tirando del carro, y el resto bien dejándose llevar o arrastrar,  bien directamente oponiéndose con todos los medios a su disposición. Hoy no es diferente, tal y como venimos contando en el blog desde hace años.

Y el que estas zonas estuviesen en la vanguardia, no han dependido de las poblaciones que se encontraban en esos lugares, de su voluntad, sino de las condiciones, digamos ecológicas, que en estos se daban y/o de su ventajosa localización con respecto a otras zonas. ¿ Determinismo geográfico-ecológico  ?. Sin duda. Pero ojo, no para todos los fenómenos sociales.

Cuando uno lee sobre historia una de las  conclusiones que saca siempre es que, en general, los protagonistas, sean individuales o colectivos, han estado a la altura de los retos que se les planteaban. Incluso sociedades que parecían adormecidas, han aprovechado de la mejor manera posible la oportunidad de los 5 minutos de gloria que la historia les brindaba. Es lamentable (e incluso ridículo) que estos 5 minutos de gloria hayan cristalizado en providencialismos de todo tipo, basados en una concepción abstracta e ageográfica de la historia, y aparentemente imposibles de erradicar.

Por todo lo comentado, seguramente sobre este último comentario, en el  que planteamos  no ya consideraciones sustanciales sino sobre todo metodológicas, antes de entrar en materia: esta es una entrada de Ciencia Social y por lo tanto damos por supuesto que la naturaleza humana (a buen entendedor pocas palabras bastan) es igual en todas partes y que las diferencias en las sociedades-culturas-civilizaciones que emergen en las diferentes zonas del globo se deben sobre todo a diferencias en el entorno (ok, quizás válido sobre todo para las sociedades pre-industriales,  que son las  que estudiamos en la entrada). Negar este principio metodológico es negar la posibilidad de la Ciencia Social.

Además de principio  metodológico por lo ya indicado pensamos que es una proposición sustancial: pese a que leemos con frecuencia a los que niegan este supuesto, no hemos visto ninguna evidencia sólida en contra. Recurrir  al supuesto contrario no es la solución buena, es en general la fácil.

Fin de nota 1.

biomas-numeros

1. El problema, la formulación de la hipótesis y la presentación del modelo.

Las dos franjas latitudinales, foco de civilizaciones basadas en la irrigación, del Calcolítico / Edad del Bronce: la franja templo-árida entre trópicos y 40º, y la franja trópico-árida entre el trópicos y 10º. 

Antes de comenzar explicamos que entendemos por sociedad del tipo Bronce (un término que utilizamos para simplificar). Son sociedades que manifiestan (no necesariamente todos) los siguientes rasgos: economía templo, sistemas de regadío complejos, monumentalidad y primeras ciudades (muy diferentes a las aldeas, aunque estas sean grandes), escritura pictográfica o sistemas de registro de algún tipo, ciencia incipiente (astronomía y rudimentos de matemáticas), cerámica a tormo (o dicho de manera más abstracta una cierta industria oganizada), trabajo de metales con un volumen importante y otras artesanías avanzadas.

(more…)

El Lapo Azul. FTDNA, culto a los ancestros en el s XXI.

enero 14, 2017

Disclaimer. No tengo nada que ver con la empresa FTDNA. Como el lector sabe, sigo algo los temas de genealogía genética (ya hemos realizado varias entradas al respecto) y tengo acceso a las claves de un perfil y a los grupos en los que este perfil participa. Es decir mi única relación con ella es la de usuario, gracias a estas claves. Fin de disclaimer.

El título lo  dice todo y no vamos a añadir mucho más.

1.Los Objetos de Culto, los Santuarios y los Grandes Sacerdotes.

(more…)

Trade Lane Megacities. Pastoralismos (II).

enero 7, 2017

En una entrada de hace años con el mismo título, entrada en la que hacíamos algunas consideraciones teóricas sobre los pastoralismos, comentábamos lo siguiente (perdón por la autocita) sobre un artículo que encontramos  interesante:

“En él podrás ver una descripción (no muy profunda) de las 4 formas de gestionar la actividad: nomadismotrashumancia (que incluiría la variante de trasterminancia, pues hay formas de vida exclusivamente trasterminantes, cómo por ejemplo los vaqueiros de alzada asturianos), ganadería estante (sistema de ranchos) y agropastoralismo (que combina agricultura y actividades ganaderas en una misma explotación)”.

En esta entrada retomamos el tema. En un primer punto las consideraciones teóricas. En un segundo punto comentamos varios enlaces a libros que tratan sobre la historia (arqueología) del pastoreo nómada. Como se verá hay un cierto debate sobre cuando comenzó el  pastoreo nómada puro , entre los neoliticistas,  los broncistas (entre los cuales me encuentro ahora mismo, pero no de manera completamente firme) y los de los hierristas. En un tercer punto, en tono de cachondeo, comentamos sobre la expansiones lingüísticas asociadas al pastoreo nómada.

Tras leer parte de estos enlaces me queda claro que la publicación de la entrada está justificada pues ninguno de los autores, todos ellos especialistas definen el pastoreo nómada de la manera en la que lo hacemos nosotros.  Ni siquiera ven el tema a través del mismo marco que nosotros.

1.Consideraciones teóricas. La ganadería estante no necesita de mayor explicación. La trashumancia y nomadismo son más complejos. Tan complejos que hasta hoy mismo, el que escribe estas líneas, interesado por estos temas desde hace años, no tenía muy claro como caracterizar exactamente la diferencia entre ambos tipos de pastoralismo.

Realmente las ganaderías estante, trashumante y nómada son plenamente complementarias (esto es lo que he descubierto hoy): se trata de aprovechar al máximo todos los pastos disponibles, sean permanentes o estacionales.

a) El pastoreo estante se ocupa de  los pastos permamentes. Se comprende claramente.

b) El pastoreo trashumante requiere dos tipos de pastos estacionales, de al menos igual tamaño y localizados a una distancia determinada que haga posible ciclos anuales de trashumancia. Cuando decimos de igual tamaño queremos decir que el tamaño del menor pasto (invierno verano) determina el tamaño del otro y por lo tanto el del rebaño. Si los dos pastos son de tamaño desigual, el pasto  excedente del más grande no se podrá utilizar. Este excedente es, como veremos en el siguiente punto, el queda potencialmente libre para el pastoreo nómada. La trashumancia de zonas templadas usa fenómenos meteorológicos como deshielos de verano y lluvias de invierno como base y por ello normalmente a los dos tipos de pastos se les llama de invierno y de verano, aunque no son nombres totalmente adecuados en general, ya  que hay trashumancias basados en otras  estaciones y fenómenos. Esto también es importante para comprender el pastoreo nómada que puede basarse en diversos tipos de fenómenos  meteorológicos o culturales, como deshielos, lluvias estacionales de diverso tipo (de zonas templadas y monzónicas), crecidas de ríos, rotaciones agrícolas etc…Este tipo de pastoreo, el trashumante, que conocemos muy bien en España (hicimos una entrada sobre ello) requiere un estilo de vida diferente al pastoreo estante, pero no radicalmente diferente.

c) El pastoreo nómada va más allá y trata de aprovechar los pastos estacionales excedentes que no son aprovechables de modo trashumante, basándose y combinando, como ya hemos explicado diversos tipos de fenómenos naturales (deshielos, crecidas de ríos, lluvias estacionales de diverso tipo, formación y desecación de de lagos estacionales), y culturales (rotaciones agrícolas etc…). Las condiciones de que los pastos de “invierno y verano” sean de igual tamaño así como la condición con respecto a la distancia que permita movimientos de ida  y vuelta anuales son bastante restrictivas, y dejan libre mucho pasto estacional que puede ser utilizado siempre y cuando uno adopte un estilo  de vida puramente nómada que, ahora sí, es radicalmente diferente al sedentario. De alguna manera, el pastoralismo nómada es una generalización de la trashumancia, pero es un estilo de vida mucho más complejo que esta, mucho más arriesgado, que aporta las siguientes novedades:

(more…)