Archive for the ‘FISICA’ Category

Trade Lane Megacities. ¿ Juega Dios al billar ?: sistemas meteoclimáticos.

abril 11, 2017

Disclaimer. Esta entrada se redactó casi en su totalidad los días 10 y 11 de agosto de 2013, con ediciones en enero de 2014. Estaba redactando una entrada sobre la historia de las redes comerciales en el Mar de Arabia (en sentido amplio, incluyendo Mar Rojo y Golfo Pérsico)  y me di cuenta que para comprender la dinámica histórica de esta zona era imprescindible conocer bien el fenómeno de los monzones.  Esto me llevó a leer sobre metereología y climatología y decidí incluir un punto en la entrada sobre los fundamentos básicos de esta disciplina. Finalmente se me complicó la  vida en múltiples aspectos y no pude terminarla, ni siquiera la parte climatologica.

Recientemente, por motivos que no viene al caso hacer explícitos, de nuevo me he interesado por Arabia y su historia pre-islámica y tras redactar la entrada anterior he comenzado a leer sobre historia del  sur de Arabia (Yemen, Omán, Golfo Pérsico en general). Y de nuevo he topado con el fenómeno de los monzones. Y me he acordado de esta entrada de hace años. Tras leerla de nuevo (y no me suelo releer), veo que el punto sobre fundamentos climatología es publicable como entrada independiente, con mínimas ediciones, incluso aunque esté incompleto.  Para no caer en ese problema en el que todo bloguero habrá caído, que podemos denominar el problema de la entrada de la marmota (esa entrada a la que se vuelve siempre pero que no se termina por publicar), aplicando los principios de que es más bueno avanzar que quedarse parado y de que lo mejor es enemigo de lo bueno, la publicamos casi tal cuál, con mínimas ediciones y añadidos. 

Los añadidos son:

–Punto I, principios I6 y I7;

–Punto II, estaba bastante incompleto. He añadido los efectos de los cambios en excentricidad, oblicuidad  y otros copiando directamente de wikipedia. He añadido los puntos sobre la precesión absidal e inclinación completos. 

Veo que cuando lo escribí tenía muy claros conceptos, que ahora, al releerlo, me quedan menos claros. A determinadas edades, tres años pueden marcar una importante diferencia…

El título es nuevo, es decir de hoy 17 de diciembre de 2017 y es una variación de una frase bien conocida. Expresa la posibilidad que tendría un hipotético Dios creador de crear planetas con climas a su gusto. El lector lo comprenderá tras leer la entrada. Finalmente comentar que he visto que hace unos tres años escribíamos en un tono de gravedad torera que hemos mantenido.  

Actualización 11 de abril de 2017. De nuevo una trayectoria vital inesperada nos lleva a interesarnos por estos temas medioambientales. No vamos a trabajar en ella pero si nos interesa tenerla publicada. La  publicamos  tal cual. Repetimos una vez más, lease con prudencia y sentido crítico: es un borrador, está inacabada y puede contener errores. Fin de actualización.   

0. Introducción.

(more…)

Anuncios

IBM Q. ¿ Cuánta sombra hace ?

marzo 6, 2017

Hace años publicamos  una entrada sobre las promesas de  la computación cuántica. Leyendo la prensa parecería que estas promesas se están cumpliendo ya.

Pero leyendo artículos sólo un poco más técnicos, de prensa técnica, parece que no es así. No veo nada realmente nuevo sino futuribles, como siempre que se habla de esta tecnología. No es la única: la energía de fusión nuclear le gana en esto.

Realmente no hay mucha información al respecto pero parece más bien una operación de marketing más, orquestada ahora por motivos que desconozco. Posiblemente lo que realmente IBM quiera publicitar es el simulador de 5 qubits accesible en modo cloud y útil para aprender a programar algoritmos cuánticos. Lo han incrementado a 20 qubits, lo cual es interesante. Pero esto no es más que  una hipótesis.

Quedamos a la espera de que el influencer más famoso que opina sobre estos temas se manifieste, si es que lo hace. Esperamos que no nos deje mal…:-).

Aquellos interesados en profundizar (no es mi caso ahora mismo) pueden buscar publicaciones de los responsables de las criaturas cuánticas.

IBM’s work is based on research done at Yale through professor Robert Schoelkopf (the IBM team is mostly his Ph.D. and post-grad students).

The other prominent US school working on this is the University of California at Santa Barbara under professor John Martinis in an effort that was backed and absorbed by Google in 2014.

P.s.1. Explicamos el título. No tiene nada que ver con la sombra que pueda proyectar una eventual nube (cloud). Simplemente hace años también publicamos una entrada sobre estos temas cuyo título contenía la frase Cuánto sol hace (de  cuyo contenido no me acuerdo), título que recogía el chascarrillo que circuló en España sobre el título de la (floja) película Quantum Solace.

P.s 2. No se por qué no aparece en el cuadro de herramientas de tratamiento de texto de WordPress la herramienta para cuadrar el texto de la entrada.

Actualización 20 de marzo de 2017. Ya se han manifestado dos blogueros a los que se les puede conceder la máxima confianza cuando opinan sobre estos temas.  El lector los puede leer aquí y aquí.   Se centran más en un nuevo resultado de D-Wave que en el proyecto de IBM (o el similar Google).  Pero creo que mi calificación de futurible se sostiene. En el primer enlace se recomienda leer también los comentarios: suelen ser informativos. Cuando terminemos con la entrada sobre la historia alto medieval de Borgoña/Provenza, tema mucho más complejo  que este de computación cuántica, seguramente haremos una entrada sobre los grafos implicados en la máquina de D-Wave.

Actualización 3 de marzo 2017.

Una entrada de otro bloguero, que como los dos anteriores ofrece la máxima confianza. En este caso conviene aclarar que se trata de investigador escéptico sobre las posibilidad de construir un computador cuántico.

Ya adelanto que es una entrada con una elevada densidad de enlaces. Este bloguero además de como investigador en matemáticas, campo en el que ya no tiene nada que demostrar (entiéndase esto sólo en uno de los dos sentidos de la frase; esperamos que su trabajo siga dando grandes frutos) tendría un buen futuro como periodista de investigación :-).

Extracto.

List of companies involved in quantum computers. A few webpages:  1Qbit ; D-wave ;Quantum circuits (Yale group) ; Rigetti ; Monroe’s blog; Station Q (Microsoft); GoogleIBM-Q;

Sobre Microsoft  y la computación cuántica.

Un extracto de otro blog de un investigador y empresario en computación cuántica:

 Alibaba, Google, IBM, Intel, and Microsoft (alphabetical order) , not to mention the govs. of Australia, Canada, China, EU, Holland, UK and USA are each spending tens of millions of dollars per year to achieve the same goal as Rigetti, to build an elusive gate model quantum computer.

Decenas de millones no parece demasiado teniendo en cuenta los nombres que aparecen.

Una muy breve historia de la organización industrial del sector de computación cuántica. Nos centramos en proyectos empresariales y dejamos de lado a la academia o instituciones públicas. La fuente es el mismo blog de la última cita, Quantum Bayesian Networks. y la revista MIT Technology Review.

1999. Se funda D-Wave. Since it was founded in 1999, D-Wave has obtained more than $100 million in funding from sources such as: the venture capital firm Harris & Harris, the Canadian government, and Goldmann Sachs.

Mayo 2011. La única empresa dedicada públicamente a estas actividades sigue siendo D-Wave. Este año firma un contrato con Lockheed Martin. En 2017 D-Wave sigue desarrollando actividades.

¿ 200? Microsoft e IBMGoogle will be competing not only with whatever improvements D-Wave can make, but also with Microsoft and IBM, which have substantial quantum computing projects of their own (see“Microsoft’s Quantum Mechanics” andIBM Shows Off a Quantum Computing Chip).

Junio 2014. Google contrata a Martinis. He was hired by Google in June 2014 after persuading the company that his team’s technology could mature rapidly with the right support. With his new Google lab up and running, Martinis guesses that he can demonstrate a small but useful quantum computer in two or three years. “We often say to each other that we’re in the process of giving birth to the quantum computer industry,” he says.

Terminamos la breve historia aquí. Hasta 2011 las incumbents seguían viendo la corrida desde la barrera y en 2014 Google ¿ da el primer paso o hubo otro anterior de alguna otra multinacional ?. No Microsoft e IBM ya se habían implicado antes. Más adelante en esta  entrada nos planteamos una serie de preguntas más detalladas sobre todo esto.

Se me ha ocurrido un par de reflexiones adicionales sobre la teología cuántica (1) computación cuántica:

Primera reflexión, que se me ha ocurrido pq desde hace poco tiempo dispongo de una información de la que no disponía: ¿ pq de repente empresas (no hablo de ahora sino de hace pocos años) con una trayectoria seria y dilatada en sus estrategias de I+D e incluso de Marketing (que yo conozca hay al menos dos en la lista anterior que cumplan con estos rasgos; y se puede excluir al menos a otra, Google, que ni es seria ni tiene trayectoria acreditada: tuvo suerte en una ocasión pero no la han vuelto a repetir) están apostando fuerte por ésta, aparentemente incierta, tendencia ?. ¿ Hay alguna novedad científica o tecnológica que no conocemos el resto de los mortales, que lo explique ?. Tengo una posible explicación, pero me la reservo. Creo que es un tema digno de investigar.

Lo primero que habría que ver es si el fenómeno es real: de verdad están apostando fuerte. ¿ Constituyen estos esfuerzos una proporción importante de sus inversiones en I+D ?. Y lo segundo, si se confirmase que la apuesta es fuerte, ¿ desde cuando exactamente ha aparecido ?, ¿ a partir de que momento ha tenido lugar este cambio de actitud, de mirar la corrida académica y científica desde la barrera, como hacían desde hace décadas o al menos quinquenios, a bajar a la plaza y coger el toro por los cuernos ?. Y tercero el pq. ¿ Que gran descubrimiento ha habido en este campo, campo que como decimos ya lleva unas décadas sobre la mesa,  como para que estas empresas apuesten fuerte ahora ? ¿ O ha sido una acumulación gradual de pequeñas causas ?. Ahora invertir tiempo en esto es imposible para nosotros. Esperamos que lo hagan otros. Sí señalamos que aunque un computador cuántico es una máquina, las tres multinacionales implicadas son de software. Uno esperaría ver implicados a otros actores en este drama.

Nota. Se puede poner como momento de comienzo de este sector principios de los 80 con Benioff, Manin, Feynman o Deutsch y otros o principios de los 90, con Deutsch–Jozsa, Simon, Shor, Grover y otros. 

The field of quantum computing was initiated by the work of Paul Benioff[2] and Yuri Manin in 1980,[3] Richard Feynman in 1982,[4] and David Deutsch in 1985.[5] A quantum computer with spins as quantum bits was also formulated for use as a quantum space–time in 1968. Fin de nota.

Segunda reflexión: todos  los expertos saben que la mecánica cuántica es correcta. Pero también que es incompleta como teoría física.

El pilar de todos estos esfuerzos de I+D es un teoría incompleta. Supongamos que tras una inmensa inversión se consigue la computación cuántica práctica, pero lo que se obtiene es una especie rueda de cuadrada, en relación a lo que podría conseguirse si la tecnología estuviese basada en una teoría completa, un rueda redonda, que son las que ruedan bien de verdad. ¿ No sería mejor invertir todo este dinero en desarrollar la teoría completa antes ?. Lo que queremos decir es que quizás con la teoría completa se podría conseguir lo mismo pero con mucho menos esfuerzo.

Ok, anticipo el contra-argumento correcto pero quizás incompleto y sin duda fácil: la mecánica de Newton también es incompleta, pero se sigue utilizando por igual en muchas aplicaciones, pese a disponer de otras más completas. Por lo tanto quizás para el campo de aplicaciones de la computación cuántica, la mecánica cuántica sea suficiente. Quizás.

En cuanto a lo de invertir para obtener la teoría correcta y completa, quizás algún lector pensará ¿ todavía más ?.  Y algún otro, en que,  ¿ en teoría de cuerdas ?.

(1) Que no se lea esto como como una ironía que intenta minimizar o ridiculizar estos proyectos. Sólo me hizo gracia descubrir el otro día que la disciplina de la teología cuántica…¡¡ existe !!.

 

Algoritmos energéticamente eficientes. Landauer & Bennett.

mayo 30, 2016

Desde hace tiempo nos interesamos por el tema que indicamos en el título. Es más hemos contribuido a ello con un modelo de computación paralela (RH Systems, basados en enrutamiento por recorridos hamiltonianos) en el que, utilizando los resultados de la patente entendemos (no hay demostraciones de ningún tipo de momento) que mejora la eficiencia energética de estos sistemas. Un artículo que he encontrado interesante sobre ello.

Título: Energy-Efficient Algorithms

1.El principio teórico de Landauer. 

Expresa que hay un mínimo de energía que se debe de consumir para borrar un bit, el llamado límite de Landauer.

La fórmula precisa es:  kT ln 2, where k is the Boltzmann constant (approximately 1.38×10−23 J/K), T is the temperature of the circuit in kelvins, and ln 2 is the natural logarithm of 2 (approximately 0.69315).

2.Su aplicación a la realidad.

Esta operación de borrado no se puede hacer con menos de esta cantidad de energía, independientemente de las mejoras tecnológicas.

CPU power efficiency (number of computations per kilowatt hour of energy) has doubled every 1.57 years from 1946 to 2009 [KBSW11]. Within the next 15–60 years, however, this trend will hit a fundamental limit in physics, known as Landauer’s Principle [Lan61].

Most CPUs discard many bits of information per clock cycle, as much as one per gate; for example, an AND gate with output 0 or an OR gate with output 1 “forgets” the exact values of its inputs.

Most CPUs discard many bits of information per clock cycle, as much as one per gate; for example, an AND gate with output 0 or an OR gate with output 1 “forgets” the exact values of its inputs. To see how this relates to Landauer’s principle, consider the state-of-the-art 15-core Intel Xeon E7-4890 v2 2.8GHz CPU. In a 4-processor configuration, it achieves 1.2 · 1012 computations per second at 620 watts,1 for a ratio of 7.4·1015 computations per kilowatt hour. At the pessimistic extreme, if every one of the 4.3 · 109 transistors discards a bit, then the product 3.2 · 1025 is only three orders of magnitude greater than Landauer limit. If CPUs continue to double in energy efficiency every 1.57 years, this gap will close in less than 18 years. At the more optimistic extreme, if a 64-bit computation discards only 64 bits (to overwrite one register), the gap will close within 59 years. The truth is probably somewhere in between these extremes.

La así llamada Ley de Moore ya ha llegado prácticamente a su límite, lo cual ha impulsado la tendencia multicore, aunque todavía está sujeta a avances tecnológicos. Y para llegar al límite de Landauer no queda tampoco demasiado tiempo, entre 18 y 59 años.

3. La computacióon reversible ¿ una solución a este límite tecnológico ?. 

Reversible computing. The only way to circumvent the Landauer limit is to do logically reversible computations, whose inputs can be reconstructed from their outputs, using physically adiabatic circuits. According to current knowledge, such computations have no classical fundamental limitations on energy consumption. General-purpose CPUs with adiabatic circuits were constructed by Frank and Knight at MIT [Fra99]. The design of reversible computers is still being actively studied, with papers on designs for adders [NTR11], multipliers [NTR10], ALUs [MR11], clocks [SAI+13], and processors [TAG12] being published within the last five years. AMD’s CPUs since Oct. 2012 (Piledriver) use “resonant clock mesh technology” (essentially, an adiabatic clock circuit) to reduce overall energy consumption by 24% [Cyc12]. Thus the ideas from reversible computing are already creating energy savings today. But what can be done by reversible computation? Reversible computation is an old idea, with reversible Turing machines being proved universal by Lecerf in 1963 [Lec63] and ten years later by Bennett [Ben73]. Early complexity results showed that any computation can be made reversible, but with a quadratic space overhead [Ben89] or an exponential time overhead [LMT97,Wil00], in particular models of computation. More recent results give a trade-off with subquadratic space and subexponential time [BTV01]. These general transforms are too expensive; in particular, in a bounded-space system, consuming extra space to make computations reversible is just delaying the inevitable destruction of bits.

Había oído hablar de la computación reversible, su universalidad, pero sabía que fuese tan costosa en términos de espacio y tiempo. Muy interesante.

5. Los resultados del artículo.

This paper is the first to perform a thorough algorithmic study of partially reversible computing, and to analyze realistic time/space/energy trade-offs. We define the (Landauer/irreversibility) energy cost, and use it to explore reversible computing in a novel manner. Although there are many other sources of energy inefficiency in a computer we believe the Landauer energy cost is a fundamental and useful measure. A key perspective shift from most of the reversible computing literature (except [LV96]) is that we allow algorithms to destroy bits, and measure the number of destroyed bits as the energy cost. This approach enables the unification of classic time/space measures with a new energy measure. In particular, it enables us to require algorithms to properly clean up all additional space by the end of their execution, and data structures to be properly charged for their total space allocation.

Lo cierto es que la energía no se consume solo borrando  bits. Dicho esto la diferencia entre un algoritmo que utilice backtracking y uno que encuentre de manera más directa la solución es precisamente que el que utiliza backtraking tiene que borrar muchos más bits a lo largo de su computación. ¿ O interesa almacenar las vías muertas ?.

These models open up an entire research field, which we call energy-efficient algorithms, to find the minimum energy required to solve a desired computational problem within given time and space bounds. We launch this field with several initial results about classic algorithmic problems, first analyzing the energy cost of existing algorithms, and then modifying or designing new algorithms to reduce the energy cost without significantly increasing the time and space costs. Table 2 summarizes these results.

En fin lo dejamos aquí. El lector interesado puede leer el artículo completo en el enlace del principio.

Nota. Hemos seleccionado los dos nombres del título más que nada por adornarlo. Se trata de dos de los investigadores (los dos trabajaron en IBM) principales en este campo. No nos olvidamos de Yves Lecerf. El caso es que tras una primera prometedora publicación sobre computabilidad de máquinas reversibles (en la que demuestra la universalidad de la computación clásica reversible), dejó este tipo de investigaciones. Bennett publicó más tarde este mismo resultado y además estudió el tema desde el punto de vista de complejidad computacional. Realmente no conocía a Lecerf, investigador de curiosa carrera. Fin de nota. 

Libro: Extensa historia del tiempo.

mayo 16, 2015

1. El autor de un libro de divulgación científica (básicamente de Cosmología) me pidió recientemente prologarlo y con mucho gusto accedí.

Extensa historia del tiempo

En el propio prólogo (para leerlo el lector deberá de comprar el libro, que de momento solo tiene formato físico y en una edición muy limitada, si te interesa no te duermas…) se explica que hace un individuo como yo prologando un libro como éste, así como mi opinión sobre el contenido del libro y sobre las hipótesis del autor (además de ser de divulgación el autor presenta sus propias ideas sobre algunas cuestiones cosmológicas). Personalmente, tal y como comento en el prólogo, me  gustó especialmente el capítulo sobre agujeros negros. Es un tema sobre el que no había leído mucho y me resultó especialmente informativo, aprendí cosas nuevas.

Como se puede deducir por el título y subtítulo el autor es admirador del gran Hawking y su famosa obra de divulgación, que todos leímos en su momento. Se conforma con vender el doble…;-).

2. El otro día el autor, de doble nacionalidad hispano-venezolana, nos invitó a aquellos que de alguna manera hemos colaborado (mi aportación es mínima, sólo el prólogo y algunas sugerencias de cambio en el texto) para celebrar que el proyecto ha llegado a buen puerto. Es decir que el libro se ha publicado. Cabe señalar que se trata de una auto-edición. La editorial es RingoRango, especializada en este segmento, por lo visto muy dinámico últimamente.

La comida fue en un restaurante venezolano de Madrid. Aunque muy parecida a la del resto de Latam fue todo un descubrimiento la gastronomía venezolana.

En la siguiente fotografía el autor (de rojo), las editoras (de negro), una colaboradora (de blanco) y el que escribe estas líneas (del color que falta). Al fondo un cuadro con simbología venezolana.

(more…)

Imperialismo computacional. Recopilación de enlaces, febrero 2015, 1.

febrero 3, 2015

En ésta recopilación, la sexta de enero de 2015, la primera de febrero de 2015 (joer, se me había olvidado que ya estamos en febrero), …4 artículos sobre inteligencia artificial (casi todos relacionaados con Deep Learning / Deep Mind, 3 sobre la temática del imperialismo computacional, 2 sobre robótica y uno sobre técnicas automáticas de enamoramiento.

1. Inteligencia Artificial. Deep Learning.

Un artículo sobre Hinton, padre del Deep Learning.

2.Inteligencia Artificial. Caso Deep Mind.

Una entrevista a Hassabis, uno de los fundadores  de Deep Mind.

3. Inteligencia Artificial. Caso Deep Mind.

(more…)

Física. Problemas abiertos en Ciencias de la Tierra.

enero 26, 2014

1. Una entrada realmente interesante (en un blog “español”, pero escrito en inglés, Mapping Ignorance) sobre los 49 problemas que siguen dando vida a las Ciencias de la Tierra (están agrupados en las siguientes categorías: formación del sistema solar y primeros pasos primeras vueltas de la tierra; las intimidades de la Tierra, es decir su interior; tectónica de placas; historia de la formación de los paisajes y entornos  de la tierra y finalmente clima y vida). Para  cada problema abierto un breve resumen y en algunos casos, enlaces a artículos relacionados.

2. Algunos de los problemas abiertos parecen elementales, no en el sentido de que sean fáciles de resolver, sino en el que son preguntas que se le ocurrirían a cualquiera.

Me ha llamado especialmente la atención una pregunta (no necesariamente elemental, yo por ejemplo daba por hecho que este  fenómeno era ubicuo entre los planetas):

(more…)

La ciencia, sus límites y sus desechos.

enero 16, 2014

Interesante artículo del cosmólogo Martin Rees sobre los límites del conocimiento  científico.

Es  un ensayo, entre otros muchos, de una serie publicada por Edge, en la que múltiples científicos contestan a la  pregunta:

 What scientific idea is  ready for retirement ?

o  según una traducción libre realizada por mi mismo:

¿ Que ideas que se deben de desechar de la ciencia (actual) ?.

Extractos  del artículo de Martin Rees.

There’s a widely-held presumption that our insight will deepen indefinitely—that all scientific problems will eventually yield to attack. But I think we may need to abandon this optimism. The human intellect may hit the buffers—even though in most fields of science, there’s surely a long way to go before this happens.

El comienzo es contundente y contrasta con la visión general. Ojo porque el autor se declara optimista tecnológico y tiene puntos  de vista bastante razonables  en muchas cosas.

Einstein’s theory treats space and time as smooth and continuous. We know, however, that no material can be chopped into arbitrarily small pieces: eventually, you get down to discrete atoms.

(more…)

HPC & Algorítmica. Premio Nobel de Quimica 2013 para modelos / algoritmos de Dinámica Molecular.

octubre 9, 2013

1. En este blog no se suele comentar sobre premios de ningún tipo salvo que tengan que ver de manera muy directa con sus contenidos habituales, que cuando se trata de premios suelen ser de algorítmica. El año pasado ya comentamos sobre el premio Nobel de Economía, que se concedió básicamente por el diseño, invención o descubrimiento de un algoritmo.

Este  año el premio Nobel de Física se ha concedido para un resultado

(more…)

Desarrollo. Física, Biología y su relación con las Ciencias Sociales.

septiembre 10, 2013

Dos artículos sobre las cuestiones del título que no voy a tener tiempo de leer ni siquiera comentar.

1. El primero es sobre la diferencia entre la Física y las Ciencias Sociales. Este es un tema muy recurrente en Filosofía de la Ciencia. Lo leí en diagonal y es tan abstracto que en el fondo no dice mucho sobre las Ciencias Sociales.

Abstract: 

Economics, and other fields of social science are often criticized as unscientific for their apparent failures to formulate universal laws governing human societies. Whether economics is truly a science is one of the oldest questions. This paper attempts to create such universal laws, and asserts that economics is a branch of quantum physics just like chemistry. Choice is a central concept in economics and other fields of social science, yet there is no corresponding concept of choice in modern physics. This article suggests that by introducing the concept of choice to the existing framework of physics, one can formulate five new physics laws, which establishes a common physics foundation for all fields of social and natural science. Applications in economics, biology, history, and finance prove that these new laws remove the invisible wall, which has been artificially separating social science from natural science. One implication of this article is that to establish a sound scientific foundation for social science requires not only advances in psychology and neurobiology but also a new interpretation of quantum mechanics.

Enlace. Este paper se ha  comentado en algunos blogs de economía como este (este bloguero ya hizo otra entrada sobre este mismo tema) o este otro que ya hemos citado en varias ocasiones (este autor tiene una categoría en su blog precisamente llamada econophysics).

En mi opinión, si la diferencia entre la física y las ciencias sociales estuviese en la capacidad de elección de los agentes sociales o económico, entonces estas podrían reducirse o identificarse con la Psicología / Ciencias Cognitivas. No  creo que sea el caso.

Visto en Econacademics blog.

2. El segundo  es un nuevo resultado de teoría de juegos que concluye que las estrategias generosas, lo que quiera que sea esto, son mejores.

Mucho cuidado con extrapolar este resultado que se ha obtenido en el marco de una teoría muy concreta, más bien matemática que científica y cuya relación con la realidad no está clara, a la propia realidad. Entre otras cosas hay que ver como definen generosidad.  Las definiciones técnicas que se realizan en el marco de una teoría no siempre  coinciden con las de uso común.

Es decir sugiero al lector que de momento no vaya regalando sus pertenencias al primero que entre por la puerta. Por otra parte, determinados países que siguen aferrados al Antiguo Régimen y su organización colonial, sí  que deberían de  aplicar estos resultados y revertir sus colonias. El lector ya sabe a quien me refiero. Aunque no se si esto se podría calificar como un acto de generosidad.

Autores: Alexander J. Stewart y Joshua B. Plotkin. 

Título: From extortion to generosity, evolution in the Iterated Prisoner’s Dilemma. PNAS (2013). DOI: 10.1073/pnas.1306246110.

Artículo relacionado: William H. Pressa y Freeman J. Dyson. Iterated Prisoner’s Dilemma contains strategies that dominate any evolutionary opponent. PNAS (2012). DOI: 10.1073/pnas.1206569109. 

Abstract:

Recent work has revealed a new class of “zero-determinant” (ZD) strategies for iterated, two-player games. ZD strategies allow a player to unilaterally enforce a linear relationship between her score and her opponent’s score, and thus to achieve an unusual degree of control over both players’ long-term payoffs. Although originally conceived in the context of classical two-player game theory, ZD strategies also have consequences in evolving populations of players. Here, we explore the evolutionary prospects forZDstrategies in the Iterated Prisoner’s Dilemma (IPD). Several recent studies have focused on the evolution of “extortion strategies,” a subset of ZD strategies, and have found them to be unsuccessful in populations. Nevertheless, we identify a different subset of ZD strategies, called “generous ZD strategies,” that forgive defecting opponents but nonetheless dominate in evolving populations. For all but the smallest population sizes, generous ZD strategies are not only robust to being replaced by other strategies but can selectively replace any noncooperative ZD strategy. Generous strategies can be generalized beyond the space of ZD strategies, and they remain robust to invasion. When evolution occurs on the full set of all IPD strategies, selection disproportionately favors these generous strategies. In some
regimes, generous strategies outperform even the most successful of the well-known IPD strategies, including win-stay-lose-shift.

Enlace.

Visto en Madri+d.

Actualización.

Un artículo en el NYT sobre la diferencia entre la economía y estas ciencias duras.

 

IP. ¿ Las invenciones más importantes no son patentadas?

julio 22, 2013

1. La sorpresa.

En una interesante entrada de un blog reseñado en el agregador Econacademics, leo:

We know from a variety of sources that most important inventions are not patented, that many low-quality inventions of little social value are patented, and that patents are used in enormously different ways depending on market structure“.

Me sorprende sobre todo lo primero, que marco en negrita.

2. Dos hombres y un destino: patentar…o algunos apuntes impresionistas sobre la cuestión.

Y me sorprende no porque considere que mi patente es importante ;-), sino porque precisamente ha coincidido la lectura de esta entrada con la lectura hoy (por motivos profesionales) sobre Karl Josef Bayer, inventor del Proceso Bayer por el cual se extrae u obtiene alumina (oxido de aluminio) de la bauxita (mineral que es la mayor fuente de aluminio). El proceso, todavía hoy en uso, fue una de las dos innovaciones responsables de que el aluminio pasase de ser considerado casi un  metal  precioso a uno de gran uso industrial (ya se sabía que tenía propiedades interesantes y gracias a esta y a la innovación sobre la que hablamos a continuación su producción se abarató: más de 200 veces el precio anterior), fue patentado.

La otra innovación responsable, el Proceso Héroult-Hall descubierto simultáneamente por un investigador francés y uno norteamericano, y que transforma por electrólisis  el alumina en aluminio, también fue patentada, en los dos casos y que también se utiliza hoy de manera abundante.

Héroult tuvo éxito tanto industrial cómo económico con su primera invención, tanto en Francia cómo en EEUU (En 1888, il est créé en France la Société électrométallurgique française (SMEF) dans laquelle Paul Héroult est impliqué bien qu’il ne possède pas d’action. Il recevra des redevances (65 000 F plus 1 F par kilogramme d’aluminium)….En 1913 il achète un yacht de 35 m, le Samva. Il voyage sur la Méditerranée) y se convirtió en un serial inventor (26 patentes más; otra invención muy destacada suya fue el horno de arco eléctrico).

Hall estudió en Alemania que por esas fechas se estaba convirtiendo en una potencia científico industrial. Tras su invento y patente, también le costó desarrollar su invención pero finalmente lo consiguió: After failing to find financial backing at home, Hall went to Pittsburgh where he made contact with the noted metallurgist Alfred E. Hunt. They formed the Reduction Company of Pittsburgh which opened the first large-scale aluminum production plants. The Reduction Company later became the Aluminum Company of America, then Alcoa. Hall was a major stockholder, and became wealthy.  Hoy Alcoa está entre las cinco primeras empresas del sector del aluminio a nivel global. Y Hall también se convirtió en un inventor en serie: 22 us-patentes.

Cómo anécdota señalemos que ambos inventores tuvieron destinos exactamente paralelos hasta una fecha en que se cruzaron, y paralelos después otra vez: nacieron en el mismo año,   patentaron el mismo año,  se pelearon por la prioridad el mismo año y al año siguiente, el mismo para los dos, se hicieron amigos; un poco más tarde se compraron el mismo yate :-), modelo se entiende, y tras obtener el respectivo reconocimiento oficial (Chevalier de la Légion d´Honeur y Perkin Medal, suponemos que el mismo año también; hélas, que tiempos aquellos en los que los inventores eran reconocidos y no denostados)…¡ murieron el mismo año !.

Sólo dos ejemplos entre muchos otros que conozco que desmienten esa proposición que hemos marcado en negrita. Pero reconozco que esto es puro impresionismo y quizás haya alguna investigación más seria que haya conseguido,  primero  decidir que invenciones son las más importantes (esto aunque en cierto modo subjetivo entiendo que puede ser posible aplicando métodos económicos), y segundo determinar si se han patentado o no (esto es más fácil). Le voy a pedir al autor que si es tan amable de hacer públicas esas variadas fuentes…

3. La solicitud de las fuentes.  

Hecho !.  He colgado en la entrada del blog el siguiente comentario.

“We know from a variety of sources that most important inventions are not patented…”

A penny for your sources…

P.s. Could you please made explicit the sources regarding quoted proposition. Thanks in advance.

A la espera de respuesta, si haberla hayla.

4. Las fuentes, sin pagar un penny

El autor  del blog ha contestado amablemente y además muy rápido.

Resumiendo las referencias de las que hablaba son las siguientes.

a) For historical evidence, the best is Petra Moser’s World Fair paper, which shows conclusively that very few 19th century inventions, even prizewinning ones, were patented.

El titulo y el abstract del paper al que se refiere en esta primera mención es el siguiente:

Título.  Innovation without Patents: Evidence from World’s Fairs

Abstract.

 This paper introduces a unique historical data set of more than 8,000 British and American innovations at world’s fairs between 1851 and 1915 to explore the relationship between patents and innovations. The data indicate that the majority of innovations—89 percent of British exhibits in 1851—were not patented. Comparisons across British and U.S. data also show that patenting decisions were unresponsive to differences in patent laws. Cross-sectional evidence suggests that high-quality and urban exhibits were more likely to be patented. The most significant differences, however, occurred across industries: inventors were most likely to use patents in industries in which innovations are easy to reverse engineer and secrecy is ineffective relative to patents. In the late nineteenth century, scientific breakthroughs, including the publication of the periodic table, reduced the effectiveness of secrecy in the chemical industry. Difference-in-differences regressions suggest that this change resulted in a significant shift toward patenting.

Hay otra versión del mismo paper más reciente:

Título. Why don´t inventors patent ?

Abstract.

This paper argues that the ability to keep innovations secret may be a key determinant of patenting. To test this hypothesis, the paper examines a newly-collected data set of more than 7,000 American and British innovations at four world’s fairs between 1851 and 1915. Exhibition data show that the industry where an innovation is made is the single most important determinant of patenting. Urbanization, high innovative quality, and low costs of patenting also encourage patenting, but these influences are small compared with industry effects. If the effectiveness of secrecy is an important factor in inventors’ patenting decisions, scientific breakthroughs, which facilitate reverse-engineering, should increase inventors’ propensity to patent. The discovery of the periodic table in 1869 offers an opportunity to test this idea. Exhibition data show that patenting rates for chemical innovations increased substantially after the introduction of the periodic table, both over time and relative to other industries.

Y más publicaciones de esta autora aquí. Me parece que poco voy a poder comentar sobre cualquiera de estos dos artículos, pues no tengo acceso.

Parece confirmarse la (obvia por otra parte) relación entre patentes y secreto industrial. Que haya más secreto industrial es el más claro indicador de fracaso para el sistema de patentes. Algo está fallando.

Y ciertamente la tercera microalternativa por la que pueden optar los agentes económicos en este campo de juego, que es la entrega al dominio público del nuevo conocimiento generado se ve “incentivada” por la (en mi opinión completamente convencional / artificial, aunque a veces se quiera vender como natural) prohibición de patentar descubrimientos científicos, prohibición que además de limitar el número de patentes, hacer que sea más complicada la vía del secreto industrial en algunos sectores tal y como señala la autora. Otra cosa es que esta tercera alternativa, normalmente asociada a financiación pública sea una manera eficiente de generar conocimiento nuevo, o viable desde el punto de vista económico.

Finalmente señalemos que escrutar las razones de la cuarta microalternativa, que es dedicarse a otra cosa que a generar nuevo conocimiento, alternativa por la que optaba hasta hace poco la mayoría de la gente y por la que seguramente siguen optando pese a la emergencia de la llamada sociedad del conocimiento (emergencia en los dos sentidos, como situación nueva y como situación que urge), es mucho más complicado.

b) For case studies, read von Hippel’s Sources of Innovation book, which discusses major microinventions in many industries and how many of them came from outside the firm that ends up selling the product.

En este caso hay suerte y el propio autor ha puesto la fuente (un libro de 1988) accesible.

c) For survey evidence, the Levin-Cohen survey found that, outside of pharma and petro, patents are little used.

Yo tenía entendido que IBM, del  sector TIC, ocupa desde hace años el primer puesto en el ranking de titularidad de patentes, por cantidad :-). En cualquier caso esta fuente ya la conocía. Son varias encuestas. La primera elaborada por Levin et al en los 80 del siglo pasado. La segunda por Cohen et al en los 90. Aquí hablan de las dos. En ambas salta a la vista que el secreto industrial u otras alternativas es preferido.

d) También hace un comentario adicional dónde no se cita ninguna referencia explícita, pero creo que se refiere a este artículo:

Título: REASSESSING PATENT PROPENSITY: EVIDENCE FROM A DATA-SET OF R&DAWARDS, 1977-2004.

Abstract.

It is well known that not all innovations are patented, but the exact volume of innovative activities undertaken outside  the coverage of patent protection and, relatedly, the actual propensity to patent an innovation in different contexts  remain, to a major degree, a matter of speculation. This paper presents an exploratory study comparing systematically patented and unpatented innovations over the period 1977-2004 across industrial sectors. The main data source is the  R&D 100 Awards’ competition organized by the journal Research and Development. Since 1963, the magazine has been awarding this prize to the 100 most technologically significant new products available for sale or licensing in the year preceding the judgments. We match the products winners of the R&D 100 awards competition with USPTO patents and we examine the variation of patent propensity across different contexts (industries, geographical areas and organizations). Finally we compare our findings with previous assessments of patent propensity based on several  sources of data.

Los autores son profesores de la Universidad de Lisboa. Y ojo, en el blog PatentlyO comentan lo siguiente sobre este artículo:

I suspect that the authors did not do a great job of searching for the relevant patents. For a sanity-check, I just looked up the first three innovations in the 2004 awards and then found pre-2004 patents owned by the innovative company that seemingly relate directly to the innovation being championed.  Además: They did not pay someone at least half competent in reading claims to see what was going on, and did not look for patents back beyond 3 years prior to the award and 3 years after teh reward.

Parece por tanto que tanto en metodología (limitación geográfica y temporal: 1977-2004; el tema de los 6 años…), como en ejecución,  el paper es bastante deficiente para medir lo que pretende medir. Con respecto a la ejecución ya hemos comentado que los autores son europeos y no tienen porque conocer en detalle el sistema de patentes de EEUU y como utilizar las bases de datos de la USPTO.

Además de en PatentlyO, también comentan sobre este artículo en Techdirt. Algunas de las invenciones premiadas por R&D Awards son:

Throughout the years, key breakthroughs inventions such as Polacolor film (1963), the flashcube (1965), the automated teller machine (1973), the halogen lamp (1974), the fax machine (1975), the liquid crystal display (1980), the printer (1986), the Kodak Photo CD (1991), the Nicoderm antismoking patch (1992), Taxol anticancer drug (1993), lab on a chip (1996), and HDTV (1998) have received the prize.

En fin, cuando lea en profundidad estas referencias, haré otra entrada sobre el tema. Antes, para equilibrar un poco la balanza cito un reciente libro (que no conocía y no he leído) en el que argumentan a favor del sistema de patentes: The Laws of Ideas: property rights in the world of ideas. Para ser honestos señalemos que los autores son dos abogados de la propiedad intelectual. 

5. ¿ Por qué no se patenta más entonces ? 

Aceptando la tesis de que la mayoría de las invenciones no se patentan (tesis  que todavía no aceptamos), ¿ cómo se explicaría esto ?

En una entrada vista en otro blog,  dos economistas, comentando sobre  un reciente paper propio, que intenta responder a otra pregunta (¿ bloquea la invención posterior en un sector la existencia de patentes ?) nos dan, de  manera indirecta, algunas  claves.

Título: Patents and cumulative innovation: evidence from the courts.

Abstract:

Cumulative innovation is central to economic growth. Do patent rights facilitate or impede such follow-on innovation? This paper studies the effect of removing patent protection through court invalidation on the subsequent research related to the focal patent, as measured by later citations. We exploit random allocation of judges at the U.S. Court of Appeal for the Federal Circuit to control for the endogeneity of patent invalidation. We find that patent invalidation leads to a 50 percent increase in subsequent citations to the focal patent, on average, but the impact is highly heterogeneous. Patent rights appear to block follow-on innovation only in the technology fields of computers, electronics and medical instruments. Moreover, the effect is entirely driven by invalidation of patents owned by large patentees that triggers entry of small innovators, suggesting that patents may impede the ‘democratization’ of innovation

Muy interesante.

Recuerdese que en este juego de la propiedad intelectual, el regulador, en general un gobierno tiene que conseguir un sistema que cree incentivos a la publicación de nuevo conocimiento (lo cual no es equivalente a la entrega del dominio público), pero que una vez publicadas, minimice los efectos de los derechos concedidos a cambio (del monopolio concedido).

Para esto el regulador puede jugar limitando los parámetros que aparecen en los derechos de propiedad intelectual: el rango / scope (materia patentable, reclamaciones aceptables) y el periodo / term (la duración del derecho de una patente es solo por 20 años).

Pero tiene  a su disposición una alternativa mejor: revocar los derechos una vez concedidos, ante una demanda judicial. Es decir incentivar a los jueces que tienen competencia en este tipo de casos para que juzguen en contra de los titulares de patentes. Una vez que un resultado ya está publicado ¿ para que mantener el monopolio ?.

Esto parecería una estrategia cortoplacista por parte del regulador, pero como se puede ver el  artículo se aplica a discreción: In our analysis, we exploit patent invalidation decisions by the US Court of Appeal for the Federal Circuit, which has exclusive jurisdiction in appellate cases involving patents.  We use comprehensive data on 1357 Federal Circuit decisions from 1983 to 2008, and record whether each patent was invalidated. About 40% of the decisions in our sample lead to a loss of patent protection for the technology. To measure cumulative innovation, we follow the large empirical literature in economics which exploits citations by later patents as a way to trace knowledge spillovers (for a good survey, see Griliches 1992).

Este resultado me parece más solido metodológicamente. Al menos los propios autores son conscientes de las dificultades: In recent research, we estimate the impact of patent rights on cumulative innovation (Galasso and Schankerman 2013). To study this relationship empirically is challenging for two reasons. The first problem is that we need to identify comparable technologies with and without patent protection. The second is that follow-on innovation is difficult to measure. De momento no me queda claro si la muestra es exhaustiva, es decir incluye todos las litigaciones entre 1983 y 2008.

Más extractos de la entrada:

We investigate the source of this heterogeneous effect and find that the technology fields where the impact of patent invalidation is strongest are characterised by two features: complex technology (where new products rely on numerous patentable elements) and high fragmentation of patent ownership among diverse firms.

This finding is consistent with predictions of the economic theories that emphasise bargaining failure in licensing as the source of blockage. Aqui hay un fallo de mercado claro, dos partes que quieren intercambiar y al final no se pueden poner de acuerdo. A falta de un mecado líquido, las PAE pueden ser una posible solución a este problema.

De cualquier manera, y de manera indirecta, ya tenemos dos motivos más que explican por qué no se patenta más: además de costoso, hay gran incertidumbre tanto sobre la obtención del derecho (concesión de la patente) como sobre que el mantenimiento del derecho (es decir conseguir que el derecho no sea revocado una vez se obtiene); incluso cuando consigues obtener y mantener el derecho, es muy posible que llegues a un callejón sin salida pues no puedas ponerte de acuerdo con tu interlocutor (mercado ilíquido; y, ojo, esto no es independiente de todo lo anterior: la limitación del scope y term y la  incertidumbre sobre el mantenimiento del derecho no facilitan la liquidez de un mercado ya sometido a elevadas fricciones por la naturaleza de los entes que se comercializan).

Por decirlo brevemente la alternativa de patentar es cara y sujeta elevada incertidumbre jurídica. Ante esto la mayoría de la gente opta por dedicarse a cualquier otra cosa, a la larga  más rentable; y los recalcitrantes (los que llevan en la sangre la innovación / invención) optan por vías de menos riesgo:

–ser empleado de instituciones de investigación en general públicas en la que pueden o regalar al dominio público sus resultados, o patentar cediendo la mayor parte de los beneficios, cobrando a cambio un salario fijo),

–el secreto industrial.