Imperialismo Computacional. Recopilación de enlaces enero de 2016.

Unos 20 puntos / enlaces que hemos visto interesantes en los dos últimos meses.

1.Imperailismo computacional, libro: el futuro de las profesiones “liberales”.

The Future of the Professions: How Technology Will Transform the Work of Human Experts

Hablan del impacto de las tecnologías TIC sobre el ejercicio de profesiones milenarias, que de momento se han resistido a la acometida del Imperialismo Computacional: médicos, abogados, asesores financieros (contables, auditores….) etc…

This book predicts the decline of today’s professions and describes the people and systems that will replace them. In an Internet society, according to Richard Susskind and Daniel Susskind, we will neither need nor want doctors, teachers, accountants, architects, the clergy, consultants, lawyers, and many others, to work as they did in the 20th century.

2. El control y la falta de privacidad.

Extracto.

Incontables cámaras de vigilancia escrutan sus movimientos. Ordenadores de capacidades descomunales rastrean sus huellas en la Red

Entramos en un universo controlado por ‘hackers’, Gobiernos, empresas y traficantes de datos. Un paso más hacia el cumplimiento de la profecía orwelliana

3. El apagon de WhatsApp (en Brasil).

4. Historia de la música grabada.

Entiendo que  el  libro trata más del aspecto tecnológico de la grabación musical que de otra cosa.

La música grabada no tiene nada que ver con la música en vivo. Esto no es nada nuevo y precede a la  digitalización. Por ejemplo, The Who, en los 60, ya decía que no podían reproducir en vivo los efectos de la grabacón de I can see for miles, y hay muchos otros ejemplos.

Pero sin duda la tendencia se ha agudizado con la digitalización, como nos muestran en este otro libro: The Song Machine: Inside the Hit Factory

Extracto.

Over the last two decades a new type of hit song has emerged, one that is almost inescapably catchy. Pop songs have always had a “hook,” but today’s songs bristle with them: a hook every seven seconds is the rule. Painstakingly crafted to tweak the brain’s delight in melody, rhythm, and repetition, these songs are highly processed products. Like snack-food engineers, modern songwriters have discovered the musical “bliss point.” And just like junk food, the bliss point leaves you wanting more.

In The Song Machine, longtime New Yorker staff writer John Seabrook tells the story of the massive cultural upheaval that produced these new, super-strength hits. Seabrook takes us into a strange and surprising world, full of unexpected and vivid characters, as he traces the growth of this new approach to hit-making from its obscure origins in early 1990s Sweden to its dominance of today’s Billboard charts.

Leía en otro tercer libro cuyo título ahora no recuerdo que amateurs que se instalan un estudio de grabación digital con todos sus elementos no consiguen darle al sonido el acabado que consigue la industria musical. Hay un último proceso, un último barniz, cuyo nombre no recuerdo tampoco que le da ese toque diferente.

Hay versión española (del libro que ha motivado el punto): El sonido y la perfección. Greg Milner. Traducción de Yuri Méndez. Léeme Libros / Lovemonk. Madrid, 2015. 437 páginas.

5. Libro. ‘Escritura no-creativa. Gestionando el lenguaje en la era digital‘, del poeta y ensayista norteamericano Kenneth Goldsmith (Freeport, New York, 1961), que edita Caja Negra.

Se trata del capítulo titulado originalmente‘Sembrar la nube de datos’. Lo he leído en diagonal y sinceramente no me ha quedado claro. Espero que el lector le pueda dedicar más  tiempo.

6. Nips y Open AI.

Nips (Neural Information Processing Systems) es una de las principales conferencias académicas en Inteligencia Artificial.

OpenAI es un centro de investigación en Inteligencia Artificial, sin ánimo de lucro, financiado por inversores de Silicon Valley. Algunos de ellos han expresado preocupación sobre las consecuencias de este tipo de investigaciones y quieren una investigación en este campo sin ánimo de lucro.

Extracto.

Its long-range goal will be to create an “artificial general intelligence,” a machine capable of performing any intellectual task that a human being can, according to Mr. Musk. He also stressed that the focus was on building technologies that augment rather than replace humans.

Mr. Musk, who is deploying A.I.-based technologies in some of his products like the Tesla automobile, said that he has had longstanding concerns about the possibility that artificial intelligence could be used to create machines that might turn on humanity.

Un artículo en el NYT sobre esta iniciativa.

La iniciativa señalada contrasta con la tendencia en los últimos años de organizaciones con ánimo de lucro (básicamente los gigantes TIC) en contratar investigadores especialistas en IA, concretamente en Deep Learning. que es la técnica que ha facilitado este nuevo verano en la IA. Ya hemos hablado de ello en otras entradas.

Pero ¿ es realmente Deep Learning, la técnica que tanto revuelo está causando en los últimos años, la forma definitiva que adoptará la inteligencia artificial ?. Algunas voces autorizadas dicen que no.

Artificial Intelligence appears to be making leaps and bounds recently: I can hardly contain my excitement about autonomous vehicles / self-driving cars reaching the market soon; and I can’t wait to see what’s next. But have we been getting it wrong? Neuroscientist Gary Marcus apparently thinks so, at least in terms of how we get machines to mimic human learning.

The most popular approach, called “deep learning”, requires flooding computers with vast amounts of data so that they can recognise patterns and attune them. Only by giving them as much data as possible can we teach them to recognise often subtle exceptions to rules. But this is rather different to what humans do: we are able to extrapolate and act upon rules almost immediately, from sometimes only a handful of examples.

Fuente del extracto.

El comentario tiene un aroma muy fuerte a complejidad computacional. Y de hecho la complejidad computacional de las técnicas de Aprendizaje Automático (Machine Learning) se estudia desde hace mucho tiempo. Lo que si es nuevo es el estudio de la complejidad computacional de Deep Learning (recordemos que Deep Learning es un campo dentro de Machine Learning, tampoco especialmente nuevo, incluso despreciado hasta hace poco excepto por algunos recalcitrantes). Tan nuevo que lo poco que hay publicado al respecto es muy reciente…Ver también.

Y un artículo en la MIT review en el que recogen las tesis de Marcus.

En fin, ¿ nuevo invierno IA a la vuelta de la esquina ?

Relacionado. ED sobre IA, dos entradas recientes. 1 y 2.

5. El sector TIC en España: Callejón del (S)Chulapón Silicon Alley, Madrid.

Es un cluster TIC que está emergiendo en Madrid. Se localiza en un polígono industrial de Madrid, antes deteriorado pero que hoy, además de precios económicos ofrece ventajas de localización para las empresas TIC (creo que proximidad al backbone de telefónica y a un punto neutro de Internet, ESPANIX; pinchar aquí para ver la localización del Par (punto de acceso remoto) localizado en las instalaciones de Terremark (desde 2009), en Silicon Alley y del Par localizado en las instalaciones de Interxión, también en Silicon Alley; el nodo central de Espanix no está localizado en Silicon Alley).  He estado un par de veces recientemente en esta zona. El cluster ha emergido de manera natural y se demuestra una vez más que en el sector TIC (sobre todo en la T)  la geografía (física) importa.

Ver también.

Silicon alley madrid 2

Extracto de la página web de la Asociación:

En el distrito madrileño de San Blas-Canillejas se encuentra el Silicon Alley español, una antigua zona industrial reconvertida en la actualidad en zona tecnológica

Silicon Alley Madrid, bautizado así en referencia a la zona de Manhattan en Nueva York, representa el lugar con más alta concentración de empresas tecnológicas de España. Formado por un clúster de empresas dedicadas a la tecnología punta y las redes de telecomunicaciones y nacido sin el calor del apoyo público, Silicon Alley se ha ido abriendo paso gracias al esfuerzo de las corporaciones que lo forman. 

Su nacimiento y desarrollo se ha visto propiciado por tres circunstancias que hacían previsible su actual destino: 

  • La conexión al tipo de potencia eléctrica que precisan los grandes centros de datos.
  • La proximidad a la red Troncal de Telefónica.
  • Las buenas conexiones físicas, ya que se encuentra próximo al aeropuerto de Barajas. 

Todo esto ha permitido que el distrito cuente con un excelente balance entre industria limpia & high-tech. En Silicon Alley, centro neurálgico de redes de telecomunicaciones, se encuentran identificadas cerca de 200 empresas tecnológicas, una amplia oferta de proveedores TIC que ofrecen su expertise y profesionalidad.

Como se ve consideraciones energéticas y de conectividad con el transporte físico (Aeropuerto de Barajas) han sido importantes. Nohe conseguido averiguar desde cuando está  instalado en este entorno el punto  neutro de internet ESPANIX.

Nota al margen. Historia de Internet en España.  Es un artículo añejo (se debió de escribir en 1999 o 2000, pero ¡¡ muy interesante !!.

Los principales hitos (recordamos al lector que no se debe de confundir Internet con la Web, son dos conceptos diferentes: la primera es una red de telecomunicaciones (de datos) hardware basada en el protocolo TCP/IP; las direcciones IP y sus correspondientes DNS pertenecen a esta red, de la que la unidad básica son los Sistemas autónomos o AS; la segunda, la WWW, es una aplicación software (como pueda serlo el e-mail, que de hecho utiliza otro protocolo diferente) de presentación de información, dispuesta en forma de páginas web, información que se transmite en las redes IP usando protocolo HTTP; las URL pertenecen a esta otra red):

1970-1980 EEUU y Europa. Desarrollo de las tecnologías de conmutación de paquetes. Arpanet en EEUU. Inicios del desarrollo del modelo OSI.

1980-1990 EEUU y Europa. Emergencia de la tecnología TCP/IP como protocolos de interconexión de redes locales en EEUU y primeras implantaciones en Blue Banana, en Europa. Establecimiento de las primeras interconexiones transatlánticas.

Extracto.

A finales de los años 80 había ya un gran número de redes TCP/IP funcionando en Europa de forma aislada. Algunas de ellas empezaron a disfrutar de las primeras conexiones transatlánticas con la Internet, normalmente gracias a líneas dedicadas cofinanciadas por agencias norteamericanas, como la ]National Science Foundation, la NASA o el Departamento de Energía (DoE), muy interesadas en la colaboración con determinados centros de investigación europeos. Así, en 1988 y 1989 se fueron conectando a Internet prestigiosas instituciones europeas de los países nórdicos (a través de NORDUnet [3] /KTH[4]), Francia (INRIA[5]), Italia (CNUCE[6]), Alemania (Universidades de Dortmund y Karlsruhe), Holanda (CWI[7], NIKHEF[8]) y Reino Unido (UCL[9]). Algunas organizaciones supranacionales también establecieron enlaces dedicados con la Internet en estos años, como el Laboratorio Europeo de Física de Partículas (CERN[10]), la Agencia Espacial Europea (ESA[11]) y el Grupo Europeo de Usuarios de Unix (EUUG[12]). Este último había constituido años antes la red EUnet[13], que, basada en el uso de los protocolos UUCP sobre líneas telefónicas y X.25, intercambiaba mensajería electrónica y grupos de noticias internamente y con la Internet a través de las pasarelas de la red americana USENET. En 1982 EUnet ya disponía de conexiones UUCP entre Holanda, Dinamarca, Suecia y Reino Unido que, posteriormente, se fueron extendiendo a otros países; en 1988 EUnet se embarcó en un plan de sustitución de UUCP por TCP/IP en sus enlaces internodales.

Otros grupos pioneros en la construcción de redes paneuropeas en la década de los 80, fueron EARN (European Academic and Research Network) y HEPNET (High Energy Physics NETwork). EARN fue establecida en 1983, con financiación y tecnología propietaria de IBM (protocolos RSCS/NJE), como una extensión de la red americana BITNET; junto con ésta, llegó a conectar, antes del comienzo de su declive a principios de los 90, más de tres mil ordenadores (muchos de ellos mainframesde IBM ubicados en centros de cálculo de universidades e instituciones de investigación) en varias decenas de países. La red HEPNET (o HEPNET/SPAN[14]), que usaba protocolos DECnet, se extendió en los años 80 desde los EE.UU. a varios países europeos que contaban con grupos de investigación en física de altas energías o del espacio; de los cerca de 20.000 nodos con que contaba en 1990, unos 10.000 estaban en Europa.

1980-1990. Establecimiento de redes de intercambio de datos universitarias: 1984, FAENET (protocolo DECnet, de DEC combinado con el X25 de telefónica Iberpac);  Eunet (red de usuarios de UNIX, con protocolos UUCP e Iberpac); EARN (protocolo RSCS/NJ de IBM).

1988, España. RedIris. Programa IRIS (luego RedIris) en el marco del Plan Nacional de I+D. La RedIRIS es una red académica de transmisión de datos ¿ basada en protocolos OSI ?. Su objetivo es armonizar todas las iniciativas señaladas anteriormente.

1990. España. Red troncal Artix (sustituta de la red X25 Iberpac), también usaba el protocolo x25: La red ARTIX, cuyos primeros tres nodos (Madrid, Barcelona y Sevilla) se instalaron en 1990, creció hasta disponer de 10 nodos principales en 1993, con extensiones que abarcaban las 17 comunidades autónomas. Para las conexiones externas, la red ARTIX, contó desde el principio con enlaces a las redes X.25 Iberpac, para el acceso a/desde centros no integrados en ARTIX, e IXI (EMPB a partir de 1992), para el acceso a/desde otras redes de I+D europeas.

1991, España. Sideral. La RedIRIS introduce el servicio de interconexión a redes de area local IP con acceso a Internet, llamado SIDERAL.  Es decir, se pasa de los protocolos OSI a TCP/IP : Inicio fase operativa servicio de acceso a la Internet de RedIRIS (SIDERAL). Primeros centros conectados: CIEMAT, CNM, CSIC, Fundesco, RICA, UAB, UAM, UB, UCM, UPC, UPM. Todavía el entorno es sobre todo universitario y de I+D.

Esta introducción de los protocolos TCP/IP en las redes de los entornos académicos y de I+D fue pareja a la evolución de sus sistemas informáticos: de una arquitectura basada en grandes equipos centrales a los que se accedía mediante terminales, dominante a principios de los años 80, se pasó a la implantación masiva de la informática distribuida interconectada por medio de redes locales, a principios de los años 90. A este proceso contribuyeron de manera decisiva hechos tales como la aparición y abaratamiento de las estaciones de trabajo y los ordenadores personales, la proliferación de sistemas UNIX (con TCP/IP embebido) y la generalización de tecnologías de red de área local como Ethernet y Token Ring.

Así, fruto de esta decisión, la primera conexión plena desde España a la Internet tuvo lugar a mediados del año 1990, como un servicio experimental de RedIRIS que, a finales de ese año, interconectaba tan sólo cuatro centros: Fundesco, Departamento de Ingeniería Telemática (Universidad Politécnica de Madrid), Centro de Informática Científica de Andalucía y CIEMAT. Esta conexión inicial fue posible gracias al empleo de la línea internacional de 64 Kbps de acceso a IXI (encapsulando IP sobre X.25) y a la cooperación desinteresada de instituciones extrajeras como NIKHEF, JANET y NSF.

Si consideramos que un protocolo no es más que un sistema de convenciones, que se puede implementar de  múltiples maneras equivalentes, ¿ es realmente superior el modelo TCP/IP (desarrollado en EEUU) al modelo OSI desarrollado por la comunidad internacional en el marco ISO, o fue más bien un intento de EEUU de imponer su  tecnología para llevar la delantera en defensa y negocios ?.

Los protocolos OSI, al estar bendecidos por el organismo oficial de normalización a nivel internacional, contaban con el apoyo incondicional de los estamentos gubernamentales y de las grandes multinacionales de todo el mundo, mientras que los protocolos TCP/IP se veían como el fruto de un grupo más o menos heterodoxo y bastante caótico de brillantes ingenieros e investigadores americanos.

Parecía claro que OSI era el futuro y que el TCP/IP se quedaría en un mero experimento de ARPANET. Al menos así se pensó en Europa y en gran parte del mundo [1]. Sin embargo, las promesas de los protocolos OSI no llegaron apenas a materializarse. Desde un punto de vista práctico, tan solo el protocolo de nivel de red X.25 (muy usado por bastantes redes públicas de datos, especialmente en Europa) y, en menor medida, la mensajería electrónica X.400, llegaron a despegar y a adquirir una implantación importante.

Todo un cúmulo de circunstancias hicieron que, mientras el desarrollo de los protocolos TCP/IP avanzaba a pasos agigantados y su uso se extendía como un reguero de pólvora entre la comunidad académica e investigadora americana, el desarrollo de los protocolos OSI se demoraba eternamente, perdido en oscuros vericuetos de burocracia oficial y excesiva complejidad conceptual.

No nos aclara 100% la duda. No eran los dos únicos protocolos:

Así pues, en los albores de los 90, el incipiente escenario europeo era bastante confuso, casi caótico, con una mezcla de redes inconexas que usaban distintos protocolos (OSI, TCP/IP, UUCP, DECnet y RSCS/NJE) y que se las apañaban como podían a la hora de conectarse entre sí a nivel nacional, europeo o mundial. 

Pero,

Con el fulgurante éxito de las redes TCP/IP en Europa, el panorama se fue aclarando pronto; la mayoría de las redes OSI, UUCP, DECnet y BITNET acabaron reconvirtiéndose a la tecnología TCP/IP e integrándose en Internet, preservando en algunos casos sus servicios más interesantes, adaptados para su transporte sobre TCP/IP.

1990, Europa, España. RedIXI: Establecimiento de redes troncales europeas: Paradójicamente, uno de los primeros backbones IP en ser utilizados en Europa tuvo sus orígenes en una de las realizaciones del Proyecto COSINE que, como se ha dicho, había sido concebido con la idea de promocionar el desarrollo y uso de los protocolos OSI. Se trataba de la red piloto X.25 IXI, que entró en servicio en abril de 1990 e interconectaba las redes académicas o similares de Alemania, Austria, Bélgica, Dinamarca, España, Francia, Gran Bretaña, Grecia, Holanda, Irlanda, Italia, Luxemburgo, Portugal, Suecia (NORDUnet), Suiza y ex-YugoslaviaAunque el propósito inicial de esta red era soportar únicamente las aplicaciones OSI (X.400, X.500, etc.), en seguida las redes nacionales empezaron a utilizarla para transportar el tráfico de las redes IP a las que empezaban a dar servicio, empleando para ello la técnica de encapsulación de IP sobre X.25 descrita en el RFC 877[22] y las recomendaciones del documento número 36 de RIPE. Para muchos, incluida España, la red IXI fue la primera vía de conexión a la red IP europea y al resto de la Internet.

1992, Europa. Creación de RIPE NCC: en 1990, se propuso la creación un centro de coordinación permanente[21] que se encargara de las tareas más críticas (como el mantenimiento de la base de datos o, más adelante, la asignación de las direcciones de red) de una forma competente y profesional. Este centro, bautizado con el nombre de RIPE NCC (RIPE Network Coordination Center), quedó constituido, bajo el paraguas legal de RARE, en abril de 1992 con sede en Amsterdam. Su inmejorable labor de coordinación y soporte ha contribuido de manera decisiva al éxito de la Internet en Europa.

1992. Europa. EMPB/EuropaNet: Creación de la red troncal multiprotocolo EMPB con interconexión transatlántica EuropaNET. Ambas de orientación académica. Funcionará hasta 1997.

1992. Europa. Ebone.  Es una red troncal de orientación comercial (que nace con 5 nodos o EBS).

1994. España.😉. El que escribe estas lineas empieza a utilizar internet profesionalmente (básicamente para el servicio de correo electrónico o e-mail), posiblemente a través de uno de los dos primeros ISP comerciales disponibles en España, Goya Servicios Telemáticos (1992) y Servicom (noviembre de 1994). Trabajaba en una empresa multinacional pyme de comercio internacional con la R.P. China, con oficinas allí, muy pendiente de cualquier avance tecnológico que permitiese el abaratamiento de las telecomunicaciones y transmisión de datos (ya se sabe la infinita documentación asociada a una operación de comercio internacional; pero no solo era eso, también durante las negociaciones previas se intercambiaba mucha documentación). En este año se pasa en la empresa del Telex al Fax y del Fax a Internet. En julio de 1995 ya había en España 10 ISPs, 30 en diciembre de este mismo año. En octubre de 1996 ya había 100.000 ordenadores conectados (registrados bajo .es) y 200 ISPs.

1995. España. Telefónica lanza Infovía, oferta que no cuajó.

1997.España. Creación de ESPANIX, punto neutro de internet sobre el que hemos hablado en este punto.

No seguimos. Recomendamos la lectura del artículo completo para conocer la historia completa en detalle. En la imagen siguiente la topología y anchos de banda de la red Artix. Como se ve ya entonces la conexión Madrid / Barcelona era la que disponía mayor ancho de banda. ç

enfoque2.artix

Fin de nota.

Relacionado. Un ranking de los puntos neutros de intercambio de Internet (IXP) en función del volumen de tráfico que gestionan (también aparece el número de miembros del punto). Nótese que un IXP no es más que  una organización que habilita locales físicos en los que los ISPs y otros agentes de Internet pueden interconectar sus redes IP mediante relaciones de peering (intercambio gratuito, que se diferencian de las relaciones de tránsito entre agentes, que son de pago). En este sentido la organización puede ser sin ánimo de lucro, pero también con ánimo de lucro, puede ser local (es decir que sus centros físicos estén localizados en un sólo país), internacional (en varios países)  o incluso global. La organización que más datos mueve es DE-CIX, de origen alemán, creo que sin ánimo de lucro y con presencia casi global.    

6. ERPs.

Entran dentro de lo que se llamaba informática de gestión, orientada a empresas. El artículo es interesante.

7. Cloud computing. Un buen informe reciente en castellano.

Relacionado. Empresas de housing y  hosting españolas.

El sector está muy atomizado. Me pregunto como estará este paisaje dentro de 10 años con la acometida cloud que supone la convergencia en una misma unidad de producción o empresa de actividades que antes estaban separadas.

8. El sector TIC en España: Foro de economía digital.

Es una escuela de negocios orientada a lo digital. Forma a ejecutivos que ocuparán posiciones que no existían hace 20 o incluso 10 años:  dirección ecommerce, gestión ecommerce, marketing digital…

Ver también este enlace. Y este otro.

No es la única en España: otro ejemplo es U-TAD (Ccentro universitario de tecnología y arte digital).

Relacionado. UK ya tiene un ministro de Economía Digital. Y antes ya la UE tenía uno o varios comisarios cuya competencia abarcaba (exclusivamente) este campo.  En España seguramente habrá un Secretario  de Estado o DG con competencias similares.

9. CDN.

Los CDN  son una de las figuras menos conocidas de  internet (¿ había el lector, por ejemplo, oído hablar de Akamai ?), pero muy necesarias, sobre todo para los grandes proveedores de contenidos.

10. Lo gratis sale caro.

11. Escépticos digitales.

El escepticismo digital (o lo que es lo mismo los contrarios al imperialismo computacional) es una corriente ideológica que está emergiendo en los últimos años. Algunos autores se han especializado ya en esta temática. Venimos recogiendo artículos sobre ella en las ultimas recopilaciones de enlaces de la serie Imperialismo Computacional.

Relacionado.  El último libro de Robert Gordon.

The Rise and Fall of American Growth: the US Standard of Living Since the Civil War .

Una reseña en un blog.

Hemos  hablado de  este autor en varias ocasiones, en relación a la tercera o cuarta Revolución Industrial (hay opiniones al respecto). Los escépticos del tipo sobre el que hemos hablado antes dan por supuesto que estamos viviendo en un época de gran avance tecnológico, pero estiman bien que esto no es conveniente para “la humanidad” en general, o que la dirección del progreso tecnológico no es la adecuada.

Gordon es un escéptico de otro tipo o más bien negacionista: niega la mayor, niega el presupuesto,  afirma que no estamos viviendo en una época en la que el avance tecnológico tenga un gran impacto económico, niega que haya una tercer o cuarta revolución industrial.

Extracto de la reseña.

The whole book is organised to support Gordon’s well known thesis that the days of miracle and wonder, the rapid growth era of the early to mid-20th century, is long gone, and slower growth lies ahead of us. As he writes in the introduction: “Our central thesis is that some inventions are more important than others, and that the revolutionary century after the Civil War was made possible by a unique clustering, in the late 19th century, of what we will call the ‘Great Inventions’.” [his italics]

By Great Inventions, he means electricity, water supply and sewage systems, the internal combustion engine, radio then TV, and innovations that reduced household drudgery such as refrigerators and washing machines. The core of his argument is that these so transformed health, life expectancy and connectivity that no future invention could possibly have such a dramatic impact on people’s living standards.

The book claims more recent innovations are occurring mainly in entertainment, communication and information technologies, and presents these as simply less important (while making great play of the importance of radio, telephone and TV earlier).

Realmente hay dos tipos de innovaciones:

–las que nos ahorran sufrimiento (trabajo) a lo largo de la vida y,

–las que nos hacen esta misma vida más placentera, más digna de ser vivida. El sexo, una invención de este tipo (aunque nació con una finalidad biológica muy clara, hoy se utiliza más bien para los fines sobre los que estamos hablando, se ha desvinculado de la reproducción), heredada del nivel biológico, puede no ser suficiente: 7 cada 7, que por lo  visto es el rendimiento modal, no se sí también medio, no llena demasiado tiempo (aunque conseguir llegar a él a veces lleva mucho más…:-)).  Este tipo de invenciones o innovaciones son las que constituyen el campo de la cultura (en sentido  restringido).

No veo por qué tienen que tener más valor el primer tipo de invención.

12. Tecnológicas: luces y sombras.

Todos conocemos los grandes éxitos de algunas empresas tecnológicas. En el artículo nos hablan de la otra cara de la moneda.

Relacionado. También en el ecosistema de la R.P. China pasan estas cosas….No soy usuario de Facebook y no puedo juzgar sus servicios, pero sí conozco otra, de la que soy usuario, que tiene toda la pinta de tener el mismo destino, tarde o temprano. Sí me refiero a Google, más centrada en inversiones improductivas, más operaciones de marketing que otra cosa (computación cuántica, deep learning) que en mejorar el servicio de su buscador y el trato  a los usuarios.

13. Libros de segunda mano, un (sorprendente) mercado emergente.

14. ¿ La decadencia ? de Wikipedia ?.

En mi opinión siempre ha sido irregular. Algunos artículos muy buenos, otros menos. En cualquier caso, la plataforma es una verdadera institución dentro de la web, y un primer paso necesario cuando uno se quiere introducir en cualquier tema nuevo.

15. Libro. El liderazgo innovador de EEUU en determinados sectores.

Título. 

Experimental Capitalism: The Nanoeconomics of American High-Tech Industries (The Kauffman Foundation Series on Innovation and Entrepreneurship)

Extracto. 

For much of the twentieth century, American corporations led the world in terms of technological progress. Why did certain industries have such great success? Experimental Capitalismexamines six key industries–automobiles, pneumatic tires, television receivers, semiconductors, lasers, and penicillin–and tracks the highs and lows of American high-tech capitalism and the resulting innovation landscape. Employing “nanoeconomics”–a deep dive into the formation and functioning of companies–Steven Klepper determines how specific companies emerged to become the undisputed leaders that altered the course of their industry’s evolution.

17. La ¿ crisis ? del formato blog.

Muchos blogueros se han hecho eco de este artículo. Es cierto que el mundo de la web ha cambiado mucho desde 2008, especialmente los contenidos. Creo que, entre otros factores, la búsqueda de audiencia tiene mucho que ver con ello. Tampoco los criterios de ranking del buscador prominente ayudan a que haya contenidos de calidad. Todo ello ha restado autenticidad, que creo que es lo que echa de menos este autor.

Un tema a estudiar con mayor profundidad.

18. La liebre y la tortuga: la velocidad de la realidad hace que las estadísticas económicas se queden atrás: el informe Bean (avance).

El informe Bean:  Independent review of UK economic statistics: interim report

Visto en NeG.  

En efecto, las estadísticas actuales miden progresivamente peor la actividad económica (pensemos en el valor de las transacciones en Airbnb, Uber o en el de innumerables aplicaciones que usamos con nuestros móviles, que no cuestan nada o casi nada). El PIB se mide cada vez peor y en el mundo laboral la diferencia entre trabajo y ocio es cada vez más difusa.

El Gobierno del Reino Unido está preocupado por estos crecientes errores de medición y ha encargado un estudio que evalúe las necesidades estadísticas actuales y futuras en el Reino Unido, así como la capacidad de la Oficina Nacional de Estadística (ONS) para satisfacerlas, a (Sir) Charles Bean, de la London School of Economics y, entre 2000 y 2014, del Banco de Inglaterra (¿por qué será que los ingleses emplean mucho más a menudo que nosotros a académicos prestigiosos en sus principales instituciones?).

El párrafo inicial proviene de una entrada de Charlie Bean en el blog Vox, en que resume algunos mensajes del informe provisional, recientemente publicado y de lectura recomendada. Y, a todo esto, ¿para cuándo un informe independiente para mejorar las estadísticas españolas? Uuuuh…el año que viene, si dios quiere.

19. El primer concurso de belleza juzgado por programas informáticos.

Hemos planteado ya este tema en otro contexto: los artistas /diseñadores visuales deberían de empezar a pensar en que el primer filtro que va a juzgar sus obras, en un futuro seguramente no muy lejano, son los motores de búsqueda.

¿ Acabaremos cediendo a los “robots” el juicio estético ?.   ¿Ganará una venezolana ?

20. Las tecnologías TIC aplicadas a uno de los sectores físicos por antonomasia: la distribución urbana de productos agroalimentarios.

 

 

 

Terms and conditions: 1. Any commenter of this blog agrees to transfer the copy right of his comments to the blogger. 2. RSS readers and / or aggregators that captures the content of this blog (posts or comments) are forbidden. These actions will be subject to the DMCA notice-and-takedown rules and will be legally pursued by the proprietor of the blog.

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s


A %d blogueros les gusta esto: