Desarrollo. Recopilación de enlaces (y reflexiones) mayo, 2015 3.

mayo 19, 2015

Esta recopilación contiene algunos puntos sin enlaces, sólo con reflexiones de  mi cosecha. Pido perdón al lector por ello.

Leer el resto de esta entrada »

Trade Lane Megacities. Recopilación de enlaces, mayo 2015, 3.

mayo 18, 2015

Si se cumplen los plazos programados, el Canal de Nicaragua será un tema caliente este mes de mayo….

Leer el resto de esta entrada »

Libro: Extensa historia del tiempo.

mayo 16, 2015

1. El autor de un libro de divulgación científica (básicamente de Cosmología) me pidió recientemente prologarlo y con mucho gusto accedí.

Extensa historia del tiempo

En el propio prólogo (para leerlo el lector deberá de comprar el libro, que de momento solo tiene formato físico y en una edición muy limitada, si te interesa no te duermas…) se explica que hace un individuo como yo prologando un libro como éste, así como mi opinión sobre el contenido del libro y sobre las hipótesis del autor (además de ser de divulgación el autor presenta sus propias ideas sobre algunas cuestiones cosmológicas). Personalmente, tal y como comento en el prólogo, me  gustó especialmente el capítulo sobre agujeros negros. Es un tema sobre el que no había leído mucho y me resultó especialmente informativo, aprendí cosas nuevas.

Como se puede deducir por el título y subtítulo el autor es admirador del gran Hawking y su famosa obra de divulgación, que todos leímos en su momento. Se conforma con vender el doble…;-).

2. El otro día el autor, de doble nacionalidad hispano-venezolana, nos invitó a aquellos que de alguna manera hemos colaborado (mi aportación es mínima, sólo el prólogo y algunas sugerencias de cambio en el texto) para celebrar que el proyecto ha llegado a buen puerto. Es decir que el libro se ha publicado. Cabe señalar que se trata de una auto-edición. La editorial es RingoRango, especializada en este segmento, por lo visto muy dinámico últimamente.

La comida fue en un restaurante venezolano de Madrid. Aunque muy parecida a la del resto de Latam fue todo un descubrimiento la gastronomía venezolana.

En la siguiente fotografía el autor (de rojo), las editoras (de negro), una colaboradora (de blanco) y el que escribe estas líneas (del color que falta). Al fondo un cuadro con simbología venezolana.

Leer el resto de esta entrada »

Desarrollo. Recopilación de enlaces, mayo 2015, 2.

mayo 16, 2015

1. Racionalidad homeostática. ¿ Mono occidental vs. sabio oriental ?.

El cerebro homeostático es un ente bioquímico, su relación con el mundo es material (sólo entiende de estímulos físicos, por ejemplo fotones) y sustancias bioquímicas y su dinámica es energética, termodinámica. El segundo es un ente neuronal, su relación con el mundo es meramente convencional y su dinámica racional.

Nota. Estas diferencias entre el cerebro homeostático, responsable de la racionalidad homeóstatica y el simbólico, idem, recuerdan a la s encontradas (y comentadas en varias entradas anteriores) entre la lógica del ingeniero y la del economista, que no siempre se ponen de acuerdo. No le le será complicado encontrar las correspondencias al lector. Fin de nota.

Dos correas de transmisión (seguramente neuronales) unen el cerebro homeostático (que es anterior y podemos considerar que se localiza en una posición inferior) con el simbólico (que es posterior y ocupa una posición superior): la primera en dirección ascendente se caracteriza por la avidez e inmediatez; la segunda, en dirección descendente, por la disciplina y contención firme (aunque flojee o se rompa con más frecuencia de lo que sería deseable…).

Nota. No se debe de olvidar el lector del cerebro rítmico

Leer el resto de esta entrada »

Imperialismo computacional. Recopilación de enlaces, mayo 2015, 2.

mayo 16, 2015

1. Imperialismo computacional. Primer (posible) ciberacoso de un “robot” a un humano documentado en Internet (que yo sepa).

En otras ocasiones ya nos hemos hecho eco de noticias sobre crímenes perpetrados por robots, Concretamente de robos. En este caso, se trata de ciberacoso continuado.

Aunque lo más probable es que se trate de un acoso resultado de procesos automáticos aleatorios el acosado no ha conseguido descartar de momento intencionalidad humana. En cualquier caso el acoso, concretado en una (desafortunada, si  finalmente se confirma que es debido a automatismos aleatorios) secuencia de varios incidentes, tiene ya una duración (y sigue activo) de más de un año.

El ciberrobot agresor es bien conocido.

P.s. Y mientras uno de los padres de la criatura, uno de los responsables últimos, tan tranquilo. ¡¡ Que mal gusto !!

brin

2. Libro. Derecho privado de internet. Edición de 2015

Autor: Pedro de Miguel Asensio.

Bastante completo.

3. Buscadores. Sobre el derecho al olvido.

Otra chapuza de Google. En este caso, como seguramente en el caso del servicio automático de atención al usuario, chapuza interesada, calculada, deliberada:  viven de la abundancia de contenidos,  no les interesa que se borren contenidos.

Extracto.

It is one year since the European Court of Justice ruled that citizens have the right to request that Google remove links to information about them if these are out of date, misreprentative or irrelevant. But some of the world’s most expert academics claim that Google has not been transparent enough in how it is responding to requests for delisting, and 80 academics from around the world have written to the corporation demanding more transparency about its processes. 

P.s. Ciertamente nadie debe de esperar nada de calidad de una empresa que ofrece sus servicios de manera gratuita.

4. Emprendimiento tecnológico en la India.

5. Psicología del nodo. Libro sobre los trolls de internet. 

This Is Why We Can’t Have Nice Things: Mapping the Relationship between Online Trolling and Mainstream Culture (Information Society Series).

6. Sobre el miedo a la Inteligencia Artificial.(The Economist). 

7. La inteligencia artificial (por fin) preparada para los negocios (según Harvard Business Review).

Extracto.

AI, expert systems, and business intelligence have been with us for decades, but this time the reality almost matches the rhetoric, driven by the exponential growth in technology capabilities (e.g., Moore’s Law), smarter analytics engines, and the surge in data.

En definitiva, AI+HPC+BD.

I’ve been tracking AI and expert systems for years. What is most striking now is its genuine integration as an important strategic accelerator of Big Data and analytics. Applications such as USAA’s Eva, healthcare systems using IBM’s Watson, and WayBlazer, among others, are having a huge impact and are showing the way to the next generation of AI.

8. Imperialismo computacional. Una entrada en un blog sobre el artículo de Sach et all.

Una vez más, robótica y redistribución aparecen como temas relacionados.

Extracto.

To conclude, let me say that I am somewhat skeptical as to whether robots will really make labor redundant. This has never happened in the past, we’ve always managed to create more work for ourselves, it’s like Parkinson’s Law is at work on a macro level. But clearly, technological advances are ever more sophisticated so the notion of robots taking over cannot be entirely dismissed.

This paper shows us two things. First, that a government transfer scheme is likely going to be necessary to ensure that robotic technology does no damage to welfare. Namely, transfers from people who mostly save or invest (the ‘old’ in the model, but could be ‘capitalists’ in the real world) to people who mostly rely on wages (the ‘young’ in the model, but could be ‘workers’ in reality) are necessary. This is kind of obvious, because the only way the population at large can take advantage of robots is if the benefits of robots are somehow distributed across the whole society.

The second message of the paper is that if robotic productivity increases a lot, we can hit a permanent growth path. This relies on the assumption that the production of certain “traditional” goods cannot be automated. These goods will become relatively scarce which will increase wages, and this can help move us on a permanent growth trajectory.

So altogether, robots can be awesome for our welfare. But we need to ensure proper redistribution is in place so as to distribute their benefits. I for one welcome our new robot overlords.

me da la impresión que este tema se está tratando con frivolidad. La redistribución, así planteada, sin más fundamento teórico, es un robo. Si en el futuro esto será válido, uno no se explica como no se aplica ahora mismo estas mismas técnicas de redistribución, robar al rico para dar al pobre…

El problema de la acumulación de riqueza no es si la fuente son los robots o cualquier otra, sino si ésta se ha acumulado de manera legitima o no.

9. Contra el imperialismo computacional (reseña de dos libros, en Babelia).

Uno es de Lanier, un crítico de la Inteligencia Artificial sobre el que ya hemos hablado en anteriores entradas.

Otro es de Byung-Chul Han (primera noticia), por lo visto un filósofo coreano que ha seguido una carrera atípica: estudió primero metalurgia, luego quiso estudiar literatura alemana, y finalmente acabó en la filosofía. Los motivos de pasarse de literatura a filosofía son curiosos también.

Extracto.

La ontología de la inmanencia resulta curiosamente eficaz para criticar la teología tecnoliberal, la mistificación de nuestra existencia cotidiana a través del mercado y la Red. En el enjambrePsicopolítica son desarrollos coherentes de los trabajos previos de Han, La sociedad de la transparencia y La sociedad del cansancio.

Relacionado. Más atípica todavía es la carrera de Bernard Stiegler, que estudió filosofía en la cárcel, tras ser condenado por varios atracos bancarios.  Ahora ejerce como, entre otras cosas, filósofo de la técnica.

No sabemos si Byung-Chul,  cuando era metalurgista, le fabricó a Stiegler las herramientas materiales necesarias para sus operaciones bancarias. Tampoco sabemos si Stiegler le fabricó al coreano las herramientas intelectuales necesarias para sus actuales atracos contra de la tecnología.

Relacionado. Ortega escribió también sobre la técnica. Casi siempre que leo a Ortega concluyo lo mismo: escribe mejor de lo que piensa. Es más escribe muy bien. No hace falta recordar que publicaba sobre todo a través de artículos de prensa y por lo tanto más que filósofo, fue un bloguero avant la lettre (digitalisée).

De acuerdo con esto, lo que leí de él sobre la técnica no me sedujo en su momento. Lo tengo que releer para ver si hay algo de valor para la serie Imperialismo Computacional.

Una reseña crítica sobre los escritos de Ortega sobre la técnica.

Actualización. Añadimos otro pensador crítico con las nuevas tecnologías.

10. Estadísticas de blogs.

A) Una entrada de blog, mejor combustible que la gasolina.

El 80% por ciento de los visitantes de un blog son nuevos y no repiten.

Extracto.

El 80% de las visitas diarias que llegan a un blog son nuevas. Trabaja para conseguir más visitas repetidas mediante la construcción de una lista de ​​correo electrónico y seguidores en las redes sociales. También optimiza tu blog para los nuevos visitantes.

Este es un dato que hemos perseguido desde hace tiempo. Por fin hemos podido aclarar la duda. Aplico el % directamente a este blog, que no es singular en nada, como cota inferior.

B) Discrepancia entre los datos de un blog y los datos de Google Analytics.

Es un tema sobre el que se habla bastante.

Extracto.

Pero en mi caso la diferencia de visitas es abismal. Me explico, en blogger me dice que tengo unas 10.000 visitas el mes pasado y en google analytics me dice que 1.280 ¿esa diferencia tan enorme es normal? No sé que pensar. 

La diferencia, según indican algunos, en los bots y spiders. Luego veremos que esto no es del todo correcto.

Hola.

Retomando el argumento inicial, la cantidad de bots y arañas (spiders) supera con creces a las visitas de las personas

La conversación se refiere específicamente a Blogger.

Blogger y Google Analytics son dos productos de Google. ¿ Otra chapuza ?.  ¿ Pasará lo mismo con WordPress ?. ¿ Debe un bloguero concluir que al final sólo le leen los bots ?.

En esta entrada aclaran todo (salvo de dónde saca GA sus datos): los datos del blog son datos de servidor y por lo tanto más fiables. Por otra parte, éstos no excluyen las visitas de bots y spiders. ¿ Cual es la proporción de estas sobre el total ?

En esta otra entrada nos aportan más datos con respecto a como GA contabiliza visitas: GA da datos de comportamiento del cliente, datos que tienen no en los servidores dónde está alojado el blog sino en sus propios servidores.

Extracto.

Google Analytics, es el sistema más conocido por los bloggers ya que la publicidad a bombo y platillo de Google, caló hondo en sus mentes. Es un sistema basado en Javascript que recoje una buena cantidad de información del visitante y que permite que la información esté alojada en las máquinas de Google y nos la muestren con una apariencia muy conseguida.

Comentario.

Las estadísticas de logs (internas, del servidor dónde se aloja el blog) no son comparables con las estadísticas de scripts (externas). Los logs tienen en cuenta muchas visitas que los scripts no tienen en cuenta (robots, herramientas de seguimiento,…).

Además, los logs cuentan como visitas diferentes gente que entra y sale de la web, mientras que los de scripts mantienen la sesión -creó que 30 minutos- y en el caso de GA se puede configurar.

En cualquier caso, ambos sistemas son perfectamente compatibles, siempre y cuando se tenga clara su función.

Sobre los bots.

Y no está del todo claro ni que GA elimine bots y similares por defecto, ni que la diferencia entre GA y contadores de servidor esté en los bots: en esta entrada dan una explicación alternativa. Y buena por técnica.

Extracto.

El otro tipo de estadísticas se realizan por elementos colocados en una página Web, como hace , Who.amung.us, SiteStats, StatCounter,… Todos ellos te ofrecen un elemento para insertar en tu página web y suele ser o un código Javascript, o una imagen con su logotipo. Cuando se les llama para que carguen una imagen o un archivo remoto, también recogen toda la información del usuario para poder realizar todo tipo de estadística después.

Pues bien, la principal diferencia entre ambos sistemas es precisamente la recepción de información. Mientras que los primeros siempre recogen la información, pues es el propio servidor web quien proporciona la página web al usuario y escribe los datos que comenté en un archivo, el segundo grupo puede fallar por varios motivos y no darse cuenta de la visita. Por ejemplo, si un usuario tiene deshabilitado el Javascript, o las imagenes (porque navega desde un móvil), o simplemente, por problemas de sobrecarga o de red, no se llega a cargar la imagen o el código que proporcionaron, estos sistemas pueden no darse cuenta de algunas visitas.

Yo he podido comprobar que según Google Analytics este blog recibeaproximadamente un 30% menos de visitas que lo que me dice el Webalizer (el gestor de estadística que tengo en el panel de control de mi alojamiento).

si no tienes un alojamiento contratado que disponga de estadísticas de servidor (el primer grupo), tienes que morir al palo de Analytics (o similares), pero hay que ser consciente que cuenta (según mi experiencia con 4 sitios webs diferentes) entre un 20% y un 30% menos de las visitas reales.

Un bloguero experto en negocios de internet tiene una serie de entradas que inducen a desconfiar de GA.

Sin embargo muchos otros expertos siguen declarando que GA es más fiable (siempre hablan de los bots, temas que no está nada claro). El enlace incluye además interesantes comentarios sobre estadísticas de visitas a páginas web de Ayuntamientos (Zaragoza unas 16000 al día, Marbella unas 3300, Segovia unas 1000 y Zamora unas 500).

Alternativas a GA (entrada sin fecha).

GA-externas vs. Servidor-Internas, conclusiones.

Claramente hay división de opiniones al respecto. Creo que la clave estaría en determinar cual es la proporción media de visitas de bots y similares / visitas de humanos en una unidad de tiempo.

C) Diferencias en visitas entre Blogger y WordPress.

Por otra parte he leído en algún sitio que Blogger infla mucho el número de visitantes, y que la gente que pasa de Blogger a WordPress experimenta una bajada brutal o al menos bastante sensible en visitas.

I think I wrote something similar about this too. I’ve moved a lot of people from Blogger to WordPress and one thing they comment on is how their numbers are lower. They may attribute that to “losing followers in the move!” but it’s actually because they switch to Google Analytics and that number is reporting more accurate stats.

Fuente. En blogger se puede identificar las URL Spam.

¿ Es el contenido de este comentario correcto ?.  ¿ Las estadísitcas por defecto de wordpress son equivalentes a GA ?.

Sí es correcto en el sentido de que las estadísticas de WordPress instaladas por defecto en el escritorio (dashboard) excluyen a los bots. Un extracto del  support de wordpress. Da gusto cuando en los comentarios o foros participa alguien que entiende de verdad….

Un usuario plantea una duda: ¿ Como es posible que tenga más comentarios spam que visitas ?.

Un experto contesta:

It’s time to get technical because the answer involves both HTTP and Javascript. A typical visit begins when their browser sends an HTTP GET request to your blog’s server. This request communicates the desired URL and certain details about the visitor: an IP address, a description of the browser, and possible the URL of the page where they clicked a link to the desired URL.

Some stats packages count these GET requests but there is a ton of noise in this raw data. A typical WordPress stats plugin (such as Jetpack) adds a snippet of Javascript to the HTML instructing the browser to make an additional GET request. This allows the stats package to collect more information about the visiting browser and to filter out most of the “visits” from non-humans; most bots don’t process Javascript.

A comment is submitted by a different kind of request: an HTTP POST. (We use capital letters because that’s what the protocol specifies. It’s not an acronym.) A POST request is just like a GET except the POST carries additional data which is intended to be saved by the server. In WordPress, that data includes the commenter’s name, email, URL, and comment text. (If you are using Quiz, it also includes the content of the quiz answer field. Other plugins may add other fields.)

A typical, human commenter would first GET your post, then spend time reading it, then POST a comment. The URL used to GET your post might be anything but the URL of the comment submission script is the same for all WordPress blogs: it’s your blog URL plus a standard file name. The required parameters for the POST data are also standardized throughout the WordPress world.

Thus a spammer can write just one spam script and feed it a list of blog URLs and the script will be able to POST comments without first GETting the articles they intend to spam. (This is an oversimplification. For a comment to be accepted it requires a valid post_id, a number which might not be easy to guess. Therefore some spam scripts will first crawl the blog with GETs to discover valid post_ids. Others might simply guess, or take a list of IDs as part of the input along with the blog URLs.)

Certain plugins and hacks alter the comment script URL as part of an anti-spam strategy. This foils only the most simplistic spammers since the script URL can be discovered with just one GET. The URL is included in every page that contains a comment form.

Quiz works by adding a requirement to the POST data. You can set a different question and answer for each post. This pretty much limits spam to humans being paid to submit comments manually since your questions should not be answerable by any script that a spammer would find affordable. Spammers are still able to send their POST requests but Quiz blocks their data from entering your database. The immediate benefit to you is that you spend less time processing spam.

There are better, more clever plugins that work much harder to foil spammers. Bad Behavior is the name of a famous one that I recall. If I remember correctly it can block spam GETs as well as POSTs. The additional benefit here is that your server spends less time processing spam so that it can be more responsive to your real audience.

Metablogging. Sobre la posibilidad de manipular los resultados del buscador de Google para imágenes y texto.

mayo 15, 2015

Disclaimer. Lo prometido es deuda. Publico ésta entrada tal y como la tengo redactada e iré realizando modificaciones y adiciones a medida que vaya aclarando dudas. Ya me estoy aburriendo de este tema y las actualizaciones o cambios no serán inmediatos. Para poner en contexto la entrada se recomienda leer las entradas sobre los incidentes que he tenido con el buscador de Google.

Desde que se iniciaron los problemas con el buscador de Google me he realizado una serie de interrogantes sobre los resultados que aparecen en Google cuando uno realiza una búsqueda (de texto e imágenes). Ya en otras entradas me he planteado si todos estos incidentes son resultados de la casualidad o hay alguna intencionalidad por una o varias partes y una manera de determinar esto es ver si los resultados de las búsquedas de Google son “manipulables”.

Leer el resto de esta entrada »

Metablogging. ¿ Es Javier Rodriguez Zapatero un pederasta ?. 3.

mayo 12, 2015
Es Javier Rodriguez Zapatero un pederasta ?

Es Javier Rodriguez Zapatero un pederasta ?

Is Larry Page a pedophile ?

Is Larry Page a pedophile ?

Google, del atropello virtual (en el ciberespacio) al atropello real (en la carretera).

Una noticia muy relevante en relación con la entrada anterior,

Leer el resto de esta entrada »

Metablogging. ¿ Es Javier Rodriguez Zapatero un pederasta ? 2.

mayo 12, 2015
Es Javier Rodriguez Zapatero un pederasta ?

Es Javier Rodriguez Zapatero un pederasta ?

Is Larry Page a pedophile ?

Is Larry Page a pedophile ?

Sigo con el mismo tema de las entradas anteriores.

Leer el resto de esta entrada »

Metablogging. ¿ Es Javier Rodríguez Zapatero un pederasta ?.

mayo 11, 2015
Es Javier Rodriguez Zapatero un pederasta ?

Es Javier Rodriguez Zapatero un pederasta ?

Leer el resto de esta entrada »

Metablogging. Is Larry Page a pedophile ?

mayo 11, 2015
Is Larry Page a pedophile ?

Is Larry Page a pedophile ?

Leer el resto de esta entrada »


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.