Imperialismo computacional, una historia del concepto.

1. Introducción.

Lo hemos prometido en la última recopilación de enlaces correspondiente a la serie Imperialismo  Computacional. Al igual que hicimos con el concepto (y sobre todo iconografía) de la Ruta Marítima Central en la serie Trade Lane Megacities, vamos a realizar una entrada en la que trazaremos la historia del concepto de Imperialismo Computacional (más bien de conceptos relacionados, pues el etiquetado por este nombre es nuestro y por lo tanto conocemos su historia perfectamente :-)).

Por supuesto la historia del impacto de la tecnología en la sociedad es larga. Pero nos  interesa sólo como han ido cambiando las concepciones sobre el impacto de las tecnologías computacionales  en la sociedad.

Diría que la concepción de una sociedad  en la que la máquina haya sustituido completamente al hombre en las actividades laborales, no como una posibilidad remota, casi de ciencia ficción, sino como una posibilidad muy real y muy próxima, tan próxima que es presente, que la estamos experimentando (algunos dirían que sufriendo) ya desde hace años y que podremos ver el fin del proceso en esta generación o en la próxima es bastante reciente. Seguramente posterior a 2007, posterior a la crisis.

Esta concepción, sus ideas y giros asociados (la computadora y el robot como amenazas, primero económicas y más recientemente en relación a la  seguridad) son las que queremos rastrear. Nos interesa también la diferente visión que sobre esta cuestión han tenido los científicos sociales (sobre todo los economistas, que tienen una visión completamente abstracta de la tecnología) y los ingenieros computacionales (autores de otras disciplinas, como la filosofía,  también tienen algo que aportar). Otro tema relacionado, sobre el que posiblemente no hablemos, es la  valoración que de esta eventual situación se hace: en general negativa, cuando en realidad puede ser una fuente de emancipación. Así lo vemos nosotros,  que hemos vinculado este fenómenos con el advenimiento de la Sociedad del Ocio.

2. Nuestra primera entrada sobre esta temática: nuestro concepto,  nuestra motivación, nuestra posición.

Hasta hace poco pensábamos que habíamos sido uno de los primeros en hablar explícitamente de esta situación (la sociedad plenamente robotizada) y del proceso que nos estaba llevando a ella, proceso al que nosotros llamamos Imperialismo Computacional. La comprobación de si esto es  así o estábamos  equivocados es lo que nos ha llevado a redactar esta entrada.

Nuestro concepto de Imperialismo Computacional comenzó con la reflexión siguiente: hasta hace poco incluso los ingenieros computacionales consideraban que las tecnologías computacionales eran un tecnología más, es decir artefactos diseñados para estar al servicio del hombre. Según esta concepción tradicional, en todos los sectores económicos, los especialistas en cada uno de  estos campos eran los que los controlaban y los ingenieros computacionales estaban a su servicio. Los financieros controlaban el sector de la industria de banca y seguros; los químicos el sector de la  industria química etc…y contrataban informáticos para realizar aplicaciones de gestión o técnicas.

En contraste con esta visión tradicional, la concepción del Imperialismo Computacional implica:

–primero, la toma de conciencia de que las tecnologías computacionales son diferentes al resto de tecnologías, al igual que el cerebro humano es muy diferente al resto de cerebros de otros animales  y al resto de órganos del cuerpo: a la larga, la computadora mecánica (el robot) puede sustituir al hombre en cualquier actividad.

–segundo, que los agentes económicos que han tomado conciencia de este hecho actúen en consecuencia. Como resultado sectores económicos  completos pasan a estar controlados por individuos del sector computacional, por Ingenieros Computacionales.  En la última entrada poníamos un ejemplo ilustrado por una de las  empresas señeras: Kodak y el sector de la fotografía. Y hoy estamos viviendo una batalla encarnizada en otro sector tradicional, más físico imposible, con Uber. Están convirtiendo un negocio que era físico en un negocio de información. Hay muchos otros ejemplos. Y también hay muchos sectores que se siguen resistiendo, como el financiero, en el que el uso de las tecnologías computacionales es el tradicional (con excepciones como el HFT).

–tercero,  si sector (en sentido amplio, sector económico o industrial) tras sector van cayendo en las garras del Imperio Computacional, el resultado final será una sociedad controlada por computadoras, robotizada.

–cuarto, el resultado final es positivo pues hará posible la Sociedad del Ocio (esto es solo un escenario posible, de ninguna manera necesario). 

Nuestra primera entrada sobre este tema se publicó el 13 de octubre de 2011, en homenaje a Steve Jobs que había fallecido por esas fechas. Opinábamos que fue uno de los primeros ingenieros computacionales que no sólo tomó conciencia plena del potencial de la tecnología de computadores sino que implementó varias acciones conscientes que se pueden clasificar plenamente dentro del concepto de Imperialismo Computacional.

En resumen Imperialismo Computacional es dar un giro, transformar los negocios tradicionales en negocios de información, dónde las tecnologías computacionales sean el activo más importante.

Nuestra concepción sobre este tema es por lo tanto realista (no incorporamos elementos provenientes de la Ciencia Ficción, es un evento que debemos de considerar como posibilidad muy real), presentista (aunque quizás pocos sean conscientes de ello, cada vez más en realidad, es un fenómenos que está ocurriendo, que está impactando hoy en día), práctica o pragmática (como es un fenómeno real  y muy presente, que está impactando sobre todo en el ámbito económico, los agentes económicos deben de tenerlo en mente, posicionarse ante él y tomar decisiones prácticas al respecto; nuestra concepción está orientada a negocios) y optimista (el resultado final de este proceso es positivo, será emancipador).

Obviamente, no fuimos los primeros en hablar de estos temas. En espacios muy concretos como Silicon Valley seguramente ya se llevaba hablando de ello desde bastante antes. También en la Academia o en ámbitos gubernamentales. ¿ Pero de la misma manera o eran más bien conversaciones teóricas o sobre una posible ficción que tendría lugar en el futuro ?

Esto es precisamente lo que queremos rastrear en esta entrada, rastrear todo lo que se haya publicado anteriormente sobre este tema evaluándolo con respecto a los criterios de realismo, presentismo, pragmatismo y optimismo.

3. Historia e hitos del concepto Imperialismo Computacional (punto en construcción, sujeto a cambios;las opiniones podrán variar a medida que voy leyendo sobre los autores; la  numeración cambiará).

Obviamente, por mucho que usemos el nombre,  lo que sigue es mucho  menos que una historia. No solo porque la lista de autores y publicaciones no es exhaustiva, no solo porque es individualista y no institucionalista, no solo porque se centra en las contribuciones del mundo anglo etc…Si se cumpliesen todas esas condiciones y además pudiésemos identificar que autores posteriores leyeron los escritos anteriores; y que autores de una determinada disciplina (por ejemplo los ingenieros computacionales) han leído y comprendido a los de otra (por ejemplo los economistas), quizás se aproximaría a lo que se espera de una historia como es debido….

Ya otros se han ocupado de historiar asuntos similares. Por ejemplo John Smart, el autor de una página web llamada Acceleration Watch, dónde documenta la historia de la aceleración tecnológica desde casi los neandertales. Nosotros estamos más  interesados en autores posteriores al nacimiento de las tecnología computacionales electrónicas (digamos desde 1950), pero hemos rescatado a algunos autores anteriores citados por Smart. Otros citados,  incluso posteriores a 1950, no los citamos ya que nuestro interés no es la aceleración tecnológica per se, sino en relación a sus efectos sociales. Sí incluimos a algunos escritores de ciencia ficción cuando los contenidos de sus ficciones son directamente relevantes para el tema que nos ocupa o  escribían ensayos sobre ello.

En lo relativo al impacto social de estas nuevas tecnologías nos centramos sobre todo en el impacto económico, que es sobre lo que más se ha publicado. Sin embargo en los últimos años / meses, con la emergencia de los drones y robots de uso militar también se está empezando hablar del impacto en términos de seguridad. Recogemos algunas publicaciones en este sentido.

Sobre algunos de los autores y obras que aparecen en la siguiente lista ya hemos hablado en anteriores entradas de  la serie Imperialismo Computacional. Además de las bibliografías y la página de Smart, otra fuente a la  que hemos recurrido para algunos de  los autores contemporáneos (la mayoría habiendo publicado artículos en medios de comunicación y recientemente, de 2010 en adelante), que aparecen en la historia los he sacado del borrador de un libro escrito por Sanjeev Sabhlok, autor de origen indio, formado en ciencias sociales y hoy funcionario del gobierno australiano.

Reconozco que antes de empezar esta historia, pensaba los mismo que otros autores recientes (por ejemplo Martin Ford en 2009 o Federico Pistono en 2011): que se había escrito muy poco sobre este tema, que la lista iba a ser mucho más corta de lo que finalmente ha sido (y tengamos en cuenta que no es exhaustiva, ni mucho menos). La realidad, como podrá comprobar el lector, es que desde 1950 se ha escrito bastante  tanto desde el punto de vista de los científicos e ingenieros computacionales como desde el punto de vista de los científicos sociales. De momento, entre libros, artículos científicos, artículos periodísticos, informes etc…unas 70 referencias de autores, muchos de ellos teniendo varias publicaciones sobre el tema y creo que no  hay ninguna de relleno. Un 50% son anteriores al año 2000 (por poner un corte temporal arbitrario, de momento) y un 50% (aprox) posteriores. Por lo tanto sí ha habido una cierta explosión en los últimos años.

Algunos autores han dedicado  mucho tiempo y espacio (físico, papel o electrónico) a escribir sobre estos temas y merecerían más protagonismo. De momento no profundizamos en ninguno. Según vamos  escribiendo añadimos algunos breves comentarios.

Sin más preámbulos, ahora sí la historia:

3.0. Economistas clásicos. Ricardo y sus Principios de Economía Política.

Como es bien conocido la visión de los economistas clásicos era bastante estática, rural. No obstante cuando esta disciplina se estaba desarrollando ya se habían experimentado significativos avances tecnológicos e incluyeron en sus reflexiones el avance tecnológico y sus efectos.

El economista de  origen español Ricardo es el más citado en este contexto. Y concretamente habla sobre este asunto en el capítulo XXXI de su libro Principios de Economía Política precisamente titulado De la maquinaria. En la edición que  manejo son 10 páginas en total.  

3.0. 1900. Henry Adams. 1904. A law of acceleration. 1909. A Rule of Phase Applied to History. 

It was Adams, observing the profound new forces of the dynamo, the internal combustion engine, and the railroad, who was apparently the first in the written record to explore the idea of the inevitable acceleration of progress leading to a coming global “phase change” (commendably, he even used this physical analogy) in environmental dynamics.

3.1 John Campbell. Escritor de ciencia ficción. 1932. The last evolution.

Contempla un escenario similar al de La Singularidad.

3.2. J.M. Keynes,  1933. Economic possibilities of our grandchildren (escrito en 1930). 

Hay que señalar que el ensayo de Keynes es previo no solo a la eclosión sino al nacimiento de las ciencias computacionales. También que Keynes y Turing se conocieron y tuvieron trato, creo recordar que antes de los artículos de Turing sobre ciencias de la computación. En cualquier caso, con la perspectiva de las Revoluciones Industriales  que ya habían tenido lugar, el escenario de Sociedad del Ocio que contempla en su ensayo, con un horizonte de 100 años, es decir 2030, no era inimaginable.

No nos extendemos pues ya hicimos una entrada hace tiempo sobre este ensayo, que por cierto nos sorprendió gratamente al encontrarlo. Nos remitimos a lo comentado en ella.

3.3. Turing, 1936. Artículo. ON COMPUTABLE NUMBERS, WITH AN APPLICATION TO THE ENTSCHEIDUNGSPROBLEM

Este artículo, que se considera fue el que dio vida a las ciencias computacionales teóricas, es relevante en nuestro contexto, primero por su definición de máquina de computación, pero sobre todo, y segundo, por su definición de máquina de computación universal (punto 6 del artículo), es decir una máquina que puede ejecutar como programa a cualquier otra máquina o programa.

Luego veremos que otros  autores añadirán a esta máquina universal la posibilidad de realizar una mejora cualitativa continua en sus programas. Y finalmente otros autores añadirán que estas máquinas serán capaces de acelerar esta mejora cualitativa continua en sus programas.

3.4. 1942. Isaac Asimov. Bioquímico y escritor de Ciencia Ficción. Libro de Ciencia Ficción. Círculo vicioso. Contiene las famosas leyes sobre robótica. El relato transcurre en 2015. 

Asimov conoció a Campbell (creo que este último fue su mentor y editor en sus actividades como escritor de ciencia ficción). En particular colaboraban cuando elaboró las leyes de la robótica.

3.5 1943. Cibernética. 1948. Cybernetics or control and communication in the animal and the machine.  

Uno de los componentes importantes de la robótica es el control. Un definición de la cibernética podría ser como la ciencia y tecnología del control en sistemas artificiales. Originalmente se incluían los sistemas naturales, pero

In the 1970s, new cyberneticians emerged in multiple fields, but especially in biology. The ideas of Maturana, Varela andAtlan, according to Dupuy (1986) “realized that the cybernetic metaphors of the program upon which molecular biology had been based rendered a conception of the autonomy of the living being impossible. Consequently, these thinkers were led to invent a new cybernetics, one more suited to the organizations which mankind discovers in nature – organizations he has not himself invented”

En 1943 tuvo lugar en Princeton una reunión de los principales investigadores que realizaban trabajos en una disciplina que se llamó cibernética.

También

The study and mathematical modelling of regulatory processes became a continuing research effort and two key articles were published in 1943. These papers were “Behavior, Purpose and Teleology” by Arturo Rosenblueth, Norbert Wiener, and Julian Bigelow; and the paper “A Logical Calculus of the Ideas Immanent in Nervous Activity” by Warren McCulloch and Walter Pitts.

Cybernetics as a discipline was firmly established by Norbert Wiener, McCulloch and others, such as W. Ross Ashby, mathematician Alan Turing, and W. Grey Walter. Walter was one of the first to build autonomous robots as an aid to the study of animal behaviour. Together with the US and UK, an important geographical locus of early cybernetics was France.

3.6 1947. François Meyer. “L’acceleration evolutive. Essai sur le rythme evolutif et son interpretation quantique”.

This paper may have been the first simple log-periodic acceleration model applied to evolutionary history. If so, Meyer’s model should include a finite time singularity at some particular future date.

3.7 1948. Daniel Halévy. Historiador francés. “Essai sur l’acceleration de l’histoire (Essay on the Acceleration of History).

3.8. 1950. Turing. Artículo científico. Computing Machinery and intelligence.

Es el clásico artículo de Turing en el que presenta su Test de Turing. No lo he leído entero pero  tras hojearlo en diagonal da la impresión de que no supera el nivel psicológico. Es decir no habla de impacto social de una posible máquina que pase el Test de Turing. La discusión sobre las máquinas que aprenden es interesante.

3.9. 1956. Inteligencia Artificial Clásica (Pitts (1923) y McCulloch (1898) de Stanford; Minsky (1927), McCarthy (1927) del MIT-AI; Newell (1927), Simon (1916) de la   CMU). Las fechas son de nacimiento. 

El enfoque es más bien académico. Son pioneros, están centrados en aspectos  teóricos, técnicos y filosóficos y su visión es a futuro. Lógicamente no era el momento para preocuparse de los impactos económicos y sociales. Para este primer periodo nos remitimos al artículo de wikipedia sobre Historia de la Inteligencia Artificial.

El campo, que en su versión computacional se fundó en 1943 (“A Logical Calculus of Ideas Immanent in Nervous Activity” (1943). Pitts y McCulloch; otro artículo histórico es de Turing,  1950: Computing Machinery and Intelligence) y   ha tenido múltiples vaivenes (veranos e inviernos, como lo llaman los insiders; hoy algunos calificarían la situación como de infierno) en financiación y creatividad / productividad.

Desde el punto de vista institucional se crean los primeros departamentos universitarios y las primeras conferencias académicas (Darmouth 1956; la organizan Mccarthy, Rochester y Shannon y asisten entre otros: Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Herbert A. Simon, and Allen Newell).

Se hacían predicciones optimistas para un futuro próximo, pero no había preocupación por el impacto social.

  • 1958, H. A. Simon and Allen Newell: “within ten years a digital computer will be the world’s chess champion” and “within ten years a digital computer will discover and prove an important new mathematical theorem.”[61]
  • 1965, H. A. Simon: “machines will be capable, within twenty years, of doing any work a man can do.”[62]
  • 1967, Marvin Minsky: “Within a generation … the problem of creating ‘artificial intelligence’ will substantially be solved.”[63]
  • 1970, Marvin Minsky (in Life Magazine): “In from three to eight years we will have a machine with the general intelligence of an average human being

El enfoque técnico era sobre todo lógico, lo cual dio pie a justificadas críticas: Critics of the logical approach noted, as Dreyfus had, that human beings rarely used logic when they solved problems. Muchos de los productos de esta primera fase no pasaron del prototipo o de la curiosidad académica. Algunos lenguajes (Prolog) o sistemas expertos si cuajaron. La disciplina científica con la que se dialogaba eran la psicología, las neurociencias, no las ciencias sociales.

Para una historia de la IA hasta 1993 ver el libro de Daniel Crevier, The tumultuous history of the search for Artificial Intelligence.

3.10. John Diebold. Ciencias Sociales, rama Negocios, 1952. Libro: Automation.

Esta es una primera publicación de un autor que seguirá publicando sobre este tema prácticamente hasta su muerte. A través de su consultora será protagonista de múltiples proyectos de automatización, por ejemplo en el sector de la Banca  o en el sector de la salud.

En el artículo de Wikipedia se puede consultar su bibliografía completaSu obituario. Su visión, la del hombre de negocios, es claramente realista, presentista, prágmatica y optimista.

Es uno de los autores a los que habría que dedicar más tiempo.

3.11. 1961. Herbert Simon, “The Corporation: Will it be Managed by Machines?” in M.L. Anshen and G.L. Bach (eds.), Management and the Corporations, McGraw Hill, 1960, pp. 17-55. 

Este premio Nobel es uno de los autores más relevantes para el tema que nos ocupa: era científico social y era ingeniero computacional (no se si de formación, pero al menos sí en la práctica). Teniendo los dos puntos de vista a mano, y siendo optimista en cuanto al potencial de las tecnologías de la computación, parece que predominó la perspectiva económica en sus análisis a futuro.

Extracto.

We can dismiss the notion that computer programmers will become a powerful elite in the automated corporation. It is far more likely that the programming occupation will become extinct (through the further development of self-programming techniques) than that it will become all powerful. More and more, computers will program themselves; and direction will be given to computers through the mediation of compiling systems that will be completely neutral so far as the content of the decision rules is concerned.

3.12. El informe del Ad Hoc Committe on the Triple  Revolution. 1964. Enviado al Presidente Lybdon Johnson.

Se trata de un informe cuyo de un Comité contexto desconozco. Sólo nos informan que

 The memo was signed by luminaries including Nobel Prize winning
chemist Linus Pauling, Scientific American publisher Gerard Piel, and economist Gunnar Myrdal (a future Nobel Prize winner).

Sus conclusiones.

 A new era of production has begun. Its principles of organization are as different from those of the industrial era as those of the industrial era were different from the agricultural. The cybernation revolution has been brought about by the combination of the computer and the automated self-regulating machine. This results in a system of almost unlimited productive capacity which requires progressively less human labor. Cybernation is already reorganizing the economic and social system to meet its own needs.2

En mi opinión los principios no son diferentes a los de la era industrial.  Es la era industrial llevada a sus extremos. Lo que si sería diferente es la Sociedad del Ocio que esta Sociedad Industrial Extrema haría posible.

3.13. 1966. Stanslaw Lem. Escritor de ciencia ficción. Ensayo. Summa Technologiae.

El enlace lo es a un artículo de wikipedia en castellano.En general los expertos recomiendan la lectura de este ensayo. Lem, el escritor de ciencia ficción más vendido llamaba a la Inteligencia Artificial la Intelektronika.

El ensayo contempla un escenario en el que todo el mundo trabaja como científico.

3.14. H. Dreyfus. Filósofo. 1965. Informe para la Rand Corporation: Alchemy and AI.

Entre los escépticos sobre la IA se encuentra este filósofo que ya desde 1965 lleva atizando a los investigadores en este campo. El artículo que citamos nace como  un informe realizado por Dreyfus para la Rand Corporation, organización  que le había contratado para ello y que en un principio no quedó del todo satisfecha con sus conclusiones:

In 1965, Dreyfus was hired (with his brother Stuart Dreyfus‘ help) by Paul Armer to spend the summer at RAND Corporation‘s Santa Monica facility, where he would write Alchemy and AI, the first salvo of his attack. Armer had thought he was hiring an impartial critic and was surprised when Dreyfus produced a scathing paper intended to demolish the foundations of the field. (Armer stated he was unaware of Dreyfus’ previous publication.) Armer delayed publishing it, but ultimately realized that “just because it came to a conclusion you didn’t like was no reason not to publish it.”[17] It finally came out as RAND Memo and soon became a best seller.[18]

The paper flatly ridiculed AI research, comparing it to alchemy: a misguided attempt to change metals to gold based on a theoretical foundation that was no more than mythology and wishful thinking.[19] It ridiculed the grandiose predictions of leading AI researchers, predicting that there were limits beyond which AI would not progress and intimating that those limits would be reached soon.

Luego hablaremos de otros libros publicados por este mismo autor sobre esta misma temática. Aprovechamos esta primera cita para mostrar  más ampliamente su posición.

Dreyfus argued that human intelligence and expertise depend primarily on unconscious instincts rather than conscious symbolic manipulation, and that these unconscious skills could never be captured in formal rules. His critique was based on the insights of modern continental philosophers such as Merleau-Ponty andHeidegger, and was directed at the first wave of AI research which used high levelformal symbols to represent reality and tried to reduce intelligence to symbol manipulation.

Puedo estar muy parcialmente  de acuerdo con este autor  en algunas de sus tesis. Y veo que no soy el único.

When Dreyfus’ ideas were first introduced in the mid-1960s, they were met with ridicule and outright hostility.[2][3] By the 1980s, however, many of his perspectives were rediscovered by researchers working in robotics and the new field of connectionism—approaches now called “sub-symbolic” because they eschew early AI research’s emphasis on high level symbols. Historian and AI researcher Daniel Crevier writes: “time has proven the accuracy and perceptiveness of some of Dreyfus’s comments.”[4] Dreyfus said in 2007 “I figure I won and it’s over—they’ve given up.”

En algunas predicciones, se equivocó de manera flagrante.

The paper was the subject of a short in The New Yorker magazine on June 11, 1966. The piece mentioned Dreyfus’ contention that, while computers may be able to play checkers, no computer could yet play a decent game of chess.

Además de estas incursiones críticas, es especialista en hacer inteligible la filosofía europea continental a audiencias americanas.

3.15. I.J. Good, estadístico, 1965, artículo: “Speculations
Concerning the First Ultraintelligent Machine”:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion”, and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make

Es la primera expresión conocida de la idea de la singularidad.

3.16. 1972. H. Dreyfus. What computers  can´t do.

En este año Dreyfus publica este libro, el que amplia las conclusiones de su anterior informe. El libro tuvo varias ediciones hasta 1992.

3.17. 1972. El informe Rand Corporation-Boehm. Software and its impact: a  quantitative assessment.

Desconozco cual fue la difusión e impacto de este informe. No es sobre inteligencia artificial  y su relación con la temática que nos ocupar es muy indirecta. Expresa una visión hiperrealista de la industria del software en ese momento,  muy lejos de la idea de las máquinas que se autoprograman.

Visto en este artículo  del historiador del  software Mahoney.

3.18. El informe Lighthill, 1973.

Aplicando criterios realistas, presentistas y pragmáticos en este informe se evaluaba la investigación en Inteligencia Artificial en UK. Fue un killer para la investigación en este campo y en este país (también tuvo consecuencias en EEUU). En UK quizás estén pagando todavía hoy sus consecuencias.

The Lighthill report is the name commonly used for the paper “Artificial Intelligence: A General Survey” by James Lighthill, published in Artificial Intelligence: a paper symposium in 1973.[1]

Published in 1973, it was compiled by Lighthill for the British Science Research Council as an evaluation of the academic research in the field of Artificial Intelligence. The report gave a very pessimistic prognosis for many core aspects of research in this field, stating that “in no part of the field have discoveries made so far produced the major impact that was then promised”.

Es  un informe relevante también para la historia de la  complejidad computacional: The report stated that AI researchers had failed to address the issue of combinatorial explosion when solving problems within real world domains.

3.19. J.S Albus, ingeniero, 1976. People´s capitalism: the economics of the robot revolution.

Un ingeniero escribiendo sobre asuntos económicos. En el enlace se puede ver el índice y descargar el libro en PDF. El libro no es lo que dice el título. Es más bien un escrito de corte utopista.

3.20. Simon, científico social y computacional 1977. Su libro The New Science of Management Decision. 

3.21. Hans Moravec. Ingeniero computacional.

Su página web.

Es un autor que ha escrito mucho sobre este tema, comenzando casi en los 90  y hay que estudiar en profundidad.

En el artículo de wikipedia en castellano resumen bien su trayectoria: Es conocido por sus escritos sobre robótica, inteligencia artificial, y en general sobre el impacto de la tecnología en la sociedad. Se le considera un futurólogo que ha publicado diversos artículos desde la óptica del transhumanismo.

Smart comenta:

The roboticist Hans Moravec also emerged on the public scene in this decade. Moravec is arguably the most important single pioneer and advocate of deep thinking on accelerating computational change in the 20th century. He began writing about exponential growth in computer power beginning in the mid 1970’s while working at the Stanford Artificial Intelligence Laboratory (SAIL). His fascinating June 1974 essay “Locomotion, Vision, and Intelligence” led to a 1976 essay, “The Role of Raw Power in Intelligence” and an even bolder piece, Sept 1977’s “Intelligent Machines: How to get there from here and What to do afterwards” (incorporating 1974’s “Locomotion”).

1979Today’s Computers, Intelligent Machines, and Our Future.”

———————————————————————

Comentario general. El impacto del PC. 

A principios de los 80 hubo varias publicaciones sobre el impacto de la informática en el trabajo. Ignoro el motivo. Muy posiblemente esto sea debido a la masificación de los computadores personales:

During the early 1980s, home computers were further developed for household use, with software for personal productivity, programming and games. They typically could be used with a television already in the home as the computer display.  

In 1982 “The Computer” was named Machine of the Year by Time Magazine.

Concretamente: 

–1981: IBM lanza el PC. The IBM Personal Computer, commonly known as the IBM PC, is the original version and progenitor of the IBM PC compatible hardware platform. It is IBM model number 5150, and was introduced on August 12, 1981. 

–1982, se lanza el ZX Spectrum; vendiendo 8 millones de unidades. Una de ellas terminó en casa de mis padres:-). Fue el primer ordenador que tuvimos y yo nunca lo utilicé, salvo para jugar al tenis. Se me daba mejor que el tenis real.

–1982. Se lanza el Commodore 64 un ordenador de hogar. It is listed in the Guinness Book of World Records as the highest-selling single computer model of all time,[6] with independent estimates placing the number sold between 10 and 17 million units.[7]

–1982. Japón no  se  queda a la zaga y NEC Corp. lanza el NEC PC-98, que vende más de 18 millones de unidades,

El terreno había sido bien abonado por Apple que en 1977 lanzó su Apple II: Introduced at the West Coast Computer Faire on April 16, 1977, the Apple II was among the first successful personal computers; it launched the Apple company into a successful business (and allowed several related companies to start). 

El software en ese momento era limitado. Por ejemplo la serie de sistemas operativos Microsoft Windows no salió hasta 1985 y el paquete Microsoft Office hasta 1989.

De cualquier manera la acogida de estos computadores primitivos y con aplicaciones limitadas por el gran público hizo ver a los estudiosos que el impacto podía ser serio.

Fin de comentario general.

———————————————————————

3.22. Martin L.Ernst, ¿ periodista científico ?, 1982, artículo en Scientific American: The Mechanization of  Commerce.

Se trata de  un artículo en un número monográfico de esta revista titulado The mechanization of work. Se vende a 80 usd….

The Mechanization of work; the mechanization of agriculture; the mechanization of mining; the mechanization of design and manufacturing; the mechanization of commerce; the mechanization of office work; the mechanization of women’s work; the distribution of work and income; and more. 

Uno de los puntos se consideraría hoy políticamente incorrecto y sorprende que todavía en 1982 existiese esta mentalidad.

Resumen (no he podido leerlo completo pero por estar en la intersección de dos intereses, intentaré conseguirlo a toda costa).

The mechanization of the finance industry, transportation, distribution of goods, and telecommunications is discussed in relation to government’s role, interactions among dependent parties, and nature of electronic and non-electronic technologies influencing the industries/institutions. Topics include checking, moving containers, universal product codes/scanners, warehouse control, and concerns related to mechanization. (JN). 

3.23. Nilsson et all, ingeniero computacional y su artículo de 1983. Artificial intelligence: its impacts on human occupations and distribution of income.

Publicado en Proceedings 8th International Joint Conference on Artificial Intelligence Karlsruhe, West Germany. William Kaufmann. No he podido leerlo.

Otro ingeniero hablando de asuntos económicos. En este caso el  resultado es de calidad. Me refiero a un segundo artículo que publicó en 1985 y que seguramente es de contenido similar.

Artificial Intelligence, Employment and Income. (PDF de su página web).

Abstract. 

Artificial intelligence (AI) will have many profound societal effects It promises potential benefits (and may also pose risks) in education, defense, business, law, and science In this article we explore how AI is likely to affect employment and the distribution of income. We argue that AI will indeed reduce drastically the need fol human toil We also note that some people fear the automation of work hy machines and the resulting unemployment Yet, since the majority of us probably would rather use our time for activities other than our present jobs, we ought thus to greet the work-eliminating consequences of AI enthusiastically The paper discusses two reasons, one economic and one psychological, for this paradoxical apprehension We conclude with a discussion of problems of moving toward the kind of economy that will he enahled by developments in AI.

El enfoque del artículo es realista, pero a futuro (habla de un horizonte de 50 años, por lo tanto de 2030). Para su redacción el autor consultó con varios economistas (entre otros Leontief, Solow). También con H.Simon que era medio economista. Simon en 1977 había publicado un modelo sobre el impacto tecnológico en general y aplicaba al caso la ley de la ventaja comparativa. Como Simon hablaba con conocimiento de causa de los dos enfoques, le dedicamos un poco de espacio a este tema.

Extracto.

On the one hand, Herbert Simon (who, of course, is also a distinguished AI scientist) invokes the law of comparative advantage, which is, as he states, the standard rebuttal of economic theory to the concern that mechanization causes technological unemployment.

Simon claims that this law

. . shows, essentially, that both people and machines can be fully employed regardless of their relative productivity. By adjustment in the relative price of labor and capital, respectively, it will come about that labor will be employed in those processes in which it is relatively more productive, capital in the processes in which it is relatively more productive.”

Simon does admit, however, that the law of comparative advantage 

“. . . does not settle all the essential issues. In particular, although it shows that at some wage all labor would be employed in equilibrium, no matter how efficient machines become, it does not predict what that wage would be It does not guarantee that real wages will not drop as the economy’s productivity improves through mechanization. It does not even guarantee that real wages will remain above the subsistence level (Simon, 1977) .”

To pursue this matter further, Simon analyzes in more detail the effects of technological progress in a model economy (Simon, 1977. The new science of managemente decision).

Simon summarizes his position by saying that

“nothing about the current advances in automation indicates that these advances will have any different economic effects than earlier industrialization and mechanization. The main long-run effect of increasing productivity is to increase real wages-a conclusion that is historically true and analytically demonstrable.”

In Simon’s model, the entire cost of capital (interest on borrowed capital plus return on invested capital) is combined as ‘interest. ” One wonders whether the predictions of his model would survive an analysis in which technology makes possible a shift from salaries paid to humans toward “salaries” paid to machines (in the form of higher profits to the robot owners). Would he include these “salaries” as “‘wages” or as %nterest?”

It is true, as Simon notes, that the cost of capital (the real interest rate) has remained fairly level over recent decades. Consequently, as our economy has become more productive, both the labor wage rate and total labor wages have risen. But, as Kelso and Adler (Kelso, 1958) argue, it is machines, not labor, that have become more productive; therefore, it is capital, rather than labor, that might more appropriately have received the extra reward. Our society has  simply “chosen” (through various social and political means) to distribute income to consumers through higher wage rates, rather than through higher return on investment.

¡¡ Correcto !! Ya analizamos todo esto en otra entrada llegando a las mismas conclusiones. Y seguramente es lo que pasará:  la sociedad se apropiará del ahorro generado por el capital (por la máquina, por su propietario) y lo redistribuirá a (otros) humanos, que no merecen (desde el punto de vista económico, claro) este ingreso, pero son mayoría…:-). Ahora entiendo por qué la ideología que se está cociendo en Silicon Valley, según hemos visto en una entrada anterior, es anti-democrática.

Sin embargo no todo está tan claro en el lado económico. El modelo de Leontief, basado en análisis input-output llegaba a conclusiones dispares con respecto al de H. Simon. El lector interesado en este punto tendrá que leer el artículo.

Resumiendo, me parece un buen artículo, aunque la vista es de pájaro y no baja al detalle. Tampoco era necesario en ese momento. Comparto algunas de sus conclusiones.

3.24. Leontief y Duchin. 1983. The impacts of automation on employment.

No se si esta publicación es anterior a la del punto anterior.  

3.25. La iniciativa Fifth Generation Computer Systems del Gobierno japonés.

Japón sea posiblemente la sociedad más consciente del fenómeno del Imperialismo Computacional. Desde hace tiempo para ellos un futuro robotizdo es cosa del presente. Esto es al menos la percepción que se tiene desde fuera. ¿ Por qué esta sociedad es así ? No tengo respuesta, pero me gustaría conocer más en detalle los motivos.

Es posible que el proyecto gubernamental sobre el que hablamos en este punto tuviese algo que ver con ello.

  • 1982: the FGCS project begins and receives $450,000,000 worth of industry funding and an equal amount of government funding.
  • 1985: the first FGCS hardware known as the Personal Sequential Inference Machine (PSI) and the first version of theSequential Inference Machine Programming Operating System (SIMPOS) operating system is released. SIMPOS is programmed in Kernel Language 0 (KL0), a concurrent Prolog-variant with object oriented extensions.

Hoy el proyecto se evalúa como fracaso. Siendo pragmático y presentista, estuvo centrado en aspectos técnicos. 

3.26. La Nueva Inteligencia Artificial: conexionismo, psicología cognitiva (Hopfield 1933, Rumelhart 1942, McClelland 1948), Nouvelle AI: se descubre el movimiento y el cuerpo. Robótica.

De nuevo el enfoque que nace en los 89, es teórico. Se sigue dialogando con la psicología y neurociencias más que con las ciencias sociales.

El conexionismo coincide con nuevos enfoques provenientes de la robótica:

In the late 80s, several researchers advocated a completely new approach to artificial intelligence, based on robotics.

They believed that, to show real intelligence, a machine needs to have a body — it needs to perceive, move, survive and deal with the world. They argued that these sensorimotor skills are essential to higher level skills like commonsense reasoning and that abstract reasoning was actually the least interesting or important human skill (see Moravec’s paradox). They advocated building intelligence “from the bottom up.”[127]

The approach revived ideas from cybernetics and control theory that had been unpopular since the sixties. Another precursor was David Marr, who had come to MIT in the late 70s from a successful background in theoretical neuroscience to lead the group studying vision.

Otra corriente que empieza a coger fuerza en estas fechas es la de la robótica. Podemos  destacar a Rodney Brooks y su artículo Elephants don´t play chess.

Abstract.

There is an alternative route to Artificial Intelligence that diverges from the directions pursued under that banner for the last thirty some years. The traditional approach has emphasized the abstract manipulation of symbols, whose grounding, in physical reality has . rarely been achieved. We explore a research methodology which emphasizes ongoing physical interaction with the environment as the primary source of constraint on the design of intelligent systems. We show how this methodology has recently had significant successes on a par with the most successful classical efforts. We outline plausible future work along these lines which can lead to vastly more ambitious systems

El robot es quizás la tecnología que se percibe como más amenazante, seguramente por su capacidad de  movimiento. Luego hablaremos más de este autor. De cualquier manera la  conversación sigue estando en el  nivel psicológico y nadie habla de una sociedad robotizada ya que de momento es un evento de futuro lejano.

3.27. Ray Solomonoff (1926-2009). Ingeniero computacional, IA. 1985, artículo: The time scale of artificial intelligence: reflections on social effects.  Primer modelo implicito de La Singularidad. 

En este artículo de uno de los protagonistas de la primera oleada de la corriente Inteligencia Artificial (pionero en la aplicación de conceptos provenientes de la probabilidad a la Inteligencia Artificial), se añade a las ideas de computación universal y computadora generadora de programas cada vez mejores desde el punto de vista cuantitativo, la idea de aceleración exponencial en esta mejora cualitativa.

Solomonoff proporciona un modelo cuantitativo. En 2013 otro autor, J.S. Hall ha revisado en otro artículo (Further reflections on The Timescale of AI) los hitos a futuro marcados por Solomonoff y cuanto se ha avanzado en este sentido.

Extractos. 

He introduced (habla de Solomonoff) arguably the first formal mathematical  model of what has since come to be known as the technological singularity. Since that time a veritable plethora of such models has appeared. We examine the milestones (habla de los hitos de la AI que presenta Solomonoff en su artículo) and model in light of 25 years more experience.

…   

Milestone A. Darmouth 1956. AI began as a distinct enterprise. This is the only milestone which was considered to has been accomplished at the time of the paper. 

Milestone B. A general theory of problem solving is achieved: it would cover such capabilities associated with intelligence such as learning, concept formation and knowledge representation.  

Milestone C. A self improving machine (or program) is created. 

El lector puede leer el  paper de Solomonoff o este otro posterior para conocer los otros hitos (hasta la letra G) y su tiempo de ocurrencia.

Milestone G. An AI has a problem solving capacity many times that of a CS community (se entiende comunidad humana).

In the intervening 25 years much has happened but milestone A is still the only one which has actually occured. 

Creo relevante señalar que este autor, Solomonoff, físico de formación, no trabajó, en general, en entornos académicos. Una página web dónde se puede acceder a sus publicaciones.

La idea de Solomonoff de una inferencia inductiva universal (que sería la inversa de una lógica deductiva universal) ha tenido seguidores. Concretamente Marcus Hutter y su modelo AIXI que ha generalizado la teoría de Solomonoff a agentes activos (cuyas acciones pueden alterar el entorno). Aunque estas teorías pueden tener interés teórico, no son prácticas. No obstante luego citaremos en otro punto de 2008 a un discípulo de Hutter.

3.28. 1987. Economics and artificial intelligence: Proceedings of the IFAC/IFORS/IFIP/IASC/AFGET conference.  

La aproximación de las dos disciplinas en las que estamos basando nuestro análisis (economía como representante de las Ciencias Sociales e Inteligencia Artificial como representante de las ciencias computacionales) se lleva intentando al menos desde los 80, como demuestra esta conferencia de 1987. Hoy en día existe una disciplina que intersecta a las dos, que se ha venido en llamar Algorithmic Game Theory.   No obstante la fusión de estas dos “culturas” tecnocientíficas en una teoría general de la acción inteligente todavía está lejos de llevarse a cabo.

3.29. 1990 Ray Kurzweil, ingeniero computacional. La Singularidad, concepto explícito y popularizado. 2001. “The Law of Accelerating Returns,”. 2005 book The Singularity is Near, 2005

La plataforma Kurzweil (incluye blog, recopilación de ensayos, libros, etc…).

Smart comenta.

But perhaps most visibly, and most importantly for the public consideration of these ideas, inventor and artificial intelligence pioneer Ray Kurzweil published two seminal books in this decade, Age of Intelligent Machines, in 1990, and Age of Spiritual Machines, in 1999. The former book makes a case for the astounding growth in computational complexity in recent decades, and the reality that A.I. must play a central role in 21st century life. The latter book takes these ideas much further, and is our recommended introductory primer to singularity ideas for the lay public.

Sobre lo que no cabe duda es que Kurzweil ha sido el gran popularizador de La Singularidad, un escenario extremo de brutal impacto social. La descripción es casi de ciencia ficción y la situación se afronta en modo optimista. Además combina en su escenario los avances en tecnología computacionales con avances en otras disciplinas, como neurociencias o biotecnología. Por supuesto que incluye elementos del concepto de  Imperialismo Computacional. 

Que Google le haya contratado significa que esta empresa si tiene una visión muy realista, presentista, pragmática y optimista con respecto al  Imperialismo  Computacional. Lo que para Kurzweil es un viaje al pasado, para Google lo es al futuro.

3.30. 1993. Vernor Vinge. Matemático y escritor de ciencia ficción. Ensayo: The coming  technological singularity.

——————————————————————–

Comentario general.

A partir de 1998 hubo otro pico de publicaciones relacionadas con este asunto. En este caso provenian sobre todo de científicos sociales que evitaban enfoques futuristas. De nuevo ignoro el motivo de este pico pero posiblemente estuviese relacionado con la difusión de Internet.

——————————————————————–

3.31 1998. Richard Coren. The Evolutionary Trajectory: The Growth of Information in the History and Future of Earth (World Futures General Evolution Studies)

3.32. David H. Author,  economista, y coautores (Levy, Murnane y otros sobre los que hablaremos más adelante).

Este autor lleva publicando artículos sobre este tema al menos desde 1998.

1998. Autor, David H., Lawrence F. Katz, and Alan B. Krueger, “Computing Inequality: Have Computers Changed the Labor Market?” Quarterly Journal of Economics, CXIII (1998), 1169–1214.

2003. THE SKILL CONTENT OF RECENT TECHNOLOGICAL
CHANGE: AN EMPIRICAL EXPLORATION*

En la bibliografía de este paper aparecen muchas publicaciones, casi todas entre 1998 y 2002.

Abstract. 

We apply an understanding of what computers do to study how computerization alters job skill demands. We argue that computer capital (1) substitutes for workers in performing cognitive and manual tasks that can be accomplished by folowing explicit rules; and (2) complements workers in performing nonroutine  problem solving and complex communications tasks. Provided that these tasks are imperfect substitutes, our model implies measurable changes in the composition of job tasks, which we explore using representative data on task input for 1960 to 1998. We Žfind that within industries, occupations, and education groups,  computerization is asso- ciated with reduced labor input of routine manual and routine cognitive tasks and increased labor input of nonroutine cognitive tasks. Translating task shifts into education demand, the model can explain 60 percent of the estimated relative demand shift favoring college labor during 1970 to 1998. Task changes within nominally identical occupations account for almost half of this impact.

Un artículo reciente de 2013 en el  NYT. How technology wrecks the middle class.

3.33. Robin Hanson, economista, y su artículo de 1998: Economic Growth Given Machine Intelligence.

Extracto del artículo.

What are likely to be the long-term economic consequences of continued progress in developing machine intelligence? Beyond disputes over when machines have complemented vs. substituted for human labor, very little research seems to have been done on this question. This paper examines the economic consequences of machine intelligence by using standard economic theory to construct a series of simple but increasingly more realistic formal models of economies where machines can both complement and substitute for human labor. Before describing these models in detail, we first summarize qualitatively the nature of our models and the conclusions they suggest.

Este economista es co-autor de un blog clásico (se publica desde 2006) y bastante famoso: Overcoming bias. El otro autor del blog es Eliezer Yudkowski, muy implicado en los temas en los que hablamos, linea Singularidad, publica desde principios de 2009 su propio blog, Less Wrong. Estos dos blogs sólo hablan ocasionalmente del asunto que nos ocupa.

Más recientementa Hanson ha publlicado otro artículo titulado: Singularity Economics, IEEE Spectrum, junio 2008:

Y otro: The Economics of the Singularity 2008 (posiblemente el mismo que el anterior).

3.34. 2000. Bill Joy, ingeniero computacional (uno de los fundadores de Sun Microsystems), y su artículo del año Why the future doesn´t need us

3.35. ¿? 2000. John Seely Brown, ingeniero computacional, Chief Scientist en Xerox y Paul Duguid, Científico Social, en ese momento consultor en Xerox artículo en The Industry Standard A response to Bill Joy and the Doom-and- Gloom Technofuturists

3.36. 2000. Jaron Lanier. Ingeniero computacional. Ensayo: One half a manifiesto.

Los críticos de la Inteligencia Artificial son los menos. Y menos aún los insiders. En general suelen provenir más bien del frente filosófico. Lanier es una excepción, pues es un insider crítico. En este ensayo hizo publicas por primera vez sus posiciones bastante contrarias a la idea de Singularidad à la Kurzweil.

In “One-Half a Manifesto”, Lanier criticizes the claims made by writers such as Ray Kurzweil, and opposes the prospect of so-called “cybernetic totalism”, which is “a cataclysm brought on when computers become ultra-intelligent masters of matter and life.”[12][13] Lanier’s position is that humans may not be considered to be biological computers, i.e., they may not be compared to digital computers in any proper sense, and it is very unlikely that humans could be generally replaced by computers easily in a few decades, even economically. While transistor count increases according to Moore’s law, overall performance rises only very slowly. According to Lanier, this is because human productivity in developing software increases only slightly, and software becomes more bloated and remains as error-prone as it ever was

Ya hemos visto en otros puntos la idea del diferente ritmo hardware/software. Desde entonces este autor ha seguido publicando ensayos críticos con diversos aspectos de las nuevas tecnologías TIC.

Libro relevantes de éste autor:

2010. You are not a gadget.

¿? Who owns the future  ?

Su último ensayo, en The Edge, sí está relacionado con la IA. Se titula The Myth of AI.

Extractos.

I want to go little deeper in it by proposing that the biggest threat of AI is probably the one that’s due to AI not actually existing, to the idea being a fraud, or at least such a poorly constructed idea that it’s phony. In other words, what I’m proposing is that if AI was a real thing, then it probably would be less of a threat to us than it is as a fake thing.

What do I mean by AI being a fake thing? That it adds a layer of religious thinking to what otherwise should be a technical field. Now, if we talk about the particular technical challenges that AI researchers might be interested in, we end up with something that sounds a little duller and makes a lot more sense.

For instance, we can talk about pattern classification. Can you get programs that recognize faces, that sort of thing? And that’s a field where I’ve been active. I was the chief scientist of the company Google bought that got them into that particular game some time ago. And I love that stuff. It’s a wonderful field, and it’s been wonderfully useful.

3.37 2002. Rodney Brooks, ingeniero computacional, robótica, y su libro  Flesh and Machines: How Robots Will Change Us

La tercera parte de este libro estudia el impacto social de estas tecnologías.

3.38. Michael S. Mahoney. Historiador del Software. 2002. Artículo publicado en un libro de historia de la computación. SOFTWARE: THE SELF-PROGRAMMING MACHINE. 

Es otra visión hiperrealista sobre las promesas y la situación real de la  industria del software en 2002.

Habla de Turing y su máquina universal, de Simon y su artículo de 196o 0 1961 y comenta:

Simon was talking about 1985, yet, as we near the millennium, programmers are neither extinct nor even an endangered species.

Y concluye.

The Grail of Automatic Programming

While some software engineers thought of factories in terms of human workers organized toward efficient use of their labor, others looked to the automated factory first realized by Henry Ford’s assembly line, where the product was built into the machines of production, leaving little or nothing to the skill of the worker. One aspect of that system attracted particular attention. Production by means of interchangeable parts was translated into such concepts as “mass-produced software components”, modular programming, object-oriented programming, and reusable software. At the same time, in a manner similar to earlier work in compiler theory or indeed as an extension of it, research into formal methods of requirements analysis, specification, and design went hand in hand with the development of corresponding languages aimed at providing a continuous, automatic translation of a system from a description of its intended behavior to a working computer program. These efforts have so far met with only limited success. The production of programs remains in the hands of programmers.

3.39. 2003. Schmidhuber, J. 2003. Godel machines: Self-referential universal problem solvers making prov- ¨
ably optimal self-improvements. [http://arxiv.org/abs/cs.LO/0309048]

3.40. 2004. Floridi, L. and Sanders, J.W. 2004. On the morality of artificial agents. Minds and Machines 14:349-79.

Sobre Floridi hablaremos en un punto posterior.

3.41. 2005. Hofstadter, D.R. Moores law, artificial evolution, and the fate of humanity.

3.42. 2005. Frank Levy & Richard Murnane. 2005. Científicos sociales. Libro: The New Division of Labor: How Computers Are Creating the Next Job Market.

Estos dos autores llevan publicando sobre este tema al menos desde 1996. En 2005 publicaron un libro.

1996. Levy, Frank, and Richard J. Murnane, “With What Skills Are Computers a Complement?” American Economic Review Papers and Proceedings, LXXXVI
(1996), 258–262.

2002. Author, Levy & Murnane.

¿ 2013 ? Informe. Dancing with robots. Human skills for computerized world

Estos autores no tienen una idea del computador como una máquina maravillosa que haga milagros y vaya a sustituir a los humanos en todas las actividades. Sólo una herramienta que sustituirá puestos de trabajo a la vez que creará otros. Como para la  mayoría de los economistas sólo una tecnología más. Igual se quedan cortos en esto. En definitiva,  un enfoque de economía clásico, realista, presentista, pragmático y optimista.

Presentación del libro.

As the current recession ends, many workers will not be returning to the jobs they once held–those jobs are gone. In The New Division of Labor, Frank Levy and Richard Murnane show how computers are changing the employment landscape and how the right kinds of education can ease the transition to the new job market.

The book tells stories of people at work–a high-end financial advisor, a customer service representative, a pair of successful chefs, a cardiologist, an automotive mechanic, the author Victor Hugo, floor traders in a London financial exchange. The authors merge these stories with insights from cognitive science, computer science, and economics to show how computers are enhancing productivity in many jobs even as they eliminate other jobs–both directly and by sending work offshore. At greatest risk are jobs that can be expressed in programmable rules–blue collar, clerical, and similar work that requires moderate skills and used to pay middle-class wages. The loss of these jobs leaves a growing division between those who can and cannot earn a good living in the computerized economy. Left unchecked, the division threatens the nation’s democratic institutions.

The nation’s challenge is to recognize this division and to prepare the population for the high-wage/high-skilled jobs that are rapidly growing in number–jobs involving extensive problem solving and interpersonal communication. Using detailed examples–a second grade classroom, an IBM managerial training program, Cisco Networking Academies–the authors describe how these skills can be taught and how our adjustment to the computerized workplace can begin in earnest.

Indice del libro.

Acknowledgments vii
CHAPTER 1 New Divisions of Labor 1
PART I
Computers and the Economy
CHAPTER 2 Why People Still Matter 13
CHAPTER 3 How Computers Change Work and Pay 31
PART II The Skills Employers Value
CHAPTER 4 Expert Thinking 57
CHAPTER 5 Complex Communication 76
PART III How Skills Are Taught
CHAPTER 6 Enabling Skills 99
CHAPTER 7 Computers and the Teaching of Skills 109
CHAPTER 8 Standards-Based Education Reform in the Computer Age 131
CHAPTER 9 The Next Ten Years 149
Notes 159
Index 169

3.43. 2007. Omohundro, S. 2007. The nature of self-improving artificial intelligence. [http://steveomohundro.com/scientificcontributions/]

———————————————————————

Comentario general. Internet y la revolución móvil.

Aunque el uso privado, empresarial o doméstico de Internet es posible al menos desde 1994 (yo empecé a utilizarlo ese año) su uso masivo ha sido bastante posterior. Han tenido que llegar el ADSL (es decir la herramienta  que permite un uso rápido) y varios elementos vinculados al software (por ejemplo buscadores eficientes como Google, medios de publicación web como los blogs, redes sociales etc…) para que su  uso sea masivo y por lo tanto su impacto sea brutal. Diría que si hasta ¿2005? el par Internet /web eran una gran promesa  desde esa fecha es una

Con lo  móviles ha pasado lo  mismo. De un uso elitista en la década de los 90 pasan a ser un bien de consumo masivo en los 2000. Y mientras han sido sólo teléfono su impacto ha sido más lmitado. Su integración con Internet (el concepto de Smart Phone) es reciente 4 o 5 años. Digamos desde ¿ 2008 ?.

La rápida difusión y la combinación de estos dos elementos, hoy de uso masivo, han dado un nuevo impulso a publicaciones relacionadas con el Imperialismo Computacional. Casualmente todo esto ha coincidido con el largo periodo de crisis económica.

Nuestras modestas publicaciones entran dentro de esta última oleada. Mi impresión es que es a partir de este periodo cuando la idea ha cuajado de verdad, cuando se empieza a considerar este tema como algo real, presente, sobre el que hay que pensar desde un punto de vista no solo teórico sino pragmático y sobre el que están empezando a emerger diferentes valoraciones, más o menos optimistas. Puede ser solo una impresión y me gustaría poder ofrecer al lector un estudio más cuantitativo, aunque sea impresionista, que seguramente sería posible hacer rápidamente.

———————————————————————

3.44. 2008. Shane Legg. Tesis doctoral. Machine Super Intelligence

Discípulo de Hutter. Me ha llamado la atención esta tesis ya que dedica un primer capítulo a contestar la pregunta: What is intelligence ?, pregunta que aparentemente no se habían planteado muchos de los investigadores anteriores en Inteligencia Artificial, como  él mismo afirma:

Amazingly, books and papers on artificial intelligence rarely delve into what intelligence actually is, or what artificial intelligence is trying to achieve. When they do address the topic they usually just mention the Turing test and that the concept of intelligence is poorly defined, before moving on to algorithms that presumably have this mysterious quality. 

[Nota al margen.

Tras revisar diversas definiciones propuestas por varios autores, el autor de la tesis propone la siguiente definición general e informal de inteligencia.

Intelligence measures an agent’s ability to achieve goals in a wide
range of environments

que tiene todos los elementos: agente, objetivos, entorno y cumplimiento y con la que podría estar de acuerdo (sin haber pensado sobre ello). Algunos comentarios tras una breve meditación:

–Sin embargo, en una segunda lectura podría parecer demasiado amplia pues una célula o cualquier animal bien adaptado a sus entornos, sería inteligente. Y la mayoría de las células y animales nos parecen tener un repertorio más bien limitado y automático, y por lo tanto predecible, de comportamientos.  ¿ Habrá algún equilibrio entre las definiciones de corte general como esta y las  demasiado restrictivas como aquellas que reducen la inteligencia a resolver correctamente los tests de tipo Raven ?. Yo sustituiría “in a wide range of environments” por en cualquier entorno o “in any environment“, aunque sólo de manera provisional, pues la palabra “cualquiera” suena demasiado abierta y debe de ser cerrada de alguna manera con algún matiz. Matizando así se puede distinguir los agentes adaptados de los inteligentes.

–En la definición que proponen tampoco está claro si los objetivos le vienen dados al agente desde fuera o son autodeterminados. Creo que la posibilidad de autodeterminación, tiene que ser un componente importante de cualquier definición de inteligencia. Y muchas veces la inteligencia se manifiesta más en el objetivo elegido por el agente que en la manera en la que este se cumple.

–el concepto de entorno sin más también parece demasiado amplio. Si nos valiese así deberíamos dar la razón a Boring y su famosa definición: “Intelligence is what is measured by intelligence tests.” Boring (1923). ¿ No sería cada matriz de Raven un nuevo entorno ?. Me oriento hacía un matiz físico (añadir a alguna mención a la materia y energía que encontraríamos en cualquier entorno posible) pero no lo tengo claro ahora mismo.

Fin de nota al margen].

El segundo capítulo lo dedica a explicar, de manera didáctica, que es la Inteligencia Artificial Universal en el sentido de la teoría de Solomonoff-Hutter.

At present AIXI is not widely known in academic circles, though it has captured the imagination of a community interested in new approaches to general purpose artificial intelligence, so called artificial general intelligence (AGI). However even within this community, it is clear that there is some confusion about AIXI and universal artificial intelligence. This may be attributable in part to the fact that current expositions of AIXI are difficult for non-mathematicians to digest. As such, a less technical introduction to the subject would be helpful. Not only should this help clear up some misconceptions, it may also serve as an appetiser for the more technical treatments that have been published by Hutter. Chapter 2 provides such an introduction. It starts with the basics of inductive inference and slowly builds up to the AIXI agent and its key theoretical properties.  

En el resto de la tesis presenta sus resultados relacionados con este modelo. Aunque, repetimos, no son modelos prácticos, restricciones de este modelo tan general sí podrían serlo.

Tras la lectura de lo anterior el lector podrá pensar que este autor está en la higuera académica pensando en modelos cada vez más abstractos. Se equivoca: es  uno de los investigadores que ha diseñado Deep Mind, empresa que se ha vendido recientemente a Google por unos 400 millones de usd. Hablaremos de ello en un punto posterior.

3.45. 2009. Martin Ford, ingeniero computacional (emprendedor en Silicon Valley) y su blog Econofuture.

Se trata del blog Econfuture publicado por el ingeniero computacional Martin Ford.  Su primera entrada se publicó el 23 de octubre de 2009.

Su análisis es sin duda realista y presentista. No tengo claro todavía si también pragmático.

Extracto.

My purpose in starting this blog is to explore some of these broader issues. In particular, I want to focus on how advancing technology will impact the future economy. There is much discussion elsewhere of advanced technology itself and of the direct impacts it may have on society. This ranges from dystopian concerns about gray goo and intelligent machine  overlords raised by Bill Joy and others, to the far more optimistic views of Ray Kurzweil and Aubrey de Grey—who are both looking forward to technologically enabled immortality.

So far, I have not seen a great deal of deep thought given to how the future economy will work. Most people—and nearly all economists—make the obvious assumption about that: they assume the economy will essentially work the way it has always worked. The basic principles that govern the economy are seen as being relatively fixed and reliable. Economists look to history and find evidence that the free market economy has always adjusted to impacts from advancing technology and from resource and environmental constraints, and they assume that the same will always occur in the future. Crises and setbacks are temporary in nature: in the long run, the economy will rebalance itself and put us back on the path to prosperity.

———————————————————————

Comentario general.

Últimamente se están incorporando al debate, aportando otra perspectiva, los filósofos.

La filosofía de la mente tiene una larga tradición y ha tratado desde hace tiempo el tema de la Inteligencia Artificial. Es más dentro de la Filosofía de la mente existe una especialidad llamada Filosofía de la Inteligencia Artificial. Yo, por ejemplo, tengo varios libros de Searle. 

Sin embargo, si bien antes los practicantes de la filosofía de la mente, cuando hablaban de la IA discutían sobre su posibilidad (ya hemos hablado de Dreyfus), ahora esto se da por hecho y sobre lo que hablan es sobre como serán estos supuestos agentes inteligentes, y sobre todo sobre si serán benevolentes con los inferiores humanos o más bien agresivos y nos  extinguirán.

Para cualquiera que piense en este fenómeno como algo real, presente y desde una óptica pragmática y optimista, las preguntas son pertinentes e incluso, según se mire, interesantes. Pero lo muy poco que he leído de momento me ha dejado un poso de escepticismo. No tengo claro que con los métodos que utilizan, la pura razón podamos encontrar las respuestas.

Un ejemplo. En uno de los artículos que he leído afirman:

We can predict  that advanced AIs will have instrumental goals to preserve themselves, acquire resources, and self-improve, because those goals are useful intermediaries to the achievement of almost any set of final goals.

Me gustaría saber en base a que pueden predecir que un agente superinteligente tendrá las propiedades que afirman que tendrá…¿ No están dando por hecho lo que hay que demostrar ?

———————————————————————

3.46. 2009. Wallach, W & Allen, C. 2009. Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.

3.47. 2009. Brian Arthur. Economista (complexity economics). Libro. The Nature of Technology: What it Is and How it Evolves, The Free Press (Simon & Schuster) in the US, Penguin Books in the UK, 2009. 

October 2011. (de nuevo esta fecha). Publicación de artículo en McKinsey quaterly. The second economy.

Extracto.

Think of it this way. With the coming of the Industrial Revolution—roughly from the 1760s, when Watt’s steam engine appeared, through around 1850 and beyond—the economy developed a muscular system in the form of machine power. Now it is developing a neural system. This may sound grandiose, but actually I think the metaphor is valid. Around 1990, computers started seriously to talk to each other, and all these connections started to happen. The individual machines—servers—are like neurons, and the axons and synapses are the communication pathways and linkages that enable them to be in conversation with each other and to take appropriate action.

Is this the biggest change since the Industrial Revolution? Well, without sticking my neck out too much, I believe so. In fact, I think it may well be the biggest change ever in the economy. It is a deep qualitative change that is bringing intelligent, automatic response to the economy. There’s no upper limit to this, no place where it has to end. Now, I’m not interested in science fiction, or predicting the singularity, or talking about cyborgs. None of that interests me. What I am saying is that it would be easy to underestimate the degree to which this is going to make a difference.

3.48 2010 Sandberg, Anders. “An Overview of Models of Technological Singularity.” Paper presented at the
Roadmaps to AGI and the Future of AGI Workshop, Lugano, Switzerland, March 8.

http://agiconf.org/2010/wp-content/uploads/2009/06/agi10singmodels2.pdf.

3.49. 2010 Michio Kaku. Físico y divulgador científico.

Simpatiza con la idea de Singularidad y así se ha manifestado públicamente en diversas ocasiones.  Y ha publicado sobre ello.

Programa de televisión Sc Fi Science en The Science Channel, de noviembre de 2010, titulado AI uprising.

–artículo en la plataforma Singularity HUB. Michio Kaku: If you can´t  beat the Singularity, join it. 

–2011. Artículo en Big Think. The Technological Singularity and merging with machines. 

Common questions I’m often asked are: 

  • When will this tipping point transpire?
  • What are the implications for the creation of a self-aware machine?
  • What does it mean for the advancement of the human race i.e. On what level will humans merge with them?
  • What happens when machine intelligence exponentially surpasses human intelligence?

–Entrevista en Big Think. How to Stop Robots from killing us.

–Libro. The Physics of future.

3.50. 2010. David Chalmers. Filósofo. Artículo: The Singularity: a philosophical analysis.

La primera parte del artículo es una buena introducción a la idea de singularidad.

3.51. 10 de febrero 2011. Time. Artículo sobre la Singularidad. 2045: The Year Man Becomes Immortal. We’re fast approaching the moment when humans and machines merge. Welcome to the Singularity movement

3.52 2012. Muehlhauser, Luke, and Anna Salamon. 2012. “Intelligence Explosion: Evidence and Import.” In Eden,
Søraker, Moor, and Steinhart 2012.

3.53. Octubre 2011. Paul Allen. Ingeniero Computacional (co-fundador de Microsoft). Artículo periodístico: The Singularity Isn’t Near.

En general la Inteligencia Artificial puede adoptar tres formas:

AGI (Inteligencia Artificial General). Bajo esta forma se pretende diseñar máquinas inteligentes al margen de los mecanismos humanos (biológicos) de inteligencia.

–WGB (Whole Brain Emulation). Esta es la  vía que depende de los avances en neurociencia, pues pretende duplicar los procesos biológicos del cerebro humano.

–Cognitive Enhancement (CE). Implica desarrollar algoritmos de IA para uso humano, para que estos puedan mejorar sus capacidades. Es la vía seguida actualmente.

En éste artículo explora de manera crítica las dos primeras vías, las dos que, según el autor, harían posible La Singularidad.

Sobre  ambas tiene mucho que aportar pues conoce los problemas de primera mano. Sobre la primera (AGI) comenta:

Singularity proponents occasionally appeal to developments in artificial intelligence (AI) as a way to get around the slow rate of overall scientific progress in bottom-up, neuroscience-based approaches to cognition

While we have learned a great deal about how to build individual AI systems that do seemingly intelligent things, our systems have always remained brittle—their performance boundaries are rigidly set by their internal assumptions and defining algorithms, they cannot generalize, and they frequently give nonsensical answers outside of their specific focus areas. A computer program that plays excellent chess can’t leverage its skill to play other games. The best medical diagnosis programs contain immensely detailed knowledge of the human body but can’t deduce that a tightrope walker would have a great sense of balance.

No se si el reciente resultado publicado por el equipo de Deep Mind en relación al entorno juegos de Atari refuta lo que hemos subrayado en negrita.

El autor termina diciendo: by the end of the century, we believe, we will still be wondering if the singularity is near.

3.54. 2012. Federico Pistono, ingeniero computacional, licenciado en Singularidad y escritor, libro: Robots will steal your job but that´s OK. (en el  enlace el libro se puede leer completo en html por cortesía del autor).

Más detalles sobre éste joven autor: Federico Pistono is an award-winning journalist and author, social entrepreneur, scientific educator, activist, and public speaker. He holds a BSc in Computer Science from the University of Verona, and in 2012 he graduated from Singularity University, NASA Ames Research Park. He’s Founder and CEO of Konoz, an online platform that integrates e-learning and crowdfunding in order to have the best content free and open to all, while supporting creators for their work.

Primero una curiosidad que he encontrado en el  prefacio del libro.

In October, 2011, I was traveling throughout Europe, thinking about my future, and preparing a speech for my next conference when I finally decided it was time for change.

En esas fechas, estaba pensando en escribir un libro pero no tenía claro sobre que.

There were too many subjects, all were complex, and I just did not have enough time to tackle them all in one book. I decided that I would pick the most pressing issue and focus on that. Environmental sustainability and climate change came to mind, but there are already many excellent books on these subjects (from people much more qualified than myself). The future of technology and Artificial Intelligence was another, but the same conclusion applied. Then I realised that one of the most pressing issues we are going to face, both as individuals and as societies, is being deeply overlooked. Technology is displacing human labour.

Precisamente en Octubre de 2011 nosotros hicimos las primeras entradas sobre esta temática en el  blog. En este mismo prefacio comenta lo mismo que Martin Ford en la primera entrada de su blog:

Up until now, very few authors have addressed this issue. I was determined to fill this cultural gap. My audience would not occupy the ivory towers of academia – they would mingle in the vibrant crowds of the street. After all, the people most affected by this will be common workers and explanations of complex subjects in simple, concise, and understandable terms are rare. I promised myself I would create an accessible resource that would be of value to change-makers as well, be they politicians, technophilantropists, or CEOs. 

Esa era mi primera impresión pero tras elaborar esta entrada he cambiado de opinión. Se ha escrito bastante (desde varios frentes: científicos sociales, ingenieros y científicos  computacionales y últimamente filósofos) y se aunque esta problemática está lejos de ser solucionada, se han escrito cosas de calidad.

El primer párrafo de la Introducción es contundente:

You are about to become obsolete. You think you are special, unique, and that whatever it is that you are doing is impossible to replace. You are wrong. As we speak, millions of algorithms created by computer scientists are frantically running on servers all over the world, with one sole purpose: do whatever humans can do, but better. These algorithms are intelligent computer programs, permeating the substrate of our society. They make financial decisions, they predict the weather, they predict which countries will wage war next. Soon, there will be little left for us to do: machines will take over.

El libro se divide en tres partes: en la primera documenta el impacto de las nuevas tecnologías sobre el empleo, en la segunda aborda las consecuencias de esto (The point is that “We prefer to invent new jobs rather than trying harder and inventing a new system that wouldn’t require everybody to have a job.”3 With this book, I have posited that robots will your job, but that’s OK. I will go one step further. I would argue that the purpose of life is to have robots steal your job). y en el tercero da soluciones (el único capítulo de esta tercera parte, el 18, se títula Practical Advice for Everyone).

Aunque si puede estar presente de manera inconsciente, sobre todo en la estructura del libro, éste autor no tienen en mente ni habla explícitamente de la radical idea o escenario de Sociedad del Ocio (que por otra parte no es algo que ocurrirá necesariamente; no es más que otro escenario de futuro posible). Ni siquiera en el último capítulo.

No he visto bibliografía, sólo notas al final de cada capítulo, y esto puede ser un defecto del libro.

3.55. 2012. Paul Krugman. Economista. Especialista en economía internacional. Serie de varios artículos.

  1. Rise of the Robots“, 8 December 2012
  2. Technology or Monopoly Power?“, 9 December 2012
  3. Robots and Robber Barons“, 9 December 2012
  4. Human Versus Physical Capital“, 11 December 2012
  5. Policy Implications of Capital-Biased Technology: Opening Remarks“, 28 December 2012

3.56. 2013 Eliezer Yudkowsky. ¿ Ingeniero computacional ? 

Es uno de los autores que le ha dedicado bastante tiempo a estos temas y merecería quizás  una mención anterior y más espacio. Le incluimos de momento en este año dado que fue cuando publicó dos artículos relevantes

2013 Intelligence Explosion Microeconomics.

2013 The Robots, AI and Unemployment anti FAQ.

En las primeras preguntas del AntiFAQ, intenta argumentar que el desempleo actual no puede ser el efecto de la IA. En las siguientes preguntas se plantea un horizonte a más largo plazo y una situación más extrema.

Q.  How about timescales longer than ten years?  There was one class of laborers permanently unemployed by the automobile revolution, namely horses.  There are a lot fewer horses nowadays because there is literally nothing left for horses to do that machines can’t do better; horses’ marginal labor productivity dropped below their cost of living.  Could that happen to humans too, if AI advanced far enough that it could do all the labor?

A.  If we imagine that in future decades machine intelligence is slowly going past the equivalent of IQ 70, 80, 90, eating up more and more jobs along the way… then I defer to Robin Hanson’s analysis in Economic Growth Given Machine Intelligence, in which, as the abstract says, “Machines complement human labor when [humans] become more productive at the jobs they perform, but machines also substitute for human labor by taking over human jobs. At first, complementary effects dominate, and human wages rise with computer productivity. But eventually substitution can dominate, making wages fall as fast as computer prices now do.”

Q.  Could we already be in this substitution regime –

A.  No, no, a dozen times no, for the dozen reasons already mentioned.  That sentence in Hanson’s paper has nothing to do with what is going on right now.  The future cannot be a cause of the past.  Future scenarios, even if they seem to associate the concept of AI with the concept of unemployment, cannot rationally increase the probability that current AI is responsible for current unemployment.

Q.  But AI will inevitably become a problem later?

A.  Not necessarily.  We only get the Hansonian scenario if AI is broadly, steadily going past IQ 70, 80, 90, etc., making an increasingly large portion of the population fully obsolete in the sense that there is literally no job anywhere on Earth for them to do instead of nothing, because for every task they could do there is an AI algorithm or robot which does it more cheaply.  That scenario isn’t the only possibility.

La situación que hemos subrayado en negrita es la que haría posible la Sociedad del Ocio. , que claramente no es la única posibilidad. El AntiFAQ es interesante aunque el tono es defensivo (con respecto a la IA).  Como escenarios alternativos al de Hanson comenta sobre un escenario de  tipo Kurzweil y otro desarrollado por él mismo, en el primer artículo citado  en este punto. Destacamos que éste autor tampoco habla de la Sociedad del Ocio en el resto del texto.

De este mismo autor y más relacionado con los riesgos con respectoa la seguridad asociados a la IA.

2008. “Artificial Intelligence as a Positive and Negative Factor in Global Risk.” In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Ćirković, 308–345. New York: Oxford
University Press.

3.57. 2013. Noah Smith. artículo en The Atlantic. The End of Labor: How to Protect Workers From the Rise of Robots

Lo que hemos comentado en un punto anterior ya está en la agenda:

How do we fairly distribute income and wealth in the age of the robots?

The standard answer is to do more income redistribution through the typical government channels – Earned Income Tax Credit, welfare, etc. That might work as a stopgap, but if things become more severe, we’ll run into a lot of political problems if we lean too heavily on those tools. In a world where capital earns most of the income, we will have to get more creative.

3.58. Febrero de 2013. Bloomberg artículo escrito por Chris Farrell. Will robots create economic utopia ?

3.59. Mayo / Junio 2013. Kevin Drum. Periodista con plataforma propia (Mother Jones). Artículo: Welcome, Robot Overlords. Please Don’t Fire Us?

3.60. Junio 2013. Alex Hern. Reportero tecnológico de The Guardian. Artículo en New Statesman. Basic income versus the Robots.  

3.61. 2013. Tyler Cowen. Libro. Average is over.

Este autor (académico y bloguero, cuyo blog seguimos casi diariamente) en su libro considera un escenario realista en el que la IA no llega al nivel de los humanos, pero combinada con estos puede ser una poderosa herramienta. Curiosamente, en un libro anterior se abonaba a la tesis del estancamiento tecnológico.

Una crítica del libro.

3.62. 2013.  Frey & Osborne. Ingenieros computacionales. Artículo periodístico en The Conversation. Machines on the march threaten almost half of modern jobs.

Extractos

Computers have been an important part of many industries for decades already and have replaced humans in many jobs. But a new wave of technological development means that even positions that we once saw as immune to computerisation are now under threat.

Engineering and science occupations are also less susceptible to the phenomenon, largely due to the high degree of creative intelligence they require. It is, however, possible that computers will fully substitute for workers in these occupations over the long-run.

This means that as technology races ahead, low-skill workers will need to train in tasks that are less susceptible to computerisation – that is, tasks requiring creative and social intelligence. If you want to stop a computer taking your job, you’ll have to hone your creative and social skills. Mercifully, it will be quite a while before the machines outpace us in that respect.

3.63. 2013-2014. Google.  Proyecto Neural Turing Machine.

Extracto.

As for implementing its ambitious plans for creating a self-programming computer, Google recently started partnership with two AI research teams of the Oxford University. The research will be aimed to help machines better understand their users by improving visual recognition systems and natural language processing.

Los equipos que están colaborando con Google son los que han creado Deep Mind. Entre sus participantes están Demis Hassabis, Shane Legg (sobre el que hemos hablado antes) y Moustapha Suleyman.

The computer, called «Neural Turing Machine», is a combination of the way a conventional computer works with the way the human brain works. In particular, the computer mimics the short-time memory of the human brain, which allows it to learn when storing new memories and then use them to perform logical tasks other than those for which it has been initially programmed.

Que Google invierta en esto no tiene por que significar que sean lineas prometedoras de investigación a corto plazo. También está invirtiendo en computación cuántica, tecnología que nadie espera que se desarrolle a corto plazo. Podrían ser operaciones de puro marketing (aunque la cantidad que han invertido en Deep Mind es significativa).   Tema a investigar.

Esta compañía también está siendo muy activa en la compra de compañias de robótica: A finales de 2013, Google compró Boston Dynamics, la octava compañía de robots que el gigante de Internet ha adquirido en los últimos dos años.

3.64. Septiembre 2014. Sanjeev Sabhlok. Ciencias Sociales. Funcionario en Australia de origen Indio. Libro (borrador preliminar). The Glorious abundance an creativity of the Robotic Age. 

Una opinión no occidental, aunque es un autor que comparte ideologías (liberal en sentido europeo) de origen occidentales. Bastante crítico con los ingenieros computacionales que desconocen todo sobre ciencias sociales y llegan a conclusiones socialistas.

Esto es lo que opina de Pistono.

Rarely has anyone been more confused that this young man. He is a totally confused socialist. He has no clue about how economies work and therefore doesn’t understand that robotics will take away jobs but also allow more creative jobs to become more economically viable. Sadly, these geeks who are going to become super-wealthy and therefore influential in world-policy, don’t understand economics.

Y esto es lo que opina de Diamandis.

A great thinker, visionary and master of technology, and extremely positive about the future. However, he is totally confused about economics and imagines a socialist future.

Así con todo quizás Pistono y Diamandis (con Marx) tengan razón y en el futuro la  economía de una Sociedad del Ocio sea socialista. Hablamos del futuro. Este sistema en la situación de hoy sería nefasto, como diferentes experiencias históricas demuestran.

[Nota al margen.

Una de las conclusiones que se podrían extraer de esta historia es que sin duda los humanos tenemos una inteligencia limitada. O nos entra la lógica de las ciencias sociales o nos entra la lógica de las ciencias físicas y su tecnología asociada, las ingenierías. Hacer compatibles ambas en una misma mente parece complicado (aunque no imposible, pues hemos visto varios autores que comprendían perfectamente ambas). No sabría decir hacía que lado se inclinan los que comprenden bien las ciencias biológicas, y los que bien comprenden las neurociencias (estos serán los menos, dado que es una ciencia sobre la que todavía se conoce poco), que ocupan su propio nivel, intermedio entre los dos citados. El estatus de las ¿ ciencias ? e ingenierías computacionales no está claro. Posiblemente sean transversales, pero en la práctica la  ingenieria computacional pertenece más bien a las  ciencias físicas: programar es literlamente dar instrucciones a una piedra.

Fin de nota al margen].

Parte  de los autores que  aparecen en esta historia los he extraído de éste libro.

3.65. 2014. Nick Bostrom. Filósofo. Libro: Superintelligence.  

Además ha publicado varios artículos de temática relacionada.

How Hard is Artificial Intelligence? Evolutionary Arguments and Selection Effects 

2012. THE SUPERINTELLIGENT WILL: MOTIVATION AND
INSTRUMENTAL RATIONALITY IN ADVANCED
ARTIFICIAL AGENTS.

2014. WHY WE NEED FRIENDLY AI.

Es autor además de  dos  libros sobre esta misma cuestión.

3.66. 13 y 14 de Noviembre de 2014. ONU. Conferencia en la que se debate sobre el uso de robots en la  guerra. 

¿Se puede dar la licencia para matar a una máquina? ¿Hay alguna forma de que los robots respeten las leyes de la guerra, la Convención de Ginebra? Estas preguntas han llegado a Naciones Unidas, porque han dejado de ser hipótesis de trabajo o planteamientos de ciencia-ficción para convertirse en un dilema real, ante el que las principales potencias militares del mundo deberán pronunciarse.

Fuente. El País.

3.67. 26 de noviembre de 2014. Kurt Andersen, escritor y ensayista. Artículo periodístico: Enthusiasts and Skeptics Debate Artificial Intelligence. Kurt Andersen wonders: If the Singularity is near, will it bring about global techno-Nirvana or civilizational ruin?

Es un interesante artículo en el  que se describen los dos frentes ideológicos: los tecnooptimistas (en general partidarios de la idea de la Singularidad) y los escépticos (aquellos que o bien niegan la posibilidad de una Singularidad tecnológica o realizan un diferente valoración de su eventual ocurrencia). El escritor se ha entrevistado con algunos de los protagonistas de un “partido” u otro.

Realmente, tal y como hemos  comentado en una anterior entrada, se trata de ideologías elitistas, minoritarias, con una localización geográfica muy concreta (fundamentalmente Silicon Valley) y en formación. Que yo sepa, aunque existen asociaciones en defensa de las dos partes, no existen partidos políticos, ni siquiera intención de crearlos. De momento sólo una corriente de opinión influyente,  que ni siquiera (que yo sepa) tiene movimientos culturales asociados (artes, ropa etc…).

Extracto.

Overseas there are now university institutes devoted to worrying about the downsides of the Singularity: at Oxford, the Future of Humanity Institute; at Cambridge, the Centre for the Study of Existential Risk (co-founded by Tallinn of Skype). But in America, we have Singularity University, the go-go postgraduate institute founded by Kurzweil and Peter Diamandis, the M.I.T.- and Harvard-educated tech entrepreneur, creator of the X Prize (multi-million-dollar contests to promote a super-efficient car, private moon landings, and the like), and co-author of the bestselling Abundance: The Future Is Better than You Think (2012). Singularity University (S.U.) is based at NASA Research Park, in Silicon Valley, and funded by a digital-industrial-complex pantheon: Cisco, Genentech, Nokia, G.E., Google. In its six years of existence, many hundreds of executives, entrepreneurs, and investors—what Diamandis calls “folks who have done a $100 million exit and are trying to decide what to do next”—have paid $12,000 to spend a week sitting in molded-plastic chairs on rollers (futuristic circa 1970s) listening to Kurzweil and Diamandis and others explain and evangelize. Thousands of young postgrads from all over the world apply for the 80 slots in the annual 10-week summer session that trains them to create Singularity-ready enterprises.

Neither the Singularity believers nor the Singularity doubters define themselves in conventionally political or religious terms. They’re all secular rationalists. They’re all liberals in the old-fashioned sense—capitalists interested in alleviating misery efficiently. Yet the schism that divides them is essentially sociopolitical and religious.

En el artículo se pone de manifiesto que entre estas élites existe una sensibilidad a los temas de desarrollo.

Extracto.

“How many equivalents of Da Vinci and Edison,” he said to me, “have come into existence in parts of the world without communications and are never heard from?” When I sat down with Kapor near his weekend home in Healdsburg, a yuppified old Sonoma County town north of San Francisco, he said almost exactly the same thing: “The amount of sheer genius that is being completely wasted—who knows what brilliant discoveries would be made if we weren’t throwing so much away?”

Sin embargo existe un cierto desprecio por las ciencias sociales.

Kurzweil as much as admits he only deeply cares and knows about technology and its theoretical impacts, about political economy and human psychology not so much. 

He and Diamandis gloss over economics and politics in their books

When I asked Singularity University’s C.E.O., Rob Nail, if the curriculum touches at all on politics or economics, he said not really, but they are “in discussions” about adding those subjects.

3.68. 2014. Luciano Floridi. Filosofo. Libro. The fourth revolution: How the infosphere is reshaping human reality

3.69. 2014 Terminamos la lista con un artículo en otro blog, de 30 de noviembre de 2014, dónde hablan de diferentes críticos recientes de la IA y de sus efectos.

Se hacen eco del artículo de Lanier (insider crítico, reseñado en un punto anterior), de otro de Searle (el filósofo), de Kurt Anderson (reseñado en el anterior punto) y de Michael Jordan (otro insider crítico).

Extracto.

The first thing I think one needs to grasp is that none of the AI skeptics are making non-materialistic claims, or claims that human level intelligence in machines is theoretically impossible. These aren’t people arguing that there’s some spiritual something that humans possess that we’ll be unable to replicate in machines. What they are arguing against is what they see as a misinterpretation of what is happening in AI right now,what we are experiencing with our Siri(s) and self-driving cars and Watsons. This question of timing is important far beyond a singularitarian’s fear that he won’t be alive long enough for his upload, rather, it touches on questions of research sustainability, economic equality, and political power.

4. Conclusiones (provisionales).

Con la revisión de la literatura se pueden establecer los siguientes interrogantes:

¿ Existirán máquinas capaces de sustituir al ser humano en todas las actividades ?, ¿ Cuando existirán o contaremos con estas máquinas ?. En este caso no hace falta que sean más inteligentes que los humanos. Es suficiente con que los igualen  y sean más baratos de producir.

¿ Cuando existan, habrá trabajo para todos, agentes artificiales y agentes humanos ? Dicho de otra manera: ¿ la cantidad de trabajo  es ilimitada,  como pretenden muchos economistas ? ¿ Es aplicable en este caso la ley de la ventaja comparativa ? ¿ Existirá desempleo entre los agentes artificiales ?🙂. Esta última pregunta o parece  que tiene una respuesta obvia o parece una boutade, pero creo que resume muchos otros interrogantes de interés para tecnólogos y economistas.

¿ Existirán máquinas que superen a los humanos en inteligencia ? ¿ Puede haber un crecimiento ilimitado de la inteligencia, del conocimiento ?

¿ Cuando existan, serán una amenaza para el ser humano, no solo en cuanto a  que les quitarán el trabajo sino para su seguridad o más bien serán entes que no encontrarán motivación para existir y se acabarán “suicidando” ?.

Cuando este asunto se aborda desde el concepto de inteligencia  se cae en un cierto confusionismo: no existe una definición de inteligencia comunmente  aceptada. La definición biológica aplicable a agentes que existen como resultado de un proceso de evolución (agente capaz de comunicarse con su entorno del cual extrae materiaenergía para construirse, auto-mantenerse, crecer y eventualmente multiplicarse) no es fácilmente  extrapolable a agentes artificiales ()

[Nota al margen.

No soy el primero en detectar esta deficiencia. Parece que ha habido movimientos relativamente recientes para subsanarla (de la tesis de Shane Legg):

Chapter 1 begins the thesis with the most fundamental question of all: What is intelligence? Amazingly, books and papers on artificial intelligence rarely delve into what intelligence actually is, or what artificial intelligence is trying to achieve. When they do address the topic they usually just mention the Turing test and that the concept of intelligence is poorly defined, before moving on to algorithms that presumably have this mysterious quality. As this thesis concerns theoretical models of systems that we claim to be extremely intelligent, we must first explore the different tests and definitions of intelligence that have been proposed for humans, animals and machines. We draw from these an informal definition of intelligence that we will use throughout the rest of the thesis. ].

Normalmente se proyectan los rasgos humanos en los agentes artificiales, porque pensamos en estos como herramientas. El punto de vista del creador pragmático es válido, pero existe otro el del creador curioso también válido pero no adoptado en general por los interesados.

En los agentes naturales la inteligencia (cualquier cosa que esta sea) es una capacidad añadida a otras anteriores que suponen para estos, en muchas ocasiones, su motivación para existir, para utilizar la inteligencia. La inteligencia en el vacío, ¿ no caerá por su propio peso ?. Es decir, conseguir en un agente inteligente artificial esta motivación de auto-perduración, que éste sea capaz de darle un sentido a su existencia, no parece algo tan sencillo de conseguir.   Tampoco imposible: cada vez más los agentes naturales encuentran sentido a su existencia más allá de sus obligaciones biológicas: crecer, desarrollarse y multiplicarse. Por ejemplo mucha gente no se reproduce, voluntariamente…

Ya existen agentes artificiales que superan a los humanos en algunas actividades (jugadores de ajedrez y muy recientemente de un póker limitado entre otras actividades). Casi nadie duda ya que se podrán construir máquinas específicas que superen al ser humano en cualquier actividad que se quiera. La pregunta es ¿ podremos construir un robot generalista artificial, como el ser humano pero mejor en todo y más barato o el ser generalista impone unos límites tecnológicos o económicos ?.

——————————————————————–

Más nombres a tener en cuenta, pendientes de clasificar.

Are we in danger of losing the “race against the machine,” as the M.I.T. scholars Erik Brynjolfsson and Andrew McAfee argue in a recent book?

Are we becoming enslaved to our “robot overlords,” as the journalist Kevin Drum warned in Mother Jones?

Do “smart machines” threaten us with “long-term misery,” as the economists Jeffrey D. Sachs and Laurence J. Kotlikoff prophesied earlier this year?

Have we reached “the end of labor,” as Noah Smith laments in The Atlantic?

Sobre seguridad. 

Noel Sharkey. Todavía no existen robots asesinos; pero sí la tecnología”, afirmaNoel Sharkey, profesor de Inteligencia Artificial en la Universidad de Sheffield (Inglaterra), que lleva desde hace siete años dedicado a poner el asunto en la agenda internacional y que encabeza una campaña de 52 organizaciones llamada Stop Killer Robots en la que están desde la International Human Rights Clinic de la Universidad de Harvard hasta HRW o Amnistía Internacional

Huw Williams, el experto en sistemas no tripulados de la revista militar Jane’s, “ni siquiera los programas más avanzados de robots asesinos han logrado máquinas que puedan actuar por sí solas”. “La autonomía es, por ahora, bastante limitada. Pueden ir de un lugar a otro siguiendo unos parámetros, eso sí, pero, en términos de pensamiento, no estamos todavía ahí”, agregó.

Professor Joanna Bryson has a trove of good information and research papers showing some of the efforts researchers are taking when it comes to mitigating A.I. risks.

UK Government’s Chief Science Officer is addressing A.I. risk and what will be needed to govern such risk.

Tecnooptimistas.

1.13.1.2   William Lazonick  24. Economista.

1.13.1.3   Hal Varian  24. Economista.Especialista en economía de la información y economista en Jefe de Google.

1.13.1.1   Mark Thoma  25. Economista, macro. desconozco su relación con este tema.

1.13.1.1   Laurence Katz  25  The Race Between Education and Technology in 2008,

1.13.1.1   Robert Atkinson  25. Cientifico social (planificación urbana). He is also author of Innovation Economics: The Race for Global Advantage (Yale, 2012), the book, The Past And Future Of America’s Economy: Long Waves Of Innovation That Power Cycles Of Growth (Edward Elgar, 2005),

1.13.1.1   Nick Bloom   26. Economista.  Entre otras cosas especialista en innovación y productividad de las tecnologías IT.

Tecnopesimistas.

1.13.2.1   Andrew McCaffee and Erik Brynjolfsson  26. M.I.T. scholars Erik Brynjolfsson and Andrew McAfee argue in a recent book?

1.13.2.1   Jeffrey Sachs and Lawrence Kotlikoff 27.Economista y ¿? Do “smart machines” threaten us with “long-term misery,” as the economists Jeffrey D. Sachs and Laurence J. Kotlikoff prophesied earlier this year?

1.13.2.3   Kevin Drum   27. Are we becoming enslaved to our “robot overlords,” as the journalist Kevin Drum warned in Mother Jones?

1.13.2.7   Izabella Kaminska  33. Bloguera del FT

 

1.13.3.1              Peter Diamandis  34. Ingeniero, emprendedor, corriente Singularidad. Libro 2012: Abundance the future is better than you think. Coautor Kotler

 

Menzel and D’aluisio’s _Robo Sapiens_

George Dyson’s _Darwin Among the Machines_ more thought-provoking history

 

 

Terms and conditions: 1. Any commenter of this blog agrees to transfer the copy right of his comments to the blogger. 2. RSS readers and / or aggregators that captures the content of this blog (posts or comments) are forbidden. These actions will be subject to the DMCA notice-and-takedown rules and will be legally pursued by the proprietor of the blog.

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s


A %d blogueros les gusta esto: