Con lo escrito nos hacemos una idea de estos métodos. Damos por terminada la entrada.
0. Introducción.
a) Preliminares.
Deep Learning es una tecnología que no necesita presentación. Es una tecnología que pertenece al campo de la Inteligencia Artificial.
Nota. IA, ¿ un sector estratégico ?.
El tema de la Inteligencia Artificial es claramente de actualidad. Las empresas mencionadas en el artículo tienen las dos patas sobre las que está corriendo el campo de la Inteligencia Artificial. La pata de los datos, mencionada en el artículo y la otra pata que no mencionan en el artículo pero igual de clave, la capacidad computacional: memoria, con las granjas de servidores (los datos no están flotando en el aire) y supercomputación.
En contraste con la fraccionada UE, la teóricamente subdesarrollada China ha conseguido crear su propio ecosistema computacional, en hardware (son líderes o disputan el liderato en supercomputación), en software y plataformas de internet (buscador Baidu, plataforma de ecommerce Alibaba etc….). Aunque esto posiblemente sea, más que un objetivo buscado, un efecto «no deseado», un subproducto, de no permitir, seguramente por motivos más políticos que económicos, que las multinacionales operen en ese mercado.
Fin de nota.
Hemos estudiado algo superficialmente Deep Learning en la entrada anterior. Superficialmente pero lo suficiente como para al menos tener claros cuales son los temas clave que una teoría de Deep Learning tiene que contener. Temas en los que hemos querido profundizar algo más en esta entrada.
Realmente estudiar este tema es complejo dado que, por accidentes históricos, cada practicante de la tecnología utiliza un lenguaje de su padre y de su madre (es decir de su respectiva tradición, que puede ser la estadística, la informática práctica, la investigación operativa…) y que no es el mismo que utilizan los teóricos de las ciencias computacionales. Por eso si integrar teoría y práctica ya es complejo en general, cuando existe esta confusión conceptual y terminológica lo es mucho más. Esto, y la propia complejidad inherente al tema de estudio, ha hecho que hayamos pasado de la claridad a la confusión en varias ocasiones. Y sinceramente hay varios puntos en los que para nosotros la visión es más oscura que clara, lo cual seguramente notará el lector a la hora de redactar la entrada.
Por todo ello, al final la idea de una entrada breve y resumida se ha evaporado y nos ha quedando más un borrador lleno de enlaces a documentos, más o menos confuso según los puntos, que un esbozo. Cuando tengamos todo 100% claro haremos la deseada entrada breve y resumida. La entrada ha sido redactada entre los días 11 y 17 de noviembre y su estructura y contenido ha cambiado varias veces durante su redacción.
En lo que sigue, como modelo de máquina (teórica) computacional de Deep Learning tenemos en mente a los perceptrones multicapa (MLP, multi-layer perceptrón), aunque hay otro tipo de «neuronas» (por ejemplo las de tipo radial, cuyo nombre exacto ahora mismo no recuerdo) que se pueden utilizar como unidad constructiva de la red. No nos gusta la analogía con el cerebro humano por engañosa, ya que se toma de forma literal cuando no lo es (o al menos puede no serlo, realmente no lo sabe nadie pues de momento el conocimiento que tenemos del funcionamiento del cerebro es del tipo caja negra) pero para no complicarnos la vida ni complicársela al lector, con nueva terminología vamos a utilizar de manera intercambiable la palabra perceptrón y neurona.