Archive for the ‘HPC TECHNOLOGY & AND MARKET’ Category

Esbozo de una teoría del Deep Learning: computabilidad, complejidad computacional y representatividad estadística e interpretabilidad. Definiendo las clases DL-P y DL-NP.

noviembre 11, 2019

Con lo escrito nos hacemos una idea de estos métodos. Damos por terminada la entrada. 

0. Introducción.

a) Preliminares.

Deep Learning es una tecnología que no necesita presentación. Es una tecnología que pertenece al campo de la Inteligencia Artificial.

Nota. IA, ¿ un sector estratégico ?. 

El tema de la Inteligencia Artificial es claramente de actualidad. Las empresas mencionadas en el artículo tienen las dos patas sobre las que está corriendo el campo de la Inteligencia Artificial. La pata de los datos,  mencionada en el artículo y la otra pata que no mencionan en el artículo pero igual de clave, la capacidad computacional: memoria, con las granjas de servidores (los datos no están flotando en el aire) y supercomputación.

En contraste con la fraccionada UE, la teóricamente subdesarrollada China ha conseguido crear su propio ecosistema computacional, en hardware (son líderes o disputan el liderato en supercomputación), en software y plataformas de internet (buscador Baidu, plataforma de ecommerce Alibaba etc….). Aunque esto posiblemente sea, más que un objetivo buscado, un efecto «no deseado», un subproducto, de no permitir, seguramente por motivos más políticos que económicos, que las multinacionales operen en ese mercado. 

Fin de nota. 

Hemos estudiado algo superficialmente Deep Learning en la entrada anterior. Superficialmente pero lo suficiente como para al menos tener claros cuales son los temas clave que una teoría de Deep Learning tiene que contener. Temas en los que hemos querido profundizar algo más en esta entrada.

Realmente estudiar este tema es complejo dado que, por accidentes históricos, cada practicante de la tecnología utiliza un lenguaje de su padre y de su madre (es decir de su respectiva tradición, que puede ser la estadística, la informática práctica, la investigación operativa…) y que no es el mismo que utilizan los teóricos de las ciencias computacionales. Por eso si integrar teoría y práctica ya es complejo en general, cuando existe esta confusión conceptual y terminológica lo es mucho más. Esto, y la propia complejidad inherente al tema de estudio, ha hecho que hayamos pasado de la claridad a la confusión en varias ocasiones. Y sinceramente hay varios puntos en los que para nosotros la visión es más oscura que clara, lo cual seguramente notará el lector a la hora de redactar la entrada.

Por todo ello, al final la idea de una entrada breve y resumida se ha evaporado y nos ha quedando más un borrador lleno de enlaces a documentos, más o menos confuso según los puntos, que un esbozo. Cuando tengamos todo 100% claro haremos la deseada entrada breve y resumida. La entrada ha sido redactada entre los días 11 y 17 de noviembre y su estructura y contenido ha cambiado varias veces durante su redacción.

En lo que sigue, como modelo de máquina (teórica) computacional de Deep Learning tenemos en mente a los perceptrones multicapa (MLP, multi-layer perceptrón), aunque hay otro tipo de «neuronas» (por ejemplo las de tipo radial, cuyo nombre exacto ahora mismo no recuerdo) que se pueden utilizar como unidad constructiva de la red. No nos gusta la analogía con el cerebro humano por engañosa, ya que se toma de forma literal cuando no lo es (o al menos puede no serlo, realmente no lo sabe nadie pues de momento el conocimiento que tenemos del funcionamiento del cerebro es del tipo caja negra) pero para no complicarnos la vida ni complicársela al lector, con nueva terminología vamos a utilizar de manera intercambiable la palabra perceptrón y neurona.

(more…)

IP. Caso de infracción de derecho de marcas.

octubre 24, 2019

En estos últimos días además de rematar el informe del proyecto (ya muy avanzado, y con el que estoy muy satisfecho), estoy asesorando a un cliente muy cercano al que no he podido dejar de ayudar en esta ocasión, en un caso de infracción del derecho de marcas. Estoy estudiando la demanda (unas 60 páginas sin contar los anexos) y la respuesta a la demanda por parte del infractor (unas 18 páginas).

Me está viniendo muy bien ver todo esto, pues

(more…)

Caso retorcido o twisted de 120 vértices. Efectos de esta propiedad estructural sobre las propiedades de hamiltonicidad (2).

octubre 23, 2019

Esta entrada está relacionada con las patentes USPATENT Nº 8266089 b2, concedida el 11 de septiembre de 2012 y USPATENT Nº 9697464 B2, concedida el 4 de julio de 2017.

Esta entrada es continuación de la anterior con el mismo título.

1.Mejorando el estado del arte anterior a nuestras patentes.

En la entrada anterior hemos visto:

–que en este caso al activarse un cierto número de IASes por el generador de orden 2 se topa uno con una pared, una obstrucción a la hamiltonicidad insuperable, en una determinada distribución situada fuera de la región factible válida para los ciclos de un solo generador.

–que existe una estrategia de demostración eficiente (polinómica), pero insatisfactoria: realizar todas las activaciones posibles de todos los IASes por el generador de menor orden dentro de la distribución dónde topamos con la pared. Si el resultado de todas las activaciones posibles es una contradicción, queda demostrado que el caso no puede tener recorridos hamiltonianos (para esa elección de vértice final posibles).

2.Mejorando el método anterior, eficiente en teoría pero no del todo en la práctica.

(more…)