Archive for the ‘ALGORITHMICS, NEW SUBRUTINES’ Category

Otros parámetros relevantes en los casos (3,3) generados.

septiembre 24, 2017

Actualización 15 octubre 2017.

En una entrada anterior de mayo de 2016 en la que comentamos sobre una generalización al resultado de Milnor,  hacíamos el siguiente comentario.

3. ¿ No podría generalizarse esta técnica a otros casos (2-n) generalizados ?. Entiendo que como mucho a los (2-4) generados.  A partir de aquí, el tema está tan abierto que determinar los paths posibles cuando se recorres la zona en la que no se encuentra el IAS identidad, puede empezar a ser complejo. Estudiaremos los casos (2-4) generados.

En esta entrada vemos que no es el unico caso.

Fin actualización.

El teorema de Milnor sobre casos (2,3) generados, sobre el que hicimos varias entradas bastante detalladas el ano pasado (en la ultima esbozabamos una generalizacion aplicable a estos mismos casos 2,3 generados), se puede “generalizar” en otros dos sentidos: analizando casos (2,n) generados (cosa que hemos realizado tambien en anteriores entradas sobre casos 2,4 generados, 2,5 generados y 2,6 generados) o analizando casos (3,3) generados, es decir aquellos en los que los dos generadores son de orden 3.

El análisis de estos casos (3,3) generados nos hace ver que, al igual queqhay sucedia para los casos 2,3 generados, hay otros parámetros clave para determinar si existen recorridos hamiltonianos en estos casos. Es decir, el orden de los dos generadores, el orden del IAS y del DAS, el orden de la circunferencia no son suficientes.

Si los generadores son x e y, los otros dos parámetros relevantes son (xy)^n=1 y (xxyy)^n=1.

Recordamos que en los casos 2,3 generados el parametro clave era el n de la relacion (xy^2)^n=1.

El lector puede comprobarlo analizando un caso de S4 con dos generadores de orden 3, IAS6 y circunferencia 2 (y por lo tanto 1/2 entangled). El análisis de este caso es muy ilustrativo y ? seguramente ?se puede generalizar a todos los casos (3,3) generados. El tema no esta 100% claro.  Por experiencia sabemos que no conviene extrapolar demasiado lo que ocurre en casos pequenos. Lo veremos en otra entrada cuando tengamos tiempo de desarrollar el tema.

Por otra parte he visto que al igual que los casos (2,3) generados, los casos (3,3) generados han sido bastante estudiados por la teoría de grupos de principios del XX: es parte del estudio de los

grupos abstractos de tipo (l,p| q,r),

siguiendo la expresión de Coxeter. Este autor y anteriormente otros como W.A. Edington, Miller, Sinkov y otros los han estudiado.

Un artículo de principios del XXI sobre el tema:

The abstract groups (3, 3 | 3, p). 

The two-generated abstract groups (l, m | n, k) defined by presentations
(l, m | n, k) = <x, y | x^l = y^m = (xy)^n = (x^−1y)^k>i (2)
were first studied by Edington [3], for some small values of  l, m, n and k.

The notation we use was devised by Coxeter [1] and Moser [2], and has a
deeper meaning that we will not discuss here.

From now on, we will always refer to presentation (2) when speaking about (l, m | n, k).

The starting point for our discussion is Theorem 2, due to Edington [3,
Theorem IV and pp. 208210]. (Notice that there is a typo concerning the
order of (3, 3 | 3, n), and a misprint claiming that (3, 3 | 3, 3) is isomorphic
to A4.). For the convenience of the reader, we give a short, contemporary
proof.

Theorem 2 (Edington). The group G = (3, 3 | 3, n) exists for every n > 1,
is of order 3n^2, and is non-abelian when n > 1. It contains a normal
subgroup H = <x^2y, xy^2>i ∼= Cn × Cn. In particular, G ∼= C3 when n = 1,
G ∼= A4 when n = 2, and G is the unique non-abelian group of order 27 and
exponent 3 when n = 3.

(more…)

Anuncios

Digrafos de Cayley bigenerados: propiedades estructurales y dificultad de los casos.

agosto 30, 2017

Llevo un cierto tiempo pensando en el siguiente tema (realmente dos dias). Las diferentes propiedades estructurales que hemos identificado (entrelazado de ciclos, entrelazado y retorcimiento) son condiciones necesarias de dificultad pero no suficientes. Que son necesarias lo hemos demstrado en anteriores entradas. Que no son suficientes lo demuestra el hecho de que hay casos con las propiedades que no suponen dificultades.

(more…)

Casos smooth.

agosto 28, 2017

Ya lo hemos comentado en anteriores entradas. No tenemos tiempo para dedicarle a estos temas.

Pero si queremos mostrar un par de casos que ilustran el concepto de smooth o lisura en el entorno de la identidad. Y queremos mostrarlo con casos en los que ninguno de los generadores sean de orden 2. (more…)

HPC. Novedades investigacion.

agosto 20, 2017

Disclaimer. Escribimos la entrada desde el smartphone. Nos es complicado poner acentos. Pedimos disculpas al lector por ello.

Pocas entradas ultimamente eh ? Muchos motivos lo explican. Entre otros el smartphone, un autentico killer. Pero no solo esto.

Lamentablemente, pese a lo planificado tambien poca investigacion. Por los mismos motivos. Pero si he pensado mentalmente en algunos temas que queremos resumir muy brevemente en esta entrada y que desarrollaremos en otro momento. Lealos el lector como unas reflexiones no muy maduradas en voz alta que pueden ser incorrectas, sobre todo la parte que se refiere a los casos twisted.

(more…)

Algoritmica y complejidad computacional. La complejidad de resolver el Cubo de Rubik de manera optima.

julio 9, 2017

Se ha publicado recientemente un articulo sobre el tema que indicamos en el titulo.

Nota. No se muy bien como cortar y pegar un enlace en el espacio habilitado para ello en wordpress, en el smartphone.

En general hay bastantes cosas que se pueden hacer en un portatil y no se como hacer en el smartphone, o no se como hacerlo de manera rapida.

Ya he aprendido. Pero el comentario general aplica…

Otro ejemplo es marcar un bloque completo de texto, para cortar y pegar o darle el formato adecuado. Siempre se marca solo una palabra.

Ya se como hacerlo en general pero no al editar un post en wordpress. Ya se como hacer esto tambien. No era evidente.

En fin, poco a poco…

. Fin de nota.

Solving the Rubik’s Cube Optimally is NP-complete.

Erik D. Demaine∗ Sarah Eisenstat∗ Mikhail Rudoy†

Abstract.

In this paper, we prove that optimally solving an n×n×n Rubik’s Cube is NP-complete by reducing from the Hamiltonian Cycle problem in square grid graphs. This improves the previous result that optimally solving an n×n×n Rubik’s Cube with missing stickers is NP-complete. We prove this result first for the simpler case of the Rubik’s Square—an n × n × 1 generalization oft he Rubik’s Cube—and then proceed with a similar but more complicated proof for the Rubik’s.

Nuestro interes en el articulo va mas alla de lo anecdotico (el hecho de que hable de un puzzle muy conocido), y lo estamos leyendo con atencion.

En particular nos interesan en el dos puntos:

–primero, en la cadena de reducciones aparecen los hipercubos, que como es bien conocido, son grafos de Cayley.

–segundo, la reduccion lo es del problema RH a un ? problema de camino mas corto ?. Signos de interrogacion pues esto ultimo no lo tengo claro.

Por otra parte me ha sorprendido conocer que la version cuadrada es mas “compleja” que la cubica. Pensaba que era lo contrario.

Comentar que el problema se queda en NP pues el diametro del tipo de grafos que representan el problema es polinomico.

P.s. En el blog hemos publicado mucho sobre la posible complejidad computacional del problema de nuestro interes. Ya tenemos intuitivamente claro el tema. Pero solo intuitivamente. Hablo de la version normal, no de la sucinta. De ahi nuestro interes en este articulo.

Actualizaciones.

(more…)

Algorítmica y complejidad computacional. Un caso de A5 (60 vértices) sin osbtrucciones pero con obstáculos.

mayo 23, 2017

1.Estoy poniendo a prueba el método de la escalera con este caso, que que me sirve para testar varios temas:

(more…)

Algorítmica y complejidad computacional. DCBs: Algunos casos ¿ nuevos ? y ¿ difíciles ?.

mayo 21, 2017

He estado releyendo literatura más relacionada con nuestra investigación y he identificado algunos casos nuevos, que en algunos casos los autores señalan como difíciles, y cuyas propiedades estructurales quiero determinar, siempre y cuando esto no me exija reprogramar las implementaciones que ya tengo.

1. Tesis de Effler y/o Shields.

(more…)

Algorítmica y complejidad computacional. DBCs: Novedades.

mayo 20, 2017

Me está pasando una cosa extrañísima: no puedo entrar en mi blog desde ninguno de los ordenadores de mi vivienda, pero sí desde otros (desde un cibercafé).  Ni para editar ni para ver entradas. Los problemas son sólo para entrar en mi blog y en otras páginas de WordPress. Por ejemplo la páginaeffler de acceso al blog. Pero no tengo problemas para entrar en otros blogs de WordPress de terceras personas. Tampoco en otras páginas web. ¿¿??. Es decir la navegación es perfecta excepto para la página de acceso al blog de WordPress. No me explico que puede pasar. He borrado la caché, reseteado el router etc…es decir técnicas que otras veces han funcionado. Lo extraño es que pase con todos los ordenadores de la vivienda y no sólo con el que uso habitualmente.

Actualización mismo día noche: ¡ Solucionado !. Sin hacer yo nada. Otra rareza de internet que no me explico. Y no estoy pensando en ninguna “agresión” dirigida específicamente a mi vivienda. Seguramente ha sido un tema general de wordpress, pero sigo sin entender pq en el ciber si podía acceder… Paso a pulir la entrada. Fin de actualización.

En fin escribo desde un ciber. Por fin he tenido un poco de tiempo para releer entradas anteriores que listamos en una entrada anterior, y antes de que se me complique de nuevo la vida (seguramente dentro de una semana), tengo ya algunos temas completamente claros que son los que quiero publicar en esta entrada muy brevemente. De nuevo me está costando coger ritmo y no se si me va a dar tiempo en una semana a sumergirme lo suficiente en el tema como para obtener resultados tan notables como hace un par de meses más o menos. Como en esa ocasión no publicaremos todo.

Es posible que los comentarios que siguen contengan errores o inexactitudes que corregiremos cuanto tengamos acceso al blog desde el domicilio):

(more…)

Algorítmica y complejidad computacional. Muy breve historia (bibliográfica) de la teoría de grafos.

mayo 15, 2017

La primera versión, corta, de esta entrada se hizo el 15 de  mayo. Se ha actualizado para obtener una versión mas larga con actualizaciones el 16 y 17 de mayo.

(more…)

Algorítmica y complejidad computacional. La teoría y la práctica: isomorfismo de grafos.

mayo 11, 2017

 Tras  un breve paréntesis en el que nos hemos tenido que concentrar en otros temas, retomamos las entradas sobre estos contenidos.

Un artículo interesante sobre isomorfismo de grafos. La teoría es el reciente resultado de Babai. Y también un resultado publicado ayer que demuestra que un método de solución de este problema (obviamente no el de Babai sino al parecer uno de los más utilizados en la práctica) es exponencial peor caso.

An exponential lower bound for Individualization-Refinement algorithms for Graph Isomorphism

Daniel Neuen and Pascal Schweitzer RWTH Aachen University {neuen,schweitzer}@informatik.rwth-aachen.de

May 10, 2017

Abstract.  The individualization-refinement paradigm provides a strong toolbox for testing isomorphism of two graphs and indeed, the currently fastest implementations of isomorphism solvers all follow this approach. While these solvers are fast in practice, from a theoretical point of view, no general lower bounds concerning the worst case complexity of these tools are known. In fact, it is an open question whether individualization-refinement algorithms can achieve upper bounds on the running time similar to the more theoretical techniques based on a group theoretic approach. In this work we give a negative answer to this question and construct a family of graphs on which algorithms based on the individualization-refinement paradigm require exponential time. Contrary to a previous construction of Miyazaki, that only applies to a specific implementation within the individualization-refinement framework, our construction is immune to changing the cell selector, or adding various heuristic invariants to the algorithm. Furthermore, our graphs also provide exponential lower bounds in the case when the k-dimensional Weisfeiler-Leman algorithm is used to replace the standard color refinement operator and the arguments even work when the entire automorphism group of the inputs is initially provided to the algorithm.

Extracto.  There are several highly efficient isomorphism software packages implementing the paradigm. Among them are nauty/traces [15], bliss [11], conauto [13] and saucy [6]. While they all follow the basic individualization-refinement paradigm, these algorithms differ drastically in design principles and algorithmic realization. In particular, they differ in the way the search tree is traversed, they use different low level subroutines, have diverse ways to perform tasks such as automorphism detection, and they use different cell selection strategies as well as vertex invariants and refinement operators.

With Babai’s [2] recent quasi-polynomial time algorithm for the graph isomorphism problem, the theoretical worst case complexity of algorithms for the graph isomorphism problem was drastically improved from a previous best e O( √ n log n) (see [3]) to O(n logc n ) for some constant c ∈ N. As an open question, Babai asks [2] for the worst case complexity of algorithms based on individualizationrefinement techniques. About this worst case complexity, very little had been known. In 1995 Miyazaki [16] constructed a family of graphs on which the then current implementation of nauty has exponential running time. For this purpose these graphs are designed to specifi- cally fool the cell selection process into exponential behavior. However, as Miyazaki also argues, with a different cell selection strategy the examples can be solved in polynomial time within the individualization-refinement paradigm. In this paper we provide general lower bounds for individualization-refinement algorithms with arbitrary combinations of cell selection, refinement operators, invariants and even given perfect automorphism pruning. More precisely, the graphs we provide yield an exponential size search tree (i.e., 2 Ω(n) nodes) for any combination of refinement operator, invariants, and the cell selector which are not stronger than the k-dimensional Weisfeiler-Leman algorithm for some fixed dimension k. The natural class of algorithms for which we thus obtain lower bounds encompasses all software packages mentioned above even with various combinations of switches that can be turned on and off in the execution of the algorithm to tune the algorithms towards specific input graphs. Our graphs are asymmetric, i.e., have no non-trivial automorphisms, and thus no strategy for automorphism detection can help the algorithm to circumvent the exponential lower bound.

En el segundo paper nos informan sobre el estado del arte de la práctica tras este resultado.

 Benchmark Graphs for Practical Graph Isomorphism Daniel Neuen and Pascal Schweitzer

May 11, 2017

Abstract The state-of-the-art solvers for the graph isomorphism problem can readily solve generic instances with tens of thousands of vertices. Indeed, experiments show that on inputs without particular combinatorial structure the algorithms scale almost linearly. In fact, it is non-trivial to create challenging instances for such solvers and the number of difficult benchmark graphs available is quite limited. We describe a construction to efficiently generate small instances for the graph isomorphism problem that are difficult or even infeasible for said solvers. Up to this point the only other available instances posing challenges for isomorphism solvers were certain incidence structures of combinatorial objects (such as projective planes, Hadamard matrices, Latin squares, etc.). Experiments show that starting from 1500 vertices our new instances are several orders of magnitude more difficult on comparable input sizes. More importantly, our method is generic and efficient in the sense that one can quickly create many isomorphism instances on a desired number of vertices. In contrast to this, said combinatorial objects are rare and difficult to generate and with the new construction it is possible to generate an abundance of instances of arbitrary size. Our construction hinges on the multipedes of Gurevich and Shelah and the Cai-FürerImmerman gadgets that realize a certain abelian automorphism group and have repeatedly played a role in the context of graph isomorphism. Exploring limits of such constructions, we also explain that there are group theoretic obstructions to generalizing the construction with non-abelian gadgets.

Extractos.

The practical algorithms underlying these solvers differ from the ones employed to obtain theoretical results. Indeed, there is a big disconnect between theory and practice [2]. One could 1 interpret Babai’s recent breakthrough, the quasipolynomial time algorithm [1], as a first step of convergence. The result implies that if graph isomorphism is NP-complete then all problems in NP have quasi-polynomial time algorithms, which may lead one to also theoretically believe that graph isomorphism is not NP-complete.

P.s. Otro paper que no tiene nada que ver con el anterior pero que nos  ha parecido interesante.

 A Survey of Shortest-Path Algorithms

Amgad Madkour1 , Walid G. Aref1 , Faizan Ur Rehman2 , Mohamed Abdur Rahman2 , Saleh Basalamah2 1 Purdue University, West Lafayette, USA 2 Umm Al-Qura University, Makkah, KSA

May 8, 2017

Abstract. A shortest-path algorithm finds a path containing the minimal cost between two vertices in a graph. A plethora of shortest-path algorithms is studied in the literature that span across multiple disciplines. This paper presents a survey of shortest-path algorithms based on a taxonomy that is introduced in the paper. One dimension of this taxonomy is the various flavors of the shortest-path problem. There is no one general algorithm that is capable of solving all variants of the shortest-path problem due to the space and time complexities associated with each algorithm. Other important dimensions of the taxonomy include whether the shortest-path algorithm operates over a static or a dynamic graph, whether the shortest-path algorithm produces exact or approximate answers, and whether the objective of the shortest-path algorithm is to achieve time-dependence or is to only be goal directed. This survey studies and classifies shortest-path algorithms according to the proposed taxonomy. The survey also presents the challenges and proposed solutions associated with each category in the taxonomy