El robot del buscador ha mejorado su capacidad de lectura e indexación de resultadosGoogle ha reinventando una vez más lo que es un motor de búsqueda gracias a su nueva funcionalidad. Ya no sólo es capaz de leer código en JavaScript y buscar un poco en su interior. Ahora el robot del buscador también sabe comprender lo que está escrito en él.
Su último algoritmo de indexación mejorado llamado Caffeine comenzó a funcionar hace unas semanas y el número de resultados creció un 50%, sin especificar de dónde proviene cada nuevo enlace. No ha habido confirmación oficial sobre una relación entre ambas circunstancias, pero sí de los avances en la capacidad de lectura. Recientemente, un portavoz de la empresa estadounidense declaró para Forbes que “Google puede analizar sintácticamente y entender algo de JavaScript”.
Se ha descubierto que Google ha indexado nuevas páginas que no tendrían por qué salir en las búsquedas. Al parecer, el robot ha sido capaz de ejecutar alguna parte del código de JavaScript para encontrar esos enlaces. Se trata de un comportamiento de interactuación entre diferentes aplicaciones, uno de los retos históricos más complejos de la ciencia informática. El problema básico se encuentra en que el programa jamás ha podido saber con claridad si la aplicación se seguía ejecutando o si se había detenido en un momento del tiempo.
Hasta el momento, la propia compañía ha estado advirtiendo a los programadores y diseñadores web que tiene problemas para indexar contenido de texto enriquecido o páginas dinámicas. En algunos casos, el robot ha interpretado que el contenido pertenece a enlaces externos. En otras ocasiones, las URL estáticas para páginas dinámicas han sido interpretadas por los buscadores como una página única que se repite varias veces y que acaba siendo excluida bajo la normativa de sanciones, aunque Google ha sabido separarlo de técnicas prohibidas como el cloaking. Por tanto, los usuarios y empresas que han desarrollado su página con los principios del SEO en mente siempre han tenido que minimizar el uso de JavaScript, Flash o AJAX para no perjudicar su posicionamiento.
Una vez más, Google se adelanta a la competencia y marca el camino a seguir para existir en la red. Un camino diversificado que se suma a su apuesta por los rich snippets. Sin embargo, cabe recordar que el resto de buscadores aún no son capaces de leer completamente el contenido que ofrecen estos sistemas de programación, por lo que es recomendable seguir ofreciendo el mismo texto tanto en JavaScritp o en Flash como de la forma tradicional.