¿Se deben bloquear los archivos CSS y JS en el fichero robots.txt?

Generalmente siempre habíamos pensado que bloquear la indexación de las carpetas donde se encontraban los ficheros CSS y JS, era una buena opción para evitar que se indexaran archivos de programación o ficheros de comentarios (readme.txt) que estuvieran dentro de esas carpetas.


Pero tras el último post que ha publicado Google en su blog para webmaster parece que están teniendo algún problema para indexar el contenido de páginas dinámicas que cargan información mediante JavaScript (AJAX) y de forma bastante sutil, como siempre, nos están pidiendo que modifiquemos los archivos "robots.txt" para facilitarles al acceso a todos los contenidos de la web.

Cita del post de Google:
Si se bloquean recursos como JavaScript o CSS en diferentes archivos (por ejemplo, con robots.txt) y Googlebot no puede recuperarlos, nuestros sistemas de indexación no podrán ver tu sitio como un usuario común. Te recomendamos que permitas que Googlebot recupere datos en JavaScript y CSS para que tu contenido se pueda indexar mejor. Esto es especialmente importante en sitios web para móviles, en los que los recursos externos como CSS y JavaScript contribuyen a que nuestros algoritmos comprendan que las páginas están optimizadas para móviles.
No obstante, la mejor opción es utilizar la aplicación "Explorar como Google", dentro de las Herramientas para Webmasters de Google, para asegurarte de que los robots de búsqueda son capaces de leer e interpretar toda la información que ofreces en tu página web.

Y, en cualquier caso, si tienes dudas, déjale pasar. Es preferible que sea el robot de Google el que decida si debe o no mostrar esa información.

Penalización SEO Google Penguin


A principios de octubre de 2013, Google desplegó la actualización de algoritmo Google Penguin. A partir de ese día y de forma casi inmediata, algunos sitios web empezaron a sufrir las consecuencias de una mala gestión SEO.
Conocer la actualización de Google Penguin es la mejor forma de entender cómo cambia Google las reglas del juego. Hecha la trampa, hecha la ley.
La actualización de Penguin estaba dirigida prácticamente en exclusiva a aquellos sitios que habían abusado con las técnicas de captación de enlaces (Link Building). Hasta entonces, todos los que nos dedicamos de forma profesional al SEO, sabíamos que la cantidad de enlaces era un factor decisivo para el posicionamiento SEO, pero la mayoría también podíamos intuir que una captación de enlaces desmedida y "no natural", podría acabar suponiendo una penalización, y así fue.
Si crees que has caído en una penalización SEO, la mejor recomendación es que decidas contratar un profesional SEO
Ahora ya conocemos bien esta actualización, hemos visto sus efectos y algunos también hemos tenido que luchar para "salvar" a un cliente de una penalización en la que había caído, generalmente por desconocimiento o por contratar a un profesional SEO sin garantías suficientes.

MOTIVOS DE PENALIZACIÓN DE GOOGLE PENGUIN

  • Exceso de enlaces entrantes con una misma palabra clave: Si tienes 1.000 enlaces a tu sitio que apuntan con la palabra clave "Gimnasios baratos en Madrid" y solo tienes 5 enlaces que apuntan con la palabra clave "Gimnasio GimBay", ¿algo huele raro no?.
  • Exceso de captación de enlaces en poco tiempo: Si montaste tu web en enero del año 2005 y en agosto de 2013 tenías 50 enlaces entrantes, ¿cómo explicas que en octubre de 2013 tuvieras 5.000?.
  • Exceso de enlaces desde el footer o blogroll: Si tienes 500 enlaces que apuntan a tu web, pero 400 de ellos están en el footer de una página y otros 80 están en la barra lateral del blog de un amigo. A efectos de Google, tienes 500 enlaces de los que solo son válidos 20, por tanto, estás intentando manipular el algoritmo de búsqueda.
  • Exceso de enlaces a la página de inicio: Otro de los motivos es tener demasiados enlaces que apuntan a la página principal de tu sitio. Google entiende que el comportamiento natural de los usuarios es apuntar de forma indiscriminada, a la página principal, a una sección interna, a la página de contacto, etc...
  • Intercambio de enlaces exagerado: Google no permite hacer intercambio de enlaces con la intención de manipular los resultados, por tanto, si detecta que estás intercambiando enlaces de forma masiva y, especialmente, con páginas que no están relacionadas con la temática de tu web, la penalización está al caer, o ha caído.
  • Presencia masiva en directorios: Si tu estrategia de Link Building se ha sostenido en la inclusión de tu web en directorios de enlaces, date por jodido. Los enlaces de directorio son enlaces categorizados por Google como de muy baja calidad. Realmente todos los que nos dedicamos de forma profesional al SEO, sabemos que darse de alta en directorios de forma masiva es una pérdida de tiempo y un riesgo enorme.

Y ENTONCES... ¿CÓMO SE HACE LINK BUILDING?

El Link Building sigue siendo importante y debemos seguir trabajando en esta línea, pero no de cualquier manera.
Ya sabemos que los enlaces en el footer o en el blogrroll no sirven para nada, tampoco los enlaces en directorios ni los "generadores de backlinks" (40.000 links por 50$).

Así que, a la hora de captar enlaces, te recomiendo que tengas en cuenta estas directrices:

  • Olvídate de directorios, enlaces en el footer y en el blogrroll.
  • No hagas intercambio de enlaces directo, utiliza una página intermedia para evitar ser el "emisor" de enlaces. Y, por supuesto, que los enlaces que apunten a tu web no estén en el footer ni en el blogrroll.
  • Haz que solo el 40-50% de los enlaces apunten a tu página principal, el otro 50-60% debe apuntar a páginas inernas.
  • Utiliza varias palabras clave para el anchor text. Y sí, también debes utilizar en algunos enlaces aquello de "pincha aquí", "click aquí para ver la web", "ver web", etc...
  • Consigue enlaces de forma progresiva y sostenida, por ejemplo, 10 cada mes. Pero se constante, no consigas 10 un mes y en dos meses ninguno y a los tres meses consigues 30 más.

Solución en Prestashop: Call to undefined function mcrypt_encrypt()


En algunas ocasiones, generalmente al cambiar una tienda online para mejorar el SEO de Prestashop a otro hosting, podemos encontrarnos con un error que nos impedirá visualizar nuestra tienda online, al intentar cargarla veremos un mensaje similar a este:
Fatal error: Call to undefined function mcrypt_encrypt() in /var/www/vhosts/dominio.com/public_html/classes/Rijndael.php on line 50
El fallo se debe básicamente a que la extensión mcrypt de PHP no está instalada en ese hosting, así que la opción más rápida de solucionar este problema es deshabilitando esta funcionalidad en la configuración de tu Prestashop, para conseguirlo tienes que ejecutar una sentencia en tu base de datos MySQL:
UPDATE ps_configuration SET VALUE=0 WHERE name="PS_CIPHER_ALGORITHM"
Atención: recuerda actualizar la tabla, "ps_configuration" por el nombre de tu tabla de configuración, si no cambiaste nada durante la instalación será este, pero si cambiaste el prefijo de las tablas deberás actualizar la sentencia.

Una vez hecho esto, deberías escribir un e-mail al soporte de tu hosting para solicitar la activación de la librería mcrypt de PHP, no es algo imprescindible para el buen funcionamiento de tu tienda online pero sí es recomendable utilizarlo siempre que sea posible.

Taller de Marketing Online "Yo Vendo en Internet 2014"

Este documento es la presentación utilizada durante el Taller de Marketing Online que impartí ayer durante el evento "Yo Vendo en Internet 2014", desarollado en el centro ThinkTIC de Logroño, el 24 de marzo de 2014.

Páginas web estáticas y SEO - Problemas y Soluciones

Desde la última actualización del algoritmo de Google (Hummingbird - Octubre de 2013), las páginas web estáticas están sufriendo grandes caídas en los rankings de los resultados de búsqueda.

Conozco varios casos de páginas web estáticas que sin haber realizado ningún cambio en su estrategia de posicionamiento SEO desde hace mucho tiempo ni haberse notificado ninguna incidencia en GWT, están viendo afectado afectado de forma negativa su posicionamiento en redes sociales.

Alguna vez he oído la frase: "los robots de Google se alimentan del contenido" y es verdad, el trabajo de estos robots es detectar, identificar y ordenar el nuevo contenido que se genera. Cuando una página no genera contenido deja de ser interesante para estos robots.


Hasta hace unos meses, la generación de nuevo contenido no resultaba crucial, pero desde la última actualización del algoritmo, la generación de nuevo contenido resulta vital para un buen posicionamiento orgánico en buscadores.

La solución: un blog

La forma más sencilla para generar nuevo contenido y "gustar" más a Google, es mediante un blog corporativo. Es menos serio que una sección de noticias y, además, nos permite hablar de noticias del sector y otros temas que no tienen porque estar directamente relacionados con nuestra empresa.

Por ejemplo, si tenemos un SPA en Logroño, es muy complicado que intentemos buscar noticias de actualidad dentro de nuestro negocio porque habitualmente no hay cambios tan importantes. Sin embargo, sí podemos pedir a nuestro equipo que prepare artículos especializados para el blog.

Esto nos permitirá generar de forma continuada y sostenible contenido dinámico que ayude en el desarrollo de nuestra estrategia de posicionamiento SEO.


Con la tecnología de Blogger.

- Copyright © Todos contra Google - El blog de Ignacio Cisneros - icisneros - Original design by Johanes Djogan modified by Ignacio Cisneros-