Posicionamiento de un sitio web, no corras más de la cuenta.

Cada vez que surge un nuevo sitio web, surge también la necesidad de darlo a conocer. Si nadie llega a nuestro sitio web, este está abocado al fracaso. Actualmente la principal forma de hacer que los usuarios lleguen a nuestro sitio web, es gracias a los resultados de los buscadores y cobrando una importancia cada vez mayor, las redes sociales. Pero lograr aparecer bien posicionados en los primeros puestos de los buscadores o lograr una buena visibilidad en las redes sociales, no es tarea de unos pocos días.

Generalmente se quieren resultados rápidos, sobre todo al principio, cuando se quiere tratar de atraer a cuantos más visitantes mejor. Sin embargo, esta carrera la de posicionar nuestra web y de darle visibilidad en las redes sociales debe plantearse como una carrera de fondo. No podremos lograr unos resultados rápidos a la par que duraderos, por tanto necesitaremos construir unos buenos cimientos en nuestra estrategia online para lograr atraer cuantos más visitantes mejor. Es cierto, que cuanto antes lleguen los visitantes mejor, pero no debemos centrarnos solo en conseguir visitas. Debemos buscar visitas de calidad, lograr que esas visitas se conviertan en verdaderos clientes y no queremos solo muchos visitantes que lleguen y tan pronto como han llegado desaparezcan abandonando nuestra web.

Recordar! No os toméis esto como un sprint, estamos ante una carrera muy larga, las visitas efímeras no nos interesan, queremos visitas de calidad.

Google Analytics prohibido en Alemania

El famoso servicio de análisis de tráfico Google Analytics, que permite a los webmasters controlar las estadísticas de visitas a sus sitios web, ha sido prohibido en Alemania. Según declaran las autoridades, la recopilación de datos, que esta herramienta realiza (con datos como la IP, páginas vistas, tendencias…) atenta contra la privacidad de los usuarios. Las autoridades Alemanas siguen sus pleitos con Google, pero los más perjudicados son sin duda los webmasters, que ven como esta versátil y útil herramienta les es prohibida, evitando así que puedan realizar un seguimiento de la audiencia de sus sitios webs. Esto se convierte en un duro golpe para poder analizar el rendimiento de nuestros sitios web, puesto que la información que la herramienta ofrecía contribuía a la toma de decisiones en el mantenimiento de los sitios. Ahora bien, la pregunta es ¿otros sistemas de recolección de estadísticas de uso como podría ser Piwik serán también prohibidos o se verán beneficiados de esta decisión?

Enlaces internos a temas relacionados en wordpress

Si quieres contribuir a mejorar el posicionamiento de tu blog, un aspecto muy interesante es lograr que este ofrezca no solo enlaces externos a otros sitios webs, sino que convendría también que tengas enlaces a otras partes de tu blog. No solo los usuarios agradecerán, encontrar enlaces a otros contenidos dentro de tu blog, sino que los buscadores indexarán más páginas y eso contribuirá a mejorar un poco más como nos ven.

Si tienes un blog con WordPress, existen varios plugins que te permitirán añadir enlaces a Posts relacionados de una forma muy comoda, lo cual es sin duda una muy buena forma de añadir esos enlaces «internos». Entre estos nos gustaría destacar Efficient Related Posts, un plugin que te generará esos enlaces a temas relacionados. El motivo para recomendar este, es que plantea un enfoque diferente, en tanto en cuanto la generación de estos temas relacionados se traslada a la parte administrativa del blog, lo cual evitará relentizar el blog con plugins que generan los temas relacionados sobre la consulta del propio post. Como siempre todo tiene su pro y su contra. El pro, que se evita entorpecer la velocidad de cara a los usuarios, el contra, que si hayq eu hacer una actualización de los temas relacionados, puede tardarse cierto tiempo. Sin embargo, este aspecto negativo, podría no serlo tanto, si eres de los que pocas veces modificas tus posts ya publicados.

Así pues esta es nuestra recomendación, y de hecho la hemos puesto a prueba en el blog.

Estar o no estar

Hasta hace muy poco en esto de internet, estar o no estar pasaba porque Google nos situase en sus búsquedas lo más arriba posible (a poder ser en la primera página de resultados y para pedir un poco más, entre los tres primeros resultados que son los que copan en torno a un 90% de los clicks). Sin embargo, con el creciente auge de las redes sociales, esta afirmación está empezando a cambiar. Y es que Facebook crece a un ritmo vertiginoso, generando más tráfico incluso que Google (según noticias Facebook genera el 25% de las páginas vistas en EEUU) y planeando una estrategia que incluso abarca la posibilidad de intentar convertirse la página de inicio predefinida de los usuarios.

Esto no puede sino hacer que como poco nos planteemos la estrategia de visibilidad de nuestros sitios webs. Cada vez ganan más peso las redes sociales (ver noticia el 70% de internautas españoles ya están en redes sociales) y eso es un factor muy a tener en cuenta y es necesario que planteemos una adecuada estrategia de marketing social para que nuestra web siga obteniendo tráfico. La ventaja de las redes sociales, es que los accesos que se generan en ellas suelen ser de mayor «calidad» que los que se obtienen en los buscadores. Y es que si en la vida real nos fiamos más de la opinión de un amigo nuestro que visito un restaurante por ejemplo y le gusto, que de coger la guía y buscar uno aleatoriamente. Así pues, las recomendaciones de amigos (si esos famosos «Me gusta») son un suculento premio que nos permitirá atraer más visitantes (y es de esperar que con mayores posibilidades de conversión) a nuestro sitio web.

Por tanto, de ahora en adelante, es necesario plantear una estrategia de posicionamiento para los buscadores y al mismo tiempo de visibilidad en las redes sociales (y no solo hablamos de Facebook, sino que hay que tener en cuenta todas las redes como Twitter, Tuenti, MySpace…) y posiblemente debamos dedicar nuestros esfuerzos a partes iguales si queremos lograr un mayor éxito.

Controlando el acceso de los buscadores con robots.txt

Los motores de búsqueda basan su funcionamiento en los robots de búsqueda, que se dedican a rastrear todas las páginas web accediendo a estas para rastrear los enlaces, que luego los buscadores almacenan y emplean para ofrecer sus resultados. Estos robots son como usuarios invisibles que acceden a tu sitio web, visitan las páginas, buscan los enlaces y van recopilando la información. Aúnque no los veamos, estos estan accediendo a los contenidos de nuestra web como un usuario más. Así pues cuando estos robots daban sus primeras andaduras en internet allá por mediados de los 90, a veces podían llegar a saturar las páginas. Así fue como nació un protogolo destinado a estos robots, con el cual se pueden establecer algunos criterios que estos robots siguen.

Así es como nació el famoso fichero «robots.txt» que debe estar ubicado necesariamente en la carpeta raíz del dominio (o de nuestro subdominio), ya que si lo colocamos en otra carpeta de nuestro sitio web, simplemente será ignorado. Se trata de un simple archivo TXT, donde por medio de una serie de reglas básicas podremos establecer el funcionamiento de los buscadores a la hora de indexar nuestro sitio web.
A continuación vamos a explicar como funcionaría
  • User-Agent – con esta instrucción hacemos referencia al robot al que se aplica la regla. Podemos referirnos a todos los navegadores con un asterisco (*) o referirnos a uno o varios en concreto con su código (por ej. Google, MSNBot).
  • Disallow – aquí indicaríamos las páginas que desea bloquear, y que corresponderán al User-Agent que hayamos definido.
  • Allow – con esta instrucción indicamos que las páginas se pueden indexar.
Aunque muchas veces nos olvidamos de incluirlo es recomendable que este fichero esté en nuestro sitio web, así pues un archivo robots.txt básico sería como sigue:
User-Agent: *
Así indicaríamos que todos los robots pueden indexar libremente todos los contenidos de nuestra web sin ninguna excepción siempre que sean capaces de rastrearlos. Si por ejemplo, queremos hacer el proceso inverso, es decir, bloquear la indexación de todo un sitio web por parte de todos los motores, nuestro archivo robots.txt tendría esta estructura
User-Agent: *
Disallow: /
Por otro lado, si lo que queremos hacer es evitar que los buscadores indexen solo un directorio de nuestro sitio web (por ejemplo, el correspondiente al panel de administración), podríamos hacerlo de esta forma:
User-Agent: *
Disallow: /ruta/directorio_privado/
También cabe la posibilidad, de que por ejemplo, evitemos la indexación de un directorio, a excepción de un archivo, para ello simplemente tras el Disallow del directorio añadiríamos un Alloy del fichero que nos interesa que se indexe.
Si quieres más información sobre el archivo robots.txt puedes encontrarla en este artículo de Wikipedia.

Monitorizando el posicionamiento de nuestro sitio Web

KPMRSEn internet existen multitud de herramientas para hacer labores de monitorización de un sitio web, pero queríamos presentaros una relativamente sencilla de usar y bastante útil. KPMRS nos permite registrar nuestro sitio web y establecer una serie de palabras claves (hasta 5 en la versión gratuita) con las cuales nos irá indicando la posición de nuestra página web en el buscador Google. Lo que lo convierte en un serivicio bastante cómodo es que simplemente tienes que registrarte e indicar que te envien los informes por email, sin tener así la necesidad de visitar el sitio web para consultar tu posición. Recibirás un email en tu bandeja donde te indicarán el posicionamiento de tu sitio. Ofrece además el posicionamiento en varios paises, la única pega es que Google España todavía no se ha incluido en el servicio (esperemos que lo haga pronto).