Al principio no te preocupes del SEO, centrate en los contenidos

Hoy en día todo el mundo parece obsesionado con los buscadores, el posicionamiento y el SEO. La verdad es que el SEO es una ciencia que no es exacta aunque tiene una serie de trucos que contribuyen a mejorar nuestra posición en los buscadores de una forma relativamente fiable. Sin embargo, cuando estamos empezando con un sitio web, conviene tener mucho cuidado y no obsesionarse con esta parte. Es cierto que podríamos preocuparnos por optimizar el sitio web para los buscadores, pero estos no están buscando sitios web optimizados, sino sitios web con contenidos. Así pues cuando un buscador rastrea una página web de reciente creación, lo primero que trata es de determinar la disponibilidad de nuevos contenidos, mostrando un cierto recelo en caso que estos no estén muy presentes. Así pues, si bien siempre conviene tener en cuenta el SEO, su influencia en las primeras etapas de cualquier sitio web, es más bien reducida, será solo con el tiempo y cuando el buscador tenga cierta confianza en nuestro sitio web cuando de verdad empiece a ser necesario invertir esfuerzos en el posicionamiento. Así pues, no lo olvidéis, cuando estéis empezando… centraros en los contenidos, el resto llegará con el tiempo.

Screaming Frog, una herramienta para monitorizar los parámetros SEO de tu web

Si tienes un sitio web y estás preocupado por mejorar el posicionamiento de dicha web, sabrás que es necesario estar pendiente de muchos aspectos para tratar de seguir mejorando. Pues bien, con Screaming Frog tenemos una interesante herramienta que nos ayudará a controlar todos esos parámetros SEO desde una interfaz sencilla e intuitiva.

Para ello, la herramienta lo que hace es escanear nuestra página web, de la forma más parecida a lo que lo haría un motor como Google basado en robots. Esta herramienta estaría disponible en las tres principales plataformas actuales: Windows, Mac y Ubuntu. Y tras analizar los enlaces, las imágenes, el CSS y demás parámetros que puedan interesar desde el punto de vista de SEO nos ofrecerá información de errores, redirecciones, enlaces externos, inlinks, outlinks, anchor text, follow & nofollow, páginas duplicadas, meta descripciones, meta Keywords, entre otros parámetros. La aplicación está actualmente en su versión 2 y dispone de una versión gratuita que aunque tiene ciertas limitaciones para muchos proyectos web sería más que suficiente.

Disavow Links nueva herramienta que permitirá ignorar enlaces de una web en Google

Google sigue pensando en ofrecer lo mejor que pueda a los desarrolladores web, y en este esfuerzo a anunciado recientemente una nueva herramienta llamada Disavow Links, con la cual los webmaster podrán indicarle al buscador que se ignoren un grupo de enlaces en una página web. Esto permitirá a los webmasters controlar por ejemplo que ciertos enlaces de baja calidad puedan estar perjudicando el ranking de un determinado sitio web.

Google, algo más que un buscador

Y es que la estrategia de enlazar desde y hacia webs con un pagerank alto para lograr un mejor posicionamiento en Google es muy conocida por usuarios con intenciones poco fiables. Así pues los webmaster mediante Disavow Links tendrán a partir de este momento una herramienta muy sencilla e intuitiva con la cual marcar estos enlaces como no deseados y así evitar posibles perjuicios. También hay quienes creen que tras esta herramienta hay una intención por parte de Google recopilar más información sobre posibles sitios de baja calidad. Es por esto que esta nueva herramienta debe usarse con cierto criterio y debe tratar de pensarse en todo momento si debe hacer uso de ella o no.

Quienes quieran más detalles sobre la herramienta, solo tienen que acceder a la zona para Webmasters de Google.

Nuevo algoritmo de Google

Optimización para los buscadores

El algoritmo de búsqueda de Google es algo como la ansiada fórmula secreta de la Coca Cola. Todo el mundo querría saber como es exactamente este algoritmo, porque sin duda eso puede ayudarles a posicionar sus páginas, y en consecuencia seguramente generar unos mayores niveles de tráfico (y eso redunda en más ingresos seguramente). Aunque durante algunos días no se dijo nada, finalmente Matt Cutts hizo una publicación en Twitter donde confirmó el cambio en la implementación del algoritmo con el cual se clasifican los resultados de las búsquedas.

En un principio esta actualización, considerada como menor, estaría destinada a permitir que aparezcan más dominios en los resultados de búsqueda. De esta forma se trataría de evitar que en una misma página apareciese un número muy elevado de resultados de un mismo dominio y ofrecer así una mayor diversidad a los usuarios en sus búsquedas.

Aún habrá que esperar un tiempo a ver cuales son los efectos, ya que estos tardan algún tiempo en materializarse y hacerse notar. No obstante a cualquier webmaster le convendría estar atento a las estadísticas de visitas para ver si este cambio afecta de forma significativa al tráfico de sus webs.

Generar contenido original … esa es la cuestión

O al menos así lo entienden los buscadores. Y es que a pesar de muchas técnicas que uno intente utilizar para mejorar el posicionamiento de una página web, el generar contenidos propios y que además tengan calidad es el punto de partida para lograr mejorar nuestra visibilidad. Es cierto, que hay que aprovechar todas las técnicas que los motores de búsqueda nos ofrecen, pero no debemos olvidar que el destinatario final de nuestros sitios web no son esos buscadores, sino los visitantes que a través de estos buscadores llegan a nuestra web. Y si cuando estos llegan, no hacen sino encontrarse contenidos duplicados, posiblemente y a menos que nuestro sitio sea su primer punto de referencia, acabarán por dejar de visitar nuestra web o acabarán por dejar nuestro RSS (que aún no lo tiene tu web, a que esperas para poner uno) en un segundo plano. De esta forma, si creamos un contenido completamente nuevo, este seguramente atraerá y enganchará mucho mejor a nuestros visitantes que cualquier otro contenido (y si, posiblemente luego al final, acabe duplicado en algún lugar de la red).

Pero no siempre podemos tener contenidos originales. Cierto es que es difícil que, si uno visita páginas de temáticas similares, no acaben por darse algunas coincidencias. Los temas candentes suelen comentarse en diferentes páginas y al final uno acaba por encontrar el mismo tema varias veces repetidas. Pero no debemos limitarnos a replicar una noticia o artículo visto en otro lado, eso no aporta ningún valor. Lo ideal, sería documentarse sobre el tema (posiblemente leyendo la noticia en varias fuentes para contrastar), si podemos experimentar sobre la cuestión y finalmente ofrecer nuestra opinión lo más personal que sea posible. De esta forma, el visitante, cuando llegue a nuestra página si se detiene a leer el artículo y acaba comprobando que hay ciertos detalles en nuestro artículo que acaban por diferenciarlo, se sentirá más atraído para una siguiente visita. Así pues, aunque hablemos de un tema recurrente, no caigamos en la tentación de «duplicar» contenidos, sino que tratemos de dar nuestro toque a lo que publiquemos.

Las ideas son dos, intentar crear nuestros propios contenidos y por otro lado cuando hablamos de algún tema «recurrente» dar nuestro toque personal.

Ser el primero, supone hasta un 50% más de tráfico

Optimización para los buscadores
Optimización para los buscadores

Según un reciente informe de Chitika, la diferencia entre ocupar el primer escalafón en los resultados de búsqueda de Google o el segundo, puede suponer hasta un 50% más de tráfico. Y es que a estas alturas, todos sabemos que estar en la primera página de resultados de Google es vital, ya que pocas veces se va más allá de esa primera página, y que estar entre los tres primeros resultados es aún quizás más importante, ya que supondrían la mitad de los clicks. Pero aún hay más, y es que entre estar primero o segundo hay una gran diferencia, de forma que si estamos en segundo lugar tendríamos hasta un 50% menos de tráfico (el primer resultado supone más del 34% de los clicks mientras que el segundo puesto se queda con algo más del 16%). De esta forma, supone que tendríamos hasta el doble de visitas si logramos estar en el primer lugar de los resultados y por tanto si bien, es importante estar entre los primeros, está claro que estar el primero supone una gran ventaja. Por tanto, no dejéis de intentar posicionar lo mejor posible vuestras páginas, el tráfico recibido en vuestra web os lo agradecerá.

Google indexa comentarios de Facebook

Los sistemas de comentarios implementados por algunas redes sociales como Facebook poco aportaban a los gestores de sitio web de cara al posicionamiento dentro de los buscadores. Y es que estos sistemas de comentarios hacían uso de Ajax para su funcionamiento, sin que los buscadores pudieran acceder a su contenido, al menos hasta ahora. Y es que parece que Google ha empezado a indexar los comentarios de Facebook incluidos dentro de los sitios web empleando el Add-on de comentarios de la red social. De esta forma, los comentarios estarían empezando a ser indexados por el buscador y por ende, empezarán a afectar a los resultados de las búsquedas. Así pues, a partir de ahora tenemos un motivo adicional para implementar esos complementos de comentarios en nuestro sitio web.

Google tratará de forma «especial» las webs adaptadas para dispositivos moviles

Según se ha desvelado, parece que Google va a dar cierta prioridad a las webs que están adaptadas para dispositivos móviles sobre aquellas que no lo están. Y es que según informan en su blog, la experiencia de los usuarios es muy negativa cuando llegan a sitios webs no optimizados para dispositivos móviles y muchos aseguran que incluso no volverían a visitar el sitio web, así pues para mejorar la experiencia de los usuarios se priorizarán los sitios web adaptados.

Sin embargo, parece que más que la experiencia de los usuarios de dispositivos móviles, detrás de este movimiento se encontraría el hecho de que la publicidad para dispositivos móviles sea una de las que mayores previsiones de aumento tenga, y Google con su programa AdWords trataría de lograr que esta sea lo más provechosa posible.

Independientemente de cual sea el motivo, está claro, que cada vez son más los usuarios que acceden a la web desde dispositivos móviles, y si tienes un sitio web conviene tenerlo muy en cuenta, independientemente de si empleas sistemas de publicidad o no, sino con el único fin, de que la experiencia de uso sea lo mejor posible.

Google resta importancia a las palabras clave en los nombres de dominio

Una de las estrategias muy habituales para tratar de mejorar el posicionamiento de un sitio web, era emplear palabras clave en el nombre del dominio. Por ejemplo no es lo mismo el dominio www.venta-motos-pepito.com que www.motos-pepito.com En el primer caso, al incluir la palabra venta mejoraremos el posicionamiento de nuestro dominio en busquedas relacionadas con la venta de motos con relación a la segunda elección. Sin embargo, parece que Google ha recibido bastantes quejas al respecto, ya que ha contribuido a que proliferen nombres de dominios bastante «artificiales» cuyo principal fin es el de mejorar el posicionamiento, pero dejando de lado el Branding, o sea el hacer nombre de marca. Así pues, tal y como revelan en este vídeo, parece que Google ha equilibrado la importancia de los nombres dominios, para que aquellos cuyo nombre sea más reconocible (mayor reconocimiento de marca) tengan mejores oportunidades. O sea, que no debemos olvidarnos que cada vez es más importante generar marca en torno a nuestro sitio web, en lugar de centrarse únicamente en estrategias orientadas a los buscadores y su posicionamiento como son las palabras clave.