Enlaces internos a temas relacionados en wordpress

Si quieres contribuir a mejorar el posicionamiento de tu blog, un aspecto muy interesante es lograr que este ofrezca no solo enlaces externos a otros sitios webs, sino que convendría también que tengas enlaces a otras partes de tu blog. No solo los usuarios agradecerán, encontrar enlaces a otros contenidos dentro de tu blog, sino que los buscadores indexarán más páginas y eso contribuirá a mejorar un poco más como nos ven.

Si tienes un blog con WordPress, existen varios plugins que te permitirán añadir enlaces a Posts relacionados de una forma muy comoda, lo cual es sin duda una muy buena forma de añadir esos enlaces «internos». Entre estos nos gustaría destacar Efficient Related Posts, un plugin que te generará esos enlaces a temas relacionados. El motivo para recomendar este, es que plantea un enfoque diferente, en tanto en cuanto la generación de estos temas relacionados se traslada a la parte administrativa del blog, lo cual evitará relentizar el blog con plugins que generan los temas relacionados sobre la consulta del propio post. Como siempre todo tiene su pro y su contra. El pro, que se evita entorpecer la velocidad de cara a los usuarios, el contra, que si hayq eu hacer una actualización de los temas relacionados, puede tardarse cierto tiempo. Sin embargo, este aspecto negativo, podría no serlo tanto, si eres de los que pocas veces modificas tus posts ya publicados.

Así pues esta es nuestra recomendación, y de hecho la hemos puesto a prueba en el blog.

Creando cookies en PHP, porque la ruta es importante

En las programación web, las cookies son un elemento muy utilizado desde hace años. Mediante estas podemos establecer por ejemplo las preferencias de nuestro visitante, o quizás controlar que alguien que ya haya votado una encuesta no pueda hacerlo una segunda vez (al menos desde el ordenador y siempre y cuando no resetee las cookies de su navegador). Siguiendo la definición del lenguaje php para crear una cookie (información completa aquí) deberíamos usar la función setcookie que tiene una forma similar a esta:

setcookie(name,value,expire,path,domain,secure);

Donde name, es el nombre que le asignamos a la cookie, value el valor, expire indicará el tiempo que tardará hasta que se considere caducada, path la ruta donde se crea la cookie,  domain indicará el dominio para el que es válida la cookie que hemos creado y secure es por si queremos limitar la cookie a conexsiones seguras https.

En esta entrada queríamos centrarnos en path. Y es que es muy habitual crear una cookie usando solo setcookie(name, value, expire); Esta instrucción funcionará siempre y cuando la cookie se use en páginas que se encuentren en el mismo directorio que la página desde donde se ha creado, sin que sirva en otros directorios. Por ejemplo, imaginemos que tenemos una carpeta de formularios dentro de nuestro directorio raíz, donde tras acceder a uno de estos, se crea una cookie que deberíamos poder leer desde el directorio raíz. Si no establecemos el path de la cookie, una vez el formulario nos reenvíe a una página del directorio raíz, veremos que no podemos acceder al contenido de la cookie. Así pues deberíamos usar algo como setcookie(«mi_cookie»,»si»,time+365000,»/»); para que cuando luego desde nuestras páginas del directorio raíz podamos leer el contenido de la cookie creada.

El futuro de la web pasa por los dispositivos moviles

El crecimiento del número de dispositivos móbiles conectado a internet es cada vez mayor. iPads, iPhones, Samsung Galaxy, Smartphones, Tablets, Netbooks, … son cada vez más populares y su uso para conectarse a internet está cada vez más extendido. Eso empieza a obligar a que los creadores de sitios webs se planteen cada vez más la posibilidad de ofrecer contenido adaptado y diseñado para estas plataformas. Un reciente estudio, indica que una cuarta parte del acceso a internet en entornos empresariales se realiza desde estos dispositivos, una cifra nada desdeñable de usuarios. Si bien, el servicio más utilizado en estos accesos sigue siendo el correo, la navegación por internet va ganando puestos. Por tanto, a todos los que creamos sitios webs, nos toca empezar a pensar en que es posible, que al otro lado quizás ya no nos encontremos con un ordenador, con su teclado, su ratón y sobre todo su pantalla; sino que podríamos estar frente a un visitante que se conecta desde un smartphone durante un viaje para conultar un dato o que simplemente recostado en el sofa de su casa decide navegar un rato por internet mediante su tablet. Así es que habrá que tener en cuenta estos dispositivos a la hora de diseñar y optimizar nuestro sitio web, y hacer pruebas de como se muestra desde los navegadores moviles, si no queremos dejar de lado a este cada vez mayor número de posibles visitantes.

Evitando listados de directorios en servidor web con Ubuntu Server

Si has instalado un servidor web con Apache, siempre conviene personalizar algunas cosas para evitar posibles agujeros de seguridad. Así pues,nada más instalar nuestro servidor con apache nos podemos encontrar con que al acceder a un directorio, si en este no hay un archivo index (.php, .html, .htm) que indique al navegador que debería mostrarse, se muestre el contenido del directorio, que además podría permitir la navegación por la estructura de archivos de nuestro servidor (pudiendo de esa forma tener acceso a directorios que deberían pasar inadvertidos).

Para solucionarlo podemos o bien configurar nuestro servidor apache para que no muestre los listados de directorios o bien usar el fichero .htaccess A continuación vamos a explicar las dos opciones:

  • Crear archivos .htaccess Deberíamos crear un archivo donde incluiremos la siguiente directiva «Options -Indexes» Este fichero deberíamos incluirlo en cada directorio de nuestro servidor o bien en el directorio principal y especificardicha opción para cada uno de los directorios. Si nos encontramos trabajando con un hosting donde se da esta circunstancia del listado de los archivos contenidos en el directorio, esta será nuestra única opción para evitarlo.
  • Configurar apache. Para hacer esto deberemos indicarle en el archivo de configuración default que encontraremos en el directorio /etc/apache2/sites-avaliable que no se mostrarán los listados de directorios. Si tenemos varios servidores virtuales, modificaremos el archivo de configuración correspondiente del servidor. A continuación se muestra un fragmento de como debería quedar el archivo de configuración, resaltando la opción a especificar.
<VirtualHost *:80>
        ServerAdmin email@dominio
        ServerName  dominio
        ServerAlias dominio
        DocumentRoot /var/www/web
 ...
        <Directory /var/www/web/reactivox/>
                Options -Indexes FollowSymLinks MultiViews
                AllowOverride All
                Order allow,deny
                allow from all
        </Directory>
...

Estar o no estar

Hasta hace muy poco en esto de internet, estar o no estar pasaba porque Google nos situase en sus búsquedas lo más arriba posible (a poder ser en la primera página de resultados y para pedir un poco más, entre los tres primeros resultados que son los que copan en torno a un 90% de los clicks). Sin embargo, con el creciente auge de las redes sociales, esta afirmación está empezando a cambiar. Y es que Facebook crece a un ritmo vertiginoso, generando más tráfico incluso que Google (según noticias Facebook genera el 25% de las páginas vistas en EEUU) y planeando una estrategia que incluso abarca la posibilidad de intentar convertirse la página de inicio predefinida de los usuarios.

Esto no puede sino hacer que como poco nos planteemos la estrategia de visibilidad de nuestros sitios webs. Cada vez ganan más peso las redes sociales (ver noticia el 70% de internautas españoles ya están en redes sociales) y eso es un factor muy a tener en cuenta y es necesario que planteemos una adecuada estrategia de marketing social para que nuestra web siga obteniendo tráfico. La ventaja de las redes sociales, es que los accesos que se generan en ellas suelen ser de mayor «calidad» que los que se obtienen en los buscadores. Y es que si en la vida real nos fiamos más de la opinión de un amigo nuestro que visito un restaurante por ejemplo y le gusto, que de coger la guía y buscar uno aleatoriamente. Así pues, las recomendaciones de amigos (si esos famosos «Me gusta») son un suculento premio que nos permitirá atraer más visitantes (y es de esperar que con mayores posibilidades de conversión) a nuestro sitio web.

Por tanto, de ahora en adelante, es necesario plantear una estrategia de posicionamiento para los buscadores y al mismo tiempo de visibilidad en las redes sociales (y no solo hablamos de Facebook, sino que hay que tener en cuenta todas las redes como Twitter, Tuenti, MySpace…) y posiblemente debamos dedicar nuestros esfuerzos a partes iguales si queremos lograr un mayor éxito.

Protege wordpress del spam

SpamSi tienes un blog con WordPress y notas que tus comentarios empiezan a llenarse de Spam deberías poner medidas que te ayuden a evitarlo. Por un lado liberarás tu blog de comentarios innecesarios y por otro te ahorrarás algún tiempo en la administración del mismo (a veces puede ser tedioso tener que eliminar más y más comentarios que son Spam). Para ayudar a esta labor de protección de tu blog, contamos con el plugin Askimet. Simplemente neceistarás registrarte en su web (la versión personal es gratuita) y una vez completado el registro recibirás un código de acceso para activar el plugin. Así de fácil y rápido.

Otra forma es añadir a nuestro blog un sistema de Captcha (si esas imagenes que se generan automáticamente y que nos obligan a escribir los números y letras que aparecen), en cuyo caso una buena alternativa puede ser WP-rCaptcha un plungin bastante eficaz.

Esperamos que estas dos soluciones os sean de ayuda para mantener el Spam a raya en vuestros blogs.

Controlando el acceso de los buscadores con robots.txt

Los motores de búsqueda basan su funcionamiento en los robots de búsqueda, que se dedican a rastrear todas las páginas web accediendo a estas para rastrear los enlaces, que luego los buscadores almacenan y emplean para ofrecer sus resultados. Estos robots son como usuarios invisibles que acceden a tu sitio web, visitan las páginas, buscan los enlaces y van recopilando la información. Aúnque no los veamos, estos estan accediendo a los contenidos de nuestra web como un usuario más. Así pues cuando estos robots daban sus primeras andaduras en internet allá por mediados de los 90, a veces podían llegar a saturar las páginas. Así fue como nació un protogolo destinado a estos robots, con el cual se pueden establecer algunos criterios que estos robots siguen.

Así es como nació el famoso fichero «robots.txt» que debe estar ubicado necesariamente en la carpeta raíz del dominio (o de nuestro subdominio), ya que si lo colocamos en otra carpeta de nuestro sitio web, simplemente será ignorado. Se trata de un simple archivo TXT, donde por medio de una serie de reglas básicas podremos establecer el funcionamiento de los buscadores a la hora de indexar nuestro sitio web.
A continuación vamos a explicar como funcionaría
  • User-Agent – con esta instrucción hacemos referencia al robot al que se aplica la regla. Podemos referirnos a todos los navegadores con un asterisco (*) o referirnos a uno o varios en concreto con su código (por ej. Google, MSNBot).
  • Disallow – aquí indicaríamos las páginas que desea bloquear, y que corresponderán al User-Agent que hayamos definido.
  • Allow – con esta instrucción indicamos que las páginas se pueden indexar.
Aunque muchas veces nos olvidamos de incluirlo es recomendable que este fichero esté en nuestro sitio web, así pues un archivo robots.txt básico sería como sigue:
User-Agent: *
Así indicaríamos que todos los robots pueden indexar libremente todos los contenidos de nuestra web sin ninguna excepción siempre que sean capaces de rastrearlos. Si por ejemplo, queremos hacer el proceso inverso, es decir, bloquear la indexación de todo un sitio web por parte de todos los motores, nuestro archivo robots.txt tendría esta estructura
User-Agent: *
Disallow: /
Por otro lado, si lo que queremos hacer es evitar que los buscadores indexen solo un directorio de nuestro sitio web (por ejemplo, el correspondiente al panel de administración), podríamos hacerlo de esta forma:
User-Agent: *
Disallow: /ruta/directorio_privado/
También cabe la posibilidad, de que por ejemplo, evitemos la indexación de un directorio, a excepción de un archivo, para ello simplemente tras el Disallow del directorio añadiríamos un Alloy del fichero que nos interesa que se indexe.
Si quieres más información sobre el archivo robots.txt puedes encontrarla en este artículo de Wikipedia.

Monitorizando el posicionamiento de nuestro sitio Web

KPMRSEn internet existen multitud de herramientas para hacer labores de monitorización de un sitio web, pero queríamos presentaros una relativamente sencilla de usar y bastante útil. KPMRS nos permite registrar nuestro sitio web y establecer una serie de palabras claves (hasta 5 en la versión gratuita) con las cuales nos irá indicando la posición de nuestra página web en el buscador Google. Lo que lo convierte en un serivicio bastante cómodo es que simplemente tienes que registrarte e indicar que te envien los informes por email, sin tener así la necesidad de visitar el sitio web para consultar tu posición. Recibirás un email en tu bandeja donde te indicarán el posicionamiento de tu sitio. Ofrece además el posicionamiento en varios paises, la única pega es que Google España todavía no se ha incluido en el servicio (esperemos que lo haga pronto).

Mirror creator, o como subir tus archivos en 14 servidores distintos

Cuando subimos archivos a la web, muchas veces necesitamos crear copias alternativas por si la descarga principal falla (lo que comunmente se conocer como Mirrors). Pues bien, si usamos servicios como RapidShare o MegaUpload necesitabamos logearnos en cada uno de ellos y repetir el proceso hasta tener las «copias» disponibles en los distintos servidores. Pues bien, Mirror creator surge con la intención de evitarnos esa tediosa tarea de forma que desde un mismo interfaz podremos subir hasta en 14 servidores distintos nuestros archivos. Un buen ahorro de tiempo.