Si usas wordpress en tu blog, no dudes en actualizar cuanto antes a la nueva versión liberada, ya que esta corrige un fallo de seguridad con la librería de saneamiento de HTML que se encuentra en /wp-includes/kses.php. Esta vulnerabilidad podría permitir un ataque XSS que podría comprometer a los visitantes de vuestro blog, así pues velando por su seguridad y la reputación de nuestros blogs, no dudéis en actualizar cuanto antes. Más info sobre la versión 3.0.4 aquí.
Creando páginas web
Tener una página web y mantenerla no siempre es fácil, información y consejos para los webmasters
Avisos de webs peligrosas en Google
Google ha puesto en marcha un nuevo sistema de protección frente a webs maliciosas en su motor de búsquedas.
Este servicio lo que hará será indicar en los resultados de las búsquedas que realizamos con Google si un sitio puede ser peligroso para el usuario. El aviso será un enlace debajo del resultado (en la imagen que hay más abajo se puede ver un ejemplo) que pondría“Este sitio puede estar comprometido” (This site may be compromised). Al hacer click en él Google nos mostrará una página de ayuda donde nos da más información sobre el tema.
El sistema además intenta además avisar al dueño de la web del problema para que pueda solucionarlo. Aunque esta función solo será efectiva si utiliza las herramientas para Webmasters que ellos mismos proporcionan. Una nueva medida (tanto para los navegantes como para Webmasters) que seguro que servirá para ayudar a evitar la proliferación de software malicioso a través de internet y que se une a las soluciones similares que ya incorporaban algunos programas antivirus como el Norton Internet Security o McAfee Internet Security, que por otra parte son más visuales a la hora de indicar un posible agujero de seguridad en una web (¿deberían en Google haber utilizado un icono llamativo en lugar de una línea de texto, que para algunos podría pasar desapercibida?)
Enlaces internos a temas relacionados en wordpress
Si quieres contribuir a mejorar el posicionamiento de tu blog, un aspecto muy interesante es lograr que este ofrezca no solo enlaces externos a otros sitios webs, sino que convendría también que tengas enlaces a otras partes de tu blog. No solo los usuarios agradecerán, encontrar enlaces a otros contenidos dentro de tu blog, sino que los buscadores indexarán más páginas y eso contribuirá a mejorar un poco más como nos ven.
Si tienes un blog con WordPress, existen varios plugins que te permitirán añadir enlaces a Posts relacionados de una forma muy comoda, lo cual es sin duda una muy buena forma de añadir esos enlaces «internos». Entre estos nos gustaría destacar Efficient Related Posts, un plugin que te generará esos enlaces a temas relacionados. El motivo para recomendar este, es que plantea un enfoque diferente, en tanto en cuanto la generación de estos temas relacionados se traslada a la parte administrativa del blog, lo cual evitará relentizar el blog con plugins que generan los temas relacionados sobre la consulta del propio post. Como siempre todo tiene su pro y su contra. El pro, que se evita entorpecer la velocidad de cara a los usuarios, el contra, que si hayq eu hacer una actualización de los temas relacionados, puede tardarse cierto tiempo. Sin embargo, este aspecto negativo, podría no serlo tanto, si eres de los que pocas veces modificas tus posts ya publicados.
Así pues esta es nuestra recomendación, y de hecho la hemos puesto a prueba en el blog.
Creando cookies en PHP, porque la ruta es importante
En las programación web, las cookies son un elemento muy utilizado desde hace años. Mediante estas podemos establecer por ejemplo las preferencias de nuestro visitante, o quizás controlar que alguien que ya haya votado una encuesta no pueda hacerlo una segunda vez (al menos desde el ordenador y siempre y cuando no resetee las cookies de su navegador). Siguiendo la definición del lenguaje php para crear una cookie (información completa aquí) deberíamos usar la función setcookie que tiene una forma similar a esta:
setcookie(name,value,expire,path,domain,secure);
Donde name, es el nombre que le asignamos a la cookie, value el valor, expire indicará el tiempo que tardará hasta que se considere caducada, path la ruta donde se crea la cookie, domain indicará el dominio para el que es válida la cookie que hemos creado y secure es por si queremos limitar la cookie a conexsiones seguras https.
En esta entrada queríamos centrarnos en path. Y es que es muy habitual crear una cookie usando solo setcookie(name, value, expire); Esta instrucción funcionará siempre y cuando la cookie se use en páginas que se encuentren en el mismo directorio que la página desde donde se ha creado, sin que sirva en otros directorios. Por ejemplo, imaginemos que tenemos una carpeta de formularios dentro de nuestro directorio raíz, donde tras acceder a uno de estos, se crea una cookie que deberíamos poder leer desde el directorio raíz. Si no establecemos el path de la cookie, una vez el formulario nos reenvíe a una página del directorio raíz, veremos que no podemos acceder al contenido de la cookie. Así pues deberíamos usar algo como setcookie(«mi_cookie»,»si»,time+365000,»/»); para que cuando luego desde nuestras páginas del directorio raíz podamos leer el contenido de la cookie creada.
El futuro de la web pasa por los dispositivos moviles
El crecimiento del número de dispositivos móbiles conectado a internet es cada vez mayor. iPads, iPhones, Samsung Galaxy, Smartphones, Tablets, Netbooks, … son cada vez más populares y su uso para conectarse a internet está cada vez más extendido. Eso empieza a obligar a que los creadores de sitios webs se planteen cada vez más la posibilidad de ofrecer contenido adaptado y diseñado para estas plataformas. Un reciente estudio, indica que una cuarta parte del acceso a internet en entornos empresariales se realiza desde estos dispositivos, una cifra nada desdeñable de usuarios. Si bien, el servicio más utilizado en estos accesos sigue siendo el correo, la navegación por internet va ganando puestos. Por tanto, a todos los que creamos sitios webs, nos toca empezar a pensar en que es posible, que al otro lado quizás ya no nos encontremos con un ordenador, con su teclado, su ratón y sobre todo su pantalla; sino que podríamos estar frente a un visitante que se conecta desde un smartphone durante un viaje para conultar un dato o que simplemente recostado en el sofa de su casa decide navegar un rato por internet mediante su tablet. Así es que habrá que tener en cuenta estos dispositivos a la hora de diseñar y optimizar nuestro sitio web, y hacer pruebas de como se muestra desde los navegadores moviles, si no queremos dejar de lado a este cada vez mayor número de posibles visitantes.
Evitando listados de directorios en servidor web con Ubuntu Server
Si has instalado un servidor web con Apache, siempre conviene personalizar algunas cosas para evitar posibles agujeros de seguridad. Así pues,nada más instalar nuestro servidor con apache nos podemos encontrar con que al acceder a un directorio, si en este no hay un archivo index (.php, .html, .htm) que indique al navegador que debería mostrarse, se muestre el contenido del directorio, que además podría permitir la navegación por la estructura de archivos de nuestro servidor (pudiendo de esa forma tener acceso a directorios que deberían pasar inadvertidos).
Para solucionarlo podemos o bien configurar nuestro servidor apache para que no muestre los listados de directorios o bien usar el fichero .htaccess A continuación vamos a explicar las dos opciones:
- Crear archivos .htaccess Deberíamos crear un archivo donde incluiremos la siguiente directiva «Options -Indexes» Este fichero deberíamos incluirlo en cada directorio de nuestro servidor o bien en el directorio principal y especificardicha opción para cada uno de los directorios. Si nos encontramos trabajando con un hosting donde se da esta circunstancia del listado de los archivos contenidos en el directorio, esta será nuestra única opción para evitarlo.
- Configurar apache. Para hacer esto deberemos indicarle en el archivo de configuración default que encontraremos en el directorio /etc/apache2/sites-avaliable que no se mostrarán los listados de directorios. Si tenemos varios servidores virtuales, modificaremos el archivo de configuración correspondiente del servidor. A continuación se muestra un fragmento de como debería quedar el archivo de configuración, resaltando la opción a especificar.
<VirtualHost *:80> ServerAdmin email@dominio ServerName dominio ServerAlias dominio DocumentRoot /var/www/web ... <Directory /var/www/web/reactivox/> Options -Indexes FollowSymLinks MultiViews AllowOverride All Order allow,deny allow from all </Directory> ...
Estar o no estar
Hasta hace muy poco en esto de internet, estar o no estar pasaba porque Google nos situase en sus búsquedas lo más arriba posible (a poder ser en la primera página de resultados y para pedir un poco más, entre los tres primeros resultados que son los que copan en torno a un 90% de los clicks). Sin embargo, con el creciente auge de las redes sociales, esta afirmación está empezando a cambiar. Y es que Facebook crece a un ritmo vertiginoso, generando más tráfico incluso que Google (según noticias Facebook genera el 25% de las páginas vistas en EEUU) y planeando una estrategia que incluso abarca la posibilidad de intentar convertirse la página de inicio predefinida de los usuarios.
Esto no puede sino hacer que como poco nos planteemos la estrategia de visibilidad de nuestros sitios webs. Cada vez ganan más peso las redes sociales (ver noticia el 70% de internautas españoles ya están en redes sociales) y eso es un factor muy a tener en cuenta y es necesario que planteemos una adecuada estrategia de marketing social para que nuestra web siga obteniendo tráfico. La ventaja de las redes sociales, es que los accesos que se generan en ellas suelen ser de mayor «calidad» que los que se obtienen en los buscadores. Y es que si en la vida real nos fiamos más de la opinión de un amigo nuestro que visito un restaurante por ejemplo y le gusto, que de coger la guía y buscar uno aleatoriamente. Así pues, las recomendaciones de amigos (si esos famosos «Me gusta») son un suculento premio que nos permitirá atraer más visitantes (y es de esperar que con mayores posibilidades de conversión) a nuestro sitio web.
Por tanto, de ahora en adelante, es necesario plantear una estrategia de posicionamiento para los buscadores y al mismo tiempo de visibilidad en las redes sociales (y no solo hablamos de Facebook, sino que hay que tener en cuenta todas las redes como Twitter, Tuenti, MySpace…) y posiblemente debamos dedicar nuestros esfuerzos a partes iguales si queremos lograr un mayor éxito.
Protege wordpress del spam
Si tienes un blog con WordPress y notas que tus comentarios empiezan a llenarse de Spam deberías poner medidas que te ayuden a evitarlo. Por un lado liberarás tu blog de comentarios innecesarios y por otro te ahorrarás algún tiempo en la administración del mismo (a veces puede ser tedioso tener que eliminar más y más comentarios que son Spam). Para ayudar a esta labor de protección de tu blog, contamos con el plugin Askimet. Simplemente neceistarás registrarte en su web (la versión personal es gratuita) y una vez completado el registro recibirás un código de acceso para activar el plugin. Así de fácil y rápido.
Otra forma es añadir a nuestro blog un sistema de Captcha (si esas imagenes que se generan automáticamente y que nos obligan a escribir los números y letras que aparecen), en cuyo caso una buena alternativa puede ser WP-rCaptcha un plungin bastante eficaz.
Esperamos que estas dos soluciones os sean de ayuda para mantener el Spam a raya en vuestros blogs.
Controlando el acceso de los buscadores con robots.txt
Los motores de búsqueda basan su funcionamiento en los robots de búsqueda, que se dedican a rastrear todas las páginas web accediendo a estas para rastrear los enlaces, que luego los buscadores almacenan y emplean para ofrecer sus resultados. Estos robots son como usuarios invisibles que acceden a tu sitio web, visitan las páginas, buscan los enlaces y van recopilando la información. Aúnque no los veamos, estos estan accediendo a los contenidos de nuestra web como un usuario más. Así pues cuando estos robots daban sus primeras andaduras en internet allá por mediados de los 90, a veces podían llegar a saturar las páginas. Así fue como nació un protogolo destinado a estos robots, con el cual se pueden establecer algunos criterios que estos robots siguen.
- User-Agent – con esta instrucción hacemos referencia al robot al que se aplica la regla. Podemos referirnos a todos los navegadores con un asterisco (*) o referirnos a uno o varios en concreto con su código (por ej. Google, MSNBot).
- Disallow – aquí indicaríamos las páginas que desea bloquear, y que corresponderán al User-Agent que hayamos definido.
- Allow – con esta instrucción indicamos que las páginas se pueden indexar.
User-Agent: *
User-Agent: *Disallow: /
User-Agent: *Disallow: /ruta/directorio_privado/