Protege wordpress del spam

SpamSi tienes un blog con WordPress y notas que tus comentarios empiezan a llenarse de Spam deberías poner medidas que te ayuden a evitarlo. Por un lado liberarás tu blog de comentarios innecesarios y por otro te ahorrarás algún tiempo en la administración del mismo (a veces puede ser tedioso tener que eliminar más y más comentarios que son Spam). Para ayudar a esta labor de protección de tu blog, contamos con el plugin Askimet. Simplemente neceistarás registrarte en su web (la versión personal es gratuita) y una vez completado el registro recibirás un código de acceso para activar el plugin. Así de fácil y rápido.

Otra forma es añadir a nuestro blog un sistema de Captcha (si esas imagenes que se generan automáticamente y que nos obligan a escribir los números y letras que aparecen), en cuyo caso una buena alternativa puede ser WP-rCaptcha un plungin bastante eficaz.

Esperamos que estas dos soluciones os sean de ayuda para mantener el Spam a raya en vuestros blogs.

Controlando el acceso de los buscadores con robots.txt

Los motores de búsqueda basan su funcionamiento en los robots de búsqueda, que se dedican a rastrear todas las páginas web accediendo a estas para rastrear los enlaces, que luego los buscadores almacenan y emplean para ofrecer sus resultados. Estos robots son como usuarios invisibles que acceden a tu sitio web, visitan las páginas, buscan los enlaces y van recopilando la información. Aúnque no los veamos, estos estan accediendo a los contenidos de nuestra web como un usuario más. Así pues cuando estos robots daban sus primeras andaduras en internet allá por mediados de los 90, a veces podían llegar a saturar las páginas. Así fue como nació un protogolo destinado a estos robots, con el cual se pueden establecer algunos criterios que estos robots siguen.

Así es como nació el famoso fichero «robots.txt» que debe estar ubicado necesariamente en la carpeta raíz del dominio (o de nuestro subdominio), ya que si lo colocamos en otra carpeta de nuestro sitio web, simplemente será ignorado. Se trata de un simple archivo TXT, donde por medio de una serie de reglas básicas podremos establecer el funcionamiento de los buscadores a la hora de indexar nuestro sitio web.
A continuación vamos a explicar como funcionaría
  • User-Agent – con esta instrucción hacemos referencia al robot al que se aplica la regla. Podemos referirnos a todos los navegadores con un asterisco (*) o referirnos a uno o varios en concreto con su código (por ej. Google, MSNBot).
  • Disallow – aquí indicaríamos las páginas que desea bloquear, y que corresponderán al User-Agent que hayamos definido.
  • Allow – con esta instrucción indicamos que las páginas se pueden indexar.
Aunque muchas veces nos olvidamos de incluirlo es recomendable que este fichero esté en nuestro sitio web, así pues un archivo robots.txt básico sería como sigue:
User-Agent: *
Así indicaríamos que todos los robots pueden indexar libremente todos los contenidos de nuestra web sin ninguna excepción siempre que sean capaces de rastrearlos. Si por ejemplo, queremos hacer el proceso inverso, es decir, bloquear la indexación de todo un sitio web por parte de todos los motores, nuestro archivo robots.txt tendría esta estructura
User-Agent: *
Disallow: /
Por otro lado, si lo que queremos hacer es evitar que los buscadores indexen solo un directorio de nuestro sitio web (por ejemplo, el correspondiente al panel de administración), podríamos hacerlo de esta forma:
User-Agent: *
Disallow: /ruta/directorio_privado/
También cabe la posibilidad, de que por ejemplo, evitemos la indexación de un directorio, a excepción de un archivo, para ello simplemente tras el Disallow del directorio añadiríamos un Alloy del fichero que nos interesa que se indexe.
Si quieres más información sobre el archivo robots.txt puedes encontrarla en este artículo de Wikipedia.

Configurando aplicaciones de inicio en Mac

Para los que están muy acostumbrados a windows y a trastear con sus tripas, el comando MsConfig les sonará como algo muy habitual. Con este comando, podemos establecer que programas se ejecutan o no al iniciar nuestro ordenador. En MacOs tenemos también la posibilidad de establecer que aplicaciones se abrirán de forma automática al iniciar nuestro ordenador.

Para ello vamos al menú de manzana, donde entraremos en Preferencias del Sistema. Una vez allí accederemos a la opción de Cuentas donde tendremos un listado de los usuarios de nuestro ordenador. Así pués seleccionaremos en nuestra cuenta y haremos click en la pestaña Arranque. Allí veremos una lista de las aplicaciones que se ejecutarán al iniciar nuestro ordenador. Si queremos añadir una, simplemente deberemos hacer click sobre el botón + y buscar en nuestro ordenador (normalmente en la carpeta Aplicaciones) el programa que queremos ejecutar automáticamente. Por otra parte, si queremos eliminar alguna de las que aparecen en la lista, tras seleccionarla simplemente tenemos que hacer click sobre el botón –. Como último detalle, decir que a la izquierda de cada aplicación aparece una casilla que sirve para «ocultar» la aplicación, esto es que se ejecute, pero que no se muestre  a menos que nosotros la seleccionemos.

Una pequeña ayuda que esperamos sirva para que podáis tener un mejor control de vuestro ordenador.

Actualizaciones de seguridad Adobe

Tal y como señalamos hace algún tiempo se habían detectado hace algún tiempo vulnerabilidades en los programas de Adobe que todavía no habían sido corregidas. Pero eso era hasta ahora, puesto que adobe ya ha publicado las correspondientes actualizaciones que permitirán que nuestro ordenador sea un poco más seguro tal y como anuncian en este Boletín de seguridad de adobe.

Además adobe ha anunciado recientemente el lanzamiento de Adobe Reader X, la nueva versión de su famoso lector de PDFs que incluye entre otras mejoras un SandBox de forma que los archivos abiertos por la aplicación se abran en un entorno seguro e independiente de nuestro sistema, evitando así posibles fallos que permitan afectar a nuestro ordenador. Por ahora solo está disponible en ingles, pero esperemos que pronto esté disponible en español.

Parece que en Adobe estan trabajando duro para mejorar la seguridad de sus aplicaciones tan en entredicho en los últimos tiempos.

Monitorizando el posicionamiento de nuestro sitio Web

KPMRSEn internet existen multitud de herramientas para hacer labores de monitorización de un sitio web, pero queríamos presentaros una relativamente sencilla de usar y bastante útil. KPMRS nos permite registrar nuestro sitio web y establecer una serie de palabras claves (hasta 5 en la versión gratuita) con las cuales nos irá indicando la posición de nuestra página web en el buscador Google. Lo que lo convierte en un serivicio bastante cómodo es que simplemente tienes que registrarte e indicar que te envien los informes por email, sin tener así la necesidad de visitar el sitio web para consultar tu posición. Recibirás un email en tu bandeja donde te indicarán el posicionamiento de tu sitio. Ofrece además el posicionamiento en varios paises, la única pega es que Google España todavía no se ha incluido en el servicio (esperemos que lo haga pronto).

Mirror creator, o como subir tus archivos en 14 servidores distintos

Cuando subimos archivos a la web, muchas veces necesitamos crear copias alternativas por si la descarga principal falla (lo que comunmente se conocer como Mirrors). Pues bien, si usamos servicios como RapidShare o MegaUpload necesitabamos logearnos en cada uno de ellos y repetir el proceso hasta tener las «copias» disponibles en los distintos servidores. Pues bien, Mirror creator surge con la intención de evitarnos esa tediosa tarea de forma que desde un mismo interfaz podremos subir hasta en 14 servidores distintos nuestros archivos. Un buen ahorro de tiempo.

Ubuntu One Beta para Windows

Ubuntu One es el servicio de sincronización basado en la nube de los chicos de Canonical. Mediante este servicio podemos sincronizar datos entre varios ordenadores con tan solo instalar el cliente y logearnos. Pero esta función estaba hasta ahora limitada a nuestras distribuciones de Linux lo cual suponía un inconveniente para aquellos que trabajan con varios sistemas operativos. Así pues desde ahora está disponible una beta, que podéis descargar desde aquí.

Para instalar el cliente necesitaremos tener sistema Windows XP SP3, Vista, o 7 conMicrosoft .NET Framework 4. Según está previsto y si no hay ningún problema el servicio estará completamente operativo para la próxima versión de Ubuntu Natty.

!Cuidado! Troyano en facebook escondido en invitación a cambiar el diseño de tu página personal

Si has visto en las actualizaciones de tu cuenta de Facebook una invitación de alguno de tus amigos a acceder a una aplicación que te permite cambiar el diseño de la página de Facebook, mejor harás en ignorarlo. Según se ha desvelado, se trata de un malware que por una parte trata de reproducirse a través de tus contactos indicandote que si ellos no cuentan con esta «supuesta» aplicación no podrán ver el nuevo diseño, por otro lado te hacen clickear en unos banners con los cuales los hackers se enriquecen y por último te invita a instalar un plugin que no es otra cosa que el troyano Adware.FlvDirect.6 que se dedicará a mostrarte publicidad en tu ordenador mientras estás conectado a internet. Nuevamente se demuestra que las redes sociales empiezan a ser un objetivo cada vez más utilizado por los cibercriminales. !Así pues tener cuidado!

60.000 amenazas diarias

Esa es la cifra de amenazas detectadas durante el último trimestre de 2010 según McAfee. Sin lugar a dudas algo aterrador para los usuarios, que ven como sus ordenadores están expuestos a un número de peligros cada vez mayor. Según destacan además en su informe, uno de los talones de aquiles para la proliferación de estas amenazas son los buscadores.  Y es que según indican, los 10 criterios de búsqueda más utilizados en Google nos devuelven resultados de páginas, que en un 60% de los casos nos llevan a sitios infectados. Esto pone de manifiesto que los desarrolladores de malware, virus y demás programas maliciosos, saben como alcanzar al mayor número posible de víctimas y con los conocimientos que tienen son capaces de posicionar las páginas web con el software malicioso a la espera de que incautos caigamos en sus redes. Así pues, conviene vigilar lo que encontramos en nuestras búsquedas por internet y esperar que Google y demás buscadores trabajen en intentar evitar que se nos muestren en los resultados enlaces a páginas con código malicioso (cosa en la que, por otro lado, ya trabajan desde hace tiempo aunque sin lugar a dudas es dificil alcanzar un nivel adecuado de seguridad).