El poder del fichero robots.txt

Conceptos importantes para comprender el texto: Motor de búsqueda: Un motor de búsqueda, también conocido como buscador, es un sistema informático quebuscaarchivos almacenados en servidores web gracias a su «spider» (o Web crawler). Un ejemplo son los buscadores de Internet (algunos buscan únicamente en la web, pero otros lo hacen además en noticias, servicios como Gopher, FTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se […]

¿Hay alguna protección contra los exploits de Java?

En los últimos seis meses, dos millones de usuarios han sido blanco de ataques cibernéticos con exploits de Java. En los últimos 12 meses, se detectaron más de 161 vulnerabilidades en JRE (Java Runtime Environment). Java es muy rápido al generar parches para las vulnerabilidades. El problema lo encontramos en la lentitud de los usuarios […]

*