Category Archive Exploits

PorjLeonett

El poder del fichero robots.txt

Conceptos importantes para comprender el texto:

Motor de búsqueda:

Un motor de búsqueda, también conocido como buscador, es un sistema informático quebuscaarchivos almacenados en servidores web gracias a su «spider» (o Web crawler). Un ejemplo son los buscadores de Internet (algunos buscan únicamente en la web, pero otros lo hacen además en noticias, servicios como GopherFTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones web en los que se mencionan temas relacionados con las palabras clave buscadas.

araña_cibernetica

Wiquipedia: http://es.wikipedia.org/wiki/Motor_de_b%C3%BAsqueda

Indezar una web:

En terminología de internet, indexar hace referencia a la acción de agregar una o más páginas web a las bases de datos de los buscadores de internet, para que estas aparezcan en los resultados de búsquedas de los mismos.

Indexar sitios web, es fundamental para que las mismas sean encontradas por los usuarios  de los buscadores de internet. De hecho, gran cantidad de sitios reciben la mayoría de sus visitantes a través de los buscadores.

Concept internet communication

http://www.alegsa.com.ar/Dic/indexar.php

¿Qué es el archivo ROBOTS.TXT?

Es un fichero de texto donde viene la configuración de indexación de una web. Cuando una araña llega a un sitio web lo primero que hace es buscar este fichero para saber que paginas debe indexar y que sitios no debe recorrer.

¿Qué tipo de configuración podemos hacer con este fichero?

Impedir la indexación de una pagina para algunos robots, que puedan verse solo las carpetas que tu desees, indicar la frecuencia de paso a un robot, indicar el sitio de sitemap.xml…

  • Impedir el acceso a ciertas carpetas o a toda la web a ciertos robots: las restricciones se hacen a cada robot individualmente.

User-Agent: *
Disallow:

User-Agent: Googlebot-Mobile
Disallow: /images
Disallow: /logs

User-Agent: Googlebot-Image
Disallow: /*/image?
Disallow: /*.php$

¿Qué es el SITEMAP.XML?

El archivo de sitemaps viene definido por un protocolo definido en http://www.sitemaps.org/es/protocol.php y está compuesto por una serie de etiquetas XML, un lenguaje que sirve para estructurar la información. Con ese archivo podemos facilitar de forma opcional a los buscadores datos adicionales de cada una de las páginas que se incluyen en nuestro sitio web:

  • URL de la página
  • Última fecha de modificación
  • Frecuencia de modificación
  • Importancia relativa respecto al resto de páginas del sitio.

Fuente:

http://www.arsys.info/comercio-electronico/archivo-sitemapxml-que-es-y-para-que-se-utiliza/

Para que neustro ROBOTS.TXT indique la ubicación de nuestro archivo SITEMAP.XML lo unico que debemos es incluir esta linea en el texto:

Sitemap: http://www.tuweb.es/sitemap.xml

 

Fuente: websec.es

PorjLeonett

¿Hay alguna protección contra los exploits de Java?

En los últimos seis meses, dos millones de usuarios han sido blanco de ataques cibernéticos con exploits de Java. En los últimos 12 meses, se detectaron más de 161 vulnerabilidades en JRE (Java Runtime Environment). Java es muy rápido al generar parches para las vulnerabilidades. El problema lo encontramos en la lentitud de los usuarios a la hora de actualizar las versiones del programa.

 

Kaspersky Lab ha publicado los resultados de su investigación sobre uno de los métodos más populares para infectar ordenadores que aprovecha vulnerabilidades en el software legítimo. Según los investigadores, los exploits de Java son la herramienta más demandada por los cibercriminales: en los últimos 12 meses se detectaron más de 161 vulnerabilidades en JRE (Java Runtime Environment) y de marzo a agosto de 2013, Kaspersky Security Network registró ataques con exploits de Java, que afectaron a más de 2 millones de usuarios.
Durante la investigación, los expertos de Kaspersky Lab analizaron cómo los ordenadoresseinfectaban con la ayuda deBlackHole Exploit Kit, uno de los más populares en el mercado, junto con Nuclear Pack, Styx Pack and Sakura. BlackHole Exploit incluye vulnerabilidadesdirigidas a Adobe Reader, Adobe Flash Player, Oracle Java y otros programas famosos. Debido a que el funcionamiento de todos los paquetes de exploits se basa en el mismo algoritmo, los expertos de Kaspersky Lab recogieron tres exploits de Java de BlackHole para confirmar cómo trabajan estos paquetes de exploits.

El estudio tambiénutilizó el caso BlackHole para demostrarcómo los componentesde seguridadpuedeninteractuar concódigos maliciososen varias etapas, incluyendo la etapa en laque losexploitsestán dirigidosa vulnerabilidadesespecíficas:
Bloqueo de lapágina de iniciodel paqueteexploit(es decir, la primerapágina delexploit packdespués de que elusuario es redirigidoaun sitiolegal).
• Detección de archivos con antivirus(elusuario no llega, sin embargo, alapágina de iniciodelexploit pack).
•Detección basada en firmasexploit(en caso deque la solución de seguridadno detectarala página deinicio delexploit pack).
• Detecciónproactivade exploits(se utilizasi todos los componentesde seguridadbasadosenfirmasno detectannadamaliciosoal escanearel contenido delpaquete deexploits, yel exploitse las arregla paraponerse en marcha).
• Detecciónde descargasmaliciosas(si elexploitse las arregla paraescapar a la detección, trata de descargar unacarga maliciosae instalarse en elordenador de la víctima).

“Hoy en día, si un ciberdelincuentequiereinfectar ordenadoresconuna modificación deltroyanoZeuStodo lo que debe hacer escomprar un paquetede exploits preparados,configurarlosy atraerel mayor númeroposible devíctimaspotencialesa supágina de destino.Elproblema de los blackhole” sigue siendo importante,a pesar dealgunosestudios sobreel mecanismo deinfección delos paquetes deexploitsy soluciones integralesque ofrecen lasempresas de seguridadEn el caso deJava,el fabricante de softwarees muyrápido en responder alas vulnerabilidades y a la hora de comunicar losparchesgeneradosSin embargo, los usuarios finales normalmente nose dan prisa alinstalar las actualizacionesylos ciberdelincuentestoman la iniciativamediante la creación denuevos programas maliciosos para atacarlas vulnerabilidades conocidas”,afirmaVyacheslavZakorzhevsky, jefe del Grupo deInvestigación deVulnerabilidadesde KasperskyLab.

Hasta ahora, los packs de exploits ofrecían a los ciberdelincuentes un sistema muy fiablepara infectar ordenadores que no tuvieran una solución de seguridad instalada. No es de extrañar que las infecciones a través de los paquetes de exploits sean un método muyutilizado entre los cibercriminales: es extremadamentedifícil de detectar para un usuario desprevenido y sin protección.

Todo el proceso se inicia al redirigir al usuario a la página de destino del pack de exploits.Los ciberdelincuentes usan una amplia variedad de métodos para hacerlo, incluyendo mensajes de spam con enlaces a las páginas. Sin embargo, el caso más peligroso se da cuando los sitios legales están en peligro, y los códigos de script o iframes se inyectan en ellos. En tales casos, basta con que un usuario visite un sitio webpara que el ataque drive-by se lance y el pack de exploits comience a trabajar clandestinamente.

Los ciberdelincuentes también pueden utilizar los sistemas de publicidad legítimos, banners de enlaces y teasers a páginas maliciosas.La única manera de evitar un ataque es asegurarse de que ninguno de los programas informáticos que necesita el exploit pack esté instalado en el ordenador. Tan pronto como un usuario visita la página de destino, los ciberdelincuentes acceden ala información de esos ordenadores, incluyendo la versión del sistema operativo, el navegador y los plugins instalados, configuraciones de idioma local, etc.

Fuente: Kaspersky Labs