BYOD: Bring Your Own Device (parte 2)

En el anterior artículo, se expuso la problemática que conlleva el BYOD, así como sus ventajas e inconvenientes. Dicha problemática no afecta únicamente al BYOD, también afecta a todos aquellos dispositivos móviles propiedad de la empresa, proporcionados a los trabajadores para llevar a cabo sus tareas. El objetivo de este artículo, es presentar el MDM (Mobile Device Management) como principal solución al problema. Para ello se establecerá, en base a nuestra experiencia, el conjunto de funcionalidades principales que deberían incluirse  en una solución MDM. Posteriormente, se enumerará el conjunto de soluciones analizado,   existentes actualmente en el mercado, que integran en gran parte o en su totalidad las funcionalidades recomendadas.

MDM (Mobile Device Management)
Mobile Device Management es el término utilizado en la industria para denominar el proceso de administración de dispositivos móviles (portátiles, tablets, smartphones, PDAs, etc.) dentro de un entorno corporativo. Dicho proceso, generalmente se basa en una plataforma software centralizada.

Por un lado, dicha plataforma se caracteriza por la existencia de un conjunto de agentes. Cada agente, es una aplicación que debe instalarse en cada dispositivo móvil que se desea gestionar. Por otro lado, se encuentra el servidor central. La comunicación entre los agentes y el servidor es bidireccional. De forma periódica, los agentes envían información acerca de su estado al servidor. A su vez, el servidor puede solicitar bajo demanda información adicional, y además, puede ejecutar remotamente un conjunto de acciones sobre los agentes.

Funcionalidades y soluciones
En base a la experiencia de Internet Security Auditors en este tipo de tecnologías, a continuación se presenta el conjunto de funcionalidades principales, que deberían incluirse en una solución MDM:
  • Separación de entornos: Poder definir múltiples entornos aislados de aplicaciones y datos. Esta funcionalidad, permite establecer un entorno personal y otro corporativo, de forma que el usuario no vea afectados sus datos y aplicaciones ante cualquier cambio en el entorno corporativo (despliegue de aplicaciones, borrado remoto seguro, etc.).
  • Geolocalización: Poder localizar cada uno de los dispositivos gestionados. Esta funcionalidad, permite obtener la ubicación de los dispositivos perdidos o robados, con el objetivo de iniciar su proceso de recuperación, o bien iniciar otros procesos, cómo el borrado seguro de sus aplicaciones y datos corporativos.
  • Borrado seguro: Poder eliminar de forma segura las aplicaciones y datos corporativos, sin afectar a las aplicaciones y datos personales del usuario. Esta funcionalidad, permite reducir el potencial impacto derivado de la pérdida o robo del dispositivo, asegurando que el atacante no podrá obtener información sensible (calendarios, emails, contactos, etc.) del entorno corporativo. 
  • Gestión de políticas: Poder establecer y desplegar políticas, con el objetivo de configurar de forma segura los dispositivos gestionados, y así homogeneizar su nivel de seguridad. Entre ellas deberían incluirse: políticas de contraseñas, cifrado, aplicaciones autorizadas y no autorizadas, acceso VPN, etc.
    Además, poder gestionar los incumplimientos de las políticas. Ante un incumplimiento, debería ser posible impedir al usuario del dispositivo el acceso a los recursos corporativos (email, documentos, aplicaciones, etc.), y enviarle notificaciones con el objetivo de que aplique las medidas correctivas necesarias para el cumplimiento de la política.
  • Control remoto: Poder disponer en tiempo real de una interfaz gráfica e interactiva del dispositivo. Esta funcionalidad, permite a los administradores llevar a cabo tareas directamente sobre un dispositivo concreto. Es especialmente útil a la  hora de llevar a cabo tareas de soporte a usuarios. Además, en caso de robo o pérdida, permitiría analizar las acciones llevadas a cabo por el atacante sobre el dispositivo (en tiempo real y a posteriori), con el objetivo de identificarle y/o poder recuperar el dispositivo.
  • App Store corporativa: Poder distribuir, internamente a los empleados, aplicaciones de terceros y aplicaciones desarrolladas por la propia empresa. Esta funcionalidad, permite a la empresa establecer un control sobre las aplicaciones que utilizan sus empleados, realizando a su vez una mejor gestión (despliegue de actualizaciones, parches de seguridad, etc.). En este sentido, se podrían establecer conjuntos diferentes de aplicaciones disponibles, en función de los distintos roles de los empleados. De esta manera, cada empleado podría disponer de las herramientas que necesita, para llevar a cabo sus tareas desde el dispositivo móvil.
Actualmente, existen una gran cantidad de soluciones MDM en el mercado. Todas ellas se caracterizan por presentar un conjunto de funcionalidades comunes de gestión (despliegue de políticas, geolocalización, borrado seguro, etc.). Sin embargo, generalmente cada solución también presenta un conjunto de funcionalidades adicionales introducidas por el fabricante, con el objetivo de completarla integrando otro tipo de soluciones (antimalware, DLP –Data Loss Prevention–, fortificación de aplicaciones y documentos, etc.) derivadas de sus actividades principales de negocio.

A continuación, se presenta el conjunto de soluciones analizadas que integran en gran parte o en su totalidad las funcionalidades principales recomendadas:
Conclusiones
En primer lugar, antes de tomar la decisión de implantar una política empresarial basada en BYOD, es necesario analizar sus ventajas e inconvenientes. Además, es necesario buscar una solución a dichos inconvenientes. En este caso, se debe seleccionar un conjunto de soluciones del mercado y posteriormente analizarlas. El objetivo es conocer cuáles de ellas pueden resolver los inconvenientes, ajustándose a su vez, a las necesidades y restricciones del entorno corporativo. Posteriormente, se debe evaluar para cada solución, el nivel de riesgo residual estimado tras su aplicación. Llegados a este punto, se podrá seleccionar la solución más adecuada en términos de negocio y de seguridad de la información. De esta forma se podrán explotar todas las ventajas del BYOD, realizando a su vez, una gestión efectiva del riesgo derivado de sus inconvenientes.

Autor: Carlos Antonio Sans
Departamento de Consultoría.

Breve análisis del documento “PCI Terminal Software Security Best Practices” (TSSBP) del PCI SSC

Los cibercriminales siempre están en búsqueda de nuevas vulnerabilidades para obtener datos de tarjetas de pago de forma fraudulenta. Una de las modalidades que recientemente ha tenido mayor repercusión debido a la gran cantidad de datos robados es el ataque a las terminales de punto de venta (TPV, en inglés Point-of-Sale (POS)), nombre genérico que recibe el hardware y/o software utilizado por los comercios para la captura y procesamiento de datos de tarjeta, por lo general asociado a transacciones presenciales (aquellas en las cuales se emplea el plástico de la tarjeta y el PIN para autenticar la transacción). En estas terminales es muy común la captura de los datos completos de la banda magnética y/o chip EMV y el PIN, por lo que la manipulación/interceptación de los mecanismos operativos del dispositivo o del software instalado con el objetivo de capturar y exfiltrar de forma maliciosa los datos de las tarjetas leídas es un objetivo bastante tentador para un atacante. Bajo este escenario y teniendo presente la gran distribución de terminales de punto de venta en comercios, grandes superficies, centros comerciales y tiendas por departamentos, la forma más sencilla para amplificar y automatizar este ataque es mediante la creación de malware específico para TPV, dependiendo de la plataforma operativa sobre la que se ejecute (Microsoft Windows (sobre todo Windows XP y Windows XP Embedded Edition, que ya no tienen soporte del fabricante), Linux y firmware propietario, entre otros) y/o atacando vulnerabilidades sobre el aplicativo que se ejecute en el TPV.

Desde 2005 se tiene referencia de este tipo de ataques, pero no es sino hasta 2008 cuando VISA toma cartas en el asunto y publica la alerta “Debugging Software – Memory Parsing Vulnerability” (http://usa.visa.com/download/merchants/debugging_software_memory.pdf) en la que describe los hallazgos realizados posterior a una serie de intervenciones forenses en las que habían encontrado componentes de software malicioso diseñado específicamente para extraer datos de tarjetas de pago de sistemas TPV (POS) directamente desde la memoria RAM. Este tipo de malware se conoce con el nombre de RAM Scrapper.  Sin embargo, no es hasta 2012 cuando este tipo de ataques se empiezan a masificar y a tener impacto mediático con los ataques a Target, Home Depot y UPS con el malware BlackPOS, FrameworkPOS y Backoff respectivamente. Actualmente (2014) se encuentran múltiples variantes de este malware “in the wild” (http://www.wildlist.org/), convirtiéndose en una de las principales amenazas para 2015.

Con el fin de proteger los datos de tarjetas de pago cuando se almacenan, se procesan y/o se transmiten, el PCI SSC (Payment Card Industry Security Standards Council) publicó el estándar PCI DSS (Payment Card Industry Data Security Standard). No obstante, dicho estándar está más focalizado en la infraestructura de TI de las empresas que en la gestión de seguridad de dispositivos de extremo en el proceso (como los TPV/POS), por lo cual aún persistía una brecha que había que controlar. Conscientes de ello, el PCI SSC ha publicado este mes el documento “PCI Terminal Software Security Best Practices” (TSSBP) (https://www.pcisecuritystandards.org/documents/terminal_security_best_practices.pdf). Este documento enumera una serie de recomendaciones y buenas prácticas para la protección de datos de tarjetas de pago  y es el resultado de varios meses de esfuerzo de los Grupos de Trabajo (Task Forces) del PCI SSC.

El documento “PCI Terminal Software Security Best Practices” (TSSBP) cubre todos aquellos elementos que no son tenidos en cuenta en estándares como PCI DSS (Payment Card Industry Data Security Standard), PA DSS (Payment Application Data Security Standard) y PCI PTS (PCI PIN Transaction Security), focalizándose, entre otros en los siguientes componentes:
  • Aplicaciones de pago
  • Núcleos (kernel) de EMV
  • Librerías / API
  • Software de terceros
Estas recomendaciones están esquematizadas en cuatro grupos principales:
  • Formación en Concienciación en seguridad (Security-Awareness Training): Cuyo objetivo está focalizado en la creación de un grupo altamente cualificado y con conocimiento suficiente de la plataforma a través de un programa de formación continuo y auditable (4 controles)
  • Establecimiento de un Ciclo de Vida de Desarrollo de Software Seguro (Secure Software-Development Life Cycle (SSDLC)) y definición de roles en los Procesos de Desarrollo Seguro de Software Seguro (Secure Software-Development Process): Como resultado de la definición de un equipo de desarrollo y con el conocimiento de las potenciales amenazas y contramedidas a aplicar, el paso siguiente es el establecimiento de un ciclo de vida de desarrollo de software que incorpore la seguridad desde la base (SSDLC), así como una metodología y documentación que permita darle continuidad al proceso a lo largo del tiempo (12 controles).
  • Pruebas a nivel de dispositivo (Device-Level Testing): El paso siguiente consiste en las pruebas de integración y funcionalidad del software con el dispositivo POI (Point-of-Interaction). Estos dispositivos (al igual que su firmware) deben cumplir con los requerimientos del programa PCI PTS POI y estar listados en https://www.pcisecuritystandards.org/approved_companies_providers/approved_pin_transaction_security.php (4 controles). 
  • Revisiones de procesos internos (Internal Process Reviews): Como complemento a las revisiones a bajo nivel realizadas en los grupos anteriores, se recomienda un análisis de los procesos a alto nivel de la organización, dentro de los que se encuentran el establecimiento de un personal específico encargado de las revisiones y la publicación, la monitorización de alertas de seguridad por parte de terceros, la actualización de las guías de codificación segura y la firma de ficheros (7 controles).
Obviamente este documento no pretende ser la “bala de plata” pero si convertirse en la base de una serie de actividades preventivas con miras a optimizar la seguridad en estos dispositivos. Al ser recomendaciones, no son de obligatoria implementación dentro de la organización (como sí lo son los estándares), pero para aquellas empresas afectadas lo ideal es que integren estas buenas prácticas dentro de sus prácticas habituales o Business-as-usual (BAU) como estrategia global para la minimización de incidentes provenientes de ataques a TPV/POS. Como siempre, es mejor actuar ahora y evitar problemas como los sucedidos con Target y sus 110 millones de datos de tarjetas de pago comprometidos (https://corporate.target.com/about/shopping-experience/payment-card-issue-FAQ).

Desde Internet Security Auditors podemos ayudar a las empresas que quieran afrontar proyectos de revisión de su cumplimiento con esta nueva guía en las áreas de Formación para el personal afectado en las actividades de concienciación en seguridad; en todo lo relativo a la creación de Marcos de Seguridad en Desarrollo de Software siguiendo metodologías reconocidas a nivel internacional; llevando a cabo revisiones técnicas de seguridad y del propio cumplimiento de los requerimientos de las diferentes normas de la "familia PCI" con el objetivo último de la integración de las medidas de seguridad necesarias en los propios procesos de la empresa, tal y como recomienda el PCI SSC.


Autor: David Eduardo Acosta - CISSP, CISA, CISM, CRISC, PCI QSA, CCNA Security, OPST, CHFI Trainer, BS25999 L.A. 
Departamento de Consultoría.

Colaboramos en el décimo aniversario de las Global Workforce Surveys del (ISC)2

Se cumplen 10 años de las Global Workforce Surveys realizadas por el (ISC)² cada dos años.

La profesión de la ciberseguridad está cambiando más allá de todo reconocimiento de una especialidad basada en la tecnología, en una profesión de gran alcance que abarca personas, procesos y políticas y que alcanza en todas las áreas de negocio.

Es por ello que el (ISC)² realiza estas encuestas, que pretenden mostrar una imagen detallada de cómo el profesional de la ciberseguridad global está cambiando y qué factores se pueden mejorar.

Desde Internet Security Auditors, estamos colaborando con el estudio realizado por el (ISC)² y queremos animar a todos los profesionales de la seguridad que nos siguen a participar en este estudio para que haya una representación española significativa.

Os dejamos a continuación el enlace para realizar la encuesta:

https://fasus.dubinterviewer.com/scripts/dubinterviewer.dll/Frames?Quest=10814777&Ban=1&QW6092=441461&Resp=413236070

Protección de información en dispositivos (Parte 1)


Protección de información en dispositivos
Muchas veces somos poco conscientes de los riesgos que comportan nuestras acciones, y en materia de seguridad y privacidad de la información, el tema se hace todavía más evidente.

Un ejemplo claro de esto es el momento de deshacerse de un antiguo ordenador personal, ya sea para que lo utilice otra persona (venta, donación o cesión), o simplemente para finalizar su vida útil. En dicha situación, muchas personas, preocupadas por la protección de la información contenida en el equipo, sabe que es necesario eliminar sus archivos personales antes de ello. No obstante, ¿Estamos convencidos de que el borrado de datos que realizamos es suficiente para la protección de dicha información? ¿Nadie podrá acceder a dicha información una vez sea eliminada? ¿Quién nos asegura que con técnicas especializadas, un atacante no podrá recuperar mi información?

Los profesionales de la seguridad, nos sentimos con la obligación de informar a los usuarios de sus riesgos ante estos aspectos, y de facilitar a los mismos la información necesaria para la aplicación de los procedimientos que preserven su confidencialidad y privacidad. Por tanto, en esta entrada intentaremos especificar cómo se debe (y cómo no se debe) actuar en el momento de eliminar la información contenida en un ordenador, cuando un usuario desee deshacerse del mismo.

Cómo NO hacerlo
Si una acción no se debe realizar, es simplemente eliminar los ficheros a través del sistema operativo, ya sea enviando un fichero a la papelera y vaciando la misma en Windows o Mac OS X, o a través del comando rm o la interface gráfica en GNU/Linux. Estas acciones, lo que realizan en realidad es eliminar los punteros o referencias a estos ficheros, de manera que la memoria ocupada por los mismos se “libera”. Una vez el sistema operativo ha liberado la memoria ocupada por un archivo, dicha memoria está disponible para nuevos usos. No obstante, la información anteriormente contenida en el espacio seguirá remanente en él, hasta que sea sobrescrita por nueva información.
De la misma forma, un formateo del disco duro actúa de manera parecida, liberando la memoria utilizada en un equipo para su sobre-escritura futura, pero conservando la información de manera remanente hasta ese momento.

Por tanto, hasta el momento en el que un sistema operativo sobre-escriba la información remanente en una parte concreta de la memoria del ordenador (pueden pasar largas temporadas de tiempo), un usuario más o menos experimentado podría recuperar la información contenida en la misma, a través de la utilización de herramientas forenses diseñadas para tal efecto.

Cómo hacerlo

Existen tres formas básicas para eliminar la información contenida en un ordenador, siendo estas la Desmagnetización, la Destrucción Física y la Sobre-escritura de la Información.
Las dos primeras medidas son las más eficientes para el borrado de la información, no obstante, tienen dos grandes desventajas:
  • Los dispositivos sometidos a dichos procedimientos no se pueden reutilizar para el almacenamiento de nueva información.
  • Dichas acciones no están al alcance de los usuarios comunes, ya que son necesarios recursos y conocimientos adecuados para una realización con garantías.
A continuación, nos centraremos en la última de estas medidas, la Sobre-escritura de la Información, que permite la reutilización de los equipos una vez aplicada, y que además, está al alcance de los usuarios comunes, siempre que se disponga de los conocimientos básicos descritos en esta entrada.

La sobre-escritura de información se basa, como su nombre indica, en grabar datos aleatorios o nueva información no útil sobre la información sensible a eliminar, de manera que una vez realizado el proceso, solo se conserve la nueva información, y la original no esté disponible para su recuperación.

Para su realización, se deben utilizar herramientas especiales, y seguir los procedimientos adecuados, diferentes para cada sistema operativo. Vemos a continuación algunas de estas medidas para los sistemas operativos más comunes:
  • Windows: Para la sobre-escritura de la información, se recomienda el uso de herramientas externas (muchas veces gratuitas), como son las siguientes:
  • Eraser
  • Active Kill Disk
  • DeleteOnClick
  • WipeFile
  • File Shredder
  • Etc.
  • GNU/Linux: Se recomienda el uso de los paquetes/comandos siguientes:
  • Paquete secure-delete, con el comando srm Nombre_Fichero.
  • Paquete coreutils, con el comando shred –vun N Nombre_Fichero, donde N es el número de pasadas a realizar, idealmente 35 o superior, según el tiempo del que se disponga.
  • MAC OS X: Se recomienda seguir los siguientes pasos en el mismo sistema operativo:
  1. Enviar un fichero a la Papelera.
  2. Ejecutar la Utilidad de disco, localizada en la carpeta “Aplicaciones”.
  3. Seleccionar la unidad a eliminar, en este caso la Papelera.
  4. Seleccionar la pestaña “Borrar”.
  5. Clicar botón de “Opciones de seguridad”.
  6. Seleccionar opción “Borrado de 7 pasadas” o “Borrado de 35 pasadas”, según el tiempo del que se disponga (obviamente, la versión de 35 pasadas es más efectiva, pero tarda 5 veces más que la opción de 7 pasadas).
  7. Clicar “Aceptar”, y posteriormente clicar “Borrar”.
Estas herramientas/técnicas permiten, además de eliminar información contenida en un archivo concreto, realizar formateos seguros de la memoria completa de un equipo, de manera que todos los espacios de su memoria (incluida los slack spaces, la memoria libre, etc) son “vaciados” de la información contenida.

Hay que tener en cuenta no obstante, que todas estas técnicas son mucho más lentas que el proceso de liberación de memoria realizado en la mayoría de casos, ya que mientras que en una liberación de memoria se elimina simplemente una referencia, y por tanto se obtienen resultados inmediatos, el proceso de sobre-escritura de información se basa en introducir nueva información aleatoria “encima” de toda la información presente en un espacio, y realizar varias pasadas sobre este procedimiento, cosa que evidentemente ralentiza mucho el proceso.

Cabe decir además, que estas técnicas no son 100% eficaces, ya que con equipos profesionales y costosos, y con los conocimientos adecuados, se puede llegar a recuperar los objetos borrados. No obstante, y si se aplican estas técnicas de manera correcta, los resultados que se obtienen son muy buenos, de manera que se minimiza mucho esa posibilidad.

Por tanto, vemos que las técnicas de borrado seguro de la información al alcance de los usuarios comunes pueden ser pesadas, sobre todo a nivel temporal, pero su aplicación en el momento de deshacerse de un ordenador personal es necesaria, ya que en caso contrario, la información contenida en el mismo podría verse comprometida por personal no deseado, y por consiguiente, la privacidad del usuario ser afectada a grandes efectos.


Referencias
Guía de borrado seguro:
www.inteco.es/file/Nxk8l4GNfrjAyyRDEuknZg
Borrado seguro en GNU/Linux con secure-delete:
http://elbinario.net/2014/03/16/borrado-seguro-en-gnulinux-con-secure-delete/
Borrado seguro en GNU/Linux con shred:
http://www.linuxhispano.net/2014/03/07/borrado-seguro-de-ficheros-con-shred/
Aprende a borrar archivos de forma segura en Windows
http://bitelia.com/2013/06/borrado-seguro-de-archivos-windows
Borrado seguro de archivos con Eraser y CCleaner (Windows)
http://zoomred.blogspot.com.es/2011/06/borrado-seguro-de-archivos.html


Autor: Guillem Fàbregas - CISA, CISM, PCIP
Departamento de Consultoría.

La importancia del Doble Factor de Autenticación

¿Qué es?
El Doble Factor de Autenticación es un método de seguridad que permite añadir una verificación adicional en el proceso de autenticación.

El método más habitual para entrar en nuestro correo, es introducir únicamente el usuario y la contraseña, pero, ¿qué sucedería si te robaran estos datos? Es aquí donde entra la importancia del doble factor, ya que se trata de una medida de seguridad extra que frecuentemente requiere de un código obtenido a partir de una aplicación, o un mensaje, además de la contraseña para acceder al servicio.

Seguro que después de leer esto estás pensando… ¡Sólo me faltaba esto, con la de contraseñas que tengo que memorizar! pero el doble factor de autenticación puede ser la diferencia entre ser víctima de un cibercriminal y mantenerse protegido. Son muchos los servicios que ya ofrecen esta característica, aunque algunos de ellos lo implementaran por que se vieron obligados, después de ser hackeados.

¿Cómo funciona?
Hay varios sistemas, pero por lo general, se suele utilizar un mensaje automático, o una app que genera códigos de acceso. Una vez introducidos nuestros datos, la plataforma solicita un código de acceso, que en ocasiones suelen ser aplicaciones separadas del navegador.
No es necesario utilizar este sistema en todos los sitios web a los que accedemos, pero si a los que consideramos de mayor relevancia, sitios que visitamos frecuentemente, y que contienen información valiosa, cómo puede ser nuestro correo, o las redes sociales.

Si tiene una empresa, también puede ser de ayuda, ya que, en muchas compañías está contemplado el teletrabajo,  y las conexiones podrían no ser seguras, y podría quedar expuesta información sensible.

¿Qué beneficios ofrece el Doble Factor de Autenticación?
  • Los sistemas de doble factor de autenticación son mucho más seguros que las contraseñas, muchos ataques que se han hecho públicos, este último año, no hubieran ocurrido si hubieran implementado este sistema.
  • Este sistema, no es infalible, pero garantiza que los atacantes tendrán que trabajar más, ya que ofrece una capa extra de protección.  
  • Mediante el sistema de Doble Factor, si un atacante consigue nuestras credenciales, solo podrá suplantar nuestra identidad en el momento que estemos usando el mecanismo de Doble Factor y  si estamos dentro de, por ejemplo, nuestro correo, ya que él no puede generar una OTP válida para esa sesión.
Os dejamos a continuación un vídeo de Google, dónde explica cómo activar la protección de Doble Factor de Autenticación en vuestro correo de Gmail!

https://www.youtube.com/watch?v=zMabEyrtPRg

Y una infografía realizada por ESET basada en datos interesantes para comprender la importancia que tiene proteger el acceso a la información confidencial de las empresas.

La importancia del Doble Factor de Autenticación



Autor: Lidia Buendia
Departamento de Marketing.

Ponencias en el CyberCamp 2014

CyberCamp es el gran evento de Ciberseguridad organizado por INCIBE en colaboración con los mejores expertos del panorama nacional en la materia. Se celebrará en Madrid entre el 5 y el 7 de diciembre y nace con el objetivo de reunir a los mejores talentos en materia de Ciberseguridad.

Para ello en los meses previos al evento se han realizado una serie de pruebas técnicas y retos online de diferentes categorías y niveles de dificultad con el fin de identificar a los mejores participantes en materia de Ciberseguridad. Además de estos retos, CyberCamp cuenta con diferentes actividades orientadas a familias, estudiantes, profesionales y desempleados. Conferencias con Keynotes internacionales, Training Labs impartidos por los mejores expertos en cada disciplina y presentación de proyectos de cyberseguridad.

Dentro de este marco, Internet Security Auditors aportará su granito de arena participando con dos ponencias. Por un lado Vicente Aguilera hará una demostración de su herramienta tinfoleak: “#Tinfoleak: analizando nuestras pautas y comportamientos a través del análisis de la exposición pública en Twitter”.  La ponencia tiene como objeto hacer visible, de forma práctica, el nivel de exposición de nuestras vidas en las redes sociales, y el abuso que puede realizarse de dicha exposición pública que, en la mayoría de casos, su alcance es totalmente desconocido por el usuario.

Y por otro lado Ismael González estará el domingo presentando su framework Tortazo para auditar la red de TOR, permitiendo auditar hidden services en la Deepweb de TOR, nodos de salida de la propia red de TOR o incluso también auditar en modo BOTNET.