/*codigo slider*\

lunes, 27 de agosto de 2012

¿Cuál es más importante? (BIA o RA)

¿Cuál es más importante? (BIA o RA)

Por: Greig Fennell

Ha habido mucha discusión en cuanto a la importancia de realizar un análisis de impacto al negocio (BIA) y una evaluación de riesgos (RA). ¿Cual es más importante? ¿Cuál debe realizarse primero? Algo que he aprendido con los años es que ambos son importantes y no importa cual se ejecute primero, siempre y cuando ambos se lleven a cabo. Ambos son necesarios, ya que sientan las bases e influencian la planificación de la continuidad del negocio reactiva y proactiva dentro de la compañía.

Lo que la gente tiene que entender es que el BIA y la RA evalúan dos conjuntos de datos completamente diferentes. El BIA evalúa el impacto de no efectuar un proceso de negocio en particular en el tiempo y mide los impactos cuantitativos y cualitativos de no efectuar dicho proceso. La RA evalúa los riesgos que podrían afectar las instalaciones, la magnitud del impacto y la probabilidad relativa de ocurrencia. Se trata de dos conjuntos de datos de información diferentes, pero cuando se combinan, pueden contar una historia muy perspicaz acerca de lo rápido que una interrupción puede afectar un negocio, donde tendrá el impacto más grave, la rapidez con que se producirá el impacto, y en qué orden de magnitud.

A algunos profesionales dedicados a la gestión de la continuidad del negocio les gusta utilizar los datos del RA en la elaboración del análisis de impacto al negocio, pero ese no es mi caso. Yo le digo al grupo de negocio que el proceso no está disponible, que no tiene acceso a los datos o instalaciones, y estas tampoco están disponibles a pesar de la contingencia que se le presente. Ahora, una vez entendiendo todo esto, podemos empezar a determinar cuánto tiempo puede estar la compañía sin completar el proceso de negocio y determinar con qué rapidez comienzan a ocurrir los impactos cuantitativos y cualitativos y su orden de magnitud. También le explico al grupo de negocio que se utilizará la información de la RA para determinar cómo los riesgos identificados pueden influir en los esfuerzos de planificación futuros, y reforzaremos cualquier plan de contingencia existente con lo aprendido del BIA para ver si hay algún problema que necesite ser considerado en los esfuerzos de planificación futuros. La razón para no utilizar los datos de la RA inicialmente, o considerar los planes actuales de contingencia es que esta información no es relevante para determinar la sensibilidad de tiempo del proceso de negocio. La sensibilidad de tiempo del proceso de negocio es lo que es, independientemente de los riesgos identificados. No importa si el área es propensa a terremotos, volcanes, huracanes, incendios o inundaciones. La sensibilidad de tiempo del proceso de negocio es el mismo.

La Evaluación de Riesgos se vuelve importante a la hora de determinar el nivel de planificación proactiva o reactiva que sea necesario para asegurar que el proceso de negocio pueda ser reanudado antes que la compañía alcance un punto crítico por no realizar el proceso. Si la Evaluación de Riesgos identifica que el área es propensa a terremotos o huracanes, entonces el nivel de planificación puede ser muy diferente a si el área es propensa a una tormenta de nieve ocasional.

Cuando trabajaba para una compañía en San Francisco llevamos a cabo una serie de BIAs para identificar y priorizar los procesos de negocio, algunos de los cuales eran muy sensibles al tiempo y de no estar disponibles podrían ocasionar impactos significativos en la compañía en un período de tiempo muy corto. Ya sea que la compañía se encuentre en San Francisco o en otra ciudad, la sensibilidad de tiempo de los procesos sería la misma.

La evaluación de riesgos identificó que San Francisco es propensa a terremotos, lo cual influenció nuestra decisión de desarrollar una estrategia de reanudación del negocio fuera del área. El centro de datos de la compañía también se encontraba en San Francisco, cerca del Fisherman’s Wharf con un contrato de warm site para recuperación ante desastres con un proveedor en otro estado. Ya que San Francisco es tierra de terremotos, queríamos aprender más acerca de la integridad estructural de los edificios donde trabaja el personal y el edificio donde está ubicado el centro de datos.

Después de realizar una evaluación de riesgos estructurales de los edificios la compañía se enteró que el edificio donde se encontraba el centro de datos tenía una alta probabilidad de colapsar. El resultado de la evaluación de riesgos junto con esta nueva información influyó en la decisión de la gerencia para trasladar el centro de datos fuera del Estado de manera que la Compañía no tuviera que lidiar con la recuperación del centro de datos y la reanudación de los procesos de negocio críticos al mismo tiempo.

He aquí un caso donde la evaluación de riesgos influyó en el tipo de planificación proactiva y reactiva que era necesaria para asegurar la continuidad de los procesos de negocio más sensibles al tiempo. Si la empresa no se hubiese encontrado en una zona propensa a terremotos, no hubiera habido necesidad de trasladar el centro de datos.

Por eso es importante llevar a cabo tanto un BIA como una Evaluación de Riesgos. Los datos de cada análisis son únicos, pero cuando se combinan pueden influir efectivamente en la toma de decisiones inteligentes en cuanto a riesgos, y no importa cual se efectúe primero, siempre y cuando ambos se lleven a cabo. 


Fuente: DRJ en Español

Ataques a la criptografía cuántica a través de la relatividad

Ataques a la criptografía cuántica a través de la relatividad

En un artículo aparecido en 2009 en Physical Review Letters se explica un método por el cual se pueden romper los sistemas criptográficos basados en los principios de la mecánica cuántica. Dicho método se basa en permitir que el flujo de datos interactúe con un estado cuántico que viaja hacia atrás en el tiempo. Es decir, se usa la teoría general de la relatividad para alterar un sistema cuántico. 

Para que un sistema criptográfico sea seguro la clave está en que el código que sirve para cifrar el mensaje no sea conocido más que por el emisor y el receptor del mensaje y que dicho código no sea fácilmente deducible. Para garantizar la seguridad, sin embargo, sería necesario además que se detectase a cualquier persona extraña que intentase tener conocimiento del mensaje, no digamos ya de la clave. Esta garantía es la que da la criptografía cuántica. 
Como es conocido, el hecho de medir un sistema cuántico lo altera. Esta propiedad es de la que hace uso la criptografía cuántica para asegurarse de que la clave viaja del emisor al receptor con garantía de que nadie la “escucha”, pues si lo hiciese alteraría la propia comunicación, introduciendo anomalías detectables. La comunicación se efectúa usando superposiciones cuánticas y la transmisión de estados cuánticos. En el estudio que comentamos se emplea una curva temporal cerrada para evitar la detección de la escucha, haciendo el cifrado cuántico inseguro. Veamos cómo. 

Una curva temporal cerrada (CTC) es un camino en circuito cerrado que se conecta de nuevo consigo mismo yendo hacia atrás en el tiempo. Por ejemplo, un CTC puede basarse en un agujero de gusano que conecta un lugar y un tiempo en el futuro con otro punto en un tiempo anterior. Independientemente de que estos caminos existan o no, son una fuente de paradojas: ¿qué pasa si viajo al pasado y mato a mi padre antes de que me conciba? 

En 1991 David Deutsch de la Universidad de Oxford encontró una manera de evitar las paradojas en el caso de una partícula que viaja por el CTC e interactúa en algún punto del camino con otra partícula. Probó que siempre es posible encontrar un estado cuántico en el que la partícula en el CTC permanece en un bucle eterno en el propio CTC, siempre interactuando con la otra partícula exactamente de la misma manera en el mismo punto del espacio tiempo

Todd Brun de la Universidad del Sur de California en Los Ángeles y sus colegas han encontrado una manera de usar los estados definidos por la formulación de Deutsch para decodificar los mensajes cifrados cuánticamente. Un mensaje típico sería enviado como una serie de partículas, cada una de las cuales puede estar en tres estados diferentes: “cero”, “uno” y “superposición” (una combinación de “cero” y “uno”). El receptor mide cada partícula pero necesita información adicional posterior del emisor para distinguir los estados que son superposiciones de los que no lo son. Pero un espía que pudiera distinguir según se está produciendo la transmisión, digamos, entre un “cero” y un “superposición” podría interceptar el mensaje y también enviar partículas al receptor que imitasen las originales, evitando, de esta forma, la detección. 

Para que el espía pueda hacer esto, los investigadores imaginan una partícula que entra en un CTC de forma que viaja por el tiempo, permitiendo que interactúe con su “yo” futuro, por así decirlo, antes de seguir su camino. ¿Cuál podría ser el resultado de esa interacción? Si el estado de la partícula es “cero” lo dejaría inalterado, y si es “superposición” lo transformaría a “uno”. Una medición estándar por parte del espía que distinga entre “cero” y “uno” revelaría con absoluta certeza si el estado original es “cero” o “superposición”. 

De ordinario una transformación como esta no sería posible sin un conocimiento avanzado del estado original. El truco está en que la partícula interactúa con la versión transformada de sí misma que vuelve del futuro. Y esto no viola ninguna ley de la física. 

Por si alguien pensaba que la física teórica no sirve para nada, digamos que estas amenazas a la seguridad de las transmisiones basadas en criptografía cuántica que representan los CTC sólo las resolverá una teoría cuántica de la gravitación.

Fuente: Experientia Docet

4 Aplicaciones para hacer copias de seguridad | Blog de Laboratorio de ESET

4 Aplicaciones para hacer copias de seguridad | Blog de Laboratorio de ESET:


Hace algunos días publicamos un post donde se mencionaban 4 herramientas para hacer más fácil la gestión de contraseñas, por ser este uno de los puntos débiles del usuario para proteger su información. El uso de contraseñas robustas combinado con una herramienta de seguridad para proteger los dispositivos de infecciones, puede ser complementado con una  medida de carácter correctivo: hacer copias de seguridad para respaldar su información en caso de algún daño o pérdida de la misma.
Hacer una copia de seguridad no es copiar todos los archivos en un dispositivo USB o en CD, es necesario que el usuario tenga en cuenta que información debe realmente respaldar, donde la va a almacenar y la periodicidad de esta actividad. Para facilitar esta actividad existen algunas herramientas que el usuario puede utilizar. A continuación se mencionan algunas de ellas, con características particulares.
BackUpTime, es una aplicación que permite programar las copias de seguridad, y elegir cuales son las carpetas de las cuales se quiere hacer la copia y en donde se quiere guardar:
Otra herramienta es Areca Backup, disponible para ser utilizada en Windows y Linux. La principal característica de esta aplicación es que permite hacer copias de seguridad incrementales, es decir que una vez que se hace una copia completa, esta va cambiando según las modificaciones que se hagan sobre los archivos respaldados.
Zback es una aplicación que no requiere instalación y puede utilizarse para hacer respaldos de forma simple y manual. Es una alternativa interesante para hacer copias de archivos no muy grandes.
Zback
Finalmente, otra opción interesante es utilizar servicios en la nube para hacer respaldos de información. Existen servicios como SugarSyncDropbox o G Cloud Backup que permiten al usuario hacer copias de seguridad en la nube de varios dispositivos incluyendo dispositivos móviles. Cuando se opta por una opción de este tipo es muy importante que el usuario tenga presente que en el momento que copia su información en la nube, queda en servidores que no son propios. Por lo tanto lo más recomendable es no tener solamente copias en este tipo de servicios, es interesante utilizarlos por la portabilidad que ofrecen pero teniendo a su vez copias en dispositivos propios.
Un backup es de mucha utilidad para que el usuario recupere su información, en caso que se vea enfrentado a un evento que la comprometa.. No obstante, la presencia de un software antivirus u otra medida preventiva, podría evitar directamente la infección y así también los riesgos asociados a no tener toda la información necesaria en la copia del respaldo o que su información personal sea robada o corrompida.  La próxima semana, como parte de la campaña ¡Yo también perdí mis datos!, te invitamos a un seminario online gratuito en el que hablaremos de cinco claves para proteger la información personal.
H. Camilo Gutiérrez Amaya
Especialista de Awareness & Research

jueves, 23 de agosto de 2012

CRYPTEX - Seguridad de la Información: Active Directory Performance Testing Tool (ADTest....

CRYPTEX - Seguridad de la Información: Active Directory Performance Testing Tool (ADTest....:


Overview

ADTest is an Active Directory load-generation tool. It allows you to simulate client transactions on the host server. By varying client load, you can relate the transaction rate to resource utilization on the server and get some idea about the requirements for your environment. Because ADTest can perform generic Active Directory requests, it can also create an organizational unit structure inside Active Directory. You can add many organizational units and user objects in those ADTest-created organizational units. You can also add attributes to the user objects. Once you have created the Active Directory structure you require, you can use ADTest to perform various Active Directory requests, including Modify and Search. Several pre-built tests have been written to reproduce some typical activities you might want to evaluate. Examples of these pre-built tests are: an interactive logon, a batch logon, a search for a random user, and a modification of an attribute of a random user. By varying your hardware environment or other test parameters, you can gain insight into the performance sensitivities of your particular setup.

Remember that benchmarking and performance exercises are useful for comparing platforms or for getting a general understanding of the hardware requirements for common implementation scenarios. However, because these tests are run in constrained environments, such as an isolated lab, they do not necessarily translate directly to deployable scenarios. Therefore, it is important to understand that while this tool is meant to help you prepare for a fairly comprehensive server-sizing and capacity-planning effort, any data generated is only meant for general sizing, benchmarking, or deployment recommendations.
 
 
 

lunes, 20 de agosto de 2012

domingo, 19 de agosto de 2012

Nueva distribución de Linux orientada a la seguridad de dispositivos móviles | Blog de Laboratorio de ESET

Nueva distribución de Linux orientada a la seguridad de dispositivos móviles | Blog de Laboratorio de ESET:


Recientemente se lanzó una nueva distribución de Linux orientada a la seguridad en dispositivos móviles y el análisis de malware y forense sobre las plataformas orientadas a los mismos. Esta nueva distribución se conoce bajo el nombre de Santoku Linux. Actualmente la distribución se encuentra en su versión 0.1 alpha. El nombre Santoku se refiere a un cuchillo de cocina que proviene originalmente de Japón. El significado de esta palabra es “tres virtudes” o “tres usos”. Debido a las características de esta distribución, que explicaremos a continuación, fue la elección del mencionado nombre japonés.
A continuación se adjunta una imagen del escritorio de Santoku:
Escritorio de Santoku
Tres virtudes o tres usos
Anteriormente se mencionó que la distribución estaba orientada a la seguridad en dispositivos móviles, análisis de malware y análisis forense. El significado del nombre de la distribución, es decir, la motivación consiste en los tres tópicos antes señalados.
Dentro de los tres usos que propone esta distribución, los usuarios pueden encontrar diferentes herramientas libres y otras de origen comercial. Estas herramientas permitenanalizar software en búsqueda de códigos maliciososrealizar análisis forense sobre datos en dispositivos móviles, entre otras alternativas.
Analizando las herramientas más profundamente y en base a su objetivo se puede encontrar:
Herramientas para análisis forense (para adquirir y analizar datos)
  • Herramientas para realizar operaciones de flash sobre el firmware.
  • Herramientas obtener imágenes de tarjetas de memoria, memoria RAM, entre otros.
  • Scripts útiles y herramientas especialmente diseñadas para el análisis forense en dispositivos móviles.
Herramientas para el análisis de malware (para examinar malware en dispositivos móviles)
  • Emuladores de dispositivos móviles.
  • Herramientas de simulación de servicios de red para el análisis dinámico.
  • Herramienta de decompilación y desensamblado.
  • Acceso a bases de datos de malware.
Herramientas de seguridad para dispositivos móviles (evaluación de las aplicaciones)
  • Scripts para detectar problemas comunes en las aplicaciones.
  • Scripts para automatizar el descifrado de archivos, la enumeración de detalles de la aplicación, entre otras.
Asimismo se incluyen también herramientas para realizar ingeniería reversa e inclusopenetration test. Un listado más detallado de las herramientas puede encontrarse en elpropio sitio web de la distribución.
Se lanzará la versión de Santoku Pro más adelante y esta versión dispondrá de todas las facilidades que caracterizan a las distribuciones de estas características.
Relevancia en las auditorías de seguridad
Este tipo de distribuciones y herramientas permite realizar auditorías de forma más sencilla y práctica, enfocando en este caso, las plataformas móviles y permitiendo, asimismo, la gestión de la seguridad. En la actualidad, está claro que los dispositivos móviles son foco de ataques y códigos maliciosos debido a que se utilizan para realizar operaciones cada vez más complejas que involucran datos críticos y, en muchos casos, almacenan información sensible perteneciente al usuario o terceros. Para validar que realmente esto está sucediendo, podemos mencionar las botnets que están apareciendo para las plataformas móviles. Se puede obtener información más detallada en el caso de Android en nuestro post titulado Botnets en Android: Robo de mensajes de texto. En complemento a todo lo expuesto, le recomendamos la lectura de los 10 consejos prácticos para proteger los dispositivos móviles.
Fernando Catoira
Analista de Seguridad

jueves, 16 de agosto de 2012

¿Qué es y por qué hacer un Análisis de Riesgos? | Blog de Laboratorio de ESET

¿Qué es y por qué hacer un Análisis de Riesgos? | Blog de Laboratorio de ESET:

Como parte del Sistema de Gestión de Seguridad de la Información, es necesario para la empresa hacer una adecuada gestión de riesgos que le permita saber cuáles son las principales vulnerabilidades de sus activos de información y cuales son las amenazas que podrían explotar las vulnerabildades. En la medida que la empresa tenga clara esta identificación de riesgos podrá establecer las medidas preventivas y correctivas viables que garanticen mayores niveles de seguridad en su información.

Son muchas las metodologías utilizadas para la gestión de riesgos, pero todas parten de un punto común: la identificación de activos de información, es decir todos aquellos recursos involucrados en la gestión de la información, que va desde datos y hardware hasta documentos escritos y el recurso humano. Sobre estos activos de información es que hace la identificación de las amenazas o riesgos y las vulnerabilidades

Una amenaza se puede definir entonces como un evento que puede afectar los activos de información y están relacionadas con el recurso humano, eventos naturales o fallas técnicas.  Algunos ejemplos pueden ser ataques informáticos externos, errores u omisiones del personal de la empresa, infecciones con malware, terremotos, tormentas eléctricas o sobrecargas en el fluido eléctrico. Por otra parte, una vulnerabilidad es una característica de un activo de información y que representa un riesgo para la seguridad de la información. Cuando se materializa una amenaza y hay una vulnerabilidad que pueda ser aprovechada hay una exposición a que se presente algún tipo de pérdida para la empresa. Por ejemplo el hecho de tener contraseñas débiles en los sistemas y que la red de datos no esté correctamente protegida puede ser aprovechado para los ataques informáticos externos.

Ahora, para que la empresa pueda tomar decisiones sobre cómo actuar ante los diferentes riesgos es necesario hacer una valoración para determinar cuáles son los más críticos para la empresa. Esta valoración suele hacerse en términos de la posibilidad de ocurrencia del riesgo y del impacto que tenga la materialización del riesgo. La valoración del impacto puede medirse en función de varios factores: la pérdida económica si es posible cuantificar la cantidad de dinero que se pierde, la reputación de la empresa dependiendo si el riesgo pueda afectar la imagen de la empresa en el mercado o de acuerdo al nivel de afectación por la pérdida o daño de la información.

En este punto se deberían tener identificados y valorados los principales riesgos que pueden afectar los activos de información de la empresa. Pero, ¿es suficiente con saber que puede pasar?. La respuesta es no. Una vez identificadas las amenazas, lo más importante del análisis de riesgos es la identificación de controles ya sea para mitigar la posibilidad de ocurrencia de la amenaza o para mitigar su impacto. Las medidas de control que puede asumir una empresa van a estar relacionadas con el tipo de amenaza y el nivel de exposición que represente para la información corporativa.

Una empresa puede afrontar un riesgo de cuatro formas diferentes: aceptarlo, transferirlo, mitigarlo o evitarlo. Si un riesgo no es lo suficientemente crítico para la empresa la medida de control puede ser Aceptarlo, es decir, ser consciente de que el riesgo existe y hacer un monitoreo sobre él. Si el riesgo representa una amenaza importante para la seguridad de la información se puede tomar la decisión de Transferir o Mitigar el riesgo. La primera opción está relacionada con tomar algún tipo de seguro que reduzca el monto de una eventual pérdida, y la segunda tiene que ver con la implementación de medidas preventivas o correctivas para reducir la posibilidad de ocurrencia o el impacto del riesgo. Finalmente si el nivel de riesgo es demasiado alto para que la empresa lo asuma, puede optar por Evitar el riesgo, eliminando los activos de información o la actividad asociada.

La gestión de riesgos debe garantizarle a la empresa la tranquilidad de tener identificados sus riesgos y los controles que le van a permitir actuar ante una eventual materialización o simplemente evitar que se presenten. Esta gestión debe mantener el equilibrio entre el costo que tiene una actividad de control, la importancia del activo de información para los procesos de la empresa y el nivel de criticidad del riesgo.

H. Camilo Gutiérrez Amaya
Especialista de Awareness & Research

lunes, 13 de agosto de 2012

Digital Forensics for Security Professionals

DESCRIPCION:

En este curso de 2 días recorreremos las distintas etapas de la investigación forense informática, focalizando en las buenas prácticas y entrenando a los asistentes en las distintas técnicas, desde una óptica práctica, que se requieren para procesar judicialmente un incidente informático. Se presentarán numerosos casos reales.

TEMARIO :
  • - Evidencia digital. Recolección y Preservación
  • - Cadena de custodia
  • - Procedimientos para la adquisición de memoria de almacenamiento, RAM y tráfico de red
  • - Recolección directa e indirecta de medios
  • - Recolección de arreglos RAID y NAS
  • - Muestreo rápido (Triage)
  • - Utilización de herramientas de software libre. Validación Judicial. Experticia requerida
  • - Artefactos forenses y metadatos
  • - Pruebas de concepto
  • - Virtualización de Evidencia Digital
  • - Análisis Forense de sistemas Windows , Linux y MAC
  • - Data Carving y Metadatos
  • - Reconstrucción forense de contenido mediante data carving avanzado
  • - Análisis Forense en Vivo
  • - Obteniendo evidencia de la memoria RAM , áreas de intercambio y archivos de hibernación
  • - Reconstrucción de paquetes de datos
  • - Análisis Forense de Celulares

Idioma: Español
duracion: 2 días (16hs)
COSTO:  $ 4.000 (iva incluido)

FECHA: 17 y 18 de Septiembre

Instructor
Gustavo Daniel Presman
Ingeniero Electrónico egresado en 1987 de la Facultad de Ingeniería UBA . Master Executive en TICs del Programa Gadex , España. Posee las certificaciones Internacionales CCE ( Certified Computer Examiner) , EnCE (Encase Certified Examiner) , FCA (Forensic Computer Advisor) y NPFA (Network Packet Forensic Analyst).  Profesor de la Maestría en Seguridad Informática de la UBA y de los posgrados en seguridad de la Información de la USAL y Derecho Informatico de la UNSL. Consultor en Investigación corporativa y entrenador de Fuerzas Armadas , Poderes judiciales provinciales y Policías de la Argentina y de varios países latinoamericanos en Investigación Forense Informática. Miembro de las principales asociaciones internacionales de Investigadores y peritos Informático Forenses como HTCC y HTCIA

Encuentro Internacional de Seguridad de la Información

Página de inicio de ENISE, Encuentro  Internacional de la Seguridad de la Información

Un año más, INTECO pone en marcha ENISE, el Encuentro Internacional de Seguridad de la Información. Esta sexta edición se desarrolla bajo una coyuntura de cambios y oportunidades en los ambientes tecnológicos y de investigación. Cuando las TIC juegan un papel condicionante, dependiente y ya intrínseco a nuestra sociedad, se intuye necesario favorecer su evolución con todas las garantías, y por tanto, con seguridad. Por eso, este año entramos de lleno en la dimensión del ciberespacio y bajo el lema: «La Estrategia de Ciberseguridad: un elemento clave para el futuro de nuestra sociedad».

El desarrollo de las Tecnologías de la Información y las Comunicaciones (TIC) ha generado un nuevo espacio de relación en el que la rapidez y facilidad de los intercambios han eliminado las barreras de espacio y tiempo. El ciberespacio, como entorno global constituido por los sistemas de información, las redes, la información y los servicios, ha venido a difuminar fronteras, haciendo partícipes a sus usuarios de una globalización sin precedentes que propicia nuevas oportunidades, al tiempo que comporta nuevos riesgos, retos y amenazas. Una adecuada estrategia que de respuesta a estos riesgos y amenazas se constituye como elemento esencial de la seguridad nacional.

En esta edición, el evento va a analizar las implicaciones de las dos novedades normativas del año: la Estrategia Española de Ciberseguridad y la Agenda Digital Española. Si el año pasado la confianza en la Sociedad de la Información, las infraestructuras críticas, la nube y los dispositivos móviles centraban las temáticas, este 2012 se centrará en la ciberseguridad. Estos textos, fundamentales para el desarrollo de la economía y prosperidad de nuestra sociedad, totalmente ligada ya a las nuevas tecnologías, ofrecerán nuevos retos y oportunidades para todos: administración, industria y el conjunto de la sociedad en general.

La estrategia de ciberseguridad se apoya fundamentalmente en los pilares de la eficacia y eficiencia en la detección y mitigación de las ciberamenazas, de cara a plantear una respuesta gubernamental con perspectiva a la cooperación internacional, y sobre todo en la cooperación público-privada. La ciberseguridad no es algo que un país pueda alcanzar aisladamente. La naturaleza de las ciberamenazas, así como su carácter transnacional y la dificultad de atribución de autoría, exigen una respuesta global, coordinada y coherente.

Entrando en materias concretas a abordar en esta edición, desde el punto de vista de las amenazas, hay que destacar el crecimiento de su sofisticación y la especialización de los tipos de ataques con objetivos claramente dirigidos. Por ello, en esta edición, analizaremos las APTs (del inglés Advanced Persistent Threats) y sus fines: robo de propiedad intelectual o espionaje industrial, entre otros, llevados a cabo por cibercriminales cada vez más especializados y difíciles de combatir.

Los ciberataques de este tipo constituyen una creciente amenaza que, ante determinadas vulnerabilidades, hacen posible que una multiplicidad de potenciales atacantes (estados o servicios de inteligencia extranjeros u otros grupos afines, crimen organizado, hacktivistas, organizaciones terroristas o individuos afines a ellas, empresas o individuos aislados) puedan poner en graves dificultades a los servicios prestados por las Administraciones Públicas de un país, a sus infraestructuras críticas (públicas o privadas) o a las actividades de sus empresas y ciudadanos.

En este contexto hablaremos también sobre las infraestructuras utilizadas por los ciberdelincuentes, las redes de ordenadores controlados, denominadas botnets, y de las que todos podemos ser víctimas. Analizaremos las tendencias y su evolución y, por supuesto, de cómo debemos coordinarnos para su mitigación efectiva. Es necesario involucrar a todos los agentes de la sociedad, tanto para su detección como para su atenuación, desde los gobiernos, la industria de servicios en el ciberespacio, la industria de seguridad y llegando finalmente hasta los propios ciudadanos.

El auge de la tecnología móvil, que ha dado paso a tendencias como el uso de dispositivos propios en redes corporativas, como BYOD: Bring Your Own Device (trae tu propio dispositivo) o BYOT: Bring Your Own Technology (trae tu propia tecnología), hace que tengamos que adaptar y dar un giro a las políticas de seguridad de las organizaciones. La seguridad en el entorno de movilidad es vital ya que somos una sociedad tecnológicamente móvil.

Además, el avance de la tecnología y eficiencia energética, hace que aparezcan nuevos escenarios dónde la seguridad tiene que cumplir un papel fundamental. Los usuarios ahora son capaces de producir electricidad y los consumos son controlados fundamentalmente apoyándose en tecnologías de información y la comunicación, dando a lugar a lo que se conoce como redes inteligentes de distribución energética o smart grids. Esta nueva fórmula, que pasa a formar parte del complejo entramado de las infraestructuras críticas, es susceptible, por tanto, de la necesidad de aplicación de una serie de medidas de protección con el objetivo de diseñarlas y mantenerlas de manera segura.

Para trabajar sobre estos temas, les esperamos los días 23 y 24 de octubre, en el Parador San Marcos de León.

Related Posts Plugin for WordPress, Blogger...