Análisis de Grandes Datos permite afrontar desastres más eficazmente

 

Huracán Sandy (Fte:rtve.es)

Huracán Sandy (Fte:rtve.es)

Durante un desastre, las decisiones para salvar la vida a menudo se basan en la información más actualizada de la situación y las experiencias del pasado en circunstancias similares. Si bien eso es un enfoque probado y verdadero, la disponibilidad de complejos flujos de datos generados por ordenador  está cambiando las reglas del juego para algunos administradores de emergencias, señala Brian Heaton en el blog Emergency Mamagement.

Los grandes volúmenes de conjuntos de datos – comúnmente conocido como Big Data – derivados de sofisticados sensores y fuentes de medios sociales son cada vez más utilizadas por las agencias del gobierno para mejorar los servicios al ciudadano a través de la visualización y los sistemas de mapeo GIS. Además, los grandes volúmenes de datos están permitiendo a los primeros intervinientes  reaccionar a los desastres de manera más eficiente, señala Heaton.

Una muestra de este uso del análisis de Grandes Datos es la empresa norteamericana Splunk, un proveedor de software de inteligencia operativa, cuyos voluntarios, están involucrados en un proyecto que entresaca datos de feeds de Twitter. Mediante el análisis de palabras clave, junto con el tiempo y la información de la ubicación, es posible descubrir un patrón de actividad en una zona particular.

La FEMA utilizó este sistema durante Sandy

La idea fue utilizada durante el huracán Sandy. La Agencia Federal para el Manejo de Emergencias en Estados Unidos, FEMA, creó un equipo de innovación compuesto por organismos públicos y empresas privadas. Uno de los participantes fue Geeks without Bonds (Geeks sin límites), un proyecto humanitario sin fines de lucro, que se asoció con Splunk4Good, la rama humanitaria de Splunk, para aplicar el análisis de las redes sociales.

fema en españolDeterminaron donde se necesitan más recursos analizando Twitter e Instagram

Los miembros del equipo analizaron hashtags y palabras de Twitter, así como fotos de Instagram relacionadas con el huracán Sandy, las tasas de evacuación en áreas específicas y otras palabras clave sobre los recursos, como energía, alimentos,  combustible y agua. Con esos datos, el equipo trazó ubicaciones donde los suministros podrían ser más necesarios y tomó el pulso de la confianza de la comunidad sobre los recursos disponibles.

Las agencias gubernamentales han estado utilizando datos de los medios sociales para el análisis de  sentimientos y las relaciones públicas por un tiempo. Pero según Art Botterell – director asociado de la Iniciativa para el Manejo de Desastres de la Universidad Carnegie Mellon, en Silicon Valley – el uso práctico de las agencias para respuesta, recuperación y preparación de emergencias es bastante nuevo.

¿Deberían utilizarse el análisis de Grandes Datos extraídos de las Redes Sociales a la gestión de una emergencia?

Botterell calificó de “rico periodo de experimentación” los esfuerzos actuales de los administradores de emergencias que utilizan los medios sociales, donde los responsables deben determinar si los grandes datos derivados de Twitter y Facebook deberían incorporarse más en situaciones de emergencia concretas, o utilizarse simplemente como una herramienta de comunicación.

“Esta es un área que ha sido conducida hacia un concepto orientada y de un modo tecnológico, que es como sucede la mayoría de la innovación, pero ahora estamos llegando al punto donde todo está bajo la gran carpa de datos [y] ¿cómo sabemos qué es más útil y menos útil”, dijo Botterell. “Esta es una conversación donde no he oído a los responsables de manejo de emegencias.”

La aplicación de los Grandes Datos dependerá de la política que sigan las agencias

Mientras que los datos generados por ordenador, ha sido un elemento básico en la toma de decisiones para el personal del gobierno y de emergencia en el pasado, los grandes volúmenes de datos elevan el nivel de complejidad. El incremento en el volumen de datos crece tanto como la capacidad de las empresas y los individuos para analizar y aplicar los resultados.

La medida en que las organizaciones de gestión de emergencias puedan abarcar grandes volúmenes de datos se basa en la cultura dentro de las agencias. Si los recursos permiten a los analistas dedicar tiempo a peinar los datos y presentarlos de forma que se puedan utilizar, los grandes datos pueden ser un activo, opina Teresa Pardo, directora del Centro para la Tecnología en el Gobierno de la Universidad de Albany, Universidad Estatal de Nueva York.

(Fte:Fte: www.networkworld.es)

(Fte:Fte: www.networkworld.es)

Pardo reconoce que esto sería una situación ideal que es probable que no esté presente en la mayoría de las agencias de manejo de emergencias a nivel nacional, opinión que también comparte el director de tecnología de la FEMA Ted Okada, quién señala que los organismos de emergencia y la industria en su conjunto se encuentran todavía en las primeras etapas de la utilización de grandes volúmenes de datos.El  director de tecnología de FEMA, Ted Okada, cree que los administradores de emergencias necesitan aprender cómo extraer los bits adecuados de información en la fase inicial de un desastre.

El GIS fue una de las primeras incursiones en los flujos de datos complejos para FEMA. La agencia trabaja actualmente con una variedad de organizaciones como la Administración Nacional Oceánica y Atmosférica y el Servicio Geológico de EE.UU. para acceder a sus datos en tiempo real y crear modelos predictivos que contienen mapas de alta resolución y datos de sensores para ayudar a la FEMA a prepararse para las tormentas y otros eventos.

Este acercamiento permitió a la FEMA, por ejemplo, acceder a más de 150.000 fotos geo-etiquetadas de la Patrulla Aérea Civil durante el huracán Sandy, lo que ayudó a la agencia de realizar evaluaciones y tomar mejores decisiones, señala Heaton.

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)
VN:F [1.9.22_1171]
Rating: 0 (from 0 votes)