Mejorar la gestión de Grandes Datos facilitaría manejo de emergencias, señala experto

Tsunami de Japón (Fte:alenarterevista.net )

Tsunami de Japón
(Fte:alenarterevista.net )

Cuando surge una crisis, como el terremoto y tsunami de Japón o  el huracán Sandy, la cantidad de datos sobre el desastre crece de forma substancial, dificultando el manejo de la información y las tareas de recuperación a los servicios de emergencia y las organizaciones humanitarias. Para gestionar los Grandes Datos con eficiencia es necesario mejorar los filtros que los clasifican y las políticas que los regulan, señala el experto Patrick Meier en su blog iRevolution.net

El concepto Grandes Datos en una crisis se refiere a tres variables que dificultan el manejo de la información relativa a un desastre: su relativamente grande volumen, la velocidad con la que se actualizan y la variedad de información digital que puede mejorar la toma de decisiones con sentido común y el conocimiento de la situación en caso de desastres.

A ésto se refieren las 3 V de de grandes volúmenes de datos a menudo: “Volumen, Velocidad y Variedad” señala Meier.

20 millones de tweets durante el huracán Sandy

El enorme volumen es una de las causas que dificulta el manejo de los datos. Durante el huracán Sandy, por ejemplo, se publicaron 20 millones de tweets.

El tiempo en que esa gran cantidad de datos se conoce también es un factor que se relaciona con la velocidad.  Más de 5.500 millones de tweets por segundo se publicaron  tras el terremoto y el tsunami de Japón.

La Variedad “expresa la variedad de los datos generados, por ejemplo, numéricos (coordenadas GPS), de texto (SMS), audio (llamadas telefónicas), fotográficos (imágenes de satélite), y videográfico (YouTube). Estos datos provienen tanto de fuentes públicas como  privadas tales como las imágenes publicadas en medios sociales (Instagram), por un lado, y los correos electrónicos o llamadas telefónicas (Call Data Record), por otro”, señala Meier.

“Grandes Crisis de datos también se refiere tanto a los datos en bruto (el texto de actualizaciones individuales de Facebook), así como de metadatos (la hora y lugar en que fueron publicados, por ejemplo).

Filtros y potencia de cálculo de los Grandes Datos

Los “Grandes Datos” describen el conjunto de datos que son demasiado grandes para ser calculados con eficacia y rapidez en el escritorio promedio o portátil. En otras palabras, los grandes datos se refieren a la potencia de cálculo (los filtros que utilizamos), a las habilidades necesarias para aplicar ese poder de computación. Dicho de otra manera, los grandes datos son “grandes” debido a la falta de filtros. Si tuviéramos filtros más poderosos, los”Big Data” serían más fáciles de manejar.

Los filtros necesarios para manejarlos se pueden crear utilizando Computación Humana (crowdsourcing, microtasking) y / o máquinas de computación (procesamiento del lenguaje natural, aprendizaje de máquinas, etc.)

Volumen de datos y tiempo necesario para clasificarlos (Fte: iRevolution,net)

Volumen de datos y tiempo necesario para clasificarlos (Fte: iRevolution,net)

“Si nos fijamos en el gráfico, señala Meier el eje horizontal representa el tiempo, mientras que el vertical representa el volumen de la información. En un buen día, es decir, cuando no hay grandes desastres, el Centro Digital de Operaciones de Cruz Roja Americana monitoriza y lee manualmente cerca de 5.000 tweets. Este volumen de datos en una “situación estable” y la velocidad de los datos está representada por el área verde. La línea de puntos situada encima de la zona verde y el reloj marca  la capacidad de una organización (o individuo) para gestionar un determinado volumen, velocidad y variedad de datos. “

“Cuando ocurre un desastre, esa capacidad se estira y, a menudo se sobrepasa. SMás de 3 millones de tweets fueron publicados en las primeras 48 horas después del Tornado de Categoría 5 que devastó Moore, Oklahoma, por ejemplo. Lo que ocurre a continuación se muestra en el gráfico siguiente.”

(Fte: iRevolution.net)

(Fte: iRevolution.net)

Las Organizaciones humanitarias y de gestión de emergencias a menudo carecen de la capacidad de respuesta interna para gestionar el rápido aumento de los datos generados durante los desastres. Esta gran crisis de datos está representada por el área roja. Pero la línea de puntos puede elevarse. Una forma de hacerlo es la construcción de mejores filtros (usando la computación humana y / o una máquina de computación). Ejemplos reales de Informática humana y la máquina utilizada para la respuesta a desastres se destacan aquí y aquí, respectivamente. 

(Fte:iRevolution.net)

(Fte:iRevolution.net)

“Una segunda manera de cambiar la línea de puntos es un liderazgo decidido. Un ejemplo es la actuación del Gobierno filipino durante el reciente tifón. Más sobre la política aquí. Ambas estrategias (políticas informáticas y estratégica avanzados) son necesarias para aumentar la línea de puntos de una manera consistente”, concluye Meier.

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)
VN:F [1.9.22_1171]
Rating: 0 (from 0 votes)