Barcelona (España).– Investigadores internacionales, con participación de la Universitat Oberta de Catalunya (UOC), en España, han desarrollado un sistema de visión por computador basado en ‘deep learning’ que aprovecha una base de datos de más de 1,7 millones de fotografías para detectar automáticamente los desastres naturales a través de imágenes colgadas en las redes sociales.
«Hemos demostrado que la detección automática de incidentes en redes como Twitter es factible, y esto puede ayudar mucho a las organizaciones de ayuda humanitaria», destacó la profesora de la UOC Ágata Lapedriza, especializada en inteligencia artificial que ha participado en el trabajo, liderado por el Massachusetts Institute of Technology (MIT).
La investigación ha aplicado herramientas de visión por computación que, una vez entrenadas con 1,7 millones de fotografías, se han demostrado eficaces para analizar, filtrar y detectar catástrofes reales, como inundaciones, tornados o incendios forestales, que, por otra parte, son cada vez más frecuentes y devastadores a consecuencia del cambio climático.
«Como todavía no hay herramientas para predecir dónde y cuándo habrá este tipo de incidentes, articular una respuesta rápida y eficaz de los servicios de emergencia y cooperación internacional resulta fundamental para salvar vidas», subrayó Lapedriza.
«Afortunadamente, -añadió- la tecnología puede jugar un papel muy importante en estas situaciones. Las publicaciones en las redes sociales se pueden utilizar como una fuente de datos de baja latencia para entender la progresión y las consecuencias de un desastre».
En la investigación, que publica la revista ‘Transactions on Pattern Analysis and Machine Intelligence’, Lapedriza ha contribuido a definir la taxonomía de incidentes, crear la base de datos para entrenar los modelos de ‘deep learning’ y ejecutar los experimentos que validaron esta tecnología.
Los investigadores establecieron un listado con 43 categorías de incidentes naturales (aludes, tormentas de arena, terremotos, erupciones volcánicas, sequías…) y diferentes tipos de accidentes con algún grado de intervención humana (de avión, de construcción, etc.).
Este listado, junto con una tipología de 49 lugares, permitió etiquetar las fotografías con las que prepararon el sistema, que contiene 1.787.154 imágenes etiquetadas, para entrenar posteriormente el modelo de detección.
Las etiquetas permitieron entrenar al sistema para que elimine los falsos positivos y entienda, por ejemplo, que una fotografía de una hoguera no corresponde a un incendio, aunque comparta características visuales similares.
Con esta base hecha, el equipo entrenó un modelo para detectar incidentes «siguiendo el paradigma de aprendizaje multitárea y utilizando una red neuronal convolucional», según Lapedriza.
Una vez consiguió entrenar el modelo de deep learning en la detección de incidentes en imágenes, el equipo lo puso a prueba en varios experimentos, utilizando un volumen de imágenes ingente descargado de redes sociales como Flickr y Twitter.
«Dentro de estas imágenes, nuestro modelo detectó las que se correspondían a incidentes y acertó con incidentes concretos de los cuales existía registro, como los terremotos de 2015 en Nepal y en Chile», detalló Lapedriza.
Los autores han demostrado con datos reales el potencial de usar esta herramienta de inteligencia artificial para obtener información de las redes sociales sobre desastres naturales y acontecimientos que requieran ayuda humanitaria.
«Esto abre las puertas a que las organizaciones de ayuda humanitaria puedan enterarse de qué está pasando de manera más eficiente y puedan mejorar la gestión de la ayuda humanitaria cuando sea necesaria», añadió la especialista, que ahora se plantea aprovechar las mismas imágenes de catástrofes para cuantificar la gravedad de los incidentes de manera automática, o incluso hacer un seguimiento más efectivo de cómo evolucionan en el tiempo.