Microsoft crea este asistente con inteligencia artificial para detectar amenazas cibernéticas

El asistente recibe entradas en texto, por lo que se le pueden solicitar resúmenes de vulnerabilidad, pero también apartados más avanzados como alimentar archivos, URL o fragmentos de un código.

Redacción.- Microsoft crea Security Copilot, un asistente que usa los cerca de 65 millones de datos diarios que recopila la empresa sobre posibles amenazas y habilidades de protección, que son los que permiten dar respuesta a solicitudes.

El enfoque de este nuevo programa está en las empresas, expertos en seguridad e investigadores, ya que su objetivo es ser un apoyo en la gestión y respuesta de los problemas “a la velocidad y la escala de la IA”, según informa la compañía a Infobae.

La forma de uso es muy similar a la de cualquier chatbot, en la que una persona le hace una consulta o petición y el sistema genera una respuesta dependiendo de los datos que tenga almacenados.

Por ejemplo, se le puede preguntar ‘cuáles son los problemas de seguridad que está teniendo la empresa’, y Security Copilot entregará un listado con las posibles situaciones que estén afectando la operación, según los datos almacenados de los sistemas internos.

El sistema no solo opera bajo solicitudes, sino que tiene la capacidad de recibir avisos, para realizar análisis a medida que va aprendiendo, mejorando y creando habilidades de respuesta, captando información de todo tipo para no dejar escapar información que pueda ser relevante.

“En un incidente típico, este impulso se traduce en mejoras en la calidad de la detección, la velocidad de respuesta y la capacidad para fortalecer la postura de seguridad”, afirma Microsoft.

El asistente recibe entradas en texto, por lo que se le pueden solicitar resúmenes de vulnerabilidad, pero también apartados más avanzados como alimentar archivos, URL o fragmentos de un código.

Toda esta información queda almacenada para gestión de los encargados, quienes pueden revisar el historial y los datos encontrados por otros, porque el acceso es compartido y se protege gracias a la privacidad de la nube de Azure.

La empresa asegura que esta herramienta no es solo un modelo de lenguaje, sino que es un sistema “que aprende, para permitir que las organizaciones se defiendan Verdaderamente a la velocidad de la máquina”, por ese motivo se puede integrar con otros sistemas de defensa que tiene la compañía y un futuro con los de terceros.

Eso sí, advierten que al generar contenido con inteligencia artificial no está exenta de errores y que no siempre hace todo bien. Pero esto lo compensa con el aprendizaje continúo que hace de los usuarios y de los sistemas a los que esté enlazado, lo que con el tiempo permite recibir respuestas mucho más precisas al problema o solicitud que se está planteando.

Finalmente, para garantizar su correcto funcionamiento, Security Copilot solamente generará contenido relacionado con ciberseguridad y no dará respuestas a consultas sobre el clima o recetas recomendadas.

Por ahora, algunas empresas asociadas con Microsoft son las que están teniendo acceso a esta herramienta en una versión previa y por ahora no está claro cuándo lo lanzarán de una manera más amplia, porque el objetivo por ahora es que el sistema obtenga toda la información posible para afinar sus respuestas y ofrezca soluciones más adecuadas.