Microsoft y MITRE, en colaboración con una docena de organizaciones, han desarrollado un marco diseñado para ayudar a identificar, responder y remediar ataques dirigidos a sistemas de aprendizaje automático (Machine Learning).

El Adversarial ML Threat Matrix, como se conoce al marco, ha sido lanzado por Microsoft en colaboración con MITRE, IBM, NVIDIA, Airbus, Bosch, Deep Instinct, Two Six Labs, Cardiff University, University of Toronto, PricewaterhouseCoopers, Software Engineering Institute en Carnegie Mellon University, y el Berryville Institute of Machine Learning.

alt text

La idea es que las empresas puedan usar el Adversarial ML Threat Matrix para probar la resistencia de sus modelos de inteligencia artificial mediante la simulación de escenarios de ataque realistas utilizando una lista de tácticas para obtener acceso inicial al entorno, ejecutar modelos de aprendizaje automático inseguros, contaminar los datos de entrenamiento y exfiltrar información confidencial. a través de ataques de robo de modelos.

«El objetivo de este framework es colocar los ataques en los sistemas de aprendizaje automático en un marco en el que los analistas de seguridad puedan orientarse en estas amenazas nuevas y futuras«, dice Microsoft.

«La matriz está estructurada como el marco ATT & CK , debido a su amplia adopción entre la comunidad de analistas de seguridad; de esta manera, los analistas de seguridad no tienen que aprender un marco nuevo o diferente para conocer las amenazas a los sistemas de aprendizaje automático».

Podéis acceder al framework en este enlace:

___________________________________

Recordaros que podéis seguirnos en nuestro Twitter, Instagram y Telegram.

Si te gusta la labor que realizamos a diario…

AUTOR