Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene operativo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la compañía asegura haber pionerizado desde 2021, forma parte de su estrategia para garantizar la seguridad y el cumplimiento de principios éticos en el desarrollo de nuevas tecnologías.
Brad Smith, presidente de Microsoft, enfatizó que la existencia de estos equipos es fundamental para operar dentro de los límites establecidos por la propia organización. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.
Smith añadió que la responsabilidad corporativa no radica únicamente en determinar cuándo utilizar la tecnología, sino también en establecer claramente cuándo no debe ser empleada. Esta postura refleja un enfoque preventivo ante los riesgos potenciales que plantea la expansión de la inteligencia artificial en diversos sectores.
La metodología del ‘red teaming’ tiene sus orígenes en prácticas militares y ha sido aplicada en el ámbito de la ciberseguridad durante décadas. En el contexto actual, su implementación busca simular ataques adversarios para fortalecer los sistemas de IA, aunque la investigación no detalla los métodos específicos de hacking ni la composición exacta del equipo más allá de ser multidisciplinario.
Esta estrategia de seguridad surge en un entorno de debate global sobre el uso de la inteligencia artificial en aplicaciones sensibles, como la guerra. Antecedentes relevantes incluyen la demanda de la empresa Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, lo que subraya la complejidad de integrar estas tecnologías en contextos críticos sin los debidos controles.