marzo 20, 2026
cd2db880f58744d68fbee622dee1bd8f

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene operativo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionerizado al formar el grupo en 2021, surge en un contexto de debate global sobre los límites éticos y militares del uso de la IA.

Brad Smith, presidente de Microsoft, destacó la necesidad de establecer marcos claros para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, afirmó el ejecutivo. Smith añadió que la gestión responsable de la tecnología implica determinar no solo cuándo debe utilizarse, sino también cuándo no debe hacerse.

El reporte indica que la metodología del ‘red teaming’ tiene sus orígenes en el ámbito militar y se ha aplicado en ciberseguridad desde hace décadas. En el caso de Microsoft, este grupo interno simula ataques para poner a prueba la robustez de los sistemas de inteligencia artificial desarrollados por la compañía, asegurando que cumplan con los estándares de seguridad establecidos.

La existencia de este equipo de seguridad se da en un entorno donde otras empresas tecnológicas han enfrentado controversias relacionadas con la aplicación de la IA en defensa. El contexto actual incluye casos como la demanda de Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, lo que subraya la sensibilidad del sector respecto a la dualidad civil-militar de estas herramientas.

A pesar de la confirmación de la existencia del equipo y la postura de la dirección sobre los principios éticos, la investigación no detalla la composición específica de los integrantes del grupo, ni los métodos concretos de hacking empleados, ni los productos de inteligencia artificial que están siendo sometidos a pruebas en este momento.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *