marzo 20, 2026

Microsoft mantiene equipo ‘red team’ para probar seguridad de su inteligencia artificial

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa asegura haber pionerizado desde 2021, forma parte de su estrategia de seguridad para evaluar los riesgos asociados a sus desarrollos tecnológicos.

Brad Smith, presidente de Microsoft, destacó la importancia de establecer límites claros en el desarrollo y uso de estas herramientas. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.

Smith enfatizó que la gestión responsable de la inteligencia artificial no solo implica decidir cuándo emplear la tecnología, sino también reconocer las situaciones en las que no debe ser utilizada. “No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, añadió, subrayando la función preventiva de los protocolos internos de la compañía.

El reporte periodístico indica que este grupo de trabajo opera bajo una metodología de pruebas ofensivas, simulando ataques para fortalecer la robustez de los sistemas. Aunque la investigación confirma la existencia del equipo y su origen en 2021, no detalla la composición específica de sus miembros ni los métodos técnicos exactos que emplean durante las pruebas de penetración.

La implementación de estos equipos de seguridad surge en un contexto de debate global sobre el uso de la inteligencia artificial en ámbitos sensibles, incluyendo aplicaciones militares. Antecedentes recientes incluyen la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021, así como acciones legales de otras empresas del sector tecnológico contra el uso de sus modelos en defensa.

Con la consolidación de estos principios y la operación continua del ‘red team’, Microsoft busca alinear su innovación tecnológica con criterios de seguridad y ética, manteniendo un enfoque preventivo ante los posibles impactos negativos de sus productos de inteligencia artificial.

About The Author