Anthropic limita Mythos mientras Claude ya opera en SaaS
El modelo más avanzado se restringe por riesgos, pero su IA ya funciona dentro de plataformas empresariales.
La empresa Anthropic decidió en 2026 restringir el acceso a su modelo más avanzado, Claude Mythos, por sus riesgos en ciberseguridad, mientras versiones de su IA Claude ya operan dentro de plataformas empresariales como Salesforce, lo que plantea nuevos desafíos sobre control, uso y seguridad de agentes inteligentes en entornos corporativos.
Claude Mythos ha demostrado capacidades avanzadas para identificar vulnerabilidades críticas en sistemas, incluyendo fallas no detectadas durante décadas, lo que llevó a Anthropic a limitar su acceso a un grupo reducido de organizaciones bajo programas controlados. Este tipo de modelos puede reducir el tiempo entre el descubrimiento y la explotación de fallos de meses a minutos, incrementando el riesgo si cae en manos maliciosas.
Sin embargo, el enfoque exclusivo en amenazas externas deja fuera un riesgo inmediato: los agentes de inteligencia artificial ya integrados en servicios SaaS. Herramientas como asistentes en plataformas corporativas operan con permisos activos dentro de sistemas empresariales, muchas veces sin supervisión adecuada. Expertos advierten que un agente comprometido podría acceder a datos sensibles o ejecutar acciones internas sin necesidad de explotar vulnerabilidades tradicionales.
Especialistas en seguridad señalan que las organizaciones deberán avanzar hacia modelos de gobernanza que incluyan monitoreo de comportamiento de agentes de IA, control de accesos y evaluación continua de riesgos. El debate se centra ahora no solo en el desarrollo de modelos avanzados, sino en cómo gestionar los que ya están activos dentro de las operaciones diarias.
