Tendencias

CMF activa monitoreo por riesgos de ciberseguridad asociados a la IA “Mythos” de Anthropic

Expertos advierten que este avance marca un nuevo nivel en las amenazas digitales y llaman a fortalecer la anticipación y los controles en las industrias reguladas

La Comisión para el Mercado Financiero (CMF) inició un monitoreo preventivo con las industrias supervisadas y la Agencia Nacional de Ciberseguridad, tras conocer los potenciales riesgos de ciberseguridad que representa el nuevo modelo de inteligencia artificial “Mythos”, desarrollado por Anthropic.

Dicho modelo generó alerta internacional luego de demostrar, en pruebas controladas, una alta capacidad para identificar y explotar vulnerabilidades en sistemas operativos y navegadores de forma autónoma. Frente a ello, la CMF tomó contacto con entidades financieras, bancos, aseguradoras y otras industrias bajo su supervisión con el fin de evaluar posibles exposiciones y asegurar una adecuada gestión de riesgos.

Al respecto, Marco Antonio Álvarez, presidente de la Alianza Chilena de Ciberseguridad, señala que “la aparición de modelos como Mythos marca un nuevo nivel en las capacidades ofensivas de la IA. Es positivo que la CMF actúe con rapidez y coordine con la industria y la Agencia Nacional de Ciberseguridad. Las entidades financieras deben fortalecer inmediatamente sus controles, ya que estos sistemas pueden automatizar ataques que antes requerían de equipos humanos altamente especializados”.

Según el experto, el caso confirma que la IA ya no es solo una herramienta de productividad, sino también un vector de riesgo emergente. Por eso, afirma, es clave que las empresas supervisadas por la CMF revisen sus defensas, actualicen sus protocolos y mantengan una vigilancia continua frente a estos avances tan rápidos.

“Resulta positivo comprobar que nuestra institucionalidad  está atenta y reaccionando con rapidez ante riesgos emergentes de la inteligencia artificial. Es necesario, eso sí, recalcar que el verdadero desafío es desarrollar una capacidad real de anticipación. La velocidad con la que avanza la IA exige que reguladores, empresas y expertos trabajen de manera proactiva para identificar y mitigar riesgos antes de que se materialicen”, menciona el ejecutivo. 

Bajo la misma línea, Álvarez sostiene que la acción de la CMF refleja una madurez regulatoria necesaria en un contexto donde la inteligencia artificial evoluciona más rápido que las medidas de protección tradicionales.

“Las organizaciones deben adoptar medidas concretas de inmediato. Es clave hacer evaluaciones periódicas de riesgos asociados a IA, actualizar y fortalecer los protocolos de ciberseguridad, implementar controles de acceso más estrictos y capacitar a los equipos en la detección de amenazas automatizadas. Además, se recomienda establecer un monitoreo continuo de las nuevas capacidades de los modelos de dicha tecnología y mantener una estrecha colaboración con las autoridades reguladoras”, concluye Marco Antonio Álvarez.

Shares: