Trend Micro publica un estudio sobre los riesgos de seguridad en la IA generativa
Trend Micro Incorporada, líder en ciberseguridad, ha publicado un nuevo estudio titulado “The Road to Agent: Laying the Foundations”. En este análisis, se revela que la generación aumentada por recuperación (RAG), una tecnología que permite a las empresas crear soluciones de IA personalizadas, presenta importantes riesgos de seguridad. A pesar de los beneficios de la RAG, las empresas deben ser conscientes de estos desafíos para proteger sus datos y operaciones.
La generación aumentada por recuperación combina dos elementos clave: un almacén vectorial, que organiza los datos y facilita su búsqueda, y un modelo de lenguaje que utiliza esa información para responder preguntas o generar contenido. Aunque esta tecnología es eficiente y económica, el informe identificó más de 80 servidores de RAG expuestos a internet sin medidas básicas de protección, como contraseñas o cifrado.
El informe también destacó la falta de seguridad en herramientas ampliamente utilizadas, como llam.cpp y Ollama, que alojan modelos de lenguaje. En muchos casos, los sistemas permitían acceder, modificar o borrar datos almacenados, dejando vulnerables tanto la información empresarial como la operatividad de los sistemas.
El enfoque de “moverse rápido y romper cosas” ha llevado a muchos desarrolladores a priorizar la innovación sobre la seguridad, lo que pone en riesgo los sistemas actuales y plantea desafíos para el futuro de la inteligencia artificial.
Los expertos de Trend Micro recomiendan la implementación de medidas de seguridad robustas, como autenticación obligatoria en todos los accesos, cifrado de las comunicaciones y adopción de un modelo de seguridad de confianza cero (Zero Trust). Estas medidas son fundamentales para proteger la infraestructura tecnológica y los datos sensibles que sustentan los avances en inteligencia artificial.