La seguridad corporativa se enfrenta a una paradoja inesperada: la convergencia entre poesía e inteligencia artificial ha revelado una brecha crítica en los sistemas actuales. Lo que parecía una expresión puramente artística se ha transformado en un vector de ataque capaz de eludir los protocolos de seguridad más avanzados del mercado. Para un CEO o director de seguridad, esto no es una anécdota literaria, sino una alerta sobre la robustez de los LLM que implementamos en nuestras empresas.
Lorena Fernández, directora de Comunicación Digital de la Universidad de Deusto, ha desgranado en la cadena SER un estudio académico alarmante para el sector empresarial. La investigación, liderada por el Icaro Lab de Italia y el investigador Federico Pierucci, demuestra que los filtros de seguridad de plataformas como ChatGPT, Gemini o Claude fallan estrepitosamente ante la retórica poética. No se trata de un simple error técnico, sino de una vulnerabilidad estructural en la forma en que la IA procesa el lenguaje natural.
Ada Lovelace y la anticipación de la IA generativa
La historia de la computación ya nos advertía sobre la complejidad del lenguaje. Fernández recuerda que Ada Lovelace, la primera programadora de la historia, conceptualizó hace casi dos siglos la «ciencia poética». Lovelace ya imaginó máquinas capaces de componer música y diseños complejos mucho antes de que existiera el hardware para ejecutarlos.
El legado en el negocio actual: Esa visión de Lovelace sobre la intersección entre creatividad y cálculo es hoy el talón de Aquiles de la seguridad moderna. La intuición de que la máquina podría procesar arte ha derivado, paradójicamente, en que el arte sea la llave maestra para saltarse las barreras éticas y legales de los algoritmos.
Funcionamiento de los bloqueos de seguridad en IA
Para entender el riesgo, debemos comprender cómo las grandes tecnológicas intentan proteger sus activos. Los grandes modelos de lenguaje (LLM) operan con capas de defensa diseñadas para bloquear riesgos reputacionales y legales, como la incitación al delito o la violencia. Estos sistemas funcionan mediante filtros de palabras clave (drogas, armas), clasificadores de toxicidad, barreras contra la manipulación política y detectores de fraude y gestión de datos personales.
Sin embargo, Fernández subraya un punto crítico para cualquier responsable de Compliance: estos mecanismos no son neutrales. Dependen de decisiones culturales tomadas durante el entrenamiento y de la evaluación humana. Si la configuración de privacidad es laxa, las consultas corporativas pueden acabar siendo revisadas por personas externas, exponiendo no solo vulnerabilidades de seguridad, sino secretos industriales.
El hallazgo clave: poesía vs censura de IA
El estudio del Icaro Lab ha puesto cifras al riesgo. Tras probar 20 poemas en inglés e italiano diseñados para esconder peticiones maliciosas (jailbreaks), y testearlos en 25 sistemas de IA de nueve gigantes tecnológicos —incluyendo Google, OpenAI, Anthropic, Deepseek, Qwen, Mistral AI, Meta, xAI y Moonshot AI—, los resultados son una llamada de atención para la industria.
El fallo probabilístico: Los modelos de lenguaje predicen la siguiente palabra lógica. Al introducir la métrica y la metáfora de un poema, la previsibilidad se rompe. La IA «baja la guardia» ante estructuras poco convencionales, permitiendo la ejecución de comandos que en prosa serían bloqueados inmediatamente.
| Tipo de Amenaza Empresarial | Tasa de Éxito del Ataque (Bypass) | Implicación para la Pyme/Empresa |
|---|---|---|
| Ciberataques / Malware | +80% | Riesgo crítico de inyección de código o robo de credenciales. |
| Promedio General | 62% | Más de la mitad de los filtros estándar fallan. |
| Armas Químicas/Biológicas | ~60% | Acceso a información sensible de alto riesgo. |
| Armamento Nuclear | 40% – 55% | Vulnerabilidad en sectores altamente regulados. |
Impacto en la Ley de IA de la Unión Europea
Si su empresa opera en Europa, este hallazgo tiene implicaciones legales directas. El estudio concluye que las grandes tecnológicas no están cumpliendo con los estándares de robustez exigidos por la Ley de IA de la UE, ni siquiera con los códigos de buenas prácticas a los que se adhieren voluntariamente.
El equipo de Icaro Lab, actuando bajo la premisa de investigación de «sombrero blanco», alerta de que estas vulnerabilidades deben corregirse antes de ser explotadas masivamente. Actualmente, investigan si otras formas narrativas como fábulas o cuentos podrían replicar este efecto, lo que obligaría a reevaluar todas las auditorías de seguridad vigentes.
Creatividad humana frente a IA: implicaciones de seguridad
La investigación arroja un dato contraintuitivo: a mayor potencia del modelo, mayor es su vulnerabilidad. Fernández destaca que una mayor capacidad de procesamiento abre una «superficie de ataque» más amplia.
Comparativa de resistencia:
- GPT-4 nano (OpenAI): El más seguro en la prueba, no respondió con contenido dañino a ningún poema.
- Gemini 2.5 pro (Google): El más vulnerable, respondió a todas las solicitudes maliciosas encubiertas.
- Modelos de Meta: Fallaron en el 70% de los casos.
Federico Pierucci cerró el estudio con una ironía que esconde una verdad de mercado: «Probablemente los humanos seguimos siendo los mejores poetas». Los poemas escritos manualmente por los investigadores fueron mucho más efectivos para romper la seguridad que los generados por otras IAs. Esto demuestra que la creatividad humana sigue siendo un factor impredecible —y peligroso— para los sistemas automatizados. Mientras que los ataques técnicos tradicionales requieren hackers expertos, este tipo de ingeniería social («poesía adversarial») está al alcance de cualquier usuario, democratizando el riesgo.
¿Cómo te afecta esto hoy?
La lección para tu empresa no es evitar la poesía, sino entender que la Inteligencia Artificial requiere una supervisión profesional constante. La herramienta por sí sola no garantiza la seguridad ni la eficiencia.
El enfoque AdPalabras debe centrarse en:
- Auditoría de Prompts: No basta con instalar la IA; debes saber qué se le pregunta y cómo responde tu sistema interno.
- Automatización Supervisada: La rentabilidad real viene de automatizar procesos repetitivos bajo una capa de control humano que filtre estas anomalías.
- Eficiencia Segura: Implementar modelos más pequeños y específicos (como GPT-4 nano en este estudio) puede ser más seguro y rentable que usar el modelo más grande y potente del mercado sin control.






