Estudio revela que la IA comete errores al analizar textos cuando se presentan como poemas

Ciencia y Tecnología04/01/2026Celia SantanaCelia Santana
Z5P4TFO735HSPLUWN4ET3OYDOU

Un estudio realizado en Italia encendió una nueva alerta sobre las limitaciones de seguridad de los sistemas de inteligencia artificial más usados en el mundo. Investigadores del Ícaro Lab comprobaron que modelos como ChatGPT, Gemini o Claude pueden responder a solicitudes que normalmente bloquearían, cuando esas mismas peticiones se presentan en forma de poema, incluso si tratan temas peligrosos, dañinos o prohibidos.

La investigación, difundida por Deutsche Welle (DW), contó con la participación de Federico Pierucci, quien explicó que las pruebas no fueron elaboradas por poetas profesionales, sino por el propio equipo. Señaló que el simple hecho de cambiar el formato, de prosa a poesía, bastó para que las barreras de seguridad no se activaran en varios casos.

Los investigadores escribieron preguntas sobre temas que las IA suelen rechazar y luego las reformularon en forma poética. Al introducirlas en los chats, observaron que los sistemas sí respondían, pasando por alto sus propias restricciones. Según el estudio, los filtros de seguridad están diseñados para detectar patrones del lenguaje común, pero pueden fallar cuando enfrentan recursos literarios como metáforas o rimas.

El mayor reto de la IA en estos casos

Pierucci planteó que el reto no solo es corregir esta falla, sino entender por qué ocurre y si podría repetirse con otros formatos creativos, como cuentos o diferentes estilos de escritura. El estudio también destaca un problema más amplio: la enorme diversidad del lenguaje humano. Esto representa un desafío en un contexto en el que la inteligencia artificial se usa cada vez más en áreas sensibles como educación, salud, seguridad o decisiones empresariales. Si la IA no interpreta bien la intención de un mensaje, podría ofrecer respuestas inadecuadas o peligrosas.

Los sistemas de IA defectuosos pueden sesgar las oportunidades

Además, la investigación aparece en un momento de fuerte expansión de la IA, especialmente en América Latina y el Caribe, donde persisten desigualdades de acceso y desarrollo tecnológico. Informes del PNUD y Naciones Unidas advierten que sistemas entrenados con datos incompletos o sesgados pueden reforzar desigualdades en empleo, crédito, políticas públicas y seguridad.

De acuerdo con el PNUD, aunque la IA puede impulsar el crecimiento económico, sus beneficios suelen concentrarse en países con mayor infraestructura digital, capacidades tecnológicas y formación especializada, lo que podría ampliar aún más las brechas existentes.

 

Últimas publicaciones
Te puede interesar

Lo más visto