
Durante los desfiles de los triunfos romanos, un esclavo sostenía una corona de laurel detrás del emperador y le susurraba “memento mori”: recuerda que eres mortal.
En China imperial, los consejeros remonstrantes tenían la obligación de señalar los errores del emperador.
Y en muchas culturas indígenas de América, los “clowns rituales” ponían en evidencia los desmanes de la comunidad con el humor y la inversión de normas.
Todas estas figuras compartían un propósito universal: limitar el ego, evitar la ceguera del poder y recordarnos que nuestra condición humana es limitada.
Hoy, las sociedades modernas han perdido buena parte de estos mecanismos, y, paradójicamente, hemos creado una tecnología que a menudo hace justo lo contrario.
Las herramientas de IA generativa sufren un fenómeno bien documentado: el “sycophancy bias”, la tendencia a ser demasiado complacientes, evitar el conflicto y validar sin matices ideas que quizás no tienen ni pies ni cabeza. Los “¡muy buena pregunta!”, “¡gran idea!”, “¡perfecto!”, aunque no lo sean, son respuestas frecuentes, porque estos modelos han sido entrenados para agradarnos, no para llevarnos la contraria.
Ya no se trata sólo de nuestra poca tolerancia a las críticas. El problema es que, si no disponemos de criterios comunes, filtros sistemáticos, y una metodología clara de validación de nuestra producción digital, corremos el riesgo de, con el apoyo de las nuevas herramientas, acabar reforzando errores, contradicciones o mensajes poco rigurosos.
Y así, poco a poco, sin darnos cuenta, acabar convirtiendo la comunicación corporativa en una nueva Torre de Babel.
Si queremos utilizar la IA de forma responsable y coherente, necesitamos:
• libros de estilo claros,
• guías de uso compartidas,
• protocolos de implantación bien definidos,
• y criterios comunes sobre tono, contexto, validación y calidad del contenido.
La IA puede ser un gran aliado.
Pero sólo si recordamos que, como los antiguos emperadores, también nosotros necesitamos un “memento mori” digital que nos evite caer en el autoengaño tecnológico.
