«La IA es capaz de generar avatares que hablan con la voz y el rostro de personas fallecidas a partir de un simple video. Una herramienta poderosa que mezcla consuelo, riesgo y una pregunta incómoda: ¿hasta dónde queremos que llegue la simulación?»

El proceso técnico abre más dudas que certezas.
La IA (inteligencia artificial) está empezando a intervenir en espacios que hasta hace poco considerábamos íntimos, casi sagrados: desde álbumes familiares que se animan solos hasta voces reconstruidas a partir de un audio antiguo. El último ejemplo llega de la mano de una aplicación capaz de recrear conversaciones con personas fallecidas: avatares que imitan su voz, su rostro y ciertos rasgos de su personalidad a partir de un simple video de tres minutos. Una propuesta que mezcla tecnología, memoria y vulnerabilidad emocional en un terreno donde nada es inocente.
La mecánica es tan sencilla como inquietante. El usuario sube un breve fragmento audiovisual y el sistema genera un HoloAvatar: una figura digital que responde, conversa y mantiene un hilo narrativo continuado. En la presentación, una mujer embarazada habla con su madre fallecida; años después, ese mismo avatar interactúa con el nieto.
Sus creadores lo describen como un “archivo viviente”. Una red de identidades digitales que prolongan vínculos, enseñanzas o incluso el legado de la persona fallecida. La idea seduce porque toca fibras muy profundas: recuperar una voz, revivir un gesto o escuchar un consejo que nunca llegó. Pero esta seducción tiene un precio. ¿Dónde termina la memoria y empieza la simulación? ¿Qué parte del avatar procede de la persona real y cuál es una reconstrucción generada con IA?
El proceso técnico abre más dudas que certezas. ¿Qué algoritmos rellenan los huecos? ¿Hasta qué punto improvisan? Con tan pocos datos de entrada, es evidente que gran parte del avatar no es una réplica, sino una interpretación. Y, sin embargo, el efecto emocional parece tan potente que muchos usuarios lo viven como continuidad real del vínculo.
Las críticas han sido inmediatas. Hay quien lo considera una herramienta terapéutica y quien lo califica directamente de “app de Black Mirror”. Ambas reacciones son comprensibles. Esta tecnología no solo acompaña el duelo: puede prolongarlo, distorsionarlo o incluso bloquearlo. Una cosa es recordar a alguien; otra es conversar con una versión generada por un modelo que no entiende la muerte, ni el dolor, ni los matices de una vida concreta.
Conviene recordar que no es la primera vez que la tecnología intenta preservar la memoria. Desde proyectos de entrevistas biográficas hasta archivos familiares en video, siempre hemos buscado dejar un rastro. Lo que diferencia a estos avatares no es la conservación, sino la interacción: responden, sugieren, opinan. En definitiva, hablan como si fueran quien ya no está.
Ese es el núcleo del problema. La IA puede reconstruir patrones, pero no conciencias. Y es en ese hueco donde aparece la pregunta importante: ¿qué queremos realmente conservar? ¿Una voz que recuerda, o una conversación que nunca existió? La tecnología abre una puerta fascinante, pero también exige una responsabilidad nueva: decidir qué parte de nuestras ausencias puede convertirse en algoritmo… y cuál debe seguir siendo silencio.