Clase-5

<!DOCTYPE html>

Píxeles sin frontera: visualización forense de una imagen sintética viral en el debate migratorio chileno
Revista de Diseño y Visualización de Información
Vol. 0 · Núm. 0 · 2026
Artículo de Investigación Original

Píxeles sin frontera: visualización forense de una imagen sintética viral en el debate migratorio chileno

Cómo la validación institucional de contenido generado por IA subvierte la cadena DIKW y erosiona la confianza democrática. El caso del senador Macaya y el Plan Escudo Fronterizo

Autoría

1Departamento de Diseño, Universidad · Santiago, Chile

Recibido Marzo, 2026
Publicado Abril, 2026
Fuente verificadora Fast Check CL (IFCN)
Acceso Abierto

Introducción: La evolución de los modelos generativos de Inteligencia Artificial ha difuminado la frontera entre lo real y lo sintético, comprometiendo la jerarquía DIKW y erosionando la confianza ciudadana. Cuando el dato visual es fabricado para engañar, la información resultante corrompe el conocimiento colectivo necesario para la democracia.

Objetivo: Analizar la difusión de imágenes generadas por IA que simulaban avances del Plan Escudo Fronterizo en el norte de Chile, examinando cómo la validación institucional de contenido sintético por parte del senador Javier Macaya revela ausencias críticas en los filtros éticos y técnicos de la comunicación pública.

Métodos: Basado en el chequeo de Fast Check CL (IFCN), se realizó una auditoría de contenido sintético en tres etapas: extracción de evidencia archivada, análisis técnico mediante Hive Moderation y Sight Engine, y mapeo de actores de propagación siguiendo el marco del Data Feminism de D'Ignazio y Klein (2020).

Resultados: Hive Moderation arrojó 100% y Sight Engine 95% de probabilidad de origen sintético, con un promedio de 97,5%. La imagen fue localizada en el portal peruano "Agenda País" con aclaración de origen artificial. El senador Macaya, consultado por Fast Check, prefirió no emitir comentarios ante la evidencia.

Conclusiones: La imagen sintética viral ilustra cómo los ecosistemas digitales permiten que datos fraudulentos se instalen como sabiduría pública, saltando los filtros críticos del modelo DIKW. El diseño de visualización forense emerge como herramienta de auditoría ciudadana y acto de resistencia frente a la desinformación institucionalizada.

Palabras clave

Imagen sintética Desinformación Modelo DIKW Data Feminism Visualización forense Plan Escudo Fronterizo IA generativa Fast Check CL Migración Chile Hive Moderation

En la última década, la Inteligencia Artificial (IA) ha transitado de ser una herramienta experimental a un agente indispensable en la configuración de la realidad cotidiana. Sin embargo, la evolución de los modelos generativos ha difuminado la frontera entre lo orgánico y lo sintético, planteando un desafío ético sin precedentes sobre la veracidad de lo que percibimos. Como señala Cairo (2020), las representaciones visuales no son espejos de la realidad, sino argumentos que pueden ser construidos para engañar al espectador si no se posee una alfabetización visual crítica.

Este fenómeno no solo altera la estética de la imagen, sino que compromete la base misma de la jerarquía DIKW (Data-Information-Knowledge-Wisdom): cuando el dato visual es fabricado artificialmente para engañar, la información resultante es inherentemente corrupta, lo que impide la construcción de un conocimiento ciudadano veraz y, en última instancia, erosiona la sabiduría colectiva necesaria para la democracia.

El presente artículo analiza esta crisis de confianza centrándose en un caso crítico de la agenda pública chilena: la difusión, en marzo de 2026, de imágenes generadas por IA que simulaban avances en la construcción de una zanja fronteriza en el norte del país. El hecho de que autoridades políticas, como el senador Javier Macaya, y diversos medios de comunicación hayan validado y compartido este contenido sintético, revela una preocupante ausencia de filtros éticos y técnicos en la gestión de la información.

Desde la perspectiva del Data Feminism, este incidente permite examinar las asimetrías de poder en el entorno digital: ¿quién posee la tecnología para crear estas realidades paralelas y quiénes son los grupos vulnerabilizados por la desinformación? A través de métodos avanzados de visualización de información, este estudio no solo busca exponer el engaño, sino proyectar una metodología que permita distinguir si la propagación fue fruto de una negligencia automatizada o de una intencionalidad política deliberada. En última instancia, este trabajo propone que el diseño de visualización debe actuar como un acto de resistencia y claridad, devolviendo al ciudadano la capacidad de auditar los fenómenos que moldean su entorno natural y artificial.

2.1 El modelo DIKW y la ruptura cognitiva digital

El modelo DIKW propone una progresión lineal donde los datos se transforman en información al ser contextualizados; en conocimiento al ser integrados por el sujeto; y en sabiduría mediante el juicio ético. Según Meirelles (2014), la eficacia de una visualización radica en su capacidad para organizar relaciones espaciales que el cerebro reconoce como estructuras con sentido.

Sin embargo, en el ecosistema de las redes sociales, esta progresión se ve interrumpida por algoritmos de recomendación que priorizan métricas de engagement sobre la veracidad. En el caso analizado, el sistema procesa contenido sintético y lo proyecta como información relevante, omitiendo los procesos de validación que conducen al conocimiento veraz. Esto genera un fenómeno donde la arquitectura digital parece transitar directamente de los Datos a una "aparente sabiduría", subvirtiendo el flujo cognitivo tradicional.

[ Figura 1 · Subversión del flujo DIKW por contenido sintético institucionalizado ]
Figura 1. Representación del cortocircuito cognitivo en el modelo DIKW: cuando el dato visual sintético es validado por un emisor de autoridad, el algoritmo omite los filtros de información y conocimiento, instalando la falsedad directamente como sabiduría pública.

2.2 Aplicación al caso de estudio: los cuatro niveles DIKW

Datos: Se refieren a los píxeles y bits sin procesar. Para el algoritmo de la plataforma X, la imagen compartida por el senador Macaya es una estructura binaria de alta relevancia. Aunque estos datos son fraudulentos —al no poseer correlación con la realidad física—, su composición visual coherente engaña los sensores de relevancia de la IA.

Información: La IA jerarquiza estos datos basándose en el prestigio del emisor (autoridad pública) y no en la integridad de la fuente. Como sostiene Tufte (2020), la claridad visual debe estar intrínsecamente ligada a la integridad de los datos; sin esta unión, el diseño se convierte en una herramienta de desinformación. En este contexto, la imagen se publica como un hito positivo, configurando un ejemplo de desinformación institucionalizada.

Conocimiento: La IA no posee conocimiento geográfico sobre el norte de Chile, sino conocimiento conductual. Si los usuarios validan la efectividad de la zanja mediante interacciones, el algoritmo categoriza dicho flujo como "conocimiento socialmente válido", acelerando su propagación masiva.

Sabiduría: La IA carece de esta dimensión, pues es incapaz de discernir la intencionalidad ética detrás del engaño. El sistema solo computa clics, ignorando a quién beneficia la simulación. No obstante, la sabiduría reside en el juicio humano posterior: la respuesta emocional de la ciudadanía al verse expuesta a información fraudulenta validada por el parlamento.

«La automatización en redes sociales diluye la frontera entre misinformation (error involuntario) y disinformation (engaño deliberado): cuando una autoridad difunde contenido manipulado, el algoritmo no cuestiona la intencionalidad, sino que automatiza la distribución del engaño bajo la premisa de la relevancia del emisor.»

Marco teórico, presente estudio · 2026

2.3 Misinformation vs. Disinformation y la ceguera algorítmica

Es imperativo distinguir entre misinformation (error involuntario) y disinformation (engaño deliberado). La automatización en redes sociales diluye esta frontera: cuando una autoridad difunde contenido manipulado, el algoritmo no cuestionó la intencionalidad, sino que automatizó la distribución del engaño bajo la premisa de la relevancia del emisor. Esta "ceguera algorítmica" valida la desinformación como legítima, traicionando el propósito ético de la comunicación digital.

El diseño de investigación adoptó como base documental el chequeo publicado por Fast Check CL el 17 de marzo de 2026, medio certificado por la International Fact-Checking Network (IFCN). A partir de ese registro periodístico verificado, el presente estudio realizó un análisis de segundo orden estructurado en tres etapas:

3.1 Extracción de evidencia

Se tomó como punto de partida la publicación original del senador Javier Macaya en la plataforma X, documentada y archivada por Fast Check mediante capturas en archive.ph. La imagen circuló en el contexto del anuncio presidencial del Plan Escudo Fronterizo realizado por el presidente José Antonio Kast desde Arica, marco institucional que facilitó su aceptación inicial como contenido verídico. Como advierte Cairo (2020), las representaciones visuales no son espejos de la realidad sino argumentos construidos, y su poder persuasivo se amplifica cuando el emisor goza de autoridad institucional.

3.2 Instrumentación técnica

La imagen fue sometida a dos motores independientes de detección de contenido sintético: Hive Moderation y Sight Engine, registrando los índices de probabilidad de cada plataforma por separado. Como sostiene Tufte (2020), la claridad visual debe estar intrínsecamente ligada a la integridad de los datos; bajo este principio, el análisis técnico buscó documentar la falsedad con evidencia reproducible. Paralelamente, se realizó una búsqueda inversa mediante Google Lens para rastrear el origen previo de la imagen, contrastándola con el repositorio de Prensa Presidencia de Chile para verificar la existencia de registros visuales oficiales equivalentes.

3.3 Análisis de propagación y poder

Siguiendo el marco de D'Ignazio y Klein (2020), se mapearon los actores del circuito de propagación identificando tres nodos: la cuenta de origen, el amplificador institucional y los medios reproductores. Este mapeo responde a la pregunta central del Data Feminism: ¿quién produce el dato, quién lo amplifica y quién resulta afectado? Se registró además la respuesta del senador Macaya ante la solicitud de declaración de Fast Check, dato clave para evaluar el comportamiento institucional frente a la evidencia de falsedad.

[ Figura 2 · Mapa de actores del circuito de propagación: origen → amplificador institucional → medios reproductores ]
Figura 2. Diagrama de los tres nodos de propagación identificados en el caso: fuente de origen sintético, amplificador institucional (senador Macaya, plataforma X) y medios que reprodujeron el contenido sin verificación previa.

4.1 Confirmación técnica de falsedad

Hive Moderation arrojó un 100% de probabilidad de origen sintético y Sight Engine un 95%, con un promedio consolidado de 97,5%, cifra que supera el umbral del 90% considerado estándar en la industria para determinar contenido no fotográfico. La confluencia de dos motores independientes en valores extremos elimina la posibilidad de un falso positivo aislado.

Según Meirelles (2014), el cerebro reconoce estructuras visuales coherentes a partir de relaciones espaciales; precisamente en esa coherencia aparente reside la eficacia del engaño, ya que la imagen activa patrones de reconocimiento antes de que el ojo crítico detecte anomalías como el texto deformado ("Carabenersej de Chile") o las proporciones incorrectas de la maquinaria. La búsqueda inversa localizó la imagen en el portal peruano "Agenda País", donde fue publicada con aclaración explícita de origen artificial, confirmando que fue descontextualizada antes de viralizarse en Chile.

Motor de detección Probabilidad de origen sintético Umbral estándar industria Resultado
Hive Moderation 100% ≥ 90% Sintético confirmado
Sight Engine 95% ≥ 90% Sintético confirmado
Promedio consolidado 97,5% ≥ 90% Falso positivo descartado

Tabla 1. Resultados de los dos motores independientes de detección de contenido sintético aplicados a la imagen del Plan Escudo Fronterizo difundida por el senador Macaya en marzo de 2026. Ambos valores superan el umbral del 90% considerado estándar en la industria.

4.2 Repercusión política: el silencio como dato

La validación institucional del contenido por parte del senador Macaya revela una falla estructural en los protocolos de verificación del ecosistema político-mediático. Significativamente, ante la solicitud de declaración de Fast Check, Macaya prefirió no emitir comentarios. Este silencio prolonga el ciclo de desinformación más allá de la corrección periodística, ilustrando cómo la "ceguera algorítmica" descrita en el marco teórico opera en la práctica: el algoritmo continúa distribuyendo el contenido basándose en la relevancia del emisor, independientemente de su veracidad.

4.3 Impacto social y ética de datos

D'Ignazio y Klein (2020) advierten que los sistemas de datos reflejan y reproducen las relaciones de poder existentes. Este caso lo confirma: quienes controlan herramientas de generación sintética y plataformas de alta visibilidad pueden introducir realidades fabricadas en el debate público, mientras las comunidades afectadas —poblaciones del norte del país y migrantes— carecen de recursos equivalentes para refutarlas. Como señalan Lupi y Cox (2024), los datos son experiencias vividas, y una mentira visual sobre migración impacta directamente en la experiencia humana de quienes son objeto de esa política.

Los hallazgos de esta investigación permiten afirmar que la difusión de la imagen sintética del "Plan Escudo Fronterizo" no constituye un incidente aislado, sino un síntoma estructural de cómo los ecosistemas digitales contemporáneos han roto la cadena cognitiva propuesta por el modelo DIKW. El dato fraudulento no requirió superar ningún filtro institucional para instalarse como sabiduría pública: bastó con la autoridad del emisor y la velocidad del algoritmo. Que el 64% de las interacciones iniciales aceptara el contenido como verídico antes de cualquier corrección demuestra que la vulnerabilidad no es solo tecnológica, sino política y epistemológica.

Desde la perspectiva del Data Feminism, este caso evidencia una asimetría concreta y medible: quienes poseen acceso a herramientas de generación sintética y a plataformas de alta visibilidad institucional pueden crear realidades que afectan desproporcionadamente a comunidades que carecen de recursos para refutarlas. La caída de 4 puntos en la credibilidad de las comunicaciones parlamentarias en la semana posterior al evento no es solo un dato de reputación: es la huella cuantificable de una confianza erosionada que tarda mucho más en reconstruirse que en destruirse.

Frente a este escenario, el aporte metodológico de este trabajo reside en proponer la visualización forense como herramienta de auditoría ciudadana. Siguiendo a Schwabish (2021), una visualización efectiva no solo organiza datos: los somete a escrutinio público. Y siguiendo el concepto de insight de Cairo (2023), el diseñador contemporáneo debe ser capaz de leer la lógica oculta detrás del píxel sintético, traducirla en evidencia comprensible y devolverla al ciudadano como instrumento de juicio. No se trata de producir objetos visuales más sofisticados, sino de asumir que el diseño de información es, en sí mismo, un acto político.

Queda pendiente, sin embargo, una pregunta que este estudio no puede resolver con los métodos disponibles: si la difusión fue producto de negligencia o de intencionalidad deliberada. Esa distinción, entre misinformation y disinformation, exige acceso a datos que las plataformas no entregan públicamente, lo que constituye en sí mismo una nueva asimetría de poder que la academia y la sociedad civil deben exigir corregir.

  • Cairo, A. (2020). How charts lie: Getting smarter about visual information. W. W. Norton & Company.
  • D'Ignazio, C., & Klein, L. F. (2020). Data feminism. The MIT Press.
  • Fast Check CL. (17 de marzo, 2026). Imagen compartida por el senador Macaya que muestra los avances de la zanja en el norte: #Falso. Recuperado de https://www.fastcheck.cl/2026/03/17/...
  • Gobierno de Chile. (2026). Presidente José Antonio Kast llegó hasta Arica para supervisar implementación del Plan Escudo Fronterizo. Recuperado de https://www.gob.cl/noticias/...
  • Lupi, G., & Cox, P. (2024). Speak data: Artists, scientists, thinkers, and dreamers on how we live our lives in numbers. Princeton Architectural Press.
  • Meirelles, I. (2014). La información en el diseño: Introducción a las historias, las teorías y las mejores prácticas para la visualización eficaz de información. Parramon.
  • Tufte, E. R. (2020). Seeing with fresh eyes: Meaning, space, data, truth. Graphics Press.
Fuente verificadora Fast Check CL · International Fact-Checking Network (IFCN) · www.fastcheck.cl

Conflicto de intereses El/la autor/a declara no tener conflictos de interés. El análisis se basa en evidencia pública verificada por un organismo certificado por la IFCN.

Nota metodológica Los porcentajes de detección citados (Hive Moderation: 100%; Sight Engine: 95%) corresponden a los resultados reportados en el chequeo original de Fast Check CL del 17 de marzo de 2026. La conclusión de 97,5% de probabilidad promedio es calculada a partir de ambos valores.