Cada vez que nos llega un audio “demasiado perfecto” o un vídeo que encaja como un guante con la versión de una de las partes, nuestro primer reflejo es el mismo: desconfiar metódicamente. No por paranoia, sino porque estamos viviendo una explosión de deepfakes y manipulaciones audiovisuales que, si no se abordan con rigor, pueden colarse en un procedimiento y torcer un resultado. En este artículo queremos contarte, de forma práctica y directa, cómo se peritan audios y vídeos alterados, por qué una pericia de deepfake forense puede inclinar la balanza y qué espera un tribunal para hablar de validez probatoria. Si eres abogado o te mueves en el mundo de la mensajería y el peritaje informático, esta guía es para ti.
Por qué los deepfakes ya son un problema jurídico (y no de ciencia ficción)
Los deepfakes dejaron de ser un juego de laboratorio. Hoy están en conflictos laborales (“esa reunión la dijiste tú”), disputas societarias, chantajes, difamaciones en redes, pruebas de mensajería con audios supuestamente “reenviados” y hasta reclamaciones de seguros. La barrera técnica para fabricar un montaje creíble ha bajado muchísimo, mientras que nuestro cerebro sigue confiando en lo que ve y oye. En este choque entre tecnología y percepción, la figura del perito informático no es decorativa: es la persona que transforma “sospecha” en análisis replicable, con un lenguaje que un juez puede entender.
Antes de empezar: qué es exactamente un “deepfake forense”
Cuando hablamos de deep fake forense no nos referimos a generar pruebas falsas con IA, sino al conjunto de técnicas periciales orientadas a detectar, documentar y explicar si un audio o vídeo fue sintetizado, manipulado o alterado (total o parcialmente) mediante IA generativa u otros métodos de edición. El foco está en tres cosas:
- Autenticidad: ¿proceden voz e imagen de quien se dice?
- Integridad: ¿el contenido está intacto desde su origen o se ha editado?
- Trazabilidad: ¿podemos reconstruir el camino de la prueba desde su captura hasta el juzgado (cadena de custodia)?
La ausencia de cualquiera de estos pilares debilita la fuerza probatoria de la evidencia.
Señales típicas en vídeo: la piel miente, la luz delata, el tiempo no perdona
Sin entrar en tecnicismos vacíos, te compartimos patrones que buscamos cuando sospechamos de un vídeo:
- Inconsistencias de iluminación: sombras que no corresponden con la fuente de luz, brillos de piel que “saltan” entre frames, reflejos imposibles en gafas o superficies.
- Artefactos en el rostro: parpadeo antinatural, bordes que flotan, dientes y lengua “borrosos”, microexpresiones que no mueven la musculatura circundante.
- Desfase audio–labios (lip-sync): parece mínimo, pero en análisis cuadro a cuadro aparece un retardo irregular.
- Patrones de compresión: el vídeo real tiene una “textura” de compresión coherente; el montaje suele introducir bloques con huella distinta, sobre todo en transiciones o zonas superpuestas.
- Incongruencias temporales: metadatos con horas imposibles, saltos de fps, cortes que no casan con un “directo”.
Estas pistas no “condenan” por sí solas, pero activan un análisis más profundo con herramientas y métricas cuantitativas.
Señales típicas en audio: la voz tiene huella, y el silencio también
En acústica forense (clave para audios de mensajería), buscamos:
- Ruido de fondo y sala: un entorno real tiene un perfil (reverberación, zumbidos, aire acondicionado). Un deepfake de voz muchas veces no “respira” con la sala.
- Coherencia prosódica: un hablante real mantiene patrones de entonación, velocidad, pausas compatibles con su manera de hablar. Las voces sintéticas fallan en transiciones emocionales (enfado, risa, suspiro).
- Espectro y formantes: hay irregularidades en formantes (frecuencias características de vocales) y en transitorios de consonantes; los “pegados” entre frases suelen dejar artefactos.
- Cortes y empalmes: cambios de ruido base, clicks residuales, variaciones de compresión o bitrate entre segmentos.
- Huella de codificación: reenvíos entre apps alteran metadatos y compresión; un audio “nativo” de WhatsApp o Telegram difiere de un archivo editado y luego insertado.
De nuevo: no es una lista mágica, pero ayuda a orientar el deepfake forense.
Metodología paso a paso: del “me llegó por WhatsApp” al informe defendible
Cuando nos traen un audio o vídeo “sospechoso”, el proceso que seguimos —y que recomendamos— es este:
- Preservación: nada de “reenviarlo para que lo oigan todos”. Hay que extraer el archivo desde la fuente original (móvil, ordenador, cámara), con hash y registro de cadena de custodia. Sí, es mensajería, preferiblemente adquisición forense del dispositivo o exportación nativa con metadatos.
- Normalización: trabajamos sobre copias. Nunca tocamos el original. Se registran formatos, codecs, bitrates, fps, duración y metadatos de creación/modificación.
- Análisis técnico: en vídeo, revisión cuadro a cuadro, vectores de movimiento, máscaras, inconsistencias de compresión y mismatch de iluminación. En audio, espectrogramas, análisis de formantes, detección de edición y comparación con muestras de referencia del supuesto locutor.
- Corroboración: ¿existe otra fuente del mismo evento (CCTV, asistentes, redes)? ¿Hay sincronía con llamadas, correos, ubicaciones? ¿El teléfono del supuesto autor grabó o reprodujo algo a esa hora?
- Hipótesis y límites: formulamos hipótesis (auténtico, manipulado parcial, sintético total) y, sobre todo, decimos lo que no se puede afirmar. La prudencia técnica es parte de la validez probatoria.
- Informe pericial: claro, didáctico, con anexos, capturas y métricas. Nada de “misticismo técnico”: explicamos por qué concluimos A o B y cómo replicarlo.
¿Puede el perito “certificar” identidad de voz o imagen? El estándar razonable
Una advertencia honesta: en ciencia pericial rara vez hablamos de certeza absoluta. Hablamos de probabilidad y apoyo técnico. En voz, una comparación locutor–muestra ofrece un grado de compatibilidad; en imagen, podemos afirmar que hay indicios robustos de manipulación o que no se detectan señales compatibles con un deepfake. El tribunal entiende este lenguaje si está bien explicado. Lo que no perdona es el dogmatismo (“esto es 100% auténtico”) sin sostén.
Cadena de custodia: el hilo invisible que puede salvar o hundir tu caso
Puedes tener el mejor análisis técnico del mundo; si la cadena de custodia está rota, tu informe tambalea. ¿Qué implica hacerla bien?
- Inventario y sellado de dispositivos/archivos desde el minuto uno.
- Aislamiento de móviles (modo avión, bolsa Faraday si procede).
- Registro de accesos: quién tocó qué y cuándo, con qué herramienta.
- Trazabilidad de copias y hashes.
- Delimitación de alcance (fechas, palabras clave) para respetar proporcionalidad y privacidad.
Este rigor no es burocracia: es tu seguro en sala.
Deepfakes y mensajería: WhatsApp, Telegram y la “prueba reenviada”
Gran parte de los audios y vídeos “problemáticos” llega por WhatsApp o Telegram. Aquí conviene ser quirúrgico:
- Evita pantallazos como prueba única. Úsalos para orientarte, pero extrae originales con metadatos.
- Contrasta extremos: si puedes, captura el archivo en ambos dispositivos (emisor y receptor). Si los contenidos no coinciden, ya tienes un hecho objetivo a explicar.
- Cronología: alinea mensajes, llamadas, adjuntos y, si existen, copias de seguridad.
- Acústica forense: en audios dudosos, un estudio de edición y voz puede aclarar si hay cortes o síntesis parcial.
Una “nota de voz” no es inocua: guarda huella de cómo y cuándo nació.
¿Qué considera un juez para hablar de “validez probatoria”?
Hay cuatro preguntas que siempre acaban en la mesa:
- ¿Cómo llegó esta prueba al procedimiento? (licitud y relevancia).
- ¿Quién garantiza que es lo que dice ser? (autenticidad).
- ¿Cómo me aseguran que nadie la tocó? (integridad).
- ¿Qué fiabilidad tiene el método del perito? (replicabilidad y consenso técnico).
Tu estrategia debe anticipar esas preguntas desde el día 1. A veces, bajar el alcance y centrarte en lo verdaderamente relevante fortalece más la prueba que un “aspirado general”.
Qué puede —y qué no puede— prometer un perito informático o perito técnologico
Un perito informático o perito técnologico serio puede prometer:
- Un método claro y documentado.
- Una explicación comprensible y replicable.
- Límites bien declarados (lo que se puede y no se puede afirmar).
- Coordinación con tu equipo jurídico para encajar la técnica en la estrategia procesal.
Lo que no debe prometer nunca es “victoria garantizada” o “reconocimiento absoluto” de voz o identidad sin margen de duda. La credibilidad nace de la transparencia.
Casuística realista: tres escenarios y cómo los enfocamos
1) Audio de WhatsApp que implica a un directivo.
Llega un archivo .opus reenviado numerosas veces. Solicitamos el dispositivo original y realizamos una adquisición forense completa. Extraemos el audio nativo, revisamos espectrograma, patrones de compresión y ruido de fondo. Se identifican varios cortes entre frases y un salto anómalo de codificación en el segundo 23. La conclusión es indicios de edición, que se integran en una cronología junto a llamadas previas.
Resultado: el tribunal pone en duda la pieza y la valora únicamente como elemento orientativo, apoyándose en otras pruebas más sólidas.
2) Vídeo supuestamente “en directo” en el que un empleado reconoce un hecho
El material presenta inestabilidad en los FPS, reflejos que no coinciden con la escena y un desfase entre el movimiento de la boca y su reflejo en un espejo del fondo. Mediante métricas objetivas indicamos sospecha técnica de lip-sync, pero sin afirmar categóricamente que sea un deepfake.
Resultado: el juez considera que el vídeo no alcanza el estándar de fiabilidad y exige corroboración adicional antes de admitirlo como evidencia determinante.
3) Conversación de mensajería con un archivo adjunto comprometedor
El PDF aportado como prueba carece de historial consistente. Analizamos metadatos y cadena de versiones: el documento fue creado días antes por otro usuario, exportado a un móvil y reenviado con un texto añadido.
Resultado: la parte contraria modifica su relato al quedar acreditado que el adjunto no se originó donde afirmaba.
Prepararte desde ya: políticas internas y formación mínima
Si diriges una empresa o asesoras a clientes corporativos, conviene establecer medidas simples pero decisivas:
- Política clara sobre el uso de mensajería y grabaciones en el entorno laboral.
- Registro adecuado de reuniones sensibles, ya sea mediante actas, grabaciones autorizadas o el uso exclusivo de canales corporativos.
- Custodia correcta de dispositivos y retención de logs en cuanto se detecte un incidente o una posible controversia.
- Formación breve para mandos y responsables, centrada en qué no hacer cuando llega un audio o vídeo “clave”: no reenviar, no recodificar, no editar y no generar nuevas copias inseguras.
- Vía de contacto directo con un perito informático o perito tecnológico de confianza, disponible para actuar en las primeras 24–48 horas, cuando aún es posible preservar la evidencia con garantías.
Prevenir cuesta siempre menos que intentar rescatar una prueba mal gestionada.
Preguntas frecuentes rápidas (y francas)
¿Un deepfake se detecta siempre?
No. Los hay muy buenos. Pero un análisis bien hecho puede elevar mucho la probabilidad de detectar señales, o al menos fijar dudas razonables que eviten que la pieza sea decisiva.
¿Hace falta siempre el dispositivo original?
No siempre es posible, pero maximiza opciones. Sin original, la validez probatoria desciende: trabajas con copias de fiabilidad incierta.
¿Puedo enviar el audio por email para que lo reviséis rápido?
Mejor no. Primero preserva desde el origen. Si no hay alternativa, mantén el archivo sin convertir y evita recomprimir.
¿Las herramientas automáticas son suficientes?
Son útiles, pero la pericia humana —explicar, contextualizar, defender— es la que sostiene el informe.
Tecnología cambiante, método innegociable
Los deepfakes evolucionan y seguirán haciéndolo. Lo único que no puede moverse es tu método: preservar, analizar, corroborar y explicar. Esa es la diferencia entre un “vídeo viral” y una prueba con validez probatoria. En cada caso nos repetimos el mismo mantra: si no lo podemos replicar y explicar, no lo llevamos a sala.
¿Necesitas asegurar un audio o vídeo antes de litigar?
Si dispones de un audio o un vídeo sospechoso y su valoración puede influir en una negociación o en un procedimiento judicial, no conviene dejarlo a la intuición. Este tipo de piezas exige acústica forense, análisis técnico de imagen y una cadena de custodia impecable desde el primer momento.
En System Asefin realizamos la adquisición desde el origen, verificamos integridad y autenticidad, reconstruimos la cronología técnica y elaboramos un informe claro, con límites bien definidos y conclusiones defendibles en sede judicial.
Cuéntanos tu caso y diseñaremos un plan pericial alineado con tu estrategia jurídica, para que la evidencia llegue al procedimiento con todas las garantías.