top of page

Cómo estoy usando IA real en post: cero hype, puro workflow

  • Foto del escritor: Daniel Bañuelos
    Daniel Bañuelos
  • 23 jun
  • 7 Min. de lectura

Este post no es sobre Veo3 de Google ni sobre sus videos “cringe” de un supuesto TikTok vlog de Jesús de Nazareth o una publicidad rara de una banco hablando sobre pequeños empresarios (sin usar ni una sola pequeña empresa de producción). No tengo nada en contra del hype tecnológico ni de los milagros virales, pero prefiero enfocarme en herramientas reales, funcionales y que ya estoy usando en proyectos de postproducción hoy, aquí, sin venderle mi media a nadie.


Después de escuchar la grabación de la charla de Michael Kammes en el post-NAB sobre la IA en la post, quedé con una sensación rara: no de “wow, qué futurista todo esto”, sino de “ok, esto ya lo puedo usar... mañana”. Así que decidí dejar de ver a la IA como ese primo pretencioso de la familia tech y empezar a probarla como lo que realmente es: una asistente que no duerme, no cobra horas extra, y (casi) nunca se queja.


En este post te cuento cómo estoy integrando IA analítica en flujos reales de postproducción para cine, TV y publicidad, sin perder el control del contenido, ni mis discos duros, ni mi salud mental.

IA generativa vs. IA analítica: el dilema Marvel vs. DC

A ver, hay dos tipos de IA que se cruzan en nuestro mundo audiovisual:

  • La generativa: que inventa cosas nuevas. Como imágenes, voces, textos... o demandas legales.

  • La analítica: que observa, etiqueta, ordena y sugiere, pero no crea nada que no hayas grabado tú.

Michael Kammes lo puso así de claro:

“La IA generativa crea contenido. La analítica lo recapitula.”

Y sí, por ahora me quedo con la analítica. Porque:

  • No me obliga a re-negociar contratos con clientes paranoicos.

  • No entrena modelos con mi material sin permiso.

  • No me mete en líos legales por usar una “voz” que se parece mucho a Morgan Freeman.

Las herramientas que ya están funcionando (y no son beta eternas)

Esto no es una lista de promesas. Todo esto lo he probado ya o lo tengo en mi radar inmediato:


🛠 Adobe Media Intelligence (Premiere Pro Beta)

Sí, Adobe también quiere jugar en el terreno de la IA. Y sorprendentemente, lo está haciendo bastante bien. Ahora podés buscar cosas como: “alguien sonriendo mientras corre”, y Premiere te muestra clips que coinciden... aunque nadie haya metido ni una etiqueta. Milagrito.

En mis 10 años de docencia, jamás me he topado con alguien que diga con convicción:"Cuando me gradúe, quiero dedicarme al mettalogging."(Bueno... tal vez un joven e ingenuo Daniel Bañuelos, pero eso fue otra vida.)


🛠 Axle.ai

Si Axle.ai fuera una persona, sería ese bibliotecario medio freaky que no solo recuerda dónde está todo, sino que además te dice qué está pasando en cada clip. Objetos, caras, palabras, marcas, perros, gatos, muebles vintage, tu ex en segundo plano... lo ve todo. Y lo etiqueta.

Lo mejor: corre localmente. Nada se sube a ningún servidor misterioso. Todo queda en tu máquina, lo cual es una bendición si trabajas con contenido sensible o clientes que se ponen nerviosos cada vez que oyen la palabra “nube”.

Además, tiene su propio motor de transcripción y etiquetado por IA integrado, pero también te deja sumar otros motores si quieres armar tu combo ideal (es de mente abierta).Y no se queda en “esto es un auto” o “aquí hay una persona”: puede entender lo que está pasando en la escena y volverlo buscable. Por ejemplo, puedes buscar “gente discutiendo en una sala de juntas” y lo encuentra.

Funciona con búsqueda semántica (vectorial, si te pones técnico), detección de rostros, reconocimiento de objetos, logotipos y un montón de etiquetas personalizables para adaptar la base de datos a tu flujo.


🛠 DaVinci Resolve 20

Si ya eras fan de Resolve, la versión 20 es como ponerle esteroides, darle un café cargado y decirle: “hazte cargo carnal”.

No es solo una actualización más, es básicamente un paquete de herramientas de IA que realmente hacen cosas útiles, de esas que antes te robaban media jornada o dos litros de café.

Te dejo una lista con lo más interesante (y lo que ya estoy probando en flujos reales):


🎙 Transcripción local con detección de hablantes

Transcribe diálogos en tu compu, sin depender de la nube.¿Dos personas en un solo canal? Lo detecta igual. Adiós al juego de adivinar quién dijo qué a las 3AM.

📝 Edición desde texto

Seleccionas un fragmento del transcript, lo borras… y se borra del timeline. Como hacer edición en Word, pero sin volverte loco.

🧠 IntelliScript

Esto sí es magia negra buena: Cargas el guión original, hace match con las transcripciones de los clips, y automáticamente arma una línea de tiempo con las mejores tomas.¿Te gustó pero quieres ver otras? También te deja versiones alternativas en otras pistas. Guion + clips

🎬 SmartSwitch (Multicam automático)

Analiza la imagen y el audio, detecta quién está hablando, y corta automáticamente a esa cámara.¿Audio grabado en un solo canal? Igual lo hace, porque también usa detección facial y lectura de labios.Esto sí que mata al “intern multicam” de turno.


🛠 Quickture

QuickTure es como tener un editor junior hiperactivo, pero con buena memoria, cero quejas y cero opiniones innecesarias.Te ayuda a ver tu material con ojos frescos, incluso si lo grabaste vos y ya no podés ni oír otra vez la voz del entrevistado.

🧠 Resúmenes instantáneos

Tenés una entrevista de dos horas y querés saber si vale la pena… Quickture te da un resumen con los momentos clave, emociones, temas, y hasta te dice si hay algo gracioso (para esos como yo que no tenemos sentido del humor).

🧩 Story Beats claros y ordenados

Detecta los beats narrativos y los ordena según criterios que puedes configurar: emoción, relevancia, claridad, tono. Es como tener un content supervisor que en vez de hablarte en términos vagos, te marca lo bueno, lo pasable y lo “mejor evitá esto”.

✂️ Assemblies automáticos

¿Quieres una versión de 90 segundos a partir de un bruto de 45 minutos? Le indicas la duración y en minutos tienes un primer assembly .¿Perfecto? No. ¿Útil? Mucho.Te acelera ese primer paso donde lo único que quieres es ver algo sobre la línea de tiempo para empezar a decidir.

📦 ¿Dónde corre?

  • Funciona como panel dentro de Premiere Pro y Avid Media Composer.

  • Compatible con almacenamiento local, servidores on-premise y sistemas en la nube.

  • Tu video nunca sale de tu sistema. O sea, nada de subir a plataformas con términos de uso sospechosamente vagos.

¿Y mi compu aguanta todo esto?

Spoiler: sí.

Uno de los mitos favoritos del mundo tech es que necesitas un servidor militar para correr IA. Kammes lo dijo clarito: las estaciones de trabajo que usamos para post ya son lo suficientemente potentes.

Si tu compu puede con footage en 8K log en multicam... también puede con un poco de reconocimiento facial y texto.


Ventajas de correr todo local:

  • Nadie ve tus archivos.

  • No pagas por minuto.

  • No necesitas subir 500GB para hacer un transcript.

  • Y no dependes del ancho de banda de tu facility.

Qué puede (y qué no puede) hacer la IA por ti hoy

Este punto me encanta porque baja el humo y pone las cosas claras.


Si seguimos el flujo clásico de edición:

Assembly → Radio Edit → Rough Cut → Fine Cut → Final Cut


Esto es lo que la IA puede hacer hoy:

  • ✅ Assembly Cut: Agrupa lo relevante, saca paja, y te deja un timeline básico.

  • ✅ Radio Edit: Limpia silencios, une frases, mantiene coherencia narrativa.

  • 🟡 Rough Cut (en beta espiritual): Puede hacer algo... pero en lugar de darte “el corte”, te da 10 versiones y tú eliges lo que te gusta. Como una ensalada de opciones.¿Está mal? No. Solo que todavía no tiene el “ojo”.

  • ❌ Fine Cut / Final Cut: Esto sigue siendo humano. Elegir el ritmo, los matices, los silencios que sí dicen cosas... eso es trabajo de nosotros. Por ahora (y ojalá por siempre).

El flujo que estoy usando para editar podcasts con IA

Este lo he estado puliendo en varios proyectos recientes. Y no exagero si digo que me ha ahorrado horas.


🎧 Edición de podcast con IA paso a paso:

  1. Transcripción completa en Resolve:

    • Detecta hablantes.

    • Corre sin internet.

  2. Resumen + story beats con ChatGPT:

    • Le das el texto.

    • Te devuelve un resumen temático y emocional.

  3. Recorte narrativo:

    • Le pides a GPT que recorte (no resuma) solo lo clave.

  4. Timeline automático con Intelliscript:

    • Pegas ese texto en Resolve.

    • Te genera un timeline con los momentos exactos.

  5. Radio edit fino:

    • Aquí entras tú: detalles, pausas, silencios bien usados.

  6. Multicam automático con detección facial:

    • Resolve 20 corta según quién está hablando.

    • Incluso si tienes solo un canal de audio.

  7. Extra (para agencias): guía visual automática

    • Tomas referencias de estilo.

    • Pasas por análisis visual + EDL.

    • GPT te sugiere ritmo de corte, duración, b-roll y mood.

¿Y en agencia? Esto es oxígeno puro

Para contextos donde el tiempo vale más que el disco SSD que se te cayó ayer, esta integración significa:

  • No más horas de logging manual.

  • No más buscar a mano clips de “gente con cara de impacto”.

  • No más multicam cortado a mano con café y lágrimas.

  • Más tiempo para lo que importa: dirección creativa y pulido.

Cosas que aprendí a preguntar antes de integrar IA


Kammes lo dijo y yo lo repito. Cada vez que pienso en usar una herramienta nueva, me hago estas preguntas:


  • ¿Corre en mi compu o me obliga a usar su nube?

  • ¿Qué datos usaron para entrenar el modelo?

  • ¿Van a usar mi contenido para mejorar su modelo sin avisarme?

  • ¿Puedo integrarlo a mi NLE de siempre?

  • ¿Quién más ve lo que genero con esta herramienta?


Cierre (sin humo)

Esto no es magia. No es hype. Es una caja de herramientas nueva que, bien usada, te ahorra tiempo, no te roba el crédito.

La IA, por ahora, no va a reemplazarnos. Pero los que sí la están empezando a usar... probablemente se coman los proyectos más rápido.

Y eso (seamos honestos) marca la diferencia cuando hay 25 propuestas sobre la mesa y todas son “para ayer.”

¿Tú ya estás probando algo de esto?

¿Te gustaría que arme un tutoruial en mi canal de YouTube con una demo de este flujo? ¿Quieres compartir tu experiencia o sugerir herramientas que valen la pena?

👉 Escríbeme y seguimos la conversación.

Comments


©2024 Daniel Bañuelos

bottom of page