Streaming Health Diagnostic, Metodología v2
Creado: 2026-05-11 (versión EN); traducción ES 2026-05-12
Autores: Nicolás Borja, con Sergio Uzaheta
Título de trabajo: FAST + CTV Health Diagnostic
Estado: Borrador para revisión de Stephen Brooks
Reemplaza: prototipo v0.1 en diagnostic.html (5 preguntas, 4 pilares, mapeo intuitivo)
Documento canónico en inglés: diagnostic-v2-methodology.md (este archivo es la traducción para uso interno con Sergio y para reclutamiento de cohorte hispanohablante).
0. Qué cambió frente a la v0.1 y por qué
La v0.1 fue un demo de cinco preguntas construido para ganar una junta. Calificaba por intuición contra anchors no citados ("LatAm 10% / US 60%"), producía una de cuatro etiquetas de nivel, y empujaba un CTA. Fue útil como prop de credibilidad. Todavía no es un instrumento de diagnóstico por el cual un operador pagaría, ni un estudio de investigación que la industria pueda citar.
La v2 redefine el trabajo como dos productos acoplados:
- El diagnóstico operador-facing. Un instrumento de 18 a 22 ítems que produce una puntuación, un radar sobre cinco pilares, un percentil relativo al segmento, y un plan de acción a 90 días. Tier de entrada gratuito, tier de reporte completo pagado.
- El estudio de benchmark de industria. El dataset agregado y anonimizado de respuestas se vuelve un output trimestral de investigación sobre la base de operadores FAST y CTV LatAm. Este es el activo que justifica la inversión, porque una vez reclutada y aplicada la cohorte, el costo marginal de cada operador adicional puntuado tiende a cero, mientras el valor del dataset de benchmark se acumula.
El instrumento y el estudio comparten infraestructura. El instrumento genera la data. El estudio comercializa la cohorte. Ambos refuerzan el posicionamiento de Stephen como el operador que tiene la única vista longitudinal de salud FAST y CTV LatAm.
1. Arquitectura de pilares
Cinco pilares, mapeados al lenguaje de pilares de operador de Stephen y a las categorías sobre las que un operador puede mover la aguja en un plan de 90 días.
1.1 Distribución (Distribution)
Dónde vive el contenido y qué tan alcanzable es la audiencia. Subdimensiones: - Huella de plataformas (número y calidad de agregadores FAST, apps AVOD, partners SVOD, placements OEM, sindicación social). - Alcance geográfico (mercados activos, preparación multilingüe, derechos regionales otorgados vs retenidos). - Superficie de descubrimiento (presencia en EPG, ubicación en recomendaciones, visibilidad en búsqueda, posiciones merchandiseadas por partners).
1.2 Monetización (Monetization)
Cuánto paga el inventario por impresión y por viewer. Subdimensiones: - Fill rate (general, por daypart, por daypart y región). - Yield (rangos de CPM por programmatic vs direct, por región, por vertical de contenido). - Madurez del ad stack (SSAI vs CSAI, header bidding, cobertura de SSPs, deal IDs, posiciones premium vendidas directo). - Mix de modelo de monetización (AVOD puro, FAST, híbrido, transaccional, sponsorship overlay).
1.3 Marketing (Marketing)
El pilar que Stephen nombra. Se descompone en sus tres sub-elementos. Subdimensiones: - Getting Known (CAC por canal, volumen de búsqueda de marca, share of voice en categoría, medición de awareness). - Partner Leverage (volumen de cross-promotion, deals de co-marketing activos, share de adquisición vía partner, sindicación como marketing). - LTV (granularidad, LTV de cohorte a nivel de canal, señal de churn o atrición, ratio LTV vs CAC por canal).
1.4 Curaduría (Curation)
Cómo se arma, programa y refresca el catálogo. Subdimensiones: - Profundidad y amplitud de catálogo (horas por género, mix de formatos entre FAST, AVOD, SVOD, live). - Sofisticación de programación y scheduling (diseño de bloques, estrategia de daypart, cadencia de refresh, calidad de ubicación de ad-pods). - Salud de derechos y licencias (windowed vs perpetuo, clearance multi-región, clearance de sync musical para FAST). - Cadencia de producción de contenido (originales vs licenciados vs UGC vs asistido por IA).
1.5 Tech (Tech)
El stack operacional sobre el que se montan los otros cuatro pilares. Subdimensiones: - Stack de entrega (CDN, pipeline de encoding, packaging, DRM si aplica). - Salud técnica del ad stack (precisión de marcadores SCTE-35, calidad de integración SSAI, latencia de VAST tags, tasa de error). - Stack de data (cobertura analítica, atribución, señal de engagement de contenido, capacidad de A/B testing). - Preparación de IA y automatización (pipeline de tooling, workflow multilingüe, madurez de content factory).
2. Segmentación: tipo de operador como primera pregunta
El defecto más grande de la v0.1 es que calificaba a un FAST channel owner contra los mismos benchmarks que a una plataforma de streaming completa. Son negocios distintos. La v2 abre con una pregunta de tipificación que determina qué subset de preguntas se aplica y contra qué cohorte de benchmark se califica al operador.
Los cinco arquetipos de operador:
| Arquetipo | Descripción | Ejemplo |
|---|---|---|
| A. FAST channel owner | Opera uno o más canales FAST de un solo género o una sola marca, distribuidos vía agregadores. Es dueño de la marca del canal, licencia o produce contenido. | Vix Channels, FAST de género musical, FAST de deportes retro |
| B. Agregador FAST / vMVPD | Es dueño de la superficie donde se agregan múltiples canales FAST. Opera el EPG y el ad stack al nivel del agregador. | Pluto, Samsung TV Plus, Vix, agregadores FAST regionales |
| C. Plataforma AVOD o SVOD | Es dueño de la app de contenido, la relación, el catálogo, y el negocio de suscripción o publicidad. | Vix, Tubi, ViX Premium, Pluto on-demand, apps AVOD regionales |
| D. Operador CTV de red u OEM de smart-TV | Es dueño del dispositivo, la pantalla de inicio, y la superficie publicitaria. Agrega contenido para la audiencia del dispositivo. | Samsung TV Plus lado operador, LG Channels, Roku Channel lado operador |
| E. Licenciador de contenido o productor independiente | Es dueño de derechos de contenido y los licencia a distribución FAST, AVOD o SVOD. | Sellos musicales, ligas deportivas, dueños de IP, productoras indie |
El tipo de operador es una segmentación dura. Un puntaje de 80 en el arquetipo A y en el arquetipo C significan cosas distintas, y el operador necesita que el benchmark sea relativo a sus pares para tomar el diagnóstico en serio.
Una segunda pregunta de tipificación captura escala (banda de ingreso anual por publicidad) para que el percentil también esté ajustado por tamaño dentro del arquetipo.
3. Estructura de ítems: 18 a 22 preguntas
La v0.1 tenía cinco preguntas. Eso daba una señal débil que los operadores podían gamear en 30 segundos. La v2 usa 18 a 22 ítems distribuidos sobre los cinco pilares y ponderados por la contribución de cada pilar al outcome. El instrumento debe tomar de 12 a 18 minutos en completarse, lo que es suficiente para disuadir gameo casual y lo suficientemente breve para terminar en una sola sentada.
Cada ítem es uno de cuatro tipos:
- Numérico objetivo (slider o input con anchor de benchmark). Ejemplo: porcentaje de fill rate del inventario publicitario.
- Categórico (selección única con opciones ordenadas mapeadas a una puntuación). Ejemplo: SSAI vs CSAI vs ambos vs no estoy seguro.
- Selección múltiple (chips, calificados por calidad de combinación, no por conteo bruto). Ejemplo: qué superficies de distribución están activas.
- Auto-reporte de confianza (Likert 1 a 5 sobre una práctica operacional declarada). Ejemplo: "Medimos LTV por canal de adquisición con granularidad."
El instrumento incluye, de manera deliberada, dos "trampas de honestidad" embebidas en el pilar de Marketing: preguntas donde la respuesta incorrecta revela una brecha de instrumentación que el operador podría no saber que tiene. Este patrón viene del banco de preguntas del Sound Check (ver project_soundcheck_question_bank.md en MEMORY). Es lo que hace que la puntuación sea más que un ejercicio de auto-elogio.
3.1 Banco de ítems (borrador, por pilar)
Distribución (4 ítems)
- D1, Huella de plataformas. ¿En cuántas superficies de distribución distintas está su contenido ahora mismo? (Slider 0 a 20, con sub-prompt para enumerar tipos: agregador FAST, app AVOD, partner SVOD, placement OEM, sindicación social, transaccional.)
- D2, Calidad de la huella. De esas plataformas, ¿cuántas generan tiempo de visualización medible, definido como más del 1% del total mensual de horas streameadas? (Slider, valida D1 contra cobertura de vanidad.)
- D3, Alcance geográfico. ¿En cuáles de estas regiones distribuye su operación activamente hoy? (Selección múltiple: US Hispanic, México, CAM, Andina, Cono Sur, Brasil, Iberia, US mercado general, Canadá, ROW.)
- D4, Postura de descubrimiento. Cuando un viewer busca su marca o género en Pluto, Samsung TV Plus, o la pantalla de inicio de una smart-TV, ¿qué tan confiablemente aparece su contenido en los tres primeros resultados? (Likert 1 a 5, con trampa de honestidad: "No medimos esto" es una opción válida que califica bajo en instrumentación.)
Monetización (5 ítems)
- M1, Fill rate. ¿Cuál es su fill rate publicitario general a lo largo de todas las superficies de distribución, últimos 30 días? (Slider 0 a 100%, anclado con benchmark de cohorte.)
- M2, Variancia de fill rate. ¿Cómo se ve su fill rate en su daypart más débil comparado con su daypart más fuerte? (Categórico: menos de 10 puntos de brecha, 10 a 25 puntos, 25 a 50 puntos, más de 50 puntos, no medimos por daypart.)
- M3, Madurez del ad stack. ¿Cuáles de las siguientes aplican a su ad stack actual? (Selección múltiple: SSAI activo, CSAI activo, header bidding implementado, tres o más SSPs integrados, inventario premium vendido directo existe, deal IDs activos.)
- M4, Mix de revenue. ¿Qué porcentaje del revenue de su inventario viene de programmatic vs venta directa? (Slider mostrando 0 a 100% programmatic; el operador coloca el marcador.)
- M5, Cadencia de optimización de yield. ¿Cada cuánto su equipo revisa el rendimiento de SSPs y rebalancea el waterfall? (Categórico: semanal, mensual, trimestral, ad hoc, nunca.)
Marketing (5 ítems, descompuesto en los tres sub-pilares de Stephen)
- MK1, Getting Known: medición de brand awareness. ¿Mide el volumen de búsqueda de marca o el unaided brand awareness en sus mercados prioritarios? (Categórico: sí, ambas señales, mensual; sí, una señal, mensual; sí, ad hoc; no.)
- MK2, Getting Known: mix de canales. ¿Qué impulsó la mayor parte de sus nuevos viewers en los últimos 90 días? (Selección única con cinco opciones como en v0.1, más trampa de honestidad "No estoy seguro".)
- MK3, Partner Leverage: actividad de cross-promotion. ¿Cuántos partnerships activos de cross-promotion o co-marketing opera hoy? (Slider 0 a 20.)
- MK4, Granularidad de LTV. ¿Mide el LTV de viewer por canal de adquisición? (Selección única: sí, granular por canal; sí, agregado; en roadmap; no; qué es LTV.)
- MK5, Ratio LTV vs CAC. De sus canales de adquisición activos, ¿qué porcentaje tiene un ratio LTV-a-CAC conocido? (Slider 0 a 100%; trampa de honestidad, calificada contra MK4.)
Curaduría (4 ítems)
- C1, Mix de formatos. ¿Qué formatos están activos en su catálogo ahora mismo? (Selección múltiple: lineal 24/7 FAST, AVOD on-demand, SVOD on-demand, eventos en vivo, librería short-form de clips, licenciado long-form.)
- C2, Profundidad de catálogo. ¿Cuántas horas de contenido tiene programables a lo largo de todas las superficies? (Slider 0 a 10,000 horas, escala logarítmica.)
- C3, Sofisticación de programación. ¿Quién diseña los bloques de programación FAST? (Categórico: programador dedicado o equipo de programación, operador generalista con reglas de rotación, vendor o tercero, lo corre el agregador por nosotros, corremos shuffle-play, no operamos FAST.)
- C4, Salud de derechos y licencias. ¿Qué porcentaje de su catálogo tiene derechos de distribución multi-región liberados ahora mismo? (Slider 0 a 100%, con pregunta secundaria sobre derechos de sync musical para FAST si aplica.)
Tech (3 a 4 ítems)
- T1, Salud técnica del ad stack. ¿Cuándo fue la última vez que auditaron la precisión de sus marcadores SCTE-35 o la tasa de error de su integración SSAI? (Categórico: este trimestre, este año, hace más de un año, no auditamos, no sabemos qué es SCTE-35.)
- T2, Cobertura analítica. ¿Puede responder esto en menos de 5 minutos: "¿Qué contenido generó el mayor tiempo de visualización en la plataforma X ayer por región?" (Categórico: sí para cualquier plataforma; sí solo para plataformas principales; no, pero la data existe en nuestro stack; no.)
- T3, Preparación de IA y automatización. ¿Cuáles de estos workflows asistidos por IA opera hoy? (Selección múltiple: generación automatizada de metadata EPG; variantes de thumbnail por IA; traducción o doblaje por IA; moderación de contenido por IA; optimización de ad-break por IA; ninguno de los anteriores.)
- T4, Señal de deuda técnica. ¿Qué porcentaje del tiempo del equipo de ingeniería en el último trimestre se fue a respuesta a incidentes o deuda técnica en lugar de trabajo de feature? (Slider 0 a 100%, con anchor.)
Conteos totales: D=4, M=5, MK=5, C=4, T=3-4. Total 21 a 22 ítems. El conteo final de ítems queda cerrado tras la revisión de Stephen.
4. Metodología de scoring
4.1 Scoring a nivel de ítem
Cada ítem se califica de 0 a 100 contra un anchor de benchmark. Para sliders, el anchor es la mediana de cohorte del arquetipo del operador. Para categóricos, las opciones mapean a puntuaciones específicas derivadas de la correlación a nivel de categoría con la variable outcome en la cohorte de benchmark.
Existen tres modos de scoring dependiendo de la disponibilidad de data:
- Modo A, anclado (cohorte completa del estudio en vivo): cada ítem se califica contra el percentil real en la cohorte de operadores del mismo arquetipo.
- Modo B, anclado por expertos (estado pre-launch): cada ítem se califica contra anchors definidos por expertos basados en Stephen, Sergio, y tres operadores de referencia que entrevistamos para fijar las bandas. Este es el estado de lanzamiento.
- Modo C, híbrido (cohorte parcial): los ítems con más de 20 respuestas de cohorte usan Modo A; los que están por debajo de 20 usan Modo B. Este es el estado operativo durante Q3.
4.2 Scoring a nivel de pilar
Cada puntaje de pilar es un promedio ponderado de sus ítems, con pesos por ítem ajustados por arquetipo. La ponderación se deriva de dos fuentes: juicio experto sobre qué ítems pesan más por arquetipo, y (una vez que la cohorte está en vivo) regresión de ítems contra variables outcome (revenue por hora-viewer, proxies de retención, mejoras en fill rate).
4.3 Ponderación del score total
Los pesos de pilar varían por arquetipo. La ponderación de v0.1 (25 distribución, 30 monetización, 30 marketing, 15 curaduría) sobrepesa monetización para licenciadores de contenido que no operan el ad stack, y subpesa distribución para FAST channel owners. La v2 publica pesos por arquetipo:
| Arquetipo | Distribución | Monetización | Marketing | Curaduría | Tech |
|---|---|---|---|---|---|
| A. FAST channel owner | 25 | 25 | 25 | 15 | 10 |
| B. Agregador FAST | 15 | 35 | 20 | 15 | 15 |
| C. Plataforma AVOD o SVOD | 20 | 25 | 25 | 15 | 15 |
| D. Operador CTV / OEM | 20 | 30 | 15 | 15 | 20 |
| E. Licenciador de contenido | 30 | 10 | 25 | 25 | 10 |
Los pesos son borrador. La revisión de Stephen los va a afinar antes del lanzamiento.
4.4 Sistema de niveles
Cuatro niveles, etiquetas idénticas a v0.1 (las etiquetas son buenas; las bandas ahora varían por arquetipo):
- Broadcasting (top 25% de la cohorte dentro del arquetipo). Trabajo de afinación, no de supervivencia.
- Tuned (percentil 50 a 75). El sistema funciona; la pregunta es cuál palanca escala más rápido.
- Warming up (percentil 25 a 50). Los fundamentos están; el motor todavía no compone.
- Muted (cuartil inferior). Brecha estructural frente a lo que el mercado premia.
Los límites de nivel se recalculan trimestralmente conforme la cohorte crece.
4.5 Output
El operador recibe:
- Un puntaje total y nivel, percentil contra pares de su arquetipo.
- Un radar de cinco ejes con scores de pilar.
- Las tres subdimensiones más débiles a lo largo de todos los pilares, cada una atada a un benchmark.
- Tres movimientos nombrados para los próximos 90 días, mapeados a las subdimensiones más débiles del operador.
- (Solo tier pagado) Un reporte de diagnóstico de 12 a 18 páginas con: contexto de cohorte, detalle de scoring por ítem con benchmark, roadmap de implementación específico al operador, stack sugerido de vendors y herramientas, SOW de ejemplo para contratar la alianza para ejecutar el roadmap.
5. Diseño de la cohorte de benchmark
Este es el núcleo metodológico de la v2 y la parte que convierte al instrumento en un activo de investigación.
5.1 Tamaños objetivo de cohorte
- Cohorte de entrevista pre-launch (anclaje Modo B): 8 a 12 operadores, entrevistados en llamadas semi-estructuradas de 60 minutos. Se usa para fijar anchors de expertos y validar la redacción de ítems.
- Cohorte de lanzamiento (primeros 60 días post-launch): 40 a 60 operadores a lo largo de los cinco arquetipos. Alcanzable con la red de Stephen y outreach pagado moderado.
- Cohorte trimestral en estado estable: 80 a 120 operadores por trimestre, refrescada vía mezcla de operadores nuevos y operadores que regresan (los operadores que regresan aportan la señal longitudinal).
5.2 Reclutamiento
Tres canales en orden de prioridad:
- Red directa de Stephen. Cohorte de la más alta calidad, la más rápida de reclutar. Stephen corre la presentación caliente; nosotros corremos el diagnóstico y producimos el reporte gratuito del operador. La participación del operador les compra el reporte; la participación también los opta dentro del agregado anonimizado.
- Partnership de industria. Un body de industria o publicación (NAB Latin America, NATPE Latin America, newsletter FAST and Curious, Streaming TV Insider) co-publica el estudio a cambio de promoción. La cohorte crece vía el alcance del partner.
- Outreach pagado. Outreach segmentado por LinkedIn y email a tipos de rol nombrados (Head of Content, VP Monetization, Head of FAST) en operadores conocidos. Yield más bajo, pero predecible.
5.3 Lógica de control
El instrumento no es un experimento controlado. El "control" en este estudio es la cohorte de benchmark misma: el puntaje del operador tiene sentido solo en relación a sus pares en el mismo arquetipo. Somos explícitos en el documento de metodología en que esto es un estudio de benchmark, no un RCT. La integridad del benchmark depende de:
- Diversidad de cohorte dentro del arquetipo (banda de tamaño, geografía, vertical).
- Calidad de respuesta (descartamos respuestas con tiempos de completado por debajo de 4 minutos como señal de baja calidad).
- Consistencia de redacción y scoring entre olas.
- Revisión trimestral de correlación ítem-a-outcome, con rotación de ítems hacia afuera si no muestran señal.
5.4 Señal longitudinal
El instrumento está diseñado para retomarse cada seis meses. Los operadores que retoman reciben un reporte longitudinal que muestra movimiento en cada pilar, lo que se vuelve la base para el retainer pagado de Tier 3 en economic-models.md (continuous practice). Este es el motor que convierte un diagnóstico one-shot en un producto de revenue recurrente.
6. En qué se convierte esto combinado con el posicionamiento de Stephen
Stephen vende alineación, definición de metas, y la relación estratégica. Ya es lo más cercano a una autoridad reconocida en LatAm en salud de streaming y FAST. La v2 le entrega el único dataset longitudinal, segmentado y peer-relativo sobre la base de operadores LatAm.
Stephen no tiene que construir el dataset; nosotros corremos el instrumento y el estudio bajo su dirección editorial estratégica. Lo que él recibe:
- Un activo de investigación para publicar bajo su nombre. Reporte trimestral de salud streaming LatAm, nombrado por él o co-brandeado con la alianza.
- Un motor de leads calificados. Cada operador que completa el diagnóstico queda segmentado, calificado, y (con permiso) elegible para follow-up pagado.
- Una línea de servicio productizada. El diagnóstico se vuelve la puerta de entrada a la implementación de 90 días (Tier 2) y a la práctica continua (Tier 3) en el documento de modelos económicos.
El diagnóstico no es el producto. El dataset y la práctica longitudinal sí lo son. El diagnóstico es el mecanismo de reclutamiento para el dataset y el mecanismo de conversión hacia la práctica.
7. Defectos en v0.1 que este documento corrige
Para alineación interna y para que Stephen valide que escuchamos el feedback:
- Solo 4 pilares. La v0.1 dejó fuera Tech. Los operadores que respondían honestamente sobre monetización no podían marcar los problemas de SCTE-35 o SSAI que muchas veces causan la brecha de monetización. La v2 añade Tech como quinto pilar.
- Mismo benchmark para todos los operadores. Un FAST channel owner se calificaba contra la misma barra de monetización que un agregador CTV. La v2 introduce cinco arquetipos con pesos de pilar por arquetipo y anchors por arquetipo.
- Anchors de benchmark no citados. La v0.1 citaba "LatAm avg 10% / US avg 60%" sin fuente atribuida. La v2 atribuye cada anchor o bien a una fuente de industria publicada (con cita) o bien al panel de expertos-anchor.
- Cinco ítems es muy poco. La v2 usa 21 a 22 ítems, con trampas de honestidad deliberadas y ruteo por segmento.
- El scoring era mapeo intuitivo. La v2 introduce tres modos de scoring (anclado, anclado por expertos, híbrido) y ata las puntuaciones finales a percentiles dentro del arquetipo.
- Sin capa longitudinal. La v0.1 era one-shot. La v2 está hecha para retomarse a intervalos de seis meses, con reportería longitudinal como feature pagado.
- Sin ruta hacia activo de investigación. La v0.1 producía un CTA, no un dataset. La v2 está diseñada con doble propósito: diagnóstico operador-facing más estudio de benchmark de industria agregable.
- Sin segmentación en las recomendaciones. Las recomendaciones de v0.1 dependían solo de la debilidad de pilar. La v2 rutea las recomendaciones por playbooks específicos por arquetipo (un FAST channel owner con debilidad de Distribución recibe consejo distinto a un agregador CTV con el mismo puntaje).
8. Preguntas abiertas para Stephen
Estos son los puntos sobre los que necesitamos su input antes de cerrar el instrumento v2.
- Etiquetas y definiciones de arquetipo. ¿Los cinco arquetipos son el corte correcto para el mercado LatAm que él ve, o divide a los operadores CTV de los agregadores FAST de manera distinta?
- Pesos de pilar por arquetipo. Los pesos en la sección 4.3 son nuestro borrador. Stephen tiene más reps; su calibración va a afinar esto materialmente.
- Brechas en el banco de ítems. Los pilares de Curaduría y Tech son los más livianos. Stephen nombró Curaduría como su territorio de consultoría en conversación previa. ¿Hay algo que quiera adentro o afuera del instrumento operador-facing para que no compita con su trabajo de estrategia?
- Anchors por ítem. Para el lanzamiento Modo B (anclado por expertos) necesitamos medianas de cohorte para cada ítem. Stephen nombra tres a cinco operadores de referencia por arquetipo cuyas respuestas fijan los anchors.
- Jugadores, vendors y competidores a nombrar. Qué plataformas FAST, redes CTV, agencias, y vendors de diagnóstico quiere anclados en los anchors de benchmark y en los playbooks de recomendación (o retenidos).
- Alcance geográfico para la primera ola. ¿Cubrimos México y US Hispanic solamente, o LatAm completo, o LatAm más Iberia? Afecta requerimientos de tamaño muestral.
- Cadencia y venue de publicación. Trimestral o semestral. Candidato a partnership con publicación de industria, o auto-publicado bajo su sello.
- Naming. "Streaming Health Diagnostic" es descriptivo pero genérico. La v2 merece un nombre que viaje. Decisión de Stephen.
9. Lo que todavía no estamos cambiando
La v2 es un documento de metodología. La interfaz se mantiene visualmente cercana a la v0.1 para que Stephen vea el upgrade sin rediseñar la superficie. Después de que Stephen apruebe la metodología, embarcamos la reconstrucción de UI como un segundo sprint. El orden importa: metodología primero, superficie después, no al revés.
10. Próximos pasos
- Revisión de Stephen sobre este documento. Una a dos semanas. Feedback escrito async más una llamada de 30 minutos para recorrer la metodología.
- Cierre del instrumento. Banco de ítems, pesos por arquetipo, anchors fijados. Dos semanas después del visto bueno de Stephen.
- Panel de anchor Modo B. Tres a cinco operadores de referencia por arquetipo entrevistados para fijar anchors. Dos a tres semanas.
- Reconstrucción de UI. Página Next.js con segmentación, branching, banco completo de ítems, gating de tier pagado. Tres a cuatro semanas.
- Cohorte de soft launch. Primeros 20 operadores reclutados a través de la red caliente de Stephen. Cuatro semanas.
- Primera publicación. Reporte de Salud FAST y CTV LatAm v0.1 Q3 2026, publicado bajo el nombre de Stephen con ESS como research partner.
End-to-end desde este documento hasta la primera publicación: aproximadamente 12 semanas si la revisión de Stephen aterriza dentro de dos semanas. Eso pone la publicación en track para fin de agosto o inicio de septiembre 2026. Ver q3-2026-deployment-plan-en.md (versión Stephen) y q3-2026-deployment-plan-es.md (versión Sergio) para el plan operativo y los costos.
Notas de traducción (para Sergio)
- Acrónimos de industria (FAST, CTV, AVOD, SVOD, SSAI, CSAI, SCTE-35, EPG, VAST, CPM, LTV, CAC, OEM, vMVPD, SSP, DSP, EBU R128, SOW, RCT) se mantienen en su forma original porque así circulan en conversaciones de operador en LatAm.
- Nombres de pilar se traducen (Distribución, Monetización, Marketing, Curaduría, Tech) pero los sub-pilares de Stephen (Getting Known, Partner Leverage, LTV) se mantienen en inglés porque ese es el lenguaje que él usa y que el operador va a escuchar en cualquier llamada bilingüe.
- "Tier" se mantiene en inglés (uso de negocios estándar en Mx y Co). Si Sergio prefiere "nivel" para hablar con operadores hispanohablantes, ese cambio es solo de superficie y no afecta la metodología.
- "Cohorte" se usa en su forma femenina estándar (la cohorte).
- "Fill rate", "watch-time", "share of voice", "fill rate variance" se mantienen en inglés (también uso de negocios estándar; el calque al español pierde precisión).
- "Honesty traps" se traduce como "trampas de honestidad" para el documento. En la conversación con operadores hispanohablantes, una formulación más natural sería "preguntas de validación cruzada" si Sergio quiere suavizar.
- No se usa voseo en ninguna parte. No se usan calcos del inglés banneados (potenciar, sinergia, impactar). El registro es neutral profesional Mx/Co.
Cualquier corrección de terminología que Sergio sugiera de su experiencia operando con clientes en Bogotá y la región andina entra como cambio canónico y este archivo se actualiza.