El Sound System x Stephen Brooks Partnership
ENES
Borrador Confidencial

Streaming Health Diagnostic, Metodología v2

Creado: 2026-05-11 (versión EN); traducción ES 2026-05-12 Autores: Nicolás Borja, con Sergio Uzaheta Título de trabajo: FAST + CTV Health Diagnostic Estado: Borrador para revisión de Stephen Brooks Reemplaza: prototipo v0.1 en diagnostic.html (5 preguntas, 4 pilares, mapeo intuitivo) Documento canónico en inglés: diagnostic-v2-methodology.md (este archivo es la traducción para uso interno con Sergio y para reclutamiento de cohorte hispanohablante).

0. Qué cambió frente a la v0.1 y por qué

La v0.1 fue un demo de cinco preguntas construido para ganar una junta. Calificaba por intuición contra anchors no citados ("LatAm 10% / US 60%"), producía una de cuatro etiquetas de nivel, y empujaba un CTA. Fue útil como prop de credibilidad. Todavía no es un instrumento de diagnóstico por el cual un operador pagaría, ni un estudio de investigación que la industria pueda citar.

La v2 redefine el trabajo como dos productos acoplados:

  1. El diagnóstico operador-facing. Un instrumento de 18 a 22 ítems que produce una puntuación, un radar sobre cinco pilares, un percentil relativo al segmento, y un plan de acción a 90 días. Tier de entrada gratuito, tier de reporte completo pagado.
  2. El estudio de benchmark de industria. El dataset agregado y anonimizado de respuestas se vuelve un output trimestral de investigación sobre la base de operadores FAST y CTV LatAm. Este es el activo que justifica la inversión, porque una vez reclutada y aplicada la cohorte, el costo marginal de cada operador adicional puntuado tiende a cero, mientras el valor del dataset de benchmark se acumula.

El instrumento y el estudio comparten infraestructura. El instrumento genera la data. El estudio comercializa la cohorte. Ambos refuerzan el posicionamiento de Stephen como el operador que tiene la única vista longitudinal de salud FAST y CTV LatAm.

1. Arquitectura de pilares

Cinco pilares, mapeados al lenguaje de pilares de operador de Stephen y a las categorías sobre las que un operador puede mover la aguja en un plan de 90 días.

1.1 Distribución (Distribution)

Dónde vive el contenido y qué tan alcanzable es la audiencia. Subdimensiones: - Huella de plataformas (número y calidad de agregadores FAST, apps AVOD, partners SVOD, placements OEM, sindicación social). - Alcance geográfico (mercados activos, preparación multilingüe, derechos regionales otorgados vs retenidos). - Superficie de descubrimiento (presencia en EPG, ubicación en recomendaciones, visibilidad en búsqueda, posiciones merchandiseadas por partners).

1.2 Monetización (Monetization)

Cuánto paga el inventario por impresión y por viewer. Subdimensiones: - Fill rate (general, por daypart, por daypart y región). - Yield (rangos de CPM por programmatic vs direct, por región, por vertical de contenido). - Madurez del ad stack (SSAI vs CSAI, header bidding, cobertura de SSPs, deal IDs, posiciones premium vendidas directo). - Mix de modelo de monetización (AVOD puro, FAST, híbrido, transaccional, sponsorship overlay).

1.3 Marketing (Marketing)

El pilar que Stephen nombra. Se descompone en sus tres sub-elementos. Subdimensiones: - Getting Known (CAC por canal, volumen de búsqueda de marca, share of voice en categoría, medición de awareness). - Partner Leverage (volumen de cross-promotion, deals de co-marketing activos, share de adquisición vía partner, sindicación como marketing). - LTV (granularidad, LTV de cohorte a nivel de canal, señal de churn o atrición, ratio LTV vs CAC por canal).

1.4 Curaduría (Curation)

Cómo se arma, programa y refresca el catálogo. Subdimensiones: - Profundidad y amplitud de catálogo (horas por género, mix de formatos entre FAST, AVOD, SVOD, live). - Sofisticación de programación y scheduling (diseño de bloques, estrategia de daypart, cadencia de refresh, calidad de ubicación de ad-pods). - Salud de derechos y licencias (windowed vs perpetuo, clearance multi-región, clearance de sync musical para FAST). - Cadencia de producción de contenido (originales vs licenciados vs UGC vs asistido por IA).

1.5 Tech (Tech)

El stack operacional sobre el que se montan los otros cuatro pilares. Subdimensiones: - Stack de entrega (CDN, pipeline de encoding, packaging, DRM si aplica). - Salud técnica del ad stack (precisión de marcadores SCTE-35, calidad de integración SSAI, latencia de VAST tags, tasa de error). - Stack de data (cobertura analítica, atribución, señal de engagement de contenido, capacidad de A/B testing). - Preparación de IA y automatización (pipeline de tooling, workflow multilingüe, madurez de content factory).

2. Segmentación: tipo de operador como primera pregunta

El defecto más grande de la v0.1 es que calificaba a un FAST channel owner contra los mismos benchmarks que a una plataforma de streaming completa. Son negocios distintos. La v2 abre con una pregunta de tipificación que determina qué subset de preguntas se aplica y contra qué cohorte de benchmark se califica al operador.

Los cinco arquetipos de operador:

Arquetipo Descripción Ejemplo
A. FAST channel owner Opera uno o más canales FAST de un solo género o una sola marca, distribuidos vía agregadores. Es dueño de la marca del canal, licencia o produce contenido. Vix Channels, FAST de género musical, FAST de deportes retro
B. Agregador FAST / vMVPD Es dueño de la superficie donde se agregan múltiples canales FAST. Opera el EPG y el ad stack al nivel del agregador. Pluto, Samsung TV Plus, Vix, agregadores FAST regionales
C. Plataforma AVOD o SVOD Es dueño de la app de contenido, la relación, el catálogo, y el negocio de suscripción o publicidad. Vix, Tubi, ViX Premium, Pluto on-demand, apps AVOD regionales
D. Operador CTV de red u OEM de smart-TV Es dueño del dispositivo, la pantalla de inicio, y la superficie publicitaria. Agrega contenido para la audiencia del dispositivo. Samsung TV Plus lado operador, LG Channels, Roku Channel lado operador
E. Licenciador de contenido o productor independiente Es dueño de derechos de contenido y los licencia a distribución FAST, AVOD o SVOD. Sellos musicales, ligas deportivas, dueños de IP, productoras indie

El tipo de operador es una segmentación dura. Un puntaje de 80 en el arquetipo A y en el arquetipo C significan cosas distintas, y el operador necesita que el benchmark sea relativo a sus pares para tomar el diagnóstico en serio.

Una segunda pregunta de tipificación captura escala (banda de ingreso anual por publicidad) para que el percentil también esté ajustado por tamaño dentro del arquetipo.

3. Estructura de ítems: 18 a 22 preguntas

La v0.1 tenía cinco preguntas. Eso daba una señal débil que los operadores podían gamear en 30 segundos. La v2 usa 18 a 22 ítems distribuidos sobre los cinco pilares y ponderados por la contribución de cada pilar al outcome. El instrumento debe tomar de 12 a 18 minutos en completarse, lo que es suficiente para disuadir gameo casual y lo suficientemente breve para terminar en una sola sentada.

Cada ítem es uno de cuatro tipos:

El instrumento incluye, de manera deliberada, dos "trampas de honestidad" embebidas en el pilar de Marketing: preguntas donde la respuesta incorrecta revela una brecha de instrumentación que el operador podría no saber que tiene. Este patrón viene del banco de preguntas del Sound Check (ver project_soundcheck_question_bank.md en MEMORY). Es lo que hace que la puntuación sea más que un ejercicio de auto-elogio.

3.1 Banco de ítems (borrador, por pilar)

Distribución (4 ítems)

Monetización (5 ítems)

Marketing (5 ítems, descompuesto en los tres sub-pilares de Stephen)

Curaduría (4 ítems)

Tech (3 a 4 ítems)

Conteos totales: D=4, M=5, MK=5, C=4, T=3-4. Total 21 a 22 ítems. El conteo final de ítems queda cerrado tras la revisión de Stephen.

4. Metodología de scoring

4.1 Scoring a nivel de ítem

Cada ítem se califica de 0 a 100 contra un anchor de benchmark. Para sliders, el anchor es la mediana de cohorte del arquetipo del operador. Para categóricos, las opciones mapean a puntuaciones específicas derivadas de la correlación a nivel de categoría con la variable outcome en la cohorte de benchmark.

Existen tres modos de scoring dependiendo de la disponibilidad de data:

4.2 Scoring a nivel de pilar

Cada puntaje de pilar es un promedio ponderado de sus ítems, con pesos por ítem ajustados por arquetipo. La ponderación se deriva de dos fuentes: juicio experto sobre qué ítems pesan más por arquetipo, y (una vez que la cohorte está en vivo) regresión de ítems contra variables outcome (revenue por hora-viewer, proxies de retención, mejoras en fill rate).

4.3 Ponderación del score total

Los pesos de pilar varían por arquetipo. La ponderación de v0.1 (25 distribución, 30 monetización, 30 marketing, 15 curaduría) sobrepesa monetización para licenciadores de contenido que no operan el ad stack, y subpesa distribución para FAST channel owners. La v2 publica pesos por arquetipo:

Arquetipo Distribución Monetización Marketing Curaduría Tech
A. FAST channel owner 25 25 25 15 10
B. Agregador FAST 15 35 20 15 15
C. Plataforma AVOD o SVOD 20 25 25 15 15
D. Operador CTV / OEM 20 30 15 15 20
E. Licenciador de contenido 30 10 25 25 10

Los pesos son borrador. La revisión de Stephen los va a afinar antes del lanzamiento.

4.4 Sistema de niveles

Cuatro niveles, etiquetas idénticas a v0.1 (las etiquetas son buenas; las bandas ahora varían por arquetipo):

Los límites de nivel se recalculan trimestralmente conforme la cohorte crece.

4.5 Output

El operador recibe:

  1. Un puntaje total y nivel, percentil contra pares de su arquetipo.
  2. Un radar de cinco ejes con scores de pilar.
  3. Las tres subdimensiones más débiles a lo largo de todos los pilares, cada una atada a un benchmark.
  4. Tres movimientos nombrados para los próximos 90 días, mapeados a las subdimensiones más débiles del operador.
  5. (Solo tier pagado) Un reporte de diagnóstico de 12 a 18 páginas con: contexto de cohorte, detalle de scoring por ítem con benchmark, roadmap de implementación específico al operador, stack sugerido de vendors y herramientas, SOW de ejemplo para contratar la alianza para ejecutar el roadmap.

5. Diseño de la cohorte de benchmark

Este es el núcleo metodológico de la v2 y la parte que convierte al instrumento en un activo de investigación.

5.1 Tamaños objetivo de cohorte

5.2 Reclutamiento

Tres canales en orden de prioridad:

  1. Red directa de Stephen. Cohorte de la más alta calidad, la más rápida de reclutar. Stephen corre la presentación caliente; nosotros corremos el diagnóstico y producimos el reporte gratuito del operador. La participación del operador les compra el reporte; la participación también los opta dentro del agregado anonimizado.
  2. Partnership de industria. Un body de industria o publicación (NAB Latin America, NATPE Latin America, newsletter FAST and Curious, Streaming TV Insider) co-publica el estudio a cambio de promoción. La cohorte crece vía el alcance del partner.
  3. Outreach pagado. Outreach segmentado por LinkedIn y email a tipos de rol nombrados (Head of Content, VP Monetization, Head of FAST) en operadores conocidos. Yield más bajo, pero predecible.

5.3 Lógica de control

El instrumento no es un experimento controlado. El "control" en este estudio es la cohorte de benchmark misma: el puntaje del operador tiene sentido solo en relación a sus pares en el mismo arquetipo. Somos explícitos en el documento de metodología en que esto es un estudio de benchmark, no un RCT. La integridad del benchmark depende de:

5.4 Señal longitudinal

El instrumento está diseñado para retomarse cada seis meses. Los operadores que retoman reciben un reporte longitudinal que muestra movimiento en cada pilar, lo que se vuelve la base para el retainer pagado de Tier 3 en economic-models.md (continuous practice). Este es el motor que convierte un diagnóstico one-shot en un producto de revenue recurrente.

6. En qué se convierte esto combinado con el posicionamiento de Stephen

Stephen vende alineación, definición de metas, y la relación estratégica. Ya es lo más cercano a una autoridad reconocida en LatAm en salud de streaming y FAST. La v2 le entrega el único dataset longitudinal, segmentado y peer-relativo sobre la base de operadores LatAm.

Stephen no tiene que construir el dataset; nosotros corremos el instrumento y el estudio bajo su dirección editorial estratégica. Lo que él recibe:

  1. Un activo de investigación para publicar bajo su nombre. Reporte trimestral de salud streaming LatAm, nombrado por él o co-brandeado con la alianza.
  2. Un motor de leads calificados. Cada operador que completa el diagnóstico queda segmentado, calificado, y (con permiso) elegible para follow-up pagado.
  3. Una línea de servicio productizada. El diagnóstico se vuelve la puerta de entrada a la implementación de 90 días (Tier 2) y a la práctica continua (Tier 3) en el documento de modelos económicos.

El diagnóstico no es el producto. El dataset y la práctica longitudinal sí lo son. El diagnóstico es el mecanismo de reclutamiento para el dataset y el mecanismo de conversión hacia la práctica.

7. Defectos en v0.1 que este documento corrige

Para alineación interna y para que Stephen valide que escuchamos el feedback:

  1. Solo 4 pilares. La v0.1 dejó fuera Tech. Los operadores que respondían honestamente sobre monetización no podían marcar los problemas de SCTE-35 o SSAI que muchas veces causan la brecha de monetización. La v2 añade Tech como quinto pilar.
  2. Mismo benchmark para todos los operadores. Un FAST channel owner se calificaba contra la misma barra de monetización que un agregador CTV. La v2 introduce cinco arquetipos con pesos de pilar por arquetipo y anchors por arquetipo.
  3. Anchors de benchmark no citados. La v0.1 citaba "LatAm avg 10% / US avg 60%" sin fuente atribuida. La v2 atribuye cada anchor o bien a una fuente de industria publicada (con cita) o bien al panel de expertos-anchor.
  4. Cinco ítems es muy poco. La v2 usa 21 a 22 ítems, con trampas de honestidad deliberadas y ruteo por segmento.
  5. El scoring era mapeo intuitivo. La v2 introduce tres modos de scoring (anclado, anclado por expertos, híbrido) y ata las puntuaciones finales a percentiles dentro del arquetipo.
  6. Sin capa longitudinal. La v0.1 era one-shot. La v2 está hecha para retomarse a intervalos de seis meses, con reportería longitudinal como feature pagado.
  7. Sin ruta hacia activo de investigación. La v0.1 producía un CTA, no un dataset. La v2 está diseñada con doble propósito: diagnóstico operador-facing más estudio de benchmark de industria agregable.
  8. Sin segmentación en las recomendaciones. Las recomendaciones de v0.1 dependían solo de la debilidad de pilar. La v2 rutea las recomendaciones por playbooks específicos por arquetipo (un FAST channel owner con debilidad de Distribución recibe consejo distinto a un agregador CTV con el mismo puntaje).

8. Preguntas abiertas para Stephen

Estos son los puntos sobre los que necesitamos su input antes de cerrar el instrumento v2.

  1. Etiquetas y definiciones de arquetipo. ¿Los cinco arquetipos son el corte correcto para el mercado LatAm que él ve, o divide a los operadores CTV de los agregadores FAST de manera distinta?
  2. Pesos de pilar por arquetipo. Los pesos en la sección 4.3 son nuestro borrador. Stephen tiene más reps; su calibración va a afinar esto materialmente.
  3. Brechas en el banco de ítems. Los pilares de Curaduría y Tech son los más livianos. Stephen nombró Curaduría como su territorio de consultoría en conversación previa. ¿Hay algo que quiera adentro o afuera del instrumento operador-facing para que no compita con su trabajo de estrategia?
  4. Anchors por ítem. Para el lanzamiento Modo B (anclado por expertos) necesitamos medianas de cohorte para cada ítem. Stephen nombra tres a cinco operadores de referencia por arquetipo cuyas respuestas fijan los anchors.
  5. Jugadores, vendors y competidores a nombrar. Qué plataformas FAST, redes CTV, agencias, y vendors de diagnóstico quiere anclados en los anchors de benchmark y en los playbooks de recomendación (o retenidos).
  6. Alcance geográfico para la primera ola. ¿Cubrimos México y US Hispanic solamente, o LatAm completo, o LatAm más Iberia? Afecta requerimientos de tamaño muestral.
  7. Cadencia y venue de publicación. Trimestral o semestral. Candidato a partnership con publicación de industria, o auto-publicado bajo su sello.
  8. Naming. "Streaming Health Diagnostic" es descriptivo pero genérico. La v2 merece un nombre que viaje. Decisión de Stephen.

9. Lo que todavía no estamos cambiando

La v2 es un documento de metodología. La interfaz se mantiene visualmente cercana a la v0.1 para que Stephen vea el upgrade sin rediseñar la superficie. Después de que Stephen apruebe la metodología, embarcamos la reconstrucción de UI como un segundo sprint. El orden importa: metodología primero, superficie después, no al revés.

10. Próximos pasos

  1. Revisión de Stephen sobre este documento. Una a dos semanas. Feedback escrito async más una llamada de 30 minutos para recorrer la metodología.
  2. Cierre del instrumento. Banco de ítems, pesos por arquetipo, anchors fijados. Dos semanas después del visto bueno de Stephen.
  3. Panel de anchor Modo B. Tres a cinco operadores de referencia por arquetipo entrevistados para fijar anchors. Dos a tres semanas.
  4. Reconstrucción de UI. Página Next.js con segmentación, branching, banco completo de ítems, gating de tier pagado. Tres a cuatro semanas.
  5. Cohorte de soft launch. Primeros 20 operadores reclutados a través de la red caliente de Stephen. Cuatro semanas.
  6. Primera publicación. Reporte de Salud FAST y CTV LatAm v0.1 Q3 2026, publicado bajo el nombre de Stephen con ESS como research partner.

End-to-end desde este documento hasta la primera publicación: aproximadamente 12 semanas si la revisión de Stephen aterriza dentro de dos semanas. Eso pone la publicación en track para fin de agosto o inicio de septiembre 2026. Ver q3-2026-deployment-plan-en.md (versión Stephen) y q3-2026-deployment-plan-es.md (versión Sergio) para el plan operativo y los costos.


Notas de traducción (para Sergio)

Cualquier corrección de terminología que Sergio sugiera de su experiencia operando con clientes en Bogotá y la región andina entra como cambio canónico y este archivo se actualiza.