La BBC lleva años usando inteligencia artificial en su trabajo diario. No como experimento ni como declaración de intenciones corporativas, sino como herramienta integrada en redacciones, producciones y flujos de trabajo reales. Lo que la diferencia de otras grandes organizaciones mediáticas es algo más difícil de construir que un chatbot: una política interna clara, debatida y aplicada sobre cómo, cuándo y para qué puede usarse la IA dentro de sus muros.
Una regla sencilla con implicaciones enormes
Al frente de la unidad de IA de la cadena está el australiano James Fletcher, que resume el principio rector de toda la política interna en una frase que parece obvia pero no lo es: lo que un empleado hace con la IA en casa, no puede hacerlo en la BBC. Detrás de esa máxima hay meses de trabajo para traducirla en normas concretas aplicables a los 20.000 trabajadores de la corporación, en todos sus canales, idiomas y formatos.
La BBC tiene un mandato público: informar, educar y entretener. Cualquier uso de IA que comprometa ese mandato, ya sea por cuestiones de autoría, de protección de datos o de conflictos comerciales, queda fuera de los límites. Y esos límites no son estáticos. Fletcher reconoce que su equipo se enfrenta constantemente a situaciones sin precedente, sin un manual de referencia que seguir, porque la tecnología avanza más rápido que cualquier marco regulatorio. Es el mismo problema que analizamos cuando hablamos de por qué la IA generativa está sobrevalorada y qué hay detrás del hype: las expectativas siempre corren delante de la realidad.
El debate del etiquetado: ¿cuándo avisar al espectador?
Uno de los puntos más discutidos en la industria mediática es si los contenidos generados o asistidos por IA deben llevar una etiqueta visible. La BBC ha tomado una postura pragmática: etiquetar solo lo que pueda confundir o engañar a la audiencia, y dejar fluir el resto sin marcas.
La justificación es sólida. Traducciones, transcripciones de discursos, gráficos estadísticos, resúmenes de datos: si cada pieza que ha pasado por algún proceso automatizado llevara una etiqueta permanente en pantalla, el resultado sería un ruido constante que acabaría perdiendo todo su significado. Las audiencias, según Fletcher, son cada vez más conscientes de que la IA está presente en múltiples capas de la producción de contenido. Lo que importa es que no se les engañe sobre lo que están viendo.
Esta postura choca con la de otras organizaciones y reguladores que defienden la transparencia total como principio irrenunciable. No es un debate menor: como ya señalamos al hablar de si la IA tiene ideología y quién decide lo que piensa, las decisiones sobre qué se muestra y qué se omite nunca son neutras, tampoco cuando las toma un algoritmo.
Los problemas que nadie anticipó
La IA no solo plantea preguntas sobre autoría o etiquetado. Fletcher señala que los desafíos más complejos son los que nadie había previsto: conflictos comerciales con proveedores de modelos, tensiones sobre quién es el propietario del contenido generado con asistencia automatizada, o el riesgo de que la IA replique sesgos presentes en los datos con los que fue entrenada.
La BBC produce contenido en múltiples idiomas para audiencias de todo el mundo. Que un modelo de lenguaje entrenado mayoritariamente en inglés genere subtítulos, resúmenes o traducciones para esas audiencias no es un problema técnico menor: es una decisión editorial con consecuencias reales. Algo parecido ocurre en la industria musical, donde la IA ya compone, produce y distribuye sin que quede claro quién es el autor, y las preguntas sobre autoría y representación siguen sin respuesta.
Servicio público en la era de los modelos fundacionales
Por eso, más allá de las normas de uso, la corporación trabaja en algo más difícil de medir: que su IA esté alineada con el carácter de servicio público que define a la cadena desde su fundación. No basta con que la herramienta funcione bien. Tiene que funcionar bien para la BBC, con todo lo que eso implica.
El reto no es exclusivo de la corporación británica. Los modelos fundacionales y la concentración de poder que generan plantean exactamente la misma pregunta a cualquier organización que los adopte: ¿quién controla realmente lo que el modelo hace, dice y decide?
La corporación que durante décadas ha marcado el estándar del periodismo internacional afronta ahora el reto de hacer lo mismo con algo que aún no tiene estándar: cómo integrar la inteligencia artificial sin perder la inteligencia editorial.
0 Comentarios