CIO

Los datos son el pegamento del negocio

Os contaba en el último post la pérdida de tiempo y energía, que en la mayoría de las empresas supone decidir qué dato es el bueno. Pero vamos a suponer que ya lo hemos conseguido y sabemos la fuente de los datos y donde almacenarlos. A partir de ahí, estamos preparados para empezar a conseguir valor para el negocio, o lo que los consultores llaman ahora “una data driven company”.

Big Data pantalla datos

Yo sí me creo que usar los datos de manera transversal en una compañía genera una ventaja competitiva, porque es el pegamento que nos puede permitir generar experiencias en nuestros clientes diferentes, o gestionar más eficientemente. Pero hay que estar dispuestos a salir de la baldosa de cada uno, y a desarrollar capacidades de integración y manejo de datos de forma masiva y ágil.  

Pensar en una Telco donde, tradicionalmente, se gestionaban los datos de clientes pegados a los canales CRM, a los servicios que contrataban y la facturación y, por otro lado, los datos de la red para conocer el uso de los servicios y para la supervisión y gestión de la propia red. Cuando un cliente llamaba a un call center o, usaba el canal on-line, no se usaba para nada los datos de la experiencia de ese cliente en sus servicios de comunicaciones.  Como decíamos la información del cliente y el uso de sus servicios vivían en mundos paralelos.

Cuando preguntaba el por qué no tener la información de uso de los servicios de un cliente en su ficha de call center, la conclusión iba siempre en la línea de los incentivos que tenía ese equipo y porque medían el nivel de servicio. Solía estar relacionado con satisfacción y resolución al primer contacto.  Y esto es común a todos los sectores B2C y cómo se han gestionado las compañías durante muchos años.

Para sacar valor de negocio a los datos, tienes que forzar el cambio cultural orientado a objetivos de negocio y transversal, donde los datos van a actuar como pegamento.

Hoy os voy a contar un caso de uso de crear valor con los datos orientado a la mejora de un producto como es la visualización de contenidos. Teníamos que conseguir recomendar a los clientes contenidos en tiempo real, en base a su consumo de contenidos y a un montón más de fuentes internas y externas. Vaya por delante, todo perfectamente sanitizado a nivel de datos privados de los clientes.

Antes incluso de sentarnos todos los actores en la misma mesa, empezaron a surgir iniciativas de comprar plataformas de recomendación, de usar alguna de las que estaba en la nube y, alguno de nuestros proveedores tradicionales se puso muy creativo con lo que íbamos o no a poder conseguir.

Tuvimos que conseguir sentarnos: los responsables de producto de contenido, de inteligencia de negocio, de las plataformas de contenidos, de las plataformas de visualización de contenidos, de las aplicaciones de negocio (los llamados BSS en las Telco), de las aplicaciones de la red (los llamados OSS en las Telco), de asesoría jurídica, de canales de relación con clientes (físicos y on-line) etc…Y los que sabían construir algoritmos.

Ya sentados, la primera reacción: escepticismo. Varios (fundamentalmente de negocio) manifestaron sus dudas técnicas sobre si podíamos gestionar enormes cantidades de datos en tiempo real, y otros (desde tecnología) si sabíamos que algoritmo queríamos desarrollar para acertar en la recomendación.

Es cierto que nunca nos habíamos enfrentado a un proyecto técnico para gestionar volúmenes de información en tiempo real de esas características, ni habíamos aplicado algoritmos de recomendación de contenidos personalizados por el uso del propio cliente. Para rematar la situación, teníamos una presión enorme de plazo por la competencia.

Una vez que conseguí que dos de los actores claves se subieran al barco, nos pusimos a trabajar, que es la única forma que yo conozco de reducir incertidumbres.

A partir de ahí, empezó una loca carrera de 4 meses:

  1. El equipo técnico seleccionado, probando el rendimiento de la infraestructura necesaria.
  2. Los responsables de las plataformas, asegurando que sus fuentes de datos estaban correctas y se enviaban en plazo correctamente para su uso en tiempo real.
  3. Los responsables del algoritmo, definiendo y probando la fiabilidad y bondad de sus hipótesis.
  4. El responsable de producto, analizando la experiencia del cliente y como intentar monetizar las recomendaciones.
  5. El responsable de asesoría, asegurando la sanitización de los datos del cliente.
  6. Operaciones, pensando cómo no afectar a la visualización de contenidos, si la recomendación fallaba.

Una vez lanzado y tras el ajuste inicial, tocaba hacerse cargo de un nuevo producto con su ciclo de vida, basado en datos, que nos obligó a repensar y cambiar varias formas de hacer. Cambia bastante la gestión de una aplicación o una plataforma de servicio.

Y aunque el proceso es idéntico al que todos hemos vivido poniendo productos basados en tecnología en el mercado, para mí la diferencia fundamental es la transversalidad y gestión del pegamento, y exige cambiar muchas cosas, en especial lo que yo llamo la cultura del dato.

 

El próximo post lo voy a dedicar a qué significa para mí, que una compañía tenga “cultura del dato”, que en mi opinión, es la base para una transformación hacia realmente convertirte en una compañía gestionada por datos. Y os contaré un caso práctico de cómo un equipo financiero se puede convertir en el hub de creación de valor para el negocio, en base a gestionar los datos con las nuevas tecnologías.

Comentarios

Iniciar sesión

Aún no hay comentarios sobre este contenido.

Próximos Eventos