Seleccionar página

Big Data y aprendizaje automático para controlar el Churn rate.

El sector TELCO se caracteriza por continuas y costosas inversiones en infraestructuras y nuevas tecnologías, para sobrevivir a una competencia asfixiante. La lucha por cada cliente es sin cuartel y no sólo pelean las grandes operadoras entre sí, también se pelean contra las operadoras virtuales debido a su agilidad para adaptarse rápidamente a las nuevas necesidades de los clientes a bajo coste.

En este artículo queremos compartiros un caso de éxito basado en campañas comerciales alimentadas desde modelos de aprendizaje automático, para ganar tiempo de reacción y minimizar el Churn rate.

Una de las métricas más temidas por las operadoras es la tasa de fuga de clientes a la competencia, dato que se conoce con el término Churn rate.

Incluso una tasa global de Churn cero o negativa puede doler, porque un flujo alto de migraciones de clientes genera elevados gastos derivados de altas, bajas y cambios de configuración en distintos sistemas, devoluciones de equipos, instalaciones físicas en edificios y casa del cliente a través de contratas, etc.

Combatir el Churn (cliente fugado) es vital
y a ello se dedican grandes recursos

 

Conocer al cliente

Tradicionalmente, se han utilizado reglas de negocio basadas en el conocimiento de los expertos en el área para tratar de predecir quiénes son los clientes más propensos a salir, haciendo uso de unos pocos parámetros para clasificar a los usuarios.

Existe incluso una terminología específica para ciertos comportamientos de los clientes: amagador (hace solicitudes de portabilidad y las cancela), mercenario (realiza continuos cambios de compañía en cortos períodos de tiempo), o Robinson (no quiere que le molesten con propuestas comerciales).

Periódicamente, con métodos semi manuales, se obtiene la lista de los clientes más propensos a salir. Se filtra por criterios tales como datos de facturación o morosidad, y se genera la lista de clientes a contactar para ofrecerles alguna oferta de fidelización con terminales gratis, descuentos, etc.

Las grandes TELCOs cuentan con la ventaja de acumular una enorme cantidad de datos de usuario procedentes de diversas fuentes de información. Entre otros:

    • Datos de movilidad geográfica: la conexión automática del móvil a las distintas celdas de radio refleja las zonas y horarios por donde se mueve el usuario, pudiendo inferir la zona de trabajo, su hogar, zonas de ocio y de fin de semana, nivel adquisitivo, etc.
    • Uso de datos desde el móvil: cuándo y dónde hace uso de datos desde su móvil, a qué tipo de contenido accede o si está navegado por páginas de la competencia. Por ejemplo, si usa muchos datos en horarios diurnos, el tráfico casi desaparece por las noches, pero no tiene contrato de fibra, es muy probable que navegue a través de WIFI de la competencia.
    • Datos de facturación: tipo de tarifa y ofertas en curso, tarifas y ofertas anteriores, tiempo que queda hasta el fin de la permanencia, importe pendiente de pagar de terminales comprados a plazos, antigüedad de las líneas contratadas, problemas de pagos.
    • Tipo de terminal.
    • Dispositivos en el hogar: información de dispositivos en el hogar del cliente que se conectan a través del router de la compañía.
    • Llamadas al call-center propio o de la competencia.
    • Reclamaciones e Incidencias en la red que le han afectado.
HAL 9000

HAL 9000

Las tecnologías asociadas al ámbito del Big Data y Machine Learning aportan
soluciones para procesar y analizar en tiempo real
esta masiva e incesante cantidad de información de usuario.

 

Un poquito de Big Data y Machine Learning

¿Qué ofrece la tecnología Big Data frente a las soluciones tradicionales? Big Data se utiliza cuando el volumen, velocidad y variedad de la información es tan alta que se requiere de una tecnología y métodos analíticos específicos para transformar la información en valor.

Repasando, las soluciones Big Data aportan:

    • Escalabilidad horizontal: el almacenamiento y procesamiento crece de forma lineal añadiendo más nodos.
    • Alta disponibilidad y tolerancia a fallos, mediante la replicación automática de la información.
    • Procesamiento masivamente paralelo, con posibilidad de distribuir el procesamiento a cientos o miles de nodos.
    • Tratamiento de grandes flujos de datos en tiempo real (data streaming).

En cuanto al Machine Learning (ML), gracias a tecnologías como Apache Spark, disponemos de productos que implementan algoritmos de aprendizaje automático para la ejecución paralela en un clúster de múltiples servidores, ofreciendo tiempos de respuesta inimaginables con procedimientos tradicionales.

Apache Spark Logo

 

Caso de éxito: Minimizar el Churn con las nuevas tecnologías

 

Objetivo: disminuir la fuga de clientes a la competencia.
“Dejar de sangrar”

¿Cómo? Fácil. Calculamos diariamente la probabilidad de fuga (Churn rate) a partir de todas las fuentes de datos disponibles, para ofrecer a los clientes más propensos ofertas de fidelización (ventas cruzadas, terminales, descuentos).

Calcular el churn en TELCO

Calcular el churn en TELCO

Ya, pero ¿Cómo logramos llegar a tiempo?
Aquí es donde deslumbra la combinación del Big Data y Machine Learning.
“Cortar la hemorragia a tiempo”

 

En lugar de estar limitados a unos pocos parámetros, podemos utilizar cientos de parámetros que describen a cada usuario; en lugar de realizar un cálculo mensual tenemos la capacidad de hacer cálculos diarios; las reglas de negocio se pueden sustituir por eficientes algoritmos de Machine Learning. Y con la seguridad de que podemos escalar nuestro procesamiento en paralelo tanto como necesitemos, de una forma casi inmediata y transparente.

La solución se basa en utilizar un modelo a través del aprendizaje automático. El entrenamiento del modelo se realiza con datos históricos de los usuarios, donde para cada uno se conoce si hubo o no fuga (churn).

Churn model training

Churn model training

 

Una vez construido el modelo, podemos utilizarlo diariamente para calcular la probabilidad de cada cliente. Este esquema más detallado muestra los pasos del proceso agrupados en tres fases:

Pasos proceso detección Churn

Pasos proceso detección Churn

 

El proceso tiene tres fases:

    1. Fase inicial: estaría compuesta por los pasos 1 a 4. Es donde se realiza el análisis de las fuentes de datos, se agrega la información de cada usuario, se prueban distintos modelos y, finalmente, se selecciona el modelo a utilizar.
    2. Fase de producción: consta de los pasos 1, 2, 5 y 6. Se realiza la ingesta y preparación de nuevos datos del día anterior, y se aplica el modelo para obtener las predicciones diarias.
    3. Fase de re-entrenamiento: habitualmente, cada varios meses o cuando los resultados empiezan a decaer, es conveniente re-entrenar el modelo con datos actualizados que reflejen las nuevas tendencias (hay nuevas tarifas, nueva situación económica, nuevas tecnologías, competidores, etc). Puede tratarse de un re-entrenamiento suave, donde simplemente se re-entrena el modelo con las mismas variables de usuario en un espacio temporal más reciente (pasos 3 y 4), o puede ser un re-entrenamiento fuerte donde se analizan e incorporan nuevas variables de usuario (pasos 1, 2, 3 y 4).

 

Conclusiones y siguientes pasos

Es un hecho: las tecnologías asociadas a la combinación de Big Data y Machine Learning están suficientemente maduras. Aquí os hemos mostrado un caso de uso sencillo, donde analizamos múltiples fuentes de datos de cliente (que tiene su miga) para trabajar el perfil del cliente a través de algoritmos de ML que nos permitan predecir su comportamiento (probabilidad de fuga o churn rate). En el caso que os hemos explicado, la mejora de las campañas se mueve alrededor de un 30% de clientes fugados menos.

Afortunadamente, ya no son necesarias enormes inversiones en hardware, existiendo la alternativa de alquilar un clúster de nodos para realizar procesamientos complejos en el momento que se necesite. Además, también tenemos disponibles numerosas soluciones de software libre, ampliamente documentadas y aplicadas a casos de éxito en todos los sectores.

El siguiente paso es claro: ¡A por ello!

Podéis contar con los servicios y soluciones Big Data de Panel Sistemas o podéis seguir construyendo vuestro propio criterio.

Vamos, que si os va la marcha, es absolutamente recomendable nuestro 101 de Introducción a la Cienca del Dato (Data Science) así como el informe técnico de AWS sobre “Cómo comenzar con el aprendizaje automático: consejos de expertos de vanguardia”(PDF) en el que marcan sus pautas para que las empresas den un paso adelante y rompan las barreras de entrada a esta oportunidad de competir exprimiendo los datos.

 

¿Prefieres jugarla cortita y al pie?

Estás a un golpe de ratón de
configurar tu propio Servicio de Data Science 
adaptado a tus necesidades.
¡Has llegado al sitio perfecto!

(puedes decir que vas de mi parte 😉 )

 

 

Francisco Javier Molinero Velasco

Francisco Javier Molinero Velasco

Javier es Consultor en Panel Sistemas en soluciones Big Data y Machine Learning para la optimización de procesos. Puedes contactar con él vía e-mail, o visitar su perfil en Linkedin

Déjanos tu comentario

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Share This