Un banco desea realizar ventas cruzadas de tarjetas de crédito a clientes de préstamos hipotecarios. Supongamos que el Banco no tiene datos sobre la Población general, es decir, clientes que no están registrados en la base de datos del Banco.
Para aumentar sus tasas de respuesta, el Banco implementa un Modelo de Propensión a Comprar, la metodología exacta no se conoce, solo para descubrir que las Propensiones predichas por su Modelo son demasiado bajas para los usuarios que no tienen Tarjeta de Crédito en su base de datos.
Una cuestión es la interpretación de la desilusión del resultado del Banco. Una posibilidad es que el Banco creó un Modelo que aprendió a identificar a sus titulares de Tarjetas de Crédito muy bien, dando así puntuaciones de probabilidad demasiado bajas a los que no tienen Tarjetas de Crédito. Es decir, un problema de sobreajuste.
- ¿Es realmente necesaria la programación competitiva para campos como la ciencia de datos o el aprendizaje automático y para solicitar gigantes tecnológicos?
- ¿Por qué una red neuronal no es propensa al sobreajuste a pesar de tener tantos parámetros?
- ¿Por qué la optimización convexa es tan importante en el aprendizaje automático?
- ¿Cómo deciden los científicos computacionales qué estrategia usar para la validación cruzada?
- ¿Qué significa esto exactamente, "Cambiar los puntos de inicialización durante el entrenamiento" para el aprendizaje profundo?
Una segunda cuestión es cómo abordar conceptualmente la tarea de encontrar clientes potenciales con tarjeta de crédito dentro del conjunto de clientes sin tarjeta de crédito en la base de datos del Banco. El desafío es evitar la trampa de crear un modelo que identifique a los clientes que tienen tarjetas de crédito en la base de datos, claramente una información inútil, pero más bien identifica a los clientes que no tienen tarjetas de crédito pero serían buenas perspectivas para la comercialización de tarjetas de crédito, es decir, usuarios de tarjetas de crédito latentes. El problema obviamente tiene tres aspectos importantes:
• ¿Cómo se deben definir los conjuntos de datos de capacitación, validación cruzada y pruebas?
• ¿Qué pautas se deben utilizar para seleccionar funciones?
• ¿Cómo debe interpretarse la salida del modelo?
Una vista es enmarcar el problema como un intento de construir un modelo bien generalizable a partir de los datos etiquetados existentes (Clientes en la Base de Datos que tienen o no tienen una Tarjeta de Crédito). La generalización aquí se define como la capacidad del modelo para descubrir clientes latentes.
Siguiendo este enfoque, se podría entrenar el modelo en datos de, por ejemplo, 2014 y optimizar los hiperparámetros de regularización en un conjunto de datos de validación cruzada compuesto por nuevos clientes en el año 2015, con el objetivo de una alta recuperación a expensas de una alta precisión. Finalmente, pruebe el modelo utilizando como conjunto de datos de prueba los nuevos clientes de 2016. En consecuencia, aplique este modelo para asignar probabilidades a los usuarios que no son de la tarjeta de crédito en la base de datos del Banco. Finalmente, seleccione el 10% o 20% de los usuarios que no son de la tarjeta de crédito que han sido asignados con las probabilidades más altas.
Déjame saber lo que piensas. ¡Espero escuchar sus opiniones!