Un modelo de scoring es tan bueno como los datos del CRM que lo alimentan. Qué campos importan de verdad, cuáles sobran y cómo preparar los datos para que el modelo funcione.
📌 En resumen
La calidad de un modelo de scoring comercial depende enteramente de los datos del CRM que lo alimentan. Antes de construir el modelo, hay que evaluar si los datos de actividad, perfil y resultado están completos, actualizados y capturados de forma consistente. Los campos imprescindibles son historial de interacciones, resultado de oportunidades (ganadas y perdidas), datos firmográficos del cliente y tiempo medio del ciclo de venta. Si los comerciales no registran actividad de forma regular o las oportunidades perdidas no se documentan, el modelo no tendrá suficiente información para aprender qué distingue a un cliente con alta probabilidad de conversión de uno que no lo es.
Los modelos de scoring —ya sea para priorizar leads o para clasificar clientes por valor potencial— son uno de los proyectos de IA más demandados en equipos comerciales. La promesa es clara: en lugar de que el comercial decida por intuición a quién llamar primero, un score numérico prioriza las oportunidades por probabilidad de conversión o por valor esperado.
Pero la calidad del scoring depende enteramente de los datos que lo alimentan. Y la realidad de la mayoría de CRMs es que los datos están incompletos, desactualizados o capturados de forma inconsistente. Antes de construir el modelo, hay que entender qué datos importan y cómo hay que prepararlos.
Un modelo de scoring combina tres tipos de información, cada uno con un papel distinto:
Sector de la empresa, tamaño (empleados, facturación), cargo de la persona de contacto, ubicación geográfica, canal de captación. Son los datos que suelen estar en el CRM desde la creación del registro. Su valor predictivo es moderado —ayudan a filtrar— pero rara vez son suficientes por sí solos para un scoring útil.
Visitas a la web, descargas de contenido, asistencia a webinars, apertura de emails, interacciones con el equipo comercial (llamadas, reuniones, demos). Estos datos tienen mucho más poder predictivo que los de perfil porque reflejan intención real. Un CEO de una empresa de 200 empleados que ha visitado la página de precios tres veces tiene más probabilidad de convertir que uno que solo ha descargado un ebook.
Si el lead ya fue cliente o tuvo interacciones comerciales anteriores, ese historial es muy predictivo: duración del ciclo de venta anterior, motivo de no conversión si no compró, productos contratados si fue cliente, incidencias que tuvo. En CRMs con suficiente historial, este bloque suele ser el más valioso.
De toda la información que un CRM puede almacenar, estos son los campos que, en la práctica, más impacto tienen en la precisión del modelo:
Estos son los problemas que encontramos con más frecuencia al analizar los datos de CRM antes de construir un modelo:
⚠️ Atención
No construyas un modelo de scoring sobre datos mal cualificados. Un scoring basado en datos incompletos genera dos problemas: el equipo no confía en los scores (porque ven que no cuadran con su experiencia) y deja de usarlos. Una vez perdida la confianza, es muy difícil recuperarla.
El trabajo previo al modelo es más importante que el modelo en sí. Empieza por auditar la calidad del CRM: ¿qué porcentaje de campos clave está completo? ¿Los comerciales registran las interacciones? ¿La definición de conversión es consistente? Si la auditoría revela problemas graves, primero hay que resolverlos. Si la calidad es razonable (70-80% de campos clave completos, historial de 12+ meses), ya puedes construir un primer modelo. En nuestro servicio de inteligencia artificial el análisis de calidad de datos es siempre el primer paso antes de construir cualquier modelo predictivo, y si el problema es más profundo, la auditoría de calidad de datos cubre el diagnóstico y la corrección de los problemas desde el origen.
Siguiente paso recomendado
Lleva esto a la práctica: convertimos los datos de tu CRM en un scoring que el equipo comercial pueda usar.
Sin compromiso · Respuesta en < 24h
Autor
Fundador y Consultor de Datos e IA
David Aldomar es fundador y consultor principal de MERIDIAN Data & IA, consultora especializada en ayudar a pymes y empresas medianas en España a tomar mejores decisiones con sus datos. Su trabajo se centra en cuatro áreas: diseño e implantación de plataformas de datos (data warehouses, pipelines ETL con dbt, integración de ERPs y CRMs), reporting y dashboards ejecutivos en Power BI, automatización de procesos de negocio con herramientas como n8n, y desarrollo de soluciones de inteligencia artificial aplicada — desde modelos de forecasting de demanda hasta copilots internos basados en RAG con LangChain y FastAPI. Ha liderado proyectos en sectores como logística y transporte, retail y distribución, servicios financieros, manufacturing y construcción, siempre con un enfoque pragmático: diagnóstico corto, entregables concretos y transferencia de conocimiento al equipo del cliente para que sea autónomo desde el primer día. Antes de fundar MERIDIAN, acumuló experiencia en consultoría de datos y transformación digital trabajando con stacks variados — desde entornos Microsoft (SQL Server, Power BI, Azure) hasta ecosistemas open source (Python, dbt, BigQuery). Su filosofía es que un buen proyecto de datos no se mide por la tecnología que usa, sino por las decisiones de negocio que permite tomar. Escribe regularmente en el blog de MERIDIAN sobre reporting, gobierno del dato, automatización e IA aplicada, con guías prácticas orientadas a responsables de negocio y equipos técnicos de empresas que quieren sacar partido real a sus datos sin depender de grandes consultoras.
Fuentes
Scoring y señales de riesgo para priorizar clientes y campañas con más impacto.
Modelos predictivos que convierten datos de CRM en decisiones comerciales operativas.
Integra CRM, ERP y otras fuentes para que el scoring no dependa de hojas manuales.
Seguir leyendo
10 min lectura
7 min lectura
9 min lectura