Hay dos enfoques diferentes para el análisis: personalizado y sin receta. Soy un fanático personal de los análisis personalizados, por lo que para mí los ingredientes principales de una pila de análisis estable y sólida son:
- Recopiladores de datos y fuentes de datos en todos los dominios: flujo de clics, datos publicitarios, datos de uso, feeds operativos, CRM, etc.
- Canalización de datos , también conocido como ETL, el proceso en el que mueve los datos al almacén de datos
- Almacén de datos : donde todos los datos se almacenan listos para ser analizados
- Visualización de datos y BI : para ayudarlo a analizar y obtener información de sus datos (preferiblemente de manera colaborativa)
- Herramientas de aplicación de datos (opcional): cuando realmente desea utilizar sus datos para algo que no sea análisis
Aquí está mi pila de análisis :
- ¿Cuáles son las mejores formas para que un proveedor de SaaS aumente sus precios?
- ¿Cuáles son los buenos productos de 'intranet como servicio'?
- ¿Qué es Heroku en términos laicos?
- ¿Cómo valoras una aplicación SaaS / web cuando consideras una adquisición?
- Cómo conseguir mis primeros clientes de SaaS
Recopiladores de datos / fuentes de datos
- Salesforce.com (producto) para CRM, encantado – Comentarios de los clientes con Net Promoter Score para NPS
- Google AdWords, anuncios de Facebook para publicidad
- SDK de Javascript para el seguimiento del sitio web y los datos a nivel de usuario, Google Analytics (producto) para una vista agregada de los mismos datos de una manera no profesional
- SERPs.com para datos de SEO
- Las bases de datos de Postgres es donde almacenamos la actividad de nuestros usuarios
- Marketo (producto) y Mandrill (servicio de entrega por correo electrónico) para la comunicación con nuestros prospectos y clientes.
y muchos otros…
Canalización de datos / ETL
La función de una canalización de datos es ayudarlo a obtener todos sus datos en un solo lugar. Romper los silos es una parte importante de poder alcanzar ideas más profundas y significativas, pero no termina ahí. La calidad e integridad de los datos también se debe hacer como parte del proceso de ETL (a menos que sea una de las personas raras que prefieren los lagos de datos, o debería decir: pantanos de datos 🙂)
Yo uso Alooma como mi canal de datos. También trabajo en Alooma. Pero para ser honesto, solo me uní a la compañía porque necesitaba una tubería adecuada para trabajar.
Aquí está Alooma en pocas palabras:
Almacén de datos
El concepto de un almacén de datos se explica por sí mismo. Trabajo con Amazon Redshift durante 5 años, pero algunos de mis mejores amigos trabajan con Google BigQuery y otros almacenes de datos flexibles.
Visualización de datos y BI
Hay SOOOO muchas herramientas por ahí, pero mi favorito personal es Redash porque es:
- Compartible y transparente: puede compartir un enlace a una visualización / análisis con la consulta que produjo dicho resultado
- Simple y directo: SQL es suficiente y todo lo que necesita saber. Sin capas de abstracción, solo un buen acceso directo a sus datos
- Colaborativo y comparable: una especie de github para analistas
- Se puede acceder a los datos a través de la API, por lo que puede crear servicios basados en su análisis
- Se conecta a cualquier fuente de datos (incluida la importación y exportación a Hojas de cálculo de Google)
- Es para aficionados y profesionales por igual.
Este es Redash:
Puedo recomendar una lectura adicional de mi colega Itamar Weiss sobre análisis personalizados en el blog de nuestra empresa.