Cuando Jose Luis nos invitó a acompañarlos en el proceso del rediseño del sitio web de seguros de autos, tuvimos una premonición espontánea del futuro. Nos imaginamos la fecha de lanzamiento de la nueva versión, y pasados algunos días e incluso un par de semanas, nos vimos recibiendo un llamado recontra importante.
Era el mismo Jose Luis, que nos decía… “A todo el mundo le ha gustado el nuevo sitio. El diseño ha sido del agrado de la mayoría de mis colegas, incluso me llamó un amigo de la competencia que me felicitó por el nuevo look and feel. Sin embargo, el CMO del negocio nos ha pedido una reunión para informar los primeros resultados del rediseño y ha hecho hincapié en compartirle una comparativa del nuevo sitio respecto del anterior. Y ahora que lo pienso, me doy cuenta de que no tenemos mediciones creíbles o confiables de la versión antigua… por lo tanto, no sé que datos de mejora puedo reportar.”
La pesadilla de un rediseño es no tener claridad si éste logró su objetivo. Todos los recursos involucrados, cambios de prioridades, contrataciones, desarrollos, centenares de testing y validaciones, etc… en tela de juicio por el simple hecho de no poder responder a la pregunta “lo estamos haciendo mejor que antes”.
Y es que la cultura de los datos paulatinamente se ha ido posicionando en áreas del negocio que generalmente se mantenían alejadas a la cruel y fría realidad de la analítica. “Déjenle eso los chicos de TI”, escuchábamos frecuentemente. Hoy la realidad es que los equipos que lanzan productos digitales de manera más efectiva, son aquellos que conjugan de manera óptima el análisis cuantitativo y el cualitativo, aquellos que sacan lo mejor de los User Research y Tests de Usuarios y logran validar sus hipótesis por medio de los datos, al servicio de la mejora continua.
Ejemplos hay bastantes, pero uno en particular bastante documentado y promovido, y es el trabajo realizado por Spotify en el que logran unificar los mundos cuali y cuanti para crear mejores experiencias a sus usuarios. En el artículo titulado “Simultaneous Triangulation: Mixing User Research & Data Science Methods” las autoras, describen cómo evitar las discrepancias de datos y empujar mejores decisiones en el desarrollo de productos.
Volviendo a nuestro amigo Jose Luis, ¿qué es lo que se debería haber hecho? Pues reconocer que para comprender el impacto de un cambio, es importante tener a la mano el desempeño antes del cambio, comprender los valores de los principales indicadores “antes y después” para luego realizar una comparación que sea consistente.
1. Medición del sitio actual
El primer paso para analizar el rediseño de un sitio, es asegurar que la analítica actual del producto digital (ya sea un sitio web o una aplicación móvil), sea confiable y representativa. Esto significa que los datos que vemos sí son reflejo del comportamiento de los usuarios, y que mediante una correcta interpretación y análisis podemos revelar la historia del journey de los usuarios.
2. Comprender el Propósito del Rediseño del producto digital
Importante considerar que todo propósito en el contexto de un rediseño, debería ser susceptible de “medirse”, es decir, determinar si el rediseño cumplió o no su cometido. Esta definición de “éxito o fracaso” es clave para luego saber si saldremos a celebrar un triunfo, o nos tendremos que encerrar a evaluar qué salió mal.
3. Aterrizar KPIs e indicadores
Similar a lo anterior pero en forma de números, ratios y tasas. ¿Queremos mejorar la conversión del sitio? Pues mediremos la Tasa de Conversión. ¿Queremos mejorar el engagement con los contenidos? Pues mediremos tasas de lectura, tasas de rebote o incluso tasa de difusión en medios sociales. Nuevamente, cada propósito debe ser acompañado de KPIs o indicadores clave que podamos fácilmente evaluar e interpretar.
4. Medir el nuevo sitio!
Obvio, no? Si, todos saben que tienen que medir el nuevo sitio, pero pocos están conscientes de que esa medición deberá ser consistente con los indicadores del sitio anterior. Si quieres mejorar la Tasa de conversión, asegúrate que el cálculo de ésta es el mismo en ambas versiones (medimos la conversión por sesiones o usuarios?)
5. La cruel y fría comparación
Ya con datos en la mano, y teniendo desde el principio “el fin en mente”, podremos realizar una evaluación del impacto pero con una actitud de aprendizaje… No logramos los resultados? pues veamos qué podemos testear y mejorar. “Sí logramos los resultados? Pues intentemos entender qué fue lo que generó ese efecto en los usuarios para replicarlo en otras iniciativas”.
La data al servicio de la experiencia, es sencillamente el camino para construir productos digitales más efectivos y dinámicos de cara a la mejora continua.