Grado de Adopción de la Inteligencia Artificial en Recobro 2025
El pasado 30 de octubre, Atmira y la comunidad #YouSirec organizaron un gran evento sobre recobro autónomo en el que presentamos los resultados del estudio sobre la adopción de inteligencia artificial en el sector del recobro.
Un proyecto de referencia que hemos acompañado desde la investigación que evidencia el compromiso del sector por comprender y anticipar cómo la IA está transformando sus procesos en este momento de constante evolución.
El estudio se articuló en torno a tres ejes clave
1. Actitud:
Refleja el grado de conciencia y apertura hacia la IA. Nos habla de cultura, de disposición al cambio y del nivel de awareness organizativo.
La mayoría de las compañías sitúan la IA en su discurso estratégico, aunque aún con prudencia y cierto escepticismo sobre su impacto real.
La intención existe, aunque el salto al uso sostenido requiere confianza, evidencia y una cultura de aprendizaje más asentada.
2. Conducta:
Analiza cómo esas intenciones se traducen en prácticas reales.
A través del Índice de Adopción de IA en Recobro (IAIAR) se evaluaron cinco dimensiones:
• Habilitadora (infraestructura, calidad y gobernanza del dato),
• Operativa (aplicación en procesos),
• Estratégica (alineación con negocio),
• Cambio y talento, y
• Legal y regulatoria.

Además de estas dimensiones, el análisis incorpora tres estados de madurez que ayudan a interpretar el avance real: Inicial, En consolidación y Transformador, que reflejan desde la exploración temprana hasta la integración plena de la IA como eje operativo.
El índice global alcanza un 52 %, lo que refleja una consolidación aún incipiente: se avanza, pero todavía más en exploración que en despliegue real. El patrón observado es el propio de los momentos disruptivos: adopción fragmentada, desigual entre áreas y necesidad de mayor coordinación interna.
3. Satisfacción:
Mide la percepción sobre la eficacia y eficiencia de la IA.
La mayoría considera que aporta valor, especialmente en tareas repetitivas o de scoring, pero el nivel de exigencia es alto: ninguna organización se considera plenamente satisfecha.
El reto es seguir trabajando para que la IA sea no solo útil, sino realmente eficiente y significativa.
En conjunto, el estudio muestra un sector que progresa de forma desigual pero consciente, donde:
El reto no está en la tecnología, sino en la orquestación y la gobernanza del dato.
Porque solo desde ahí será posible conectar estrategia, procesos, personas y propósito.
¿Quieres ver más?
Puedes consultar y descargar el informe completo desde la web de Atmira
Synthetic data, users, personas, digital twins… y lo que viene: explorando sus posibilidades desde lo cualitativo
Estamos francamente impresionadas con las capacidades de los modelos que hemos tenido la suerte de probar con entusiasmo de forma independiente.
Después de seguir las conversaciones activas en LinkedIn, como las de Andrew White (cuestionando la eficacia real y la validación de los modelos), Ray Poynter (poniendo el foco en los dilemas éticos y la transparencia), o Yogesh Chavda (Synthetic data no reemplaza insights humanos, los amplifica); queríamos ver y probar para sacar nuestras propias conclusiones, especialmente para investigación cualitativa.
¿Qué estamos haciendo?
Comparando proyectos de estudios cualitativos reales (con técnicas diferentes como grupos de discusión, entrevistas individuales ...) con estudios simulados de modelos con IA y que se han ejecutado a partir del mismo briefing y los mismos objetivos (solo eso).
Para evaluar su funcionamiento con criterio, estamos aplicando un análisis estructurado en tres niveles:
- Análisis de las conversaciones de las sesiones generadas por los modelos y la autoextracción de insights desde ahí, incluyendo su propio sistema de interpretación. (Sí: los usuarios sintéticos generan conversaciones, grupales o individuales, y analizamos esas transcripciones, incluyendo la postinterpretación automática de insights generadas por IA a partir de ahí).
- Comparación directa entre sesiones reales y simuladas (a nivel de transcripción). Observamos diferencias y similitudes en tono, contenido, estilo conversacional, contradicciones, matices, lenguaje, temáticas… todo.
- Aproximación a los resultados simulados vs. los reales. Comparamos los insights generados por IA frente a los nuestros como researchers, enfrentando los resultados interpretativos que devuelve la herramienta con los que extrajimos nosotras del proyecto real, para ver qué coincide, qué no en la base, y si hay cosas nuevas o relevantes que nos dejamos.
¿Qué estamos viendo que funciona bien?
- Alineación temática (70–80?%): los modelos coinciden en preocupaciones, frustraciones y conceptos clave detectados en estudios reales.
- Generación rápida de estructura y dirección: permiten ordenar ideas, identificar hipótesis iniciales y marcar líneas de exploración en fases tempranas antes de entrar en contacto con usuarios reales.
- Rendimiento analítico: el sistema identifica hipótesis y las tensiona hasta aceptar o rechazar con una lógica casi quirúrgica.
- Detección de patrones y regularidades: destacan en el análisis de grandes volúmenes de datos, encontrando conexiones recurrentes con rapidez.
- Exploración de alternativas y tensión de supuestos: permiten simular respuestas diversas, tensionar marcos mentales y observar el comportamiento de arquetipos hipotéticos o incluso muy difíciles de conseguir, de segmentos muy complejos.
- Apoyo en decisiones complejas: en contextos multivariable y estructurado, mejoran la precisión y superan en algunos casos al juicio humano.
- Visión anticipada de sesgos y redundancias: detectan temas en bucle, puntos ciegos estratégicos y posibles trampas cognitivas antes del trabajo de campo.
- Afinar la muestra y perfiles: ayudan a definir mejor a quién estudiar y por qué, con criterios más claros desde el inicio. Por ejemplo, si ves que todo gira en torno a una variable concreta, puedes reajustar la muestra.
- Simulación útil para hipótesis: esbozan bloques de análisis y líneas argumentales antes de tener los datos reales.
- Exploración no lineal y conexiones inesperadas: permiten detectar correlaciones invisibles o contraintuitivas gracias al potencial del machine learning
- Simular interacciones o conversaciones entre perfiles teóricos: muy útil para preparar guías de moderación con mayor nivel de detalle o preparar un cuestionario.
¿Dónde hay recorrido de mejora o simplemente resignación y asumir que esto es lo que hay?
Como mínimo, hay un 20-30% que no se corresponde: se refiere a lo inesperado, lo contradictorio, lo singular…. Eso se pierde, punto (al menos hoy por hoy).
Asimismo, aunque los modelos logran un 70-80% de concordancia, esta es engañosa. Las temáticas, desde su visión más superficial, están, pero falta la esencia, algo así como el alma o el corazón de la investigación cualitativa, psicológica o experiencial, donde nacen muchos de los insights relevantes.
Debemos prestar atención a:
- El lenguaje como trampa: los modelos sintéticos producen narrativas pulidas, como oradores perfectos, con respuestas coherentes, sin silencios, contradicciones ni titubeos. Su vocabulario parece de ensayo, cada frase aporta un alto valor informativo per se, con sentencias y metáforas tan smart que, a primera vista, todo parece valer. Pero la gente normal no habla ni interactúa así. Quien ha analizado transcripciones reales lo sabe: de mil palabras, solo unas pocas tienen coherencia lineal; el resto son titubeos, dudas, contradicciones. Leer una transcripción de usuarios sintéticos es como leer un libro de no ficción donde cada palabra aporta. Las transcripciones reales son caóticas, y en ese desorden está la verdad que buscamos como researchers.
- La pérdida del caos humano: la circunstancia humana es caótica, llena de emociones cruzadas, decisiones irracionales, silencios. Los modelos no pueden representar (aún) el peso de la vivencia como el cansancio de un mal día, el entusiasmo de un momento fugaz, el contexto cultural que cambia día a día. Los humanos reales son desordenados, contradictorios, no estructurados, y ese “ruido” es la materia prima de lo cualitativo. Por ejemplo, un usuario real puede contradecirse dos frases después; un modelo sintético resuelve esa contradicción antes de que la veamos, lo que minimiza la carga cognitiva de interpretación como researcher, pero quita gran parte de la profundidad.
- La circunstancia solo sirve si es dinámica: no es un fondo estático, sino algo que se transforma con el individuo y su entorno. Los modelos sintéticos, incluso los más avanzados, dependen de datos históricos que, sin actualizaciones en tiempo real, se convierten en imágenes desactualizadas. Así que, sin actualización constante, su valor se reduce drásticamente. De hecho, aquí el tema de experiencias de interacción con productos o servicios sobre los que no se tiene referencias previas son difíciles de simular.
- El peso de lo singular: cada persona es única no solo por su “yo” interno, sino por cómo ese “yo” interactúa con su circunstancia. Los modelos sintéticos, aunque usen datos reales y teorías psicológicas o sociológicas, tienden a generalizar, creando arquetipos en lugar de individuos, aunque esto está en camino. Por tanto, no logran captar cambios abruptos en creencias, emociones o marcos culturales, ni reemplazar la conversación cualitativa o el insight relacional, ni anticipar contradicciones humanas profundas.
- Insights sin fundamentos: A nivel de extracción de insights, los modelos estiran los resultados, generando conclusiones a partir de un solo verbatim, que en realidad se consideraría a nivel anecdótico, lo que limita la profundidad del contraste de hipótesis. Hay que estar muy atentos antes de sacar conclusiones reales y finales.
Nuestra visión tras las pruebas
Existe un desafío de captar la complejidad humana y no es nuevo.
Desde la filosofía tenemos, en Meditaciones del Quijote (1914), a José Ortega y Gasset con su famoso:
“Yo soy yo y mi circunstancia, y si no la salvo a ella, no me salvo yo”.
El “yo” no existe sin su circunstancia: un contexto vivo, desordenado, contradictorio, que abarca lo físico, social, histórico, emocional, cultural y simbólico.
Los modelos sintéticos deben nutrir ese “yo” y su circunstancia viva, captando no solo los contornos generales, sino la textura del caos humano.
Desde la psicología, Kurt Lewin (1936) propuso su ecuación del comportamiento:
B = f(P,E), donde la conducta es función de la persona y su entorno. Sin un entorno dinámico, la simulación es un eco.
Para mejorar, los modelos deben integrar parámetros que reflejen esa interacción compleja entre individuo y contexto, alimentándose en tiempo real, incorporando múltiples capas (verbales, emocionales, contextuales) y captando correlaciones sutiles o no lineales.
Desde la teoría de la varianza explicada (R²), usada en psicología, sociología y economía conductual, los modelos predictivos explican un 60-80% de la variabilidad de la conducta (R²), pero el 20-40% restante incluye:
- Ruido individual: contradicciones internas, emociones cambiantes.
- Azar contextual: un dolor de cabeza, un recuerdo espontáneo, una conversación no registrada.
- Factores simbólicos: significados culturales o personales inmedibles.
Kahneman, en Noise (2021), explica por qué el 20-40% de no correspondencia que mencionamos antes es tan difícil de captar: es el “ruido” aleatorio (diferencias imprevisibles por azar o situación), distinto del ruido estructurado (sesgos constantes por tarea, entorno o persona). Los modelos sintéticos pueden reducir este último con bastante eficacia, pero no eliminan del todo el primero.
La libertad interna, por mínima que sea, introduce un ruido imposible de mitigar. Muchos factores determinantes son invisibles o inmedibles: un recuerdo, un estado de ánimo, una conversación no registrada.
Así que hoy por hoy, usar modelos de estas características es como escuchar música en streaming frente a un concierto en vivo: se parece, pero no es lo mismo.
¿Qué tenemos en cuenta nosotras?
- Usarlos como espejos, no como retratos: son reflejos parciales, perfectos para explorar hipótesis o detectar puntos ciegos, pero no capturan la profundidad de la experiencia humana.
- Validar con humanos: contrastando siempre con personas reales para no perder la conexión con la realidad.
- Sospechar de la perfección: en investigación, la verdad suele esconderse en la duda, la contradicción o el silencio. Y eso es precisamente lo que los outputs sintéticos tienden a suavizar… justo donde deberíamos prestar más atención.
- Exigir transparencia y actualización: necesitamos saber cómo se alimentan los modelos, con qué datos y con qué frecuencia. Un modelo que no evoluciona con su contexto social, cultural o temporal es un esquema rígido.
Son herramientas potentes para los investigadores.
Muy útiles para empezar, inspirar, enfocar y rematar el trabajo, pero...Si se usan sin precaución, pueden ser como un mono con una metralleta: no porque no funcione, sino porque no sabe a dónde apunta.
Y si se usan sin criterio, como una orquesta sinfónica sin director: suenan… pero no interpretan.
¿Has trabajado con estas herramientas? ¡Nos interesa contrastar enfoques y aprender de otras experiencias!
#SyntheticPersonas #DigitalTwins #Uxresearch #QualitativeResearch #ProResearchMatters #HumanInsight
Want the English version of this article, check it out here in Medium
“Oye, hijo mío, el silencio. Es un silencio ondulado...”
Estos primeros versos de Federico García Lorca, en La Siguiriya Gitana del Poema del cante jondo, lo dicen todo sobre el silencio.
Un silencio que se mueve, que se siente, que transforma lo que ocurre alrededor.
Del silencio se ha hablado mucho desde lo poético, desde el duelo, desde lo emocional. Pero en investigación, el silencio es una de esas variables que marcan la diferencia.
Gestionar el silencio intencionado como herramienta para profundizar sin inducir, para nosotras, es uno de los indicadores de excelencia más claros dentro de la fase de Ejecución en el journey de investigación, cuando trabajamos la competencia de Moderación.
Parece simple. No lo es.
Aun con todos los años que llevo moderando, me sigue costando. Me puede la impulsividad. Me puede la sensación de parecer que no tengo algo que aportar.
Me incomoda pensar que incomodo.
Y además está la presión de asegurar que se cubren los objetivos de la sesión y de no dejar preguntas importantes fuera.
La realidad es que es muy fácil romper el silencio antes de tiempo.
Y no todo es por falta de técnica (saber hacer).
Puede que haya algo de falta de conocimiento (saber +) pero muchas veces tiene más que ver con lo otro, eso que llamamos “saber ser”. Lo explicamos con más detalle aquí en "Cómo el cambio de paradigma a un enfoque por competencias nos está ayudando a construir mejores formaciones"
Es esa capa menos visible la que se explica por actitudes, bloqueos, disposición real en el momento.
Y no, no se llega a ella solo por repetir una y otra vez, como proponía Ericsson en su famoso artículo sobre las 10.000 horas de práctica deliberada (The Role of Deliberate Practice in the Acquisition of Expert Performance, 1993).
Se acerca más a lo que David Epstein plantea como un contraargumento en Range (2019). Epstein no niega el valor del enfoque de Ericsson, pero especifica que funciona sobre todo en lo que llama entornos "kind", aquellos donde las reglas son claras, hay feedback inmediato y los patrones se repiten.
Sin embargo, muchas competencias no funcionan así (y menos en investigación). Y encuentra explicación en lo que denomina “wicked environments”: la contraposición a los “kind”. Aquí, no consiste en perfeccionar una técnica por repetición constante, sino de entrenar la capacidad de adaptarse, evaluar y decidir.
En esa línea, también encontramos afinidad con el modelo 4C/ID, especialmente en su actualización de 2019 (Van Merriënboer et al.). Es un marco de diseño instruccional desarrollado para entrenar competencias complejas en contextos reales de alta exigencia, con presión, variabilidad y necesidad de transferencia (en profesiones como medicina, aviación o el ámbito militar...).
Precisamente son estos contextos los que nos motivan a explorar la formación desde una perspectiva más táctica y operativa, como si estuviéramos entrenando para una misión del caso Bourne. (Y sí, puede que haya visto demasiadas pelis de espías… :-D)
Con esa idea en mente, estamos trabajando el journey de investigación por fases y actividades, identificando indicadores de excelencia para cada competencia (este marco lo recogemos en el cuestionario competencial que usamos en formaciones).
Posteriormente, cada competencia se estructura en entrenamientos de alto impacto en 3 pasos.
Enfoque de entrenamiento de alto impacto
Tomando la "gestión del silencio" como punto de partida, así es como lo estamos empezando a entrenar. A ver qué os parece.
1. Explicar (Saber +)
No se puede entrenar bien lo que no se comprende, por eso es importante generar un marco o un contexto de explicación, más allá de lo evidente:
- ¿Qué papel cumple el silencio en una entrevista bien moderada?
- ¿Qué ocurre si lo sostienes? ¿Y si lo cortas antes de tiempo?
- ¿Qué tipos de silencio existen?
2. Practicar (Saber hacer + inicio del Saber ser)
Diseñamos actividades cortas, muy focalizadas, para descomponer la habilidad y trabajarla desde distintas dimensiones cuando procede: cognitivo, emocional, físico, funciones ejecutivas... No solo se trata de seguir los pasos, sino de adquirir soltura real y de iniciar un cambio de actitud en la disposición. Esto implica conocerse mejor e identificar fortalezas y debilidades. Implica un pequeño trabajo de introspección
Posibles actividades que se trabajan a este nivel:
- Respirar antes de intervenir.
- Esperar 3, 6, 10 segundos tras cada respuesta, y aumentar progresivamente el tiempo de espera.
3. Experimentar (Experiencia significativa)
Es la fase de consolidación. Consiste en llevar la práctica a diferentes situaciones experienciales. Aprovechar cada momento de trabajo real o del día a día. La clave ya no es “¿lo sé hacer?”, sino “¿lo hago bien cuando realmente importa?”. Aquí trabajamos en contexto real o simulado, con cierta presión y consecuencias:
- Simulaciones grabadas
- Trabajo en real,
- Autoanálisis
- Feedback funcional entre pares
¿Y si además lo cruzamos con tu estilo SCAL?

Tu estilo de investigación influye en cómo sueles abordar ciertas competencias, aunque no las determina. Usar Research Mindprint nos permite personalizar aún más el entrenamiento.
Por poner un ejemplo, un perfil Catalyst, suele tener tendencia a llenar silencios. En su caso, trabajaríamos más intencionadamente la contención y la espera como herramienta táctica (entre el resto de aspectos).
Por cierto, si aún no conoces tu estilo y nos quieres ayudar a validar el test (aún en beta), puedes hacerlo aquí:
[Versión en castellano: https://tally.so/r/n0geVZ]
[English version: https://tally.so/r/w4D9yX]
Porque seguimos apoyando una investigación de calidad #ProResearchMatters
En este artículo, de hace un par de años, ya hablábamos de los aspectos de fondo que afectan a la disciplina:
- Se subestima lo que implica ser investigador.
- Hay ámbitos donde no se aprecia su utilidad ni el impacto de la investigación.
- Se carece de criterio para valorar qué es una investigación bien hecha
Si no se conocen las competencias reales, no se pueden valorar. Y si no se definen los indicadores de excelencia, no se pueden compartir, replicar ni mejorar.
Por eso estamos desglosando el journey de investigación. Trabajando fase a fase, competencia a competencia. Identificando qué implica realmente hacerlo bien para enfocar cómo entrenarlo de manera más óptima.
¿Hay alguna competencia o indicador de excelencia que tengas identificado y que te resulte especialmente útil? ¿Alguna que consideres imprescindible?
#ProResearchMatters #UXResearch #ResearchMindprint #SCALframework #ResearchTraining #BehaviouralResearch
Want the English version of this article, check it out here: https://medium.com/@lucia.palacios/listen-my-boy-the-silence-a-rippling-silence-0ec9a54f0d64
Cómo el cambio de paradigma a un enfoque por competencias nos está ayudando a construir mejores formaciones
Formar no es tarea fácil, es más bien algo complejo
A mí me obsesiona especialmente que el intercambio que se genera sea de utilidad. Intentar asegurar que lo que se comparte va a hacer una diferencia. Supongo que es un objetivo entre naive y presuntuoso, pero un reto que merece la pena trabajar.
¿Cómo lo abordamos nosotras?
Como siempre hacemos en todas nuestras investigaciones o resolución de problemas: buscamos un marco y vamos poco a poco resolviendo partes de la ecuación y minimizando, al menos, las principales incógnitas.
Lo que hemos aprendido, no sin fricción, es que para nosotras el primer paso requiere comprender cómo traducimos la petición de formación en unidades básicas: empezamos por desconstruir (la petición) para volverla a construir.
¿Cómo lo hacemos?
Nos focalizamos en 3 sencillas preguntas. Lo que tenemos que entender es si la formación que vamos a abordar es una cuestión de:
- No saber
- Saber pero no saber cómo
- Saber, saber hacerlo pero no se aplica
¿Por qué nos parece mágico este enfoque?
Porque es sencillo, son preguntas fáciles de responder y nos permite hacer zoom sobre dónde debemos trabajar o combinar -qué pains debemos abordar y cuál es su pain reliever.
No saber implica trabajar en Saber +;

No saber cómo, en Saber Hacer; y

No se aplica, en Saber Ser.

Además, no es nuevo: tiene un fundamento sólido en la psicología del aprendizaje, marco que nos inspira.
Desde Gilbert Ryle (1949), con su distinción entre “knowing that” (saber qué) y “knowing how” (saber cómo), hasta las teorías de John Anderson (1982) sobre la adquisición del conocimiento declarativo (saber) y procedimental (saber hacer), la psicología cognitiva ha ido descomponiendo el aprendizaje para entender no solo qué sabemos, sino cómo lo aplicamos: las conocidas habilidades o skills.
Sin embargo, hay una tercera dimensión, menos conocida y no menos relevante: el “saber ser”. Aquí se cruzan lo situacional y lo actitudinal. Inspirándonos en la noción de conocimiento tácito de Polanyi (1966) —aquello que usamos sin poder verbalizar del todo—, podemos entender también lo que bloquea la acción: falta de disposición, regulación emocional o conexión con el contexto. No basta con conocer ni con haber practicado: si no hay una actitud que permita aplicar con solidez, la competencia no se sostiene.
Estas tres palancas —saber, saber hacer, saber ser— forman nuestra estructura operativa. Pero falta un elemento clave para entender su integración…el modelo de competencia de McClelland (1973).
¿Por qué es importante? Porque rompió con los modelos centrados en la inteligencia como único predictor de desempeño y propuso evaluar las competencias como entes observables: unidades integradas de conocimiento (saber +), habilidad (saber hacer) y disposición (saber ser).
Su gran aportación fue dejar de entender el conocimiento como algo estático para concebirlo como algo que se construye y se activa en contextos reales. El desarrollo del talento se aleja del reduccionismo centrado exclusivamente en la capacidad cognitiva (inteligencia), y nos lleva a una visión mucho más rica y funcional.
David Epstein, lo corrobora en Range (2019), desde otra perspectiva: en entornos complejos triunfan quienes han cultivado adaptabilidad, transferencia y criterio—habilidades imposibles de reducir a pura técnica. En otras palabras, la competencia florece sólo cuando saber, saber hacer y saber ser se alinean y la persona es capaz de situar su conocimiento en el momento y lugar adecuados.
Aplicando ingeniería del aprendizaje

A la hora de diseñar una intervención, siempre partimos de la misma matriz: Saber + | Saber Hacer | Saber Ser. Según el diagnóstico, activamos una, o una combinación de estas tres palancas que con los años hemos visto que se repiten:
-
- Sensibilizar ? Saber + Crear awareness, alinear lenguaje y criterio. Caso típico: «El equipo aún no entiende la disciplina».
-
- Capacitar ? Saber + Saber Hacer Profundizar en conocimiento y llevarlo a la práctica. Trabajamos una técnica, varias, o un paso crítico del journey.
-
- Entrenar ? Saber Hacer + Saber Ser Automatizar la habilidad y sostenerla bajo presión. Ideal para equipos experimentados que quieren afinar, ganar ritmo o especializarse.
¿Y cómo lo llevamos a tierra?

Una vez que tenemos claro qué pieza activamos (Sensibilizar | Capacitar | Entrenar), elegimos cómo desplegarla. Usamos cuatro formatos modulables que combinan teoría + práctica siempre, pero con intensidades e interacciones adaptadas:
- Sesión estructurada Dosis compacta de contenido y práctica en bloque. Perfecta para introducir conceptos clave o enseñar una técnica desde cero. Ejemplo: fundamentos de research en UX; Test de usuario….
- Mentoring aplicado Visión experta y asesoramiento puntual. Para contrastar decisiones, pulir entregables o desbloquear un estudio en marcha. Ejemplo: feedback a un card sorting; ajuste express de un diseño de investigación; apoyo en análisis.
- Acompañamiento guiado Seguimiento continuo sobre un proyecto real. Trabajamos “codo a codo”: ejecutamos, revisamos y corregimos en tiempo real. Ejemplo: lanzar un estudio cualitativo completo, supervisar análisis y síntesis final.
- Alto impacto Entrenamiento intensivo en competencias y micro-competencias. Fragmentamos la destreza, entrenamos, afinamos detalles. Ejemplo: dominar la moderación de entrevistas; usar el silencio con intención….
Lo bueno, además escala en esta nueva era.
Este marco, nacido del aprendizaje humano, también empieza a resultar útil cuando entrenamos sistemas no humanos.
Formar va de personas. Y por eso la psicología ofrece claves esenciales, pero ya no se limita solo a este ámbito, ahora además nos puede guiar en cómo pensamos, usamos y entrenamos inteligencia artificial.
Si bien no es lo mismo formar a una persona que entrenar un sistema, los marcos humanos nos siguen siendo útiles porque el aprendizaje de estos modelos parte, aún, de nuestros propios paradigmas: aprendizaje por exposición, por refuerzo, por simulación...
Muchos de los procesos de entrenamiento y validación de IA reproducen esquemas de adquisición de competencias propios del comportamiento humano. No deja de ser, en el fondo, una forma de entrenamiento funcional. Como decía McClelland, no se trata de medir conocimiento abstracto, sino de observar el desempeño en tareas clave, una premisa que sigue siendo un pilar, incluso en este nuevo contexto.
Modelos como “saber +, saber hacer y saber ser“ nos han servido para pensar cómo descomponer competencias, capacidades, estructurar tareas o evaluar desempeño— ya sea en un equipo, un prototipo, un agente de IA o cualquier otro sistema que deba ejecutar con criterio y coherencia.
Por eso este marco nos sigue pareciendo un gamechanger: sirve para formar personas, colaborar con sistemas inteligentes y diseñar sus entrenamientos de manera óptima.
#UXResearch #BehaviouralResearch #ResearchTraining #aprendizaje #IA #ProResearchMatters
Wonder Woman y Research Mindprint ¿tienen algo en común?
¿Qué estilo de investigador eres? Un experimento para conocernos mejor
A veces, las asociaciones más irreverentes nos permiten formular el inicio de un post como el de hoy.
Marston (1893–1947), psicólogo estadounidense, es conocido por dos cosas aparentemente inconexas:
La creación del personaje de Wonder Woman (1941):
Marston creía que los cómics podían ser una herramienta educativa y moral. Quería diseñar una heroína que encarnara fuerza, compasión y verdad, y que mostrara un modelo de poder alternativo al masculino tradicional. Ahí es nada… y
El modelo DISC de comportamiento humano (1928):
Publicado en su libro “Emotions of Normal People”. Este modelo no se creó para diagnóstico clínico, sino para entender estilos de acción y respuesta en contextos del día a día. Años más tarde, Donald G. Clarke siguió trabajando su propuesta y la acercó al mundo organizacional. Hoy en día, con su variantes y adaptaciones respectivas, sigue aplicándose en departamentos de RRHH, coaching, formación..
Marston era un referente para mí por psicología y el modelo DISC. La parte anecdótica, pero no por ello menos interesante, sobre Wonder Woman la descubrí, literalmente, “antes de ayer”, justo cuando me disponía a redactar este post. Vamos, no tenía ni idea de que era el mismo Marston. Y pensé: qué suerte que se haya dado esta sincronía asociativa, porque yo soy muy de superhéroes; quien haya estado en formación conmigo lo sabe :).
¿Y qué tienen en común Wonder Woman y Research Mindprint?
Marston propuso un modelo de estilos de comportamiento e ideó también a Wonder Woman. A primera vista, parecen cosas distintas, pero ambas se interrelacionan y describen realidades desde diferentes puntos de vista: una intenta describir cómo somos a través de nuestras acciones; la otra, una proyección aspiracional, lo que queremos ser.
Los superhéroes son construcciones simbólicas y dicen más sobre nuestros anhelos que sobre nuestras realidades. Nos permiten exagerar fortalezas, ocultar debilidades, proyectar una mejor versión de lo que somos en el día a día…
En mi caso, he querido ser un poco Wonder Woman en investigación (o insértese aquí el superhéroe preferido… la realidad es que yo soy más de Spiderman pero Wonder Woman me vale ahora para el artículo ^-^).
Esa búsqueda de lo aspiracional, de lo que me encantaría ser, de lo que anhelo… Porque quiero dominar la disciplina de Research en cada fase, cada actividad. Porque me gusta hacer las cosas lo mejor que puedo. Y porque, cuando realmente entiendes lo que haces, puedes enfocar mejor tu energía, tus recursos y tu tiempo.
En ese recorrido, y a pesar de mi experiencia, siguen existiendo desequilibrios. Hay actividades del proceso de investigación que tengo tan automatizadas que me salen sin pensar, y hay otras que, según el día, me siguen pareciendo más tediosas o, directamente, me consumen. Me llevan a ese terreno difuso entre la autoexigencia y la procrastinación…
Ahí fue donde volví a pensar en modelos como el DISC. Un modelo que siempre me pareció útil, no perfecto, pero sí práctico, para poner palabras a distintos estilos de comportamiento y actitud.
Y desde esta perspectiva, nos preguntamos ¿qué pasaría si trabajamos con esa lógica el journey de investigación aplicada? Para entender cómo lo hacemos: cómo procesamos, cómo tomamos decisiones, cómo resolvemos problemas en ese ámbito…
En psicología se ha llamado a esto de mil maneras: estilos cognitivos, modos de afrontamiento, patrones de pensamiento. Y desde esa mirada, lo que intentamos es hacer tangible lo que a veces se queda en lo tácito. Porque cuando puedes descomponer esos conceptos, puedes observarlos y abordarlos desde distintos ángulos y conocerte mejor.
Y así nace Research Mindprint.
Parte de una necesidad personal, sí, pero también de una motivación solidaria. Porque cuando acompañamos procesos de formación, lo que buscamos es ayudar de forma útil, y eficaz.
Con este enfoque, empezamos a trabajar en nuestro experimento:
· Un inventario de estilo o preferencia conductual y cognitiva
· Con formato ipsativo (elección forzada por pares)
· Y con base lexical y fenomenológica: lenguaje cotidiano, situaciones reales del trabajo de investigación
Está construido sobre dos ejes que, según nuestra experiencia, tienen gran impacto en el modo en que investigamos:
· Estructura - Creatividad
· Análisis - Empatía
De su combinación nace SCAL, un marco que recoge cuatro estilos de investigación complementarios:
Sensemaker · Catalyst · Architect · Listener
¿Quieres saber cuál eres tú?

La herramienta está en fase beta.
Tiene 10 preguntas. Es rápida. Sin registro.
Y al terminar, obtendrás tu estilo predominante, con una descripción clara de tus fortalezas y un pequeño “tip de entrenamiento” para la dimensión que quizá te cueste más.
No es un test de personalidad, ni un diagnóstico definitivo. No es exhaustiva ni excluyente. Es una herramienta exploratoria.
Esta primera versión nos sirve para observar, recoger feedback y validar de forma progresiva su utilidad y validez ecológica.
Queremos saber si os reconocéis en los estilos y si os resulta útil como marco de reflexión.
Puedes probarla aquí: https://tally.so/r/n0geVZ
(English version here: https://tally.so/r/w4D9yX)
Y si quieres ayudarnos a seguir afinando la herramienta o participar en futuras fases, puedes dejarnos tu correo al final del formulario.
¡Nos encantará contar contigo!
#ResearchMindprint #SCALframework #UXResearch #BehavioralResearch #ProResearchMatters #ResearchTraining
Esta herramienta es un desarrollo original en curso, creado por el equipo de @ScrollUp con fines exploratorios y formativos. Si te inspira, cítanos. Si quieres colaborar, escríbenos a [email protected]
Cuando la investigación en UX se reduce al absurdo
#ProResearchMatters
Hace un tiempo que en ScrollUp surgió el debate de cómo se está abordando la práctica de la investigación en el ámbito del diseño de experiencias y el rol del investigador desde una perspectiva naïve.
Esta reflexión no es nueva, por mencionar algunos artículos, rescato este de Anna Demina "I don't need a UX researcher designers can do research" (que por cierto conocemos porque estuvo de prácticas en ScrollUp y aprovechamos para saludarla :) ) y de Ellen Carey "Not just anybody should do user research".
En nuestro sector, está siendo recurrente encontrarnos cómo la investigación queda relegada a una actividad meramente funcional, carente del empaque científico, ortodoxo y metodológico de lo que la propia naturaleza del término “investigar” representa.
Es fácil encontrar empresas y proyectos que incluyen investigación por el mero hecho de cubrir expediente y sin conciencia de hacer algo “contraproducente” cuando asignan perfiles que no son de research. En este escenario, podemos considerarnos con suerte si al menos estas personas han tenido un contacto breve con la disciplina de alguna u otra forma (lectura, curso, participación en algún estudio…).
Lo paradójico, es que si de verdad se considera importante como para incluirlo en el proceso, ¿por qué no se dedican los recursos que de verdad merece?
Esto tiene una lectura de fondo muy desalentadora porque indica que se ha instaurado parte del mensaje pero no de manera completa y por tanto, tenemos un “punto de dolor” a mejorar y trabajar.
Analizando la paradoja
Pensemos un poco en los últimos porqués de esta paradoja para ver si podemos identificar los problemas y entre todos buscar acciones concretas:
- Criterios cuestionables. Se incluye la investigación porque __________ (insertar lo que mejor proceda en la ecuación: “está de moda”, "quiero quedar bien”, mejor algo rápido que nada….).
Punto de dolor a mejorar: no se abraza el concepto y no se cree o no se conocen los beneficios reales de lo que la investigación puede proporcionar. Predomina una tendencia, una moda o lo que es peor, la obligatoriedad impuesta desde otras voces.
- Nos encontramos en la cultura del todo vale: lo rápido, lo ágil, el aquí y ahora y como bien sabemos, NO TODO VALE. “Hacer” es clave pero una actividad realizada pero incorrecta puede tener, según el contexto, implicaciones muy negativas.
Punto de dolor a mejorar: no hay conocimiento sobre o no se han sufrido aún, las consecuencias de una investigación mal enfocada o ejecutada.
- El conocimiento, las competencias, habilidades y esfuerzo de un UX researcher se infravaloran. Partimos de la base de que es obvio que hay profesiones más complejas que otras que requieren de mayor conocimiento técnico y entrenamiento. No estamos, por tanto, en el punto de debatir si la investigación entra en la categoría “compleja” o “fácil”, pero sí estamos en la de porqué se percibe fácil.
Punto de dolor a mejorar: no se conocen bien las competencias y habilidades necesarias y/o resultan demasiado cercanas y familiares. En este punto, varios sesgos cognitivos contribuyen a ampliar el efecto de infravaloración.
Por un lado, nos encontramos con el sesgo de confirmación. Si no conocemos bien las competencias y habilidades necesarias y además partimos de una creencia inicial de que algo es fácil o asequible, es probable que se ignoren los elementos que demuestren lo contrario. En el siguiente artículo de @Kama Kaczmarczyk "The importance of design researchers and who gets to be one" se hace una primera aproximación identificando algunas de las habilidades y competencias más relevantes.
Por otro lado, en la percepción de la complejidad de una tarea, pueden influir mecanismos como la disponibilidad o proximidad de habilidades y competencias relacionadas. Si las habilidades están más cercanas o son más familiares a las del día a día personal y profesional del sujeto que se enfrenta a la nueva actividad de investigación, se puede sobreestimar la probabilidad de adquirir la maestría y el esfuerzo necesarios para llevarla a cabo, subestimando la dificultad de la tarea. Pero también se puede sobreestimar la probabilidad de ejecutarla con éxito. Por ejemplo, es probable que alguien sin preparación acepte moderar una entrevista, pero no entrar en quirófano a realizar una operación cardiovascular.
Sin embargo, es importante recordar que una cosa es que las habilidades estén más disponibles o próximas a nuestro conjunto de habilidades, y otra muy diferente es la capacidad de desempeñarlas con excelencia
- Se observa una falta de apreciación y reconocimiento del valor y utilidad que aporta un perfil técnico especializado de investigación que aplica la disciplina con método y rigor científico.
Punto de dolor a mejorar: no todos los problemas se deben a agentes extrínsecos, nosotros como profesionales debemos asumir nuestra responsabilidad. Esta falta de reconocimiento puede deberse a que no siempre hemos demostrado ni ofrecido ese valor añadido de manera efectiva, bien por no adaptarnos a los tiempos, ofrecer resultados complejos, menos útiles, insights superficiales, etc. Para mejorar la sensibilidad en nuestros receptores y fomentar el juicio crítico sobre prácticas poco profesionales, es esencial que eduquemos a través de nuestro ejemplo.
Esto es solo el principio ¿Se te ocurren otros aspectos que podrían ser relevantes en este sentido?
Y por si ha quedado alguna duda...
- No es un debate sobre si hay profesionales fuera del ámbito de la investigación en UX que sean o puedan ser buenos researchers, porque sí los hay y muy buenos.
- No estamos diciendo que la investigación sea elitista y exclusiva, solo al alcance de unos pocos.
- No tenemos miedo al intrusismo en nuestro campo profesional. No queremos convertirlo en el Anillo de Tolkien y ser como Gollum, obsesionados con su posesión. Por el contrario, estamos felices de compartirlo con todo profesional que tenga interés (lo siento, tenía que caer una referencia freak).
Creemos firmemente que hay lugar para el aprendizaje y que es necesario dar oportunidades a todos los que están empezando o se están “reconvirtiendo”. El objetivo es luchar contra la presunción naïve de: “cualquiera puede hacer las actividades de investigación sin la suficiente preparación y sin importar las consecuencias”
Como profesionales de la investigación debemos preguntarnos qué debemos hacer o mejorar para poder acompañar este cambio de mentalidad. Por eso hoy, queremos contribuir a esta toma de conciencia con este artículo y la creación del hashtag #ProResearchMatters








