- datialdente
- Posts
- Cosa vede davvero l’AI quando guarda un cliente
Cosa vede davvero l’AI quando guarda un cliente
C’è un esperimento che molti marketer stanno iniziando a fare, chiedere a un modello come ChatGPT di impersonare un cliente tipo e poi osservare le risposte. È un’idea affascinante, ma non nuova. Da tempo si cerca di capire se un LLM possa davvero simulare il comportamento decisionale di una persona reale. Negli ultimi mesi diversi studi hanno iniziato a misurarlo. Un paper pubblicato su arXiv (“LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings”, 2025) mostra che i modelli generativi possono riprodurre con buona coerenza le intenzioni d’acquisto umane, se interrogati con tecniche strutturate di semantic similarity. Altri lavori come PersonaCraft: Leveraging Language Models for Data-Driven Persona Development (Elsevier, 2025) e Bringing Customer Personas to Life with LLMs and RAG (arXiv, 2025) confermano che l’AI può generare personas sintetiche credibili, ma solo quando viene alimentata con dati reali e regole di costruzione precise. Il punto è che l’AI non “capisce” i clienti, li interpreta. E come ogni interpretazione, dipende dal contesto, dai dati e dal metodo.
Il metodo che usiamo in Cavallo Consulting
In Cavallo Consulting abbiamo iniziato a esplorare questo tema mesi prima che uscissero i primi studi. Con Kooary non chiediamo al modello di inventare le buyer personas. Le costruiamo a partire da segmentazioni e variabili validate, fondate su comportamenti e ricerche reali. L’LLM entra solo nella fase di interpretazione, simulando linguaggi, giudizi e scelte in scenari di interazione diversi. In questo modo analizziamo come l’AI rappresenta i brand quando risponde a query reali di categoria, osservando le differenze tra profili, settori e competitor. Non ci interessa sapere cosa “pensa” ChatGPT, ma quale racconto restituisce a seconda del punto di vista. È un approccio più lento ma più solido. Le personas sono derivate da dati osservabili e non da ipotesi testuali. Le query vengono progettate per simulare contesti d’uso credibili, evitando di introdurre i brand per ridurre bias. Gli output vengono valutati con metriche replicabili di coerenza e frequenza. Ogni ciclo di simulazione è documentabile e ripetibile, così da ridurre l’impatto dei bias del modello sull’analisi.
Cosa dicono i limiti della ricerca
La letteratura più recente conferma che questo punto è cruciale. Studi come Bringing Customer Personas to Life with LLMs and RAG (Rizwan et al., 2025, arXiv) e Understanding Bias in AI-Generated Personas (Chen et al., 2024, HCI International) mostrano che i modelli tendono a rafforzare stereotipi impliciti se non vengono controllati con dati esterni o meccanismi di validazione. Le personas create dai modelli sono utili come stimolo creativo, ma inaffidabili come rappresentazione del mercato. In altre parole, le AI generano insight interessanti, ma non sempre veri. Serve quindi un metodo che unisca la potenza linguistica del modello alla solidità del dato osservato.
L’AI non sostituisce la ricerca, la accelera
Kooary utilizza i modelli generativi per analizzare come l’AI stessa interpreta le intenzioni d’acquisto. Le buyer personas vengono definite a monte su dati e segmentazioni reali, mentre i modelli vengono istruiti a rispondere a query coerenti con quei profili. Le risposte prodotte dall’LLM diventano un corpus osservabile, utile per misurare coerenza semantica, frequenza di associazioni e rappresentazione dei brand nelle diverse categorie. Ciò che prima si studiava attraverso sondaggi o analisi dei motori di ricerca oggi si può esplorare nel linguaggio dei modelli generativi, osservando come costruiscono il racconto dei marchi in relazione ai diversi pubblici. In questo modo l’AI non sostituisce la ricerca, la estende e la accelera. Diventa uno strumento per testare decine di migliaia di scenari d’interazione e verificare come le diverse personas vengono rappresentate nel nuovo spazio generativo.
Conclusione
La sfida non è chiedere all’AI chi sono i clienti, ma insegnarle a rispondere come loro.
Le buyer personas generate da LLM possono essere utili solo quando restano ancorate a dati reali, controlli di bias e metriche replicabili. L’esperienza di Kooary mostra che un metodo strutturato può trasformare un modello generativo in uno strumento di ricerca affidabile, capace di interpretare e non inventare il comportamento dei clienti. In un’epoca in cui le aziende cercano di capire come l’AI “vede” i brand, la differenza non sta più nelle parole chiave, ma nella qualità delle personas su cui vengono costruite le risposte.