Aujourd’hui, l’intelligence artificielle ouvre de nouvelles perspectives pour explorer les comportements humains. Avec les populations synthétiques – des ensembles d’agents virtuels capables de simuler attitudes, valeurs et comportements d’une population réelle, via des « personae augmentés" – l’IA ne se limite plus à traiter des données : elle peut générer des représentations plausibles, tester des hypothèses et explorer des segments difficiles d’accès.
Mais l’IA n’est pas une solution miracle et ne remplace pas les études traditionnelles. Son utilité et sa pertinence dépendent entièrement de l’encadrement et du jugement humain. Bien utilisée, elle peut compléter la compréhension humaine et éclairer certaines décisions, mais elle nécessite une vigilance méthodologique constante pour éviter d’amplifier les biais existants.
En tant que chercheurs, nous cherchons à explorer cette voie, pour mieux comprendre les potentialités de l’IA associée aux sciences humaines. Dans cette démarche, nous expérimentons une approche hybride IA-humain, où technologie et expertise de terrain se nourrissent mutuellement pour produire des populations synthétiques dont la fiabilité et la représentativité sont suivies et évaluées. Chez Supper, cette innovation est guidée par une conviction forte : l’IA peut être un levier pour démultiplier la capacité d’action et de transformation de l'humain ; mais nous en sommes encore au début des potentialités de cette hybridation. Notre objectif est clair : que l’IA devienne un outil au service de l’intelligence humaine, capable d’éclairer les décisions tout en amplifiant l’impact de l’humain.
L’Humain, garant de la nuance
Pour cela, nos ethnologues jouent un rôle clé dans cette démarche. Ils ne se contentent pas d'alimenter une base de données : ils guident le calibrage des agents virtuels en intégrant les nuances du terrain, les comportements implicites et les contextes sociaux et culturels que l’IA tend à simplifier. C'est leur expertise qui garantit que nos modèles reflètent la vraie
complexité humaine, et non une caricature.
Cette rigueur est complétée par un croisement minutieux des données (publiques et propriétaires) pour maximiser robustesse et diversité ; tout en assurant une confidentialité totale des données partagées.
Cette hybridation, entre expertise humaine et puissance de l’IA, est au cœur de notre approche.
La composition synthétique
Les "personae augmentés" sont enrichis par l'intégration de dimensions variées :
- socio-démographiques (issues de sources officielles, comme l'INSEE) ;
- comportementales et psychographiques ;
- sectorielles et spécifiques à nos clients (CRM, études antérieures, etc.)
Des bénéfices stratégiques explorés
A ce stade de nos recherches, nous faisons le constat que les populations synthétiques offrent des possibilités intéressantes pour enrichir les études et la stratégie d’entreprise :
- Confidentialité : les agents virtuels ne représentent aucun individu réel, contournant ainsi les contraintes RGPD sans sacrifier la richesse des analyses.
- Gain de temps : certaines analyses ou tests peuvent être réalisés beaucoup plus rapidement qu’avec des méthodes traditionnelles.
- Accès aux niches : il devient possible d’explorer des segments rares ou difficiles à recruter, du décideur industriel à l’artisan isolé.
- Tester des hypothèses stratégiques : simuler de manière agile des réactions plausibles à des campagnes, produits ou politiques (sans prétendre prédire le comportement réel).
Nous explorons actuellement ces bénéfices dans le cadre de plusieurs POCs avec nos clients,
par exemple :
- Réinventer la relation aux auditeurs et lecteurs : nous utilisons des populations synthétiques pour un grand média national multi-canal, afin d’identifier des profils extrêmes, révéler de nouveaux usages et tester différents scénarios et formats.
- Accompagner une transition stratégique : dans le cadre de la transition 100 % électrique d’un constructeur automobile, nous créons des populations synthétiques (concessionnaires et automobilistes) afin d’anticiper certaines réactions et identifier les leviers d’adhésion, tout en conservant une interprétation humaine des résultats.
Le paradoxe de la confiance : notre engagement qualité
Créer des agents synthétiques n’est pas neutre. Sans vigilance, l’IA peut :
- Reproduire des biais : les modèles apprennent à partir de données existantes et peuvent reproduire, voire amplifier, des biais systémiques.
- Simplifier le réel : la richesse des motivations humaines, les contradictions et les paradoxes culturels peuvent être "aplatis" par des modèles qui cherchent avant tout la cohérence statistique.
- Positiver nos questionnements via une complaisance algorithmique : l’IA peut avoir tendance à confirmer les hypothèses implicites du chercheur, créant une illusion de validation.
Pour encadrer ces risques, nous travaillons sur un dispositif concret visant à concilier exigence scientifique et applicabilité opérationnelle. Au cœur de ce dispositif : l’Indice de confiance, notre protocole interne, qui évalue la représentativité et la cohérence des populations synthétiques selon plusieurs dimensions (conformité socio-démographique, linguistique, inter-modèles LLM…).
Ce protocole permet de tester et ajuster les populations synthétiques dans le cadre de POCs avec nos clients, tout en conservant une interprétation humaine des résultats et en garantissant un niveau de fiabilité suffisant pour éclairer certaines décisions.
Et demain ?
En tant que chercheurs, nous nous devons d’aller plus loin dans cette hybridation IA x Sciences Humaines. Effectivement, l'avenir des études ne réside pas dans le remplacement de l'expertise humaine par l'IA, mais dans une collaboration vertueuse : nous avons la conviction que la machine peut amplifier la rigueur et l’intuition du chercheur ; l’humain garantit sens, nuance et éthique.
Par retour d’expérience, nous savons que l’IA sans l’humain est source d’erreurs fondamentales (et de risques méthodologiques). C’est pourquoi nos chercheurs accompagnent nos clients tout au long du processus : choix pertinent des sources, définition des objectifs et des champs exploratoires, tests de validité des populations créées et enrichissement continu par des données circonstancielles.
En explorant les potentialités de l’IA via des outils de recherche continue, nous cherchons à renforcer l’efficacité et la pertinence des études. L’objectif : tester, apprendre et développer des méthodes fiables, permettant à l’humain de s’appuyer sur l’IA pour enrichir sa compréhension et éclairer ses décisions, sans jamais se substituer à son jugement.