En mai 2025, FLASHS a mené pour Hostinger une vaste enquête en ligne auprès d’un panel de 10 500 Français de 18 ans et plus, représentatif de la population, afin de sonder leurs perceptions et usages de l’intelligence artificielle générative dans leur quotidien. Cette intéressante étude met en lumière une adoption massive de l’IA par les Français qui reste teintée d’ambivalence : si l’outil est jugé pratique, il n’en demeure pas moins perçu comme dispensable, alors même qu’il gagne peu à peu du terrain jusque dans l’intime. Des débuts qui ne sont pas sans nous rappeler ceux d’Alexa et Google Assistant dix ans plus tôt.
Les Français et l’IA : une adoption fulgurante, une dépendance relative
L’émergence spectaculaire de l’IA générative dans l’écosystème numérique s’explique d’abord par sa démocratisation, les interfaces simplifiées façon « moteur de recherche » et les formules gratuites ayant facilité son adoption. Les médias ont également joué un rôle important, relatant chaque avancée comme une révolution et créant un effet de curiosité collective, parfois peut-être à l’excès.
Ainsi, pas moins de 89 % des Français déclarent avoir déjà eu recours à un service ou une application fondée sur l’IA : assistants vocaux (Alexa, Google Assistant, Siri), chatbots (ChatGPT, Claude, Le Chat), etc.
Pour autant, cette adoption reste encore occasionnelle, le taux d’usage quotidien (31 %) tendant à prouver que la plupart des utilisateurs utilisent l’IA pour des besoins ponctuels et pas encore comme un outil à part entière de leur vie numérique. On note cependant un écart générationnel très net, avec des jeunes qui multiplient les expérimentations (67% des 18-25 ans), alors que les seniors demeurent attachés aux méthodes traditionnelles (14 % chez les plus de 65 ans). Mais cela pourrait bien évoluer dans les prochains mois avec l’arrivée d’Alexa+ et Gemini dans nos maisons connectées…
Assistant personnel ou simple outil pratique ?
A la fois outil utilitaire et assistant personnel, l’intelligence artificielle est d’abord un exécuteur de commandes pour 46% des utilisateurs français : génération de listes, résumé de textes, traductions rapides et recherches documentaires. Cet usage correspond à une logique de productivité, où l’IA intervient classiquement comme une extension permettant d’être plus efficace. Cela concorde avec ce que nous avons connu en domotique avec les premiers assistants vocaux.
Pour pouvoir utiliser l’IA comme assistant personnel (31 %), l’utilisateur attend d’elle un niveau de contexte et de prévision plus élevé, qu’atteignent aujourd’hui sans mal des modèles avancés tels que GPT-4o ou Claude 4 : adaptation du ton, recommandations personnalisées et même anticipation des besoins. Ces attentes des consommateurs ouvrent des perspectives économiques considérables pour les acteurs qui sauront enrichir leurs services d’une couche de personnalisation poussée et maintenir une relation continue plutôt que transactionnelle. Une excellente nouvelle pour Amazon et Google qui ont déjà bien installé leurs enceintes connectées dans nos foyers.
Pour les 3 % considérant l’IA comme une perte de temps, les raisons avancées sont le plus souvent l’immaturité fonctionnelle des outils, encore souvent mal calibrés ou mal intégrés dans les flux de travail, et un manque d’accompagnement pédagogique pour en explorer toutes les capacités.
Étonnamment, 92% disent pouvoir se passer de l’IA, alors même qu’ils en déplorent parfois l’absence. On pense évidemment aux enceintes connectées Amazon Echo ou Google Nest, où l’IA générative est réclamée à cor et à cri par les utilisateurs depuis plus de deux ans déjà. Plusieurs raisons peuvent expliquer ce paradoxe : d’une part, les utilisateurs la perçoivent comme un outil d’appoint, capable d’effectuer une partie la tâche mais non sa globalité ; d’autre part, ils se méfient de sa « boîte noire » algorithmique, principalement pour des questions relatives à la vie privée et la confidentialité des données. Des craintes justifiées, mais qui semblent étonnamment plus préoccuper les Français que la fiabilité des données et les méthodes de raisonnement sous-jacentes…
Des Français courtois avec l’IA
Bonne nouvelle, 83 % des utilisateurs français se disent courtois à l’égard des IA, 28 % utilisant systématiquement des marques de politesse (« merci », « s’il te plaît »). C’est plus que les Américains (67%) et même que les Britanniques (71%) à en croire un récent sondage TechRadar. En France, ce comportement atteindrait même 94 % chez les 18-24 ans, génération qui ne brille pourtant pas en la matière sur les réseaux sociaux…
Faut-il être poli avec les IA ? La question divise. La politesse envers une machine est souvent décrite comme un automatisme social transposé à l’interface numérique. Pourtant, il découle d’une anthropomorphisation, les utilisateurs attribuant aux IA des caractéristiques humaines qu’elles n’ont pas (sentiments, émotions) et ajustant leur discours pour maintenir une forme de cohérence émotionnelle.
Si Le Monde rapportait récemment que Luc Julia comme Sam Altam estiment que c’est une perte de temps et d’énergie, des études tendent à montrer que les formulations polies amélioreraient la qualité des réponses générées par les IA, probablement en influençant positivement les modèles de langage qui interprètent mieux les requêtes formulées dans un ton courtois. L’acte de dire « merci » ou « s’il te plaît » ne relèverait donc pas seulement d’un mimétisme humain, il participerait activement à l’optimisation de l’échange homme-machine. Cela reste cependant encore à confirmer.
L’IA en vacances : du budget à l’itinéraire
A l’approche des vacances d’été, 76 % des utilisateurs envisagent d’avoir recours à l’IA pour préparer leurs séjours :
- 57 % pour organiser un itinéraire détaillé,
- 54 % pour comparer les tarifs en temps réel,
- 45 % pour trouver des destinations sur mesure .
Les applications de voyage illustrent la capacité de l’IA à agréger et filtrer des volumes massifs de données : horaires de vol, avis clients, conditions météo, et ce en temps quasi réel. L’utilisateur bénéficie ainsi d’un conseil calibré, prenant en compte ses priorités – budget, durée, centres d’intérêt – et ajustable d’un simple message.
Pour les acteurs du tourisme, l’enjeu est de personnaliser davantage : privilégier les offres expérientielles, adaptées aux micro-communautés (voyage en famille, escapade sportive, tourisme gourmand). À terme, l’IA pourrait proposer des immersions thématiques, calquées sur les préférences psychométriques de chaque voyagiste, tout en intégrant une dimension écoresponsable grâce à l’analyse des empreintes carbone.
Création de contenu : un laboratoire d’innovation
Parmi les utilisateurs français d’IA, 78 % ont déjà fait appel à l’IA pour générer du contenu (images, textes, CV, projets techniques) :
-
- 52 % pour des images (illustrations, logos),
- 48 % pour des textes (articles, posts),
- 38 % pour des CV et lettres de motivation .
La création augmentée par IA représente un véritable catalyseur d’idéation : en quelques instants, on peut explorer des pistes graphiques et jouer avec des styles, tester des formulations narratives et lui faire rédiger des articles complets. Pratique, cette agilité permet de gagner de précieuses minutes, mais elle pose aussi de nombreuses questions.
Comment échapper à la standardisation et créer un message authentique ? L’équilibre est probablement à trouver dans la cocréation : mixer la puissance de l’IA avec une touche humaine distinctive – choix des mots, direction artistique personnalisée, usage de sources originales – et ne pas céder à l’automatisation.
Confiance et vigilance limitée
Plus inquiétant, seulement 14 % vérifient systématiquement la véracité des réponses apportées par l’IA (34 % rarement et 15 % jamais). C’est peu, trop peu, mais ce biais de crédibilité était prévisible car l’IA fournit des réponses rapides et étayées, renforçant l’illusion d’une expertise. Pourtant, même les meilleurs grands modèles de langage (LLM) génèrent encore fréquemment des hallucinations, leur propagation sans vérification est donc préoccupante et pourrait mettre en danger la qualité de l’information. Un phénomène particulièrement inquiétant dans les secteurs médicaux, juridiques ou financiers.
Paradoxalement, les utilisateurs sont moins confiants concernant la question des données personnelles. Le public est inquiet sur le principe (56 %), mais négligent dans la pratique (31 %). Les plateformes d’intelligence artificielles se doivent donc de développer des mécanismes de transparence : journaux d’accès aux données, possibilité de suppression contextuelle et explications claires sur l’utilisation des informations récupérées.
L’IA, confidente et « psy de poche » des Français
Enfin, dans un contexte où les solitudes modernes se multiplient (isolement urbain, télétravail), l’étude commanditée par Hostinger s’est intéressée au partage d’intimité avec l’IA et, le moins qu’on puisse dire, c’est que les résultats interrogent.
Parmi les utilisateurs français d’IA :
- 47 % se sentent à l’aise pour partager émotions et ressentis (stress, tristesse, solitude), un taux qui grimpe à 55 % chez les 18-24 ans .
- 26 % l’ont sollicitée pour des conseils sentimentaux (amour, rupture) .
- 26 % ont abordé des sujets qu’ils n’osaient pas évoquer avec un humain, principalement pour 33 % par souci de confidentialité, 28 % par manque d’interlocuteur et 27 % pour éviter le jugement .
L’IA apparaît donc aussi comme un canal d’écoute, un champ de décompression, utilisable sans limite et sans crainte de déranger ou de déplaire. Cette accessibilité émotionnelle répond à un besoin croissant de soutien psychologique, mal couvert par les structures classiques de santé. Ici encore, le danger n’est pas loin car, dépourvue d’empathie réelle comme de responsabilité professionnelle, l’IA peut fournir des conseils inadéquats voire dangereux. Des garde-fous réglementaires devront sécuriser son usage en intégrant, par exemple, des protocoles d’orientation vers des professionnels humains en cas de détresse avérée.
Alexa+ et Gemini : deux IA génératives bientôt à domicile
D’ici fin 2025, Amazon déploiera Alexa+ sur ses enceintes Echo en France, tandis que Google intégrera Gemini dans ses appareils Nest. Ces appareils nous offriront un accès vocal permanent à l’IA et nous permettront des interactions plus fluides et contextuelles avec elle. Nous pourrons tenir des conversations séquentielles, enchaîner plusieurs demandes sans répéter le contexte, et même lui demander de créer des routines domotiques complexes.
Si les deux géants ont déjà bien cadré leurs assistants pour ce qui est des enjeux liés à la vie privée (enregistrement limités, accès granulaires aux données, doits d’effacement faciles à exercer), il leur faudra désormais intégrer des mécanismes d’alerte pour signaler le degré de confiance d’une réponse et encourager la vérification humaine, l’absence d’interface visuelle risquant d’augmenter encore la consommation passive d’informations. , marquant le début d’une nouvelle ère pour nos maisons connectées.
Répondre