Lors du Salon des Bâtisseurs 2026 en Martinique, la conférence consacrée à l’intelligence artificielle dans le bâtiment s’est appuyée sur des retours d’expérience concrets, loin des approches uniquement prospectives. Portée par Claire Guidi, représentante de la Fédération Française du Bâtiment, et Jean Ramirez, président du groupe Hythlodée, l’intervention a proposé une lecture technique des usages déjà en place dans les entreprises.
Derrière l’idée d’une “révolution” souvent associée à l’IA, les intervenants ont plutôt décrit une évolution progressive, déjà engagée sur l’ensemble de la chaîne de valeur du BTP — de la production des devis jusqu’au suivi des chantiers — mais encore largement conditionnée par la qualité des données et le cadre d’utilisation de ces outils.
—
Derrière l’IA, une logique probabiliste plus qu’une “intelligence”
Dès l’ouverture, un point essentiel est posé : l’intelligence artificielle ne correspond pas à une capacité autonome de décision. Elle repose sur une logique probabiliste, alimentée par des données.
Comme le rappelle Claire Guidi, « la machine ne fait que donner des probabilités ». Autrement dit, elle ne produit pas une vérité, mais un résultat vraisemblable fondé sur des apprentissages antérieurs.
Contrairement à un calcul déterministe — où une même entrée produit systématiquement le même résultat — ces outils fonctionnent à partir de corrélations issues de volumes importants de données. Sans données, il n’y a pas d’IA. Et plus ces données sont structurées, plus les résultats deviennent exploitables.
Cette réalité renvoie à un enjeu encore inégalement pris en compte dans les entreprises : la valorisation des données internes, souvent dispersées ou peu organisées.

Une transformation qui s’étend à l’ensemble de la chaîne de valeur
L’un des apports majeurs de la conférence tient dans l’étendue des usages présentés. L’IA ne se limite pas à une fonction spécifique : elle tend à s’intégrer progressivement dans l’ensemble de l’acte de construire, de l’amont à l’exploitation.
En amont : automatisation et reformulation des devis
Les exemples évoqués montrent que certaines évolutions sont déjà opérationnelles. Des outils permettent aujourd’hui, à partir d’une saisie vocale réalisée sur le chantier, de générer un devis structuré en quelques instants.
Au-delà de la production, ces solutions interviennent également dans la reformulation. Sur des opérations techniques, elles peuvent traduire un contenu spécialisé en langage plus accessible pour le client, ce qui facilite la compréhension des prestations proposées.
Analyse des appels d’offres et des documents contractuels
Sur les phases de réponse aux marchés, les usages apparaissent également structurés. Ces outils sont en mesure d’analyser des volumes importants de documents, d’en extraire les éléments essentiels, voire de signaler certaines incohérences.
Dans la pratique, ils peuvent être utilisés pour :
- synthétiser les pièces d’un appel d’offres,
- orienter la décision de réponse,
- générer des bases de mémoire technique.
Comme l’indique Jean Ramirez, « toute la partie technique, toute la partie administrative, on ne la lit jamais… sauf quand on est embêté », ce qui explique l’intérêt de solutions capables de faire ressortir rapidement les informations clés.
Sur le chantier : suivi, contrôle et anticipation
Sur le terrain, les usages se développent autour de l’analyse d’images et de données. L’exploitation de captations visuelles permet, par exemple, d’évaluer l’avancement d’un chantier à partir de plusieurs milliers de photos.
Ces systèmes peuvent identifier :
- des éléments manquants,
- des écarts par rapport à une maquette,
- ou des signaux susceptibles d’annoncer un retard.
Dans le domaine du contrôle qualité, ils sont également mobilisés pour détecter des défauts — fissures, anomalies de soudure — à partir d’images préalablement annotées. Dans tous les cas, l’analyse produite reste indicative et nécessite une validation par les équipes.
En phase d’exploitation : synthèse et maintenance
En aval, les usages concernent principalement le traitement de l’information. L’IA permet de synthétiser rapidement des volumes importants de données issues de l’exploitation, notamment dans des contextes multi-sites.
Un exemple présenté évoque la transformation de plusieurs centaines de fiches d’intervention en une synthèse structurée, facilitant la lecture pour le client et la prise de décision.
Des applications se développent également dans le domaine de la détection d’anomalies énergétiques, notamment via des capteurs ou des caméras thermiques, dans une logique de maintenance anticipée.
Des gains de productivité, mais une fiabilité à encadrer
Si les gains en efficacité apparaissent clairement, les intervenants rappellent les limites inhérentes à ces outils.
« Ce qui est vraisemblable n’est pas forcément vrai », souligne Claire Guidi. Les résultats produits peuvent être cohérents en apparence, sans pour autant être exacts, en particulier dans des contextes techniques.
Dans ce cadre, l’IA doit être considérée comme un outil d’aide à la décision. La validation humaine demeure indispensable, notamment dans les situations engageant des responsabilités.
Par ailleurs, la conférence met en évidence une évolution des usages : après une phase de réserve, les utilisateurs tendent à intégrer ces outils dans leurs pratiques quotidiennes. Cette progression s’accompagne parfois d’une forme de dépendance, qui interroge la capacité à conserver un regard critique sur les résultats produits.
Données, cybersécurité et responsabilité : un déplacement des enjeux
Au-delà des usages, les échanges mettent en évidence un déplacement des problématiques. L’enjeu ne se limite plus à la technologie elle-même.
Un risque accru autour des données
Les exemples évoqués illustrent les risques liés à l’utilisation d’outils grand public. Certaines pratiques peuvent entraîner une exposition involontaire de données sensibles, notamment lorsque des documents techniques sont intégrés sans précaution dans des interfaces ouvertes.
« Comme c’est gratuit, c’est connu, c’est nous le produit », rappelle Jean Ramirez, soulignant les enjeux associés à la circulation des données.
Dans un secteur où les informations techniques constituent un actif stratégique, cette question devient centrale.
Une responsabilité qui reste portée par les professionnels
Dans le BTP, les obligations réglementaires et contractuelles impliquent que la responsabilité ne peut être déléguée à un outil. Les décisions doivent rester validées par des professionnels, en particulier dans des contextes soumis à des garanties.
L’IA intervient en appui, sans se substituer à l’expertise métier.
Un besoin d’organisation et de cadre
La diffusion de ces usages fait apparaître des besoins d’organisation :
- structuration des données,
- sécurisation des systèmes,
- encadrement des pratiques internes.
Le recours non encadré à ces outils, parfois qualifié de “shadow AI”, constitue un point de vigilance, en raison des risques qu’il peut générer sans visibilité au niveau de l’entreprise.
Une transformation progressive du secteur
En conclusion, la conférence met en évidence une transformation déjà engagée, mais encore en phase d’organisation. Comme le résume Jean Ramirez, « ça (l’IA) ne va pas remplacer les emplois, ça va les transformer ».
L’intelligence artificielle modifie les pratiques, les processus et certaines attentes, notamment en matière de réactivité et de lisibilité des informations.
Cette évolution s’inscrit également dans une dynamique plus large à l’échelle de la filière, en lien avec les enjeux de partage de données, de BIM ou de développement de jumeaux numériques.
L’image évoquée en conclusion — celle d’un « troisième bras » — traduit cette logique : un outil complémentaire, dont l’efficacité dépendra des conditions dans lesquelles il est utilisé, encadré et intégré aux pratiques professionnelles.
Consulter le replay de la conférence ici









