Notre utilisation de l’Intelligence Artificielle

1. Introduction

En notre qualité de cabinet de conseil se maintenant à la pointe de l’innovation, Insuco souhaite optimiser la qualité et la performance de son expertise en intégrant de manière responsable l’Intelligence Artificielle (IA) à ses processus internes.
Notre approche étant centrée sur la durabilité sociale, notre usage des outils recourant à l’IA doit contribuer à nos valeurs et aux standards de qualité de notre expertise.
En tant que membre de l’International Association for Impact Assessment (IAIA), Insuco adhère pleinement à ses Principes pour l’utilisation de l’intelligence artificielle dans l’évaluation d’impact (SP n°16, Fév. 2026). Ces principes ont pour objectif d’établir des garde-fous pour une utilisation éthique et responsable de l’IA dans le secteur de l’évaluation d’impact.
Plus généralement, Insuco adhère au règlement européen sur l’Intelligence Artificielle (AI Act), promulgué en 2024, qui vise entre autres à responsabiliser et encadrer les usages de l’IA par les entreprises vis-à-vis de la protection de leurs parties prenantes et des citoyens.

2. Transparence sur l’utilisation de l’IA et Protection des données personnelles

Insuco s’engage à une transparence complète concernant l’utilisation de l’intelligence artificielle (IA) par ses collaborateurs et ses experts externes.
Tous nos rapports relatifs à l’évaluation d’impact mentionnent clairement l’emploi de l’IA (dénomination de l’outil, le type d’usage, la méthode de contrôle, la date), ainsi que la conformité aux politiques, normes ou règlement en vigueur encadrant l’usage de l’IA.
Dans cette perspective, toutes les données collectées auprès de parties prenantes (individus, communautés, organisations) que nous traitons avec le concour d’outils d’IA, le sont dans le strict respect du Règlement Général sur la Protection des Données (RGPD) européen, et du principe de révocabilité/correction des données.

3. L’expertise reste la pierre angulaire de nos études

L’intelligence artificielle (IA) est un instrument au service de nos collaborateurs et de nos experts. Ce n’est pas un substitut. L’implication des parties prenantes et le travail de terrain, qui sont les piliers de nos interventions, demeurent des activités conduites par nos experts et nos collaborateurs.
L’IA peut enrichir ou optimiser les études de terrain, les évaluations d’impact, le traitement d’un grand nombre de données, le suivi-évaluation des plans d’action. Cependant, notre supervision professionnelle demeure impérative : nos collaborateurs, experts, et chercheurs procèdent à une vérification indépendante des résultats générés par les outils d’IA autorisés par Insuco auxquels ils recourent.
La responsabilité de l’application de l’IA dans l’intégralité des processus d’évaluation d’impact, de la conception à la finalisation, incombe entièrement à nos équipes. Cela inclut la décision d’intégrer l’IA, la supervision et la gestion de son application, la validation du contenu et des analyses, la vérification des sources et des données, l’exactitude des informations, l’examen de nos rapports par les autorités réglementaires, la gestion des commentaires publics, les réponses apportées, ainsi que la formulation des conclusions et des recommandations d’actions.

4. L’IA au service de méthodologies éprouvées

Nos études reposent sur des méthodes, des protocoles et des outils validés par la communauté des experts et des autorités du secteur de l’évaluation d’impact.
Nous utilisons les outils d’IA de manière contrôlée pour compléter et améliorer nos processus, sans jamais remplacer, supplanter ou enfreindre les méthodes, les protocoles et les outils recommandés ou réglementaires : les principes scientifiques, les techniques d’évaluation, de calcul et de modélisation standardisées et les règles de protection des données sociales et environnementales.
Tout processus d’évaluation d’impact doit être conforme aux politiques et exigences en matière d’IA du pays où l’évaluation est menée, ainsi qu’aux politiques et normes de toute organisation finançant ou soutenant ladite évaluation, selon le principe de la norme la plus exigeante. Ainsi, nos méthodes, protocoles et outils n’intègrent pas les systèmes d’IA classés inacceptables et à risque élevé selon l’AI Act.

5. Prise en compte des biais et de l’inclusivité

Nous mettons en place une gestion attentive des biais de l’IA et un processus de contrôle qualité des entrées (prompts) et des résultats.
Les informations et les données fournies par les outils d’IA peuvent être insuffisantes ou ne pas représenter fidèlement les groupes autochtones, vulnérables, touchés par les conflits ou marginalisés. C’est pourquoi l’IA ne doit pas remplacer la communication directe avec les personnes affectées ou le jugement des experts.
Les utilisateurs de l’IA doivent exercer une supervision humaine pour prévenir les erreurs et assurer une représentation précise. Il est crucial de rechercher et de traiter les limites des outils et systèmes d’IA, telles que :

  • les biais ;
  • les “hallucinations” de l’IA (informations fausses ou trompeuses) ;
  • les données incomplètes, en particulier pour les lieux et contextes éloignés ;
  • les sujets et lieux avec peu de connaissances numérisées ;
  • le manque d’attention aux valeurs culturelles, aux croyances ou aux connaissances tacites ;
  • les critères ambigus pour juger l’importance de l’impact ;
  • le manque de connaissance de la source et de la crédibilité des données.

6. Sensibilisation, gestion des risques et impacts E&S

Nous nous engageons à sensibiliser notre personnel et nos experts externes aux limites, risques et impacts de l’IA, notamment par le biais de formations internes initiales et de la diffusion d’une Note de bonnes pratiques auprès de nos experts externes.
Cette démarche inclut une analyse comparative des différents types d’IA et de leurs enjeux environnementaux et sociaux. Nous classifions les systèmes d’IA que nous utilisons selon la démarche des catégories de risques citoyens de l’IA Act (inacceptable, élevé, limité, minimal ou nul) à laquelle nous ajoutons notre évaluation des risques environnementaux et sociaux.
Ainsi, conscients des impacts sociaux et environnementaux que le développement et l’utilisation de l’IA génèrent, nous limitons son utilisation selon le principe de besoin réel, c’est-à-dire uniquement lorsqu’un outil d’IA permet une valeur ajoutée réelle à notre travail et par rapport à d’autre outils informatiques ou manuels prééxistants.
Afin de garantir la conformité à l’AI Act, notre plan d’action comprend les activités suivantes :

  • cartographie des usages des systèmes d’IA : identification des outils et systèmes IA internes et externes, ainsi que de leurs domaines d’application ;
  • classification des systèmes d’IA utilisés selon leur niveau de risque : évaluation et documentation de chaque système selon la typologie de l’AI Act ;
  • politique de contrôle des IA: politique IA, Charte d’usage IA, revue de la charte informatique ;
  • formation des équipes : sensibilisation à l’AI Act, à l’éthique de l’IA, à la cybersécurité et aux impacts des systèmes d’IA ;
  • suivi et audit : mise en place d’un contrôle continu de la conformité et réalisation d’audits internes réguliers.

Au sein de Insuco, l’utilisation efficace, efficiente et éthique des systèmes d’IA exige d’être préalablement sensibilisé et formé à notre politique IA.

7. Responsabilité

Insuco assume l’entière responsabilité de l’utilisation de l’IA (décisions, contenu, exactitude) et s’engage à observer rigoureusement les principes proposés par l’IAIA, l’AI Act et le RGPD européens en matière d’usage professionnel des outils d’IA et de protection des données personnelles.

Cela implique pour nous la nécessité de cartographier et de classifier les IA que nous utilisons, d’être transparent sur les usages que nous en faisons, de sensibiliser et former nos équipes et d’assurer un suivi continu.

8. Conservation des données

Selon la nature des données à caractère personnel, la finalité du traitement, et/ou les exigences légales ou règlementaires les délais de conservation varient. Pour autant, nous mettons en place des processus d’anonymisation des données personnelles quand il nous est nécessaire de conserver certaines informations attachées à ces données personnelles sans qu’il ne soit strictement obligatoire d’identifier les personnes physiques auxquelles elles se rapportent.