Nuestro uso de la Inteligencia Artificial
1. Introducción
En nuestra calidad de consultoría a la vanguardia de la innovación, Insuco desea optimizar la calidad y el rendimiento de su experiencia integrando la Inteligencia Artificial (IA) de manera responsable en sus procesos internos.
Dado que nuestro enfoque está centrado en la sostenibilidad social, nuestro uso de herramientas que recurren a la IA debe contribuir a nuestros valores y a los estándares de calidad de nuestra experiencia.
Como miembro de la Asociación Internacional para la Evaluación de Impacto (IAIA), Insuco se adhiere plenamente a sus Principios para el uso de la inteligencia artificial en la evaluación de impacto (SP n°16, Feb. 2026). Estos principios tienen como objetivo establecer salvaguardias para un uso ético y responsable de la IA en el sector de la evaluación de impacto.
Más generalmente, Insuco se adhiere al reglamento europeo sobre Inteligencia Artificial (AI Act), promulgado en 2024, que tiene como objetivo, entre otras cosas, responsabilizar y enmarcar el uso de la IA por parte de las empresas en relación con la protección de sus partes interesadas y los ciudadanos.
2. Transparencia en el uso de la IA y Protección de datos personales
Insuco se compromete a una transparencia completa en cuanto al uso de la inteligencia artificial (IA) por parte de sus colaboradores y expertos externos.
Todos nuestros informes relacionados con la evaluación de impacto mencionan claramente el uso de la IA (denominación de la herramienta, tipo de uso, método de control, fecha), así como la conformidad con las políticas, normas o reglamentos vigentes que rigen el uso de la IA.
En esta perspectiva, todos los datos recopilados de las partes interesadas (individuos, comunidades, organizaciones) que procesamos con la ayuda de herramientas de IA, se realizan en estricto cumplimiento del Reglamento General de Protección de Datos (RGPD) europeo, y del principio de revocabilidad/corrección de datos.
3. La experiencia sigue siendo la piedra angular de nuestros estudios
La inteligencia artificial (IA) es un instrumento al servicio de nuestros colaboradores y expertos. No es un sustituto. La implicación de las partes interesadas y el trabajo de campo, que son los pilares de nuestras intervenciones, siguen siendo actividades dirigidas por nuestros expertos y colaboradores.
La IA puede enriquecer u optimizar los estudios de campo, las evaluaciones de impacto, el procesamiento de un gran número de datos, el seguimiento y la evaluación de los planes de acción. Sin embargo, nuestra supervisión profesional sigue siendo imperativa: nuestros colaboradores, expertos e investigadores proceden a una verificación independiente de los resultados generados por las herramientas de IA autorizadas por Insuco a las que recurren.
La responsabilidad de la aplicación de la IA en la totalidad de los procesos de evaluación de impacto, desde la concepción hasta la finalización, recae enteramente en nuestros equipos. Esto incluye la decisión de integrar la IA, la supervisión y gestión de su aplicación, la validación del contenido y los análisis, la verificación de las fuentes y los datos, la exactitud de la información, la revisión de nuestros informes por parte de las autoridades reguladoras, la gestión de los comentarios públicos, las respuestas proporcionadas, así como la formulación de las conclusiones y las recomendaciones de acciones.
4. La IA al servicio de metodologías probadas
Nuestros estudios se basan en métodos, protocolos y herramientas validados por la comunidad de expertos y autoridades del sector de la evaluación de impacto.
Utilizamos las herramientas de IA de manera controlada para complementar y mejorar nuestros procesos, sin reemplazar, suplantar o infringir los métodos, protocolos y herramientas recomendadas o reglamentarias: los principios científicos, las técnicas de evaluación, cálculo y modelado estandarizadas, las reglas de protección de datos sociales y ambientales.
Todo proceso de evaluación de impacto debe cumplir con las políticas y requisitos en materia de IA del país donde se realiza la evaluación, así como con las políticas y normas de cualquier organización que financie o apoye dicha evaluación, según el principio de la norma más exigente. Así, nuestros métodos, protocolos y herramientas no integran los sistemas de IA clasificados como inaceptables y de alto riesgo según la AI Act.
5. Consideración de los sesgos y la inclusividad
Implementamos una gestión cuidadosa de los sesgos de la IA y un proceso de control de calidad de las entradas (prompts) y los resultados.
La información y los datos proporcionados por las herramientas de IA pueden ser insuficientes o no representar fielmente a los grupos indígenas, vulnerables, afectados por conflictos o marginados.
Por ello, la IA no debe reemplazar la comunicación directa con las personas afectadas o el juicio de los expertos.
Los usuarios de la IA deben ejercer una supervisión humana para prevenir errores y asegurar una representación precisa. Es crucial buscar y tratar las limitaciones de las herramientas y sistemas de IA, tales como:
- los sesgos;
- las «alucinaciones» de la IA (información falsa o engañosa);
- los datos incompletos, especialmente para lugares y contextos remotos;
- los temas y lugares con poco conocimiento no digitalizado;
- la falta de atención a los valores culturales, creencias o conocimientos tácitos;
- los criterios ambiguos para juzgar la importancia del impacto;
6. Concienciación, gestión de riesgos e impactos E&S
Nos comprometemos a sensibilizar a nuestro personal y expertos externos sobre los límites, riesgos e impactos de la IA, especialmente a través de formaciones internas iniciales y la difusión de una Nota de buenas prácticas entre nuestros expertos externos.
Este enfoque incluye un análisis comparativo de los diferentes tipos de IA y sus desafíos ambientales y sociales. Clasificamos los sistemas de IA que utilizamos según el enfoque de las categorías de riesgo ciudadano de la Ley de IA (inaceptable, alto, limitado, mínimo o nulo) a la que añadimos nuestra evaluación de los riesgos ambientales y sociales.
Así, conscientes de los impactos sociales y ambientales que genera el desarrollo y uso de la IA, limitamos su uso según el principio de necesidad real, es decir, solo cuando una herramienta de IA permite un valor añadido real a nuestro trabajo y en comparación con otras herramientas informáticas o manuales preexistentes.
Para garantizar la conformidad con la Ley de IA, nuestro plan de acción incluye las siguientes actividades:
- Mapeo de los usos de los sistemas de IA: identificación de las herramientas y sistemas de IA internos y externos, así como sus áreas de aplicación;
- Clasificación de los sistemas de IA utilizados según su nivel de riesgo: evaluación y documentación de cada sistema según la tipología de la Ley de IA;
- Política de control de las IA: política de IA, Carta de uso de IA, revisión de la carta informática;
- Formación de los equipos: sensibilización sobre la Ley de IA, la ética de la IA, la ciberseguridad y los impactos de los sistemas de IA;
- Seguimiento y auditoría: establecimiento de un control continuo de la conformidad y realización de auditorías internas regulares.
Dentro de Insuco, el uso eficaz, eficiente y ético de los sistemas de IA requiere una sensibilización y formación previas en nuestra política de IA.
7. Responsabilidad
Insuco asume la responsabilidad total del uso de la IA (decisiones, contenido, exactitud) y se compromete a observar rigurosamente los principios propuestos por la IAIA, la Ley de IA y el RGPD europeos en materia de uso profesional de las herramientas de IA y protección de datos personales.
Esto implica para nosotros la necesidad de mapear y clasificar las IA que utilizamos, ser transparentes sobre los usos que hacemos de ellas, sensibilizar y formar a nuestros equipos y asegurar un seguimiento continuo.