
Le 14 juin 2025, une trentaine de personnes d’âges et d’horizons diversifiés se sont réunies pour réfléchir et identifier des pistes d’action individuelles et collectives par rapport à l’utilisation des technologies d’IA.
De tout temps, l'humain est influencé par ce qui compose son environnement. La fondation de la SROH en 1973 découle, entre autres, d’une réflexion sur l’utilisation des technologies et sur l’importance de mettre l’humain au centre des préoccupations. Or, 50 ans plus tard, la situation actuelle nous interpelle toujours. Les problématiques soulevées par l’essor des technologies d'IA nous renvoient à la nécessité de renforcer l'identité humaine, qui contribue au maintien de l’autonomie de nos aptitudes émotionnelles et rationnelles, de notre santé physique et ainsi de notre intégrité humaine.
Jeunes et adultes ont été invités à se questionner sur les façons dont nous interagissons avec les technologies d’IA à partir de trois situations:
✔️ à l’école,
✔️ dans le milieu du travail,
✔️ dans la société.

Nous nous sommes demandés :
→ Qu’est-ce qui nous motive à utiliser des technologies d’IA ?
→ Quelles sont les émotions que l’on peut ressentir dans ces situations ?
→ Quelles sont les habiletés et compétences qu’il serait utile de développer pour préserver notre humanité ?
Est-ce que je me sers des technologies d’IA afin d’optimiser mes actions, tout en développant mes capacités humaines ? Est-ce que je deviens dépendant.e des fonctionnalités d’IA ?
Après un temps de riches échanges en sous-groupes, la SROH a présenté des éléments du travail de réflexion et d’analyse mené par le comité responsable du Forum, composé de plusieurs membres de l’organisme. Nous avons mis en perspective les mécanismes de volonté de puissance et d’insécurité inhérents à l’identité humaine, à partir des situations discutées.
À titre d’exemple, nous pouvons vivre de l’insécurité face aux technologies d’IA, que ce soit face à nos propres capacités ou en rapport avec les répercussions qui peuvent être engendrées, entre autres, sur les plans écologiques, économiques ou sociaux. Concernant la volonté de puissance, nous pouvons, par exemple, vivre de la satisfaction en utilisant une fonctionnalité qui nous fait gagner du temps et nous évite de fournir des efforts dans notre vie quotidienne. Dans ce contexte, il est important de comprendre ce que cela suscite en nous afin de mieux nous connaître et de faire des choix éclairés par rapport aux technologies d’IA. On peut se demander : Est-ce que je m’en sers afin d’optimiser mes actions, tout en développant mes capacités humaines ? Est-ce que je deviens dépendant.e des fonctionnalités d’IA ? Est-ce qu’à la longue je pourrais me sentir diminué.e ou affaibli.e autant sur les plans techniques, cognitifs qu’émotionnels ?
Dans une perspective de prévention, il est important de comprendre le rôle de l’identité humaine. Elle est composée de trois dimensions qui se complètent et qui favorisent notre bien-être quand on crée un équilibre entre la dimension instinctive (les besoins du corps), la dimension émotionnelle et la dimension rationnelle (nos pensées, notre fonctionnement cognitif).
Quelle place peuvent prendre mes émotions dans mes prises de décision et dans ma façon d'utiliser ou non des technologies d'IA ?

Dans le cadre du Forum, nous avons plus particulièrement abordé les interactions entre les dimensions émotionnelle et rationnelle, en nous interrogeant sur la place que peuvent prendre nos émotions dans nos prises de décision par rapport à l’utilisation des technologies d’IA. Nous avons évoqué, entre autres, la façon dont nous accordons notre confiance à ce que nous lisons en ligne ou la façon dont nos perceptions peuvent être biaisées sans qu’on s’en rende compte, notamment par les algorithmes des réseaux sociaux.
Notre dimension rationnelle et notre intelligence émotionnelle peuvent nous aider à comprendre et équilibrer nos ressentis, nos motivations, nos comportements et nos réactions émotionnelles. Cette recherche d’équilibre nous permet aussi de développer notre esprit critique et de mobiliser nos capacités cognitives pour aider au discernement et à la prudence dans l’utilisation des technologies d’IA.
Une identité humaine équilibrée accroit notre capacité de résister à la recherche de facilité et notre responsabilité de renforcer nos capacités humaines dans le contexte de l'essor de ces nouvelles fonctionnalités technologiques
En complément, nous avons aussi partagé des préoccupations concernant l’impact des technologies d’IA sur l’environnement et les populations. Des écologistes s'inquiètent que les centres de données nécessitent une quantité phénoménale d'énergie et produisent des gaz à effet de serre. Les banques de données qui assurent le développement des technologies d'IA nécessitent une alimentation constante. Pour ce faire, elles ont besoin d'une main d'œuvre importante dont le travail consiste à enregistrer des informations de manière continue. Le développement des technologies d'IA « se fait sur le dos d'une main d'œuvre sous-payée, chargée de tâches répétitives pour entraîner les machines. (...) l’intelligence artificielle dépend en grande partie de « petites mains » bien humaines, lesquelles classent, génèrent et fournissent des milliers d'informations essentielles au bon fonctionnement de l'IA »¹ . Compte tenu de ces impacts, il est important d’avoir une vision d’ensemble des répercussions à l’échelle planétaire, afin de prendre des décisions éclairées autant au plan individuel que collectif.
¹ Bougerol, E. (2025) Ces petites mains humaines, précaires et exploitées qui rendent IA et robots plus intelligents, Basta, consulté le 10-11-2025 : https://basta.media/ces-petites-mains-humaines-precaires-et-exploitees-qui-rendent-ia-et-robots-plus-intelligens-intelligence-artificielle

C’est en ce sens que les participantes et participants ont d’abord identifié des pistes d’actions individuelles à mettre en pratique.
Pistes d’actions individuelles sur le plan technique et rationnel
- Questionner l’accès que je donne aux applications d’IA concernant mes données personnelles.
- Apprendre à poser des limites et à me protéger individuellement, même si cela demande un effort de trouver des solutions techniques : je me rappelle que je suis face à une machine qui est gérée par des paramètres qui peuvent être modifiés.
- Diversifier mes sources d’informations pour mieux comprendre les situations et chercher à distinguer le vrai du faux.
- Comprendre comment les algorithmes des réseaux sociaux sont créés pour garder mon attention et me faire perdre le contrôle.
- Me rappeler que les robots conversationnels sont des machines.
- Prendre le temps de questionner ce que je lis sur les réseaux sociaux ou les résultats de mes recherches assistées par des technologies d’IA : ne pas prendre pour acquis toutes les informations auxquelles j’ai accès (et cela même quand elles vont dans le même sens que mes croyances et points de vue) et vérifier si les sources de ces informations sont fiables.
- Prendre conscience des impacts des technologies d’IA sur l’environnement et les populations et trouver des moyens d’action
Pistes d’actions individuelles sur le plan humain
- Développer mon esprit critique et ma créativité.
- Remettre en question mes habitudes et décider de ne pas toujours rechercher la facilité.
- Mettre des balises à l’utilisation que je fais des applications d’IA pour ne pas empiéter sur le développement de mes capacités.
- Choisir mes activités pour solliciter mes capacités à la fois physiques, manuelles, intellectuelles, etc.
- Développer mon sens de l’effort.
- Cultiver le libre arbitre et la solidarité humaine.
Des pistes d’actions collectives ont aussi été suggérées.
- Instaurer des cours d’éducation à la littératie numérique pour enfants, adolescents et adultes.
- Encourager la création de politiques d’encadrement et de régulation des technologies d’IA dans les entreprises et les écoles.
- Mettre en place des cadres juridiques nationaux et transnationaux pour la protection des utilisateurs et utilisatrices et de leurs données personnelles.
- Identifier des actions auxquelles on peut se joindre ou même qu’on pourrait entreprendre (ex. sondages, pétitions, lettre au gouvernement ou au premier ministre).
Identifier des pistes d’actions est une chose, mais avons-nous la volonté et les moyens de les mettre en pratique ? Que pouvons-nous faire individuellement et collectivement ? Est-ce que nous pouvons en parler avec notre entourage pour sensibiliser et mobiliser d’autres personnes ?
Ce FORUM s’inscrit dans la mission d’action communautaire de la SROH. Face à ce défi technologique et sociétal, l’entraide et l’engagement dans la communauté sont des forces de mobilisation à l’heure où les experts du domaine sonnent l’alarme quant à la perte de contrôle et au besoin d’encadrement des technologies d’IA.

En parallèle et pour soutenir l’action communautaire une démarche de renforcement de notre identité humaine est nécessaire pour agir. Décider de s’engager dans cette démarche personnelle, c’est comprendre qu’il est nécessaire de passer de la prise de conscience à une action en vue à la fois de trouver un équilibre intérieur mais aussi d’exercer justement notre rôle dans la société. Ainsi, nous pourrons contribuer à notre mesure à ce que l’on veut construire pour notre futur où les technologies d’IA seront omniprésentes et en développement accéléré.
