Récit de la première journée des Semaines sociales France…
Samedi matin, Isabelle de Gaulmyn a déclaré ouverte la 99e Rencontre des Semaines sociales de France, en proposant de nous placer sous le patronage de 3 figures. La première est Léon XIV qui a en quelque sorte adoubé la pertinence de notre thème en choisissant son nom puis en s’intéressant à l’IA dès ses premiers discours. La deuxième est le bordelais Jacques Ellul qui nous a alerté sur la façon dont la technique peut altérer notre conscience du monde. La troisième figure est Jimmy, jeune trisomique qui a pu gagner en autonomie grâce à l’IA et qu’il nous faut aussi prendre en compte lors de nos échanges ce week-end.
Pourquoi donc parler de l’IA? A quoi bon, au milieu des constats, recherches, articles prendre encore la parole? Nous pensons pourtant que nous pouvons apporter notre pierre à l’édifice en nous appuyant sur la pensée sociale chrétienne a expliqué Sophie de Ravinel, co-responsable de cette 99e Rencontre. L’une des questions qui nous occupera, a ajouté Arnaud Broustet, est de savoir comment demeurer humains.
Thierry Balu, responsable de l’antenne des Amis aquitains des Semaines sociales, a ensuite rappelé que penser la société ne se réduit pas à deux jours par an. Il s’agit de ne pas donner de notre superflu mais de notre nécessaire : du temps ! N’hésitez donc pas à rejoindre l’antenne de Bordeaux et d’autres antennes locales en France, voire d’en créer !
Pierre Hurmic, maire de Bordeaux, nous a aussi salués avec un très beau discours sous forme de vibrant hommage à Jacques Ellul, mettant en écho les alertes du philosophe sur une technique auto-générative, nous persuadant de son caractère indispensable, plus que jamais actuelles à l’heure de l’IA.
« L’IA est passée de la plus prometteuse des sciences à celle qui promet le plus », disait Michèle Sebag. C’est avec cette citation que Mathieu Guillermin a ouvert la conférence introductive de la rencontre : L’IA est-elle une simple évolution ou une véritable révolution ?
On en parle comme d’une technologie qui va tout bouleverser, au point de nous faire croire que nous serons toujours « en retard » sur elle. Pourtant, tout n’est pas à rejeter : il s’agit plutôt d’apprendre à bien s’orienter… et à bien s’émerveiller.
L’IA, et en particulier l’apprentissage machine, reste d’abord de l’informatique : un programme qui transforme des données en d’autres données. Derrière ces systèmes, il y a toujours des humains qui choisissent, règlent, vérifient. Réduire l’intelligence humaine à du calcul serait donc une grave erreur.
L’intelligence humaine implique des décisions existentielles, des jugements, une « intelligence du cœur » : la capacité de discerner et de savourer le vrai, le bon et le beau (comme le rappelle le texte du Vatican Antiqua et nova, 2025). Le pape François met en garde contre le paradigme technocratique qui réduit l’humain à l’efficacité de la machine.
L’IA est donc une question profondément politique : elle ne sait que ce que nous lui apprenons (y compris nos biais, comme le racisme ou le sexisme), et elle ne remplacera pas l’intelligence humaine face à l’inédit, par exemple pour les maladies de demain.
Le vrai enjeu n’est pas de trouver « notre place » dans un monde dominé par l’IA, mais de décider comment l’IA peut servir l’épanouissement de nos communautés. Cela suppose un effort de discernement collectif, pour reconnaître les moments où l’expérience humaine doit rester première : un dessin d’enfant, la compassion envers un malade, l’apprentissage dans les études, etc.
Olivier Abel ensuite a pris le relais pour penser avec nous la question de la vérité. Se rend-t-on compte que Platon s’inquiétait en son temps de l’impact de l’écriture qui a le pouvoir de faire de nous des « peuples oublieux » ? A l’heure de la post-vérité, Olivier Abel nous a livré un vibrant plaidoyer en faveur des institutions qui sont les gardiennes d’une pluralité de positions et donc des conditions d’une véritable recherche de la vérité.
Mariette Darrigrand a ensuite proposé une pastille sémiologique en commençant par une expérience parlante… Si on demande à l’IA de générer des images d’IA puis de la science cognitive, celles de l’IA sont féminines un peu effrayantes façon sorcière des temps modernes, celles de la science cognitive beaucoup plus rationnelles, avec un imaginaire masculin. Pourquoi cette dissociation ? Intelligence artificielle est une expression anthropomorphique : nous en mieux, nous en pire. Aujourd’hui nous devons revenir à l’un des fondamentaux : l’intelligence artificielle est un produit de l’humain, c’est un artefact de l’homo faber. Et la finalité de l’homo faber est certes de créer (Arendt), mais il faut qu’il ait une finalité. Jamais d’IA sans finalité de l’IA.
Une table-ronde sur les libertés individuelles et la sécurité publique a fait échanger ensemble Bernard Cazeneuve, Arnaud Danjean et Claire Mathieu.
Bernard Cazeneuve nous a fait entrer sur les enjeux de l’IA dans les questions de renseignement. Il est nécessaire de poser des limites en particulier en contexte de grande émotion. Pourtant, il faut aussi comprendre l’apport de l’IA sur ce sujet : les algorithmes font ressortir dans les échanges internet les comportements pouvant présager d’actes terroristes. Dans le même temps, les contrôles sur cet usage sont considérablement renforcés : par une haute autorité administrative, le conseil d’Etat qui assure le contrôle juridictionnel qui dispose d’une composition particulière accréditée secret défense. Il a terminé en insistant sur l’urgence de faire de l’école la pierre angulaire de nos sociétés, pour y inculquer les humanités qui construisent l’esprit critique et nous permettent de prendre du recul face à l’IA.
Pour Arnaud Danjean, l’IA peut permettre d’être beaucoup plus efficace en étant plus démocratique et contrôlable, bien que cela puisse paraître contre-intuitif. Sur la question du renseignement et l’afflux de données, on récoltait avant beaucoup de données et le tamis n’était pas très fin. Aujourd’hui la sophistication des algorithmes permet d’être beaucoup plus discriminant. On va plus rapidement sur les profils dangereux qui intéressent, là où les services de renseignement devraient se concentrer.
Bien sûr, cela implique une crainte légitime sur le respect de la vie privé. Arnaud Danjean explique néanmoins qu’il ne faut aussi pas sous-estimer la part d’auto-contrôle ou auto-censure de la part des fonctionnaires d’Etat, là où les acteurs privés sont mus par d’autres intérêts.
De plus, spontanément nos citoyens vont porter un regard très critique sur l’appareil d’Etat mais de façon volontaire abandonner un nombre incroyable de données personnelles à des acteurs privés. Il y a un hiatus important à ce sujet.
A été soulevée la difficulté pour le législateur de légiférer en connaissance de cause : il faut pouvoir comprendre suffisamment la technique, qui elle-même avance très vite. Néanmoins, on voit à quel point les normes sont absolument nécessaires.
Claire Mathieu a relevé qu’en tant que scientifique elle se devait à la fois de conseiller l’Etat, mais aussi les contre-pouvoirs car aujourd’hui la montée de l’autoritarisme des Etats ou même d’Etats totalitaires demande une vigilance renforcée de la part des scientifiques et citoyens. Mais pour cela il faut pouvoir investir de l’argent dans la recherche sans être dépendants desideratas de groupes d’influences, qui touchent parfois néanmoins jusqu’à l’Etat, on le voit aux Etats-Unis depuis un an.
Les semainières et semainiers ont soulevé l’éternel et nécessaire question éthique de savoir s’il n’y avait pas un risque accru avec l’IA utilisée à titre préventif de condamner sur une intention plutôt que sur des actes. A cela, nos intervenants ont souligné le rôle de chacun : les renseignements renseignent, le judiciaire condamne sur des faits et des preuves.
L’après-midi a été consacrée à deux temps d’ateliers : le premier avec des experts et acteurs de terrain, le second autour du Manifeste des SSF. Nous avons ensuite assisté à une conférence de Julia Mouzon et Cécile Renouard, animée par Nathalie Sarthou-Lajus.
Julia Mouzon a présenté son comité, interface entre les acteurs du numérique (cloud, IA, quantique…) et l’État. Malgré une filière française très performante, beaucoup de talents partent aux États-Unis : la filière croît, mais perd des parts de marché. Les enjeux environnementaux y sont centraux : seule une minorité peut imaginer disposer durablement des ressources nécessaires.
Google et Microsoft dominent largement le traitement des données. Tous deux avaient annoncé une neutralité carbone en 2030, mais ces objectifs sont désormais abandonnés. L’Europe, elle, garde une voix singulière : RGPD, Digital Markets Act (concurrence) et Digital Services Act (les obligations hors ligne s’appliquent aussi en ligne). Un moratoire sur l’IA semble irréaliste, mais la législation européenne joue un rôle clé.
Quelques ordres de grandeur ont été rappelés :
– nous construisons un « cerveau mondial » très énergivore ;
– une recherche ChatGPT consomme l’équivalent d’1/15e de petite cuillère d’eau ;
– ChatGPT est plus énergivore que Google.
Et un conseil : privilégier Mistral, solution française.
Cécile Renouard a présenté le Campus de la Transition, fondé en 2017 et inspiré de la théorie du donut de Kate Raworth, entre plancher social et plafond écologique. Le Campus propose six portes pour penser collectivement la transition : habiter le monde commun, discerner, gouverner, interpréter, agir et se reconnecter à soi, aux autres et à la nature.
Elle a souligné que nos usages actuels de l’IA ne sont pas compatibles avec les limites planétaires ni avec la justice sociale, évoquant notamment les « travailleurs du clic » exposés à des contenus violents. Les besoins énergétiques des datacenters explosent, tandis que des millions de personnes n’ont toujours pas accès à l’électricité.
Une question devient urgente : quels usages de l’IA sont réellement pertinents, et lesquels exigent des limites juridiques ? Et, individuellement : de quoi ai-je vraiment besoin, et cela me rend-il plus humain ?
« Donne-moi à boire ». Le fil rouge spirituel porté par Serge Ricaud et Corinne Gendreau s’est attardé sur ces mots de Jésus à la Samaritaine. Et cette dernière s’intéresse à la promesse d’une eau pleine de vie qui ne donnera plus soif. A la promesse de ne plus se fatiguer à puiser l’eau. Est-ce une illusion ? N’est-ce pas le type de mirage que nous propose l’IA ?
Merci à nos animateurs : Mélinée Le Priol (La Croix), Etienne Pépin (RCF), Sophie de Ravinel (SSF), Arnaud Broustet (SSF), Nathalie Sarthou-Lajus (Etudes)
La suite demain et les superbes photos sont de Christian Mangé !























