Par un communiqué publié sur X, le Premier ministre a le 13 janvier dernier annoncé un « moratoire » qui remet en cause toute la gouvernance de l’eau, au seul profit des agriculteurs, et des préfets. De quoi émouvoir les agences de l’eau et l’ensemble des acteurs du partage de ce bien commun, car cette gouvernance, cette « démocratie de l’eau », dit-on souvent, fonctionne, bon an mal an. Exemple avec le Marais poitevin. Entre deux eaux, il est une marge qui a longtemps été le théâtre du manichéisme bien français. Les écolos ont empêché qu’il devînt un champ de maïs, par assèchement au profit de quelques-uns. Gagné sur la mer, ce pays a failli perdre sa diversité de paysages parce que chacun de ses usagers voulait l’eau pour lui seul sans se préoccuper des autres. Un conflit classique de légitimités que n’avaient pu régler les innombrables structures chargées pourtant d’en limiter la portée. Cela valut une condamnation de la France par l’Europe et le non-renouvellement du label Parc naturel régional. Ces deux électrochocs ont obligé les gens à mettre de l’eau dans leur trouspinette, l’État est intervenu pour coordonner la multitude d’intérêts et le Marais est devenu un laboratoire social. Aujourd’hui, parce qu’on y a appris à se considérer, à gérer différemment et en commun l’eau, il va beaucoup mieux, le parc naturel régional est revenu et l’irrigation auparavant honnie est mieux acceptée. Un exemple qui interroge tout de même car les mêmes maux reviennent : il y aurait toujours trop de structures impliquées alors que la disponibilité et la qualité de l’eau sont chaque année rendues moins prévisibles par le dérèglement climatique et les besoins qui augmentent. « Protecteur » historique de cette immense zone humide, la Coordination pour la défense du Marais poitevin (CDMP) a en novembre dernier organisé une journée d’études sur l’avenir du pays, en particulier de sa gouvernance. J’y étais.
À regarder la carte, je me dis que le Marais poitevin et ses bassins-versants auraient pu être constitués en un département, dont la Préfecture eût pu être Niort. Le Marais a une identité fondée par l’histoire, c’est-à-dire par la géographie. Les paysages sont cohérents avec la vie des gens, ils ont tous été travaillés à partir de l’eau. Mais non, la France n’aimant pas les choses simples, elle a choisi de rendre ce pays illisible. La destinée du Marais poitevin repose donc sur le bon dialogue entre deux régions, trois départements, huit communautés de communes, une hétérogénéité de syndicats mixtes, trois chambres départementales d’agriculture, des comités régionaux de ceci ou de cela, des associations diverses et variées, un parc naturel régional, une agence de l’eau, et j’en oublie forcément. Pour faciliter les choses, ces structures portent des schémas ou des plans d’action. L’impression générale est féodale, ce qui n’est pas favorable.
Illustration avec les sages. Trois Sage. Pour celles et ceux qui auraient renoncé à tenter de comprendre les acronymes dont la France est leader mondial de la création, le Sage est le document de planification pour gérer l’eau à l’échelle d’un petit bassin-versant : Schéma d’aménagement et de gestion des eaux. C’est une déclinaison du Sdage, qui comporte une consonne supplémentaire car ce schéma-là est directeur, parce qu’il concerne le grand bassin-versant, celui couvert par une agence de l’eau, ici, l’agence Loire-Bretagne. Tous les six ans depuis sa création, le Sdage dit ce que l’on peut et ne peut pas faire, le Sage doit y être compatible et le met en application à une échelle réduite.
Sur le territoire concerné par le Marais poitevin, qui est vaste et complexe – autant du point de vue hydrologique qu’administratif, il a fallu en créer trois. La carte présentée en ouverture de la journée affiche en conséquence trois couleurs : il y a un Sage à gauche, en vert, un à droite en bleu et entre les deux, tout coincé, comme suspendu, là, tout en haut, un petit en rose. Deux sont portés par un syndicat mixte, identifiés cela va sans dire pas un acronyme : d’ouest en est, en Vendée, il y a le syndicat mixte du bassin du Lay (SMBL), puis on trouve le Vendée Sèvre Autise… en Vendée également (SMVSA). Toutefois, le Sage le plus grand ne porte pas le nom de syndicat sinon ce serait trop simple, car il est mis en œuvre par trois départements – Vendée, Deux-Sèvres et Charente-Maritime, c’est l’Institution Interdépartementale du Bassin de la Sèvre Niortaise (ou IIBSN). À sa tête de chacun et de celle-ci il y a un « parlement, » la CLE : la commission locale de l’eau, où, en principe, tous les usagers de l’eau sont représentés en différents collèges. Son mandat est de six ans avant son complet renouvellement. Le Premier ministre a estimé dans son moratoire que les agriculteurs ne sont pas assez représentés, ce qui est factuellement faux.
Histoire sans doute de simplifier encore un peu plus la compréhension de la gestion du Marais poitevin, chaque Sage met en route des contrats de travaux pluriannuels qu’il coordonne, mais dont il n’est pas forcément maître d’ouvrage. Par exemple, le SMBL en a deux : le contrat de territoire du Lay aval (il borde la mer)… dont il est aussi le maître d’ouvrage, et le contrat de territoire du Lay amont (côté bocage), très œcuménique car partagé entre pas moins de quatre maîtres d’ouvrage (la Fédération de Vendée pour la Pêche et la Protection des Milieux Aquatiques, Vendée Eau, La Roche-sur-Yon agglomération et, tout de même, le SMBL).
Portrait de Lay
Déjà, on n’y comprend rien, moi le premier. Alors, je vous propose d’aller respirer un peu dans une des Maisons mères de l’eau en France, les agences de l’eau. Depuis 1964, elles sont là pour que l’eau reste un sujet en dépit des aléas politiques, pour que sa gestion soit planifiée sur un temps long. Alain Sappey est le chef du service planification de l’Agence de l’eau Loire-Bretagne : « avec les actions individuelles, quelles que soient les intentions qui sont derrière, on n’a aucune garantie que leur somme concourt à un projet commun. Voilà pourquoi on a besoin de la planification à l’échelle du bassin et à celle du Marais poitevin, et c’est possible avec le Sdage ! » Le travail est bien engagé, il faut sans cesse le recommencer car les gens sont remplacés par d’autres, les usages évoluent et le changement climatique s’accélère. La planification n’était pourtant pas dans les objectifs assignés aux agences par la loi fondatrice de 1964. Elle a été ajoutée par la loi sur l’eau de 1992 qui a donc introduit les Sdage. « Aujourd’hui, 85 % du territoire métropolitain est couvert par des Sage, et c’est très bien, parce qu’il faut avoir une gestion de l’eau planifiée et décentralisée, proche des territoires. » Les Sage sont-ils à la bonne taille ? Ils occupent des territoires très différents, de 300 à 10 000 km2. « Je n’ai jamais trouvé la réponse à cette question… Je crois tout de même que le bon périmètre c’est celui sur lequel s’accordent les acteurs locaux. En fonction de la taille du territoire, plus vous avez un Sage petit, plus vous êtes près du terrain, mais plus il y a des enjeux qui transcendent le périmètre qui peut dès lors s’avérer trop étroit. À l’inverse, si vous êtes sur un territoire trop grand, vous éloignez la commission locale de l’eau du terrain. » Ici, le choix a été fait de découper le Marais en trois pièces de puzzle, coordonnés « historiquement par un préfet coordinateur, et maintenant par l’Établissement public du Marais poitevin, » l’EPMP sur lequel je reviendrai.
Et maintenant, les trois sages.
« Nous, SMBL, on porte des travaux de curage, de restauration des berges, de protection des milieux aquatiques, de restauration de zones, mais on apporte aussi dans les contrats de territoire des subventions publiques pour nos différents maîtres d’ouvrage et partenaires, » explique Pascal Mege, le directeur du syndicat mixte. La bonne tenue du bassin du Lay – 2 190 km2, 110 communes, 200 000 habitants – est fondamentale car d’elle dépendent les bassins-versants voisins, et, cela va sans dire, le Marais poitevin. Par ailleurs, parmi les treize systèmes de barrages qui couvrent 90 % des besoins en eau potable du département de la Vendée, six se trouvent sur le bassin du Lay. Des volumes d’eau retenus par ces six-là sont même exportés vers la côte, largement déficitaire en été. Le complexe de barrages vendéens de Mervent contribue également, et vend un peu d’eau aux Deux-Sèvres et à la Charente-Maritime. Curieusement, le Sage ne considère pas le risque de submersion marine, ni celui des tempêtes et des érosions côtières qui peuvent pourtant altérer la qualité des nappes (remontées d’eau salée à l’intérieur des terres) et empêcher l’évacuation d’inondations fluviales, même si depuis Xynthia en 2010, les études et travaux relatifs à ce risque sont validés par les CLE. « Ce n’est pas un angle mort, il y a pour ces risques la Stratégie de gestion locale du risque d’inondation, la SGLRI, qui, à l’échelle du Marais poitevin, est un grand document, que personne ne connaît, qu’on a du mal à mettre en œuvre tellement le document est grand, et qui ne figure pas dans les Sage. » Encore un document, toujours un acronyme. Il doit y avoir en France des lutins qui les fabriquent au sous-sol de la cabane du Père Noël de la bureaucratie. Le SGLRI, donc, est une sorte de Sdage inondation, il est la déclinaison locale du Plan de gestion du risque inondation (PGRI, un acronyme de plus, c’est cadeau) élaboré au niveau du bassin Loire-Bretagne. Le SGLRI est lui-même décliné en certains Territoires à risque inondation important (TRI, uniquement pour la baie de l’Aiguillon et ses communes riveraines). Animé par les collectivités et les services de l’État, le SGLRI est en fait le petit truc en plus pour gêner encore mieux la compréhension de la gestion de l’eau sur le Marais poitevin.
Guillaume Largeau/ GAEC La Passion, éleveur de Blondes d’Aquitaine à Marans (17)
Sèvre & Vendée
À l’est coule une autre rivière que le Lay, la Sèvre Niortaise, artère majeure du marais. 2 700 km2 et 220 communes, voilà un vaste bassin-versant que longtemps bouda La Rochelle. De manière étrange, la petite-bourgeoise du littoral ne souhaitait pas être associée aux territoires qui l’alimentent en eau. La peur de ne plus voir un jour le robinet couler a fait taire ces pudeurs. « Depuis 3 ans, 4 ans ou 5 ans, la préoccupation sur la gestion quantitative et la nécessité de définir des volumes prélevables phagocyte la majorité des heures de débats des CLE, » avance François Josse, animateur du Sage en question. Moins pour des raisons physiques, un manque d’eau qui s’aggraverait en été quand tout le monde la demande, mais pour des questions… administratives : « On a depuis toujours l’obligation de définir ces volumes prélevables, il existait donc dans le Sage des dispositions sur des volumes cibles, qui, à l’époque, n’avaient pas été réalisés selon la méthode préconisée aujourd’hui. On est donc obligé de retravailler sur une thématique très compliquée à comprendre. » Il faut réexpliquer, réunir, concerter. La structure porteuse de ce Sage-là est particulière, je l’ai dit : l’Institution Interdépartementale du Bassin de la Sèvre Niortaise est financée par l’agence de l’eau, la région et les départements de la Vendée, des Deux-Sèvres et de la Charente-Maritime. « Si le Sage a été mis en place, c’est qu’il y avait entre autres des gros problèmes de qualité et des menaces de contentieux européen sur la qualité de l’eau, en particulier sur la partie Sèvre amont. Il y a depuis des contrats de territoire spécifiques, au nombre de huit (!), » et d’autres pour répondre aux problèmes quantitatifs : « il existe trois Projets de territoire pour la gestion de l’eau (PTGE) en remplacement des précédents contrats territoriaux de gestion quantitative, » portés par trois structures différentes, dont l’IIBSN. Il y a aussi, près du littoral, quatre Programmes d’actions de prévention des inondations (PAPI, différent du PGRI, évidemment), assurés par des structures elles aussi diverses. Tout cela fait beaucoup de structures de compétences différentes, dont les limites ne sont pas toujours cohérentes selon l’hydrographie ou les périmètres administratifs.
Et le Sage Vendée, tout coincé entre les deux géants précédents, est-il plus simple à appréhender ? Il ne coordonne que deux contrats territoriaux, c’est déjà cela. Débordant un peu sur les Deux-Sèvres, il est maillé par le chevelu hydrographique, le tricot de ruisseaux et de rivières qui alimente la rivière… Vendée. « Notre enjeu principal c’est la gestion quantitative. On a quatre grands barrages qui forment le complexe de Mervent, » présente Vincent Jauffrit, animateur du Sage. 13,6 millions de mètres cubes stockés pour l’approvisionnement en eau potable de 50 000 personnes, la prévention des crues en période hivernale et le soutien d’étiage en été. Trois usages, il en faut de l’eau ! L’autre souci est de restaurer la qualité en tête de bassin-versant, le fameux chevelu. Un troisième objectif est la réduction des pollutions diffuses. « Notre syndicat, Vendée Eau et le département se partagent les actions. Cependant, on aura bientôt un seul contrat pour l’ensemble du territoire que nous couvrons, en cohérence avec le périmètre du Sage, » tente de nous rassurer M. Jauffrit. Sébastien Lecornu a décidé, lui, de suspendre la hausse de la redevance pollutions diffuses et de remettre en cause tous les textes (Sage, PTGE) ayant déjà fixé les volumes prélevables. C’était bien la peine de créer tant de complexité pour la purger en un tweet.
Quand les élus tombent dans l’eau
Malgré l’effarant aréopage d’administrations et de documents, les trois Sage discutent entre eux, ils se coordonnent, assurent leurs représentants, c’est même un peu, disent-ils, comme s’il n’y en avait qu’un. Je veux bien les croire, même si j’ai du mal. Ce serait un genre d’exploit dans la mesure où, à entendre James Gandrieau, président de la CLE du Sage du Lay et vice-président de Vendée Eau en charge de la gestion quantitative pour le département, « l’eau, ce sont des spécialistes qui en parlent, [car] beaucoup d’hommes politiques n’y comprennent rien du tout, » ce qui en soi ne gêne pas Stéphane Boulard, vice-président du SMVSA et président de la CLE du Sage Vendée pour qui « la politique ne devrait jamais intervenir dans ces débats. C’est uniquement des questions de technique, d’enjeux de territoire. Et donc l’eau n’a pas à avoir de couleur politique. » Sauf que l’eau est un bien commun, qu’elle appartient donc à tous les électeurs, et que ce sont leurs représentants, les politiques élus, qui décident : c’est mieux s’ils comprennent ce que les professionnels de l’usage de l’eau leur racontent, pour limiter le risque que ceux-ci leur tiennent la main lorsqu’ils signent. Techniciens, pour ne pas dire technocrates versus politiques pour ne pas dire politiciens, la dialectique est ancienne et nourrit depuis un moment le manichéisme à l’assaut de l’État, de l’Europe et des hauts fonctionnaires. Ce serait mieux si les élus de la République s’y connaissaient un peu, mais pour un nouvel élu, cela exige beaucoup de temps alors même qu’aussitôt qu’il met le pied pour la première fois dans son bureau de maire, il doit se renseigner a minima sur d’autres sujets au moins aussi complexes que l’eau.
Un exemple avec Sylvain Auguereau, jeune maire qui termine son premier mandat à la tête du village du Gué d’Alleré, là où passe le Curé, un fleuve côtier de Charente-Maritime. « Pour moi, l’eau, je suis tombé dedans un peu par hasard quand je suis devenu maire. Au quotidien, c’était l’eau qui va dans les toilettes, c’était mon combat permanent avec les trois adolescents qui passent des heures sous la douche ! » Il a découvert la technicité du sujet en s’asseyant pour la première fois dans le fauteuil de maire. « Les inondations, la sécheresse, on les voit à la télé, mais tant qu’on n’y est pas confronté, effectivement, c’est compliqué de matérialiser. Lors des inondations de l’hiver 2023-2024, j’ai dû aller toquer à 19 portes pour avertir les occupants que leurs maisons risquaient de prendre de l’eau dans la nuit. » Sylvain Auguereau a découvert par la suite que c’est un sujet « qui n’intéresse pas trop les élus » parce qu’il est difficile d’obtenir des consensus. « Ma démarche c’est le vivre-ensemble, c’est ce que je m’efforce de faire. L’eau devrait être un facteur de vivre-ensemble. Malheureusement, aujourd’hui, c’est un vecteur de confrontation. C’est un vecteur de clivage. C’est un vecteur de postures » entre les usagers, entre les administrés, entre les professionnels de l’eau, entre les élus.
Après bientôt six ans de mandat, Monsieur le Maire pense quand même pouvoir « lâcher ses béquilles » car il a compris les acronymes et la circulation de l’eau dans le Marais poitevin. « Vous prenez un puzzle de 1 000 pièces, quand vous déballez vous en avez partout et il faut déjà arriver à essayer de trier les pièces par couleur pour arriver à pouvoir commencer à faire. » Fort de ce principe, il s’est attelé en premier lieu à la compréhension les différentes strates, ensuite comment elles s’assemblent. Il a rencontré des techniciens très accessibles, qui ont utilement éclairé son libre arbitre. « Mais voilà, j’arrive au bout d’un cycle de 6 ans, et je commence à devenir un peu plus opérationnel alors que ça va peut-être se terminer l’an prochain » et que son éventuel remplaçant aura, lui aussi, tout à apprendre.
A priori pourtant les élus sont censés se former, les agences de l’eau sont d’ailleurs là pour cela. « Quand on arrive élu, c’est un peu par hasard sur le sujet de l’eau, et puis on s’y intéresse, » résume Elmano Martins, président de la CLE du Sage Sèvre Niortaise. « Lorsqu’on parle avec les jeunes élus, pas jeunes en âge, mais jeunes en mandat, on s’aperçoit que c’est très technique, on parle d’environnement, on parle d’usages, on parle d’économie, c’est extrêmement vaste, ça nécessite, pour bien tout comprendre et prendre les bonnes décisions, de s’acculturer pendant longtemps et d’échanger : on ne peut pas imaginer une politique de l’eau seul dans son coin. » L’élu doit se former, et surtout se réunir. Mais quand ? Et comment ? La vie d’un représentant des électeurs se passe en réunions, six jours sur sept, rarement juste à côté de la mairie. Se lever ou finir tard, au bout du département, alors qu’on n’a pas tous les éléments en tête. Président du SMBVSN, Pascal Olivier relativise néanmoins la difficulté de la tâche : « les élus sont sur le terrain, donc ils connaissent les problématiques. Ce qui est sûr par contre, c’est que si on n’est pas les deux pieds bien ancrés, c’est difficile de pouvoir se les approprier vraiment. »
Disons-le autrement : ce n’est pas parce qu’on est un élu de terrain qu’on le parcourt et le connaît : même chaussés de bottes, les pieds ne sont pas toujours sur terre. Et puis, après tout, les techniciens sont là pour suppléer au manque de temps et de connaissances, en prenant garde qu’ils ne prennent pas le pouvoir. « On a besoin d’eux ! Après, à partir du moment qu’il y a des décisions à prendre, n’oubliez pas que la particularité d’une commission locale de l’eau est que vous y avez également des usagers, l’État qui est représenté, un équilibre apparaît, plutôt bien respecté et qui apporte une certaine stabilité, » relativise Pascal Olivier. La mainmise des techniciens est atténuée par le débat démocratique, et le balancier reviendrait vers les politiques. La tarte à la crème est bien connue : les CLE, comme les comités de bassin, sont les parlements de l’eau. Ce n’est pas faux, car tout le monde y est et discute. Pourtant, ce n’est pas parce qu’on est ensemble que chacun est en capacité d’exprimer ses idées. Dans un pays de conflit comme la France, les assemblées profitent d’abord aux professionnels de la parole, elles reflètent ou établissent les rapports de force.
Ensuite il s’agit que les diverses instances où l’on s’assemble et décide se concertent et aillent dans le même sens. Cela a tellement bien fonctionné dans le Marais poitevin que l’État, rappelle James Gandrieau, a dû venir à la rescousse : « l’Établissement public du Marais poitevin [EPMP] a été créé parce qu’on n’arrivait pas à s’entendre. Il a fait un rôle extraordinaire depuis plusieurs années. »
Un héritage de droits
En général honni, surtout en ce moment, l’État aurait donc dans le Marais poitevin fait ce pour quoi il existe : garantir l’intérêt général en se mettant très au-dessus des intérêts particuliers. Un rôle que certains trouvent ou bien coûteux, car il faut faire des économies et déléguer à peu près tout aux collectivités – sans leur en donner les moyens, ou autoritaire car les collectivités pensent pouvoir tout faire. Peut-on conserver l’intermédiation qui décide près du sommet de la pyramide tout en accordant plus de place aux « territoires » comme on dit aujourd’hui ? « Il faut une gouvernance nouvelle, c’est certain, avec plus de place pour les élus de terrain, et aux associations environnementales qui d’ailleurs râlent de n’être pas assez représentées, mais je leur dis, présentez-vous aux élections ! » tacle James Gandrieau.
À voir la multitude de pièces du puzzle qui composent le Marais poitevin, et à constater que chacune est elle-même parfois un autre puzzle, on est tenté par le réflexe de simplification. Supprimons, réunissons, fusionnons pour ne conserver que quelques pièces. Mais lesquelles ? Elmano Martins met en garde : « Il faut faire attention, parce que très clairement, il y a des spécificités de territoire. Faire un seul organe qui va tout englober, ça peut nuire, justement, à certaines spécificités. Et deuxièmement, il y a quand même l’histoire. » Personne ne propose de n’avoir que l’EPMP sur le Marais poitevin, mais pourquoi pas un seul Sage, ou moins de structures porteuses ? Elmano Martins nous dit de regarder l’histoire avant de se lancer dans ce projet. On ne fait rien sans consulter la conscience collective, l’identité territoriale qui, en France, est largement fondée sur les paysages. « La gestion du Marais remonte au XIe siècle, XIIIe siècle, c’est déjà au XIXe siècle que des syndicats ont été créés, des propriétaires qui se sont mis en syndicats pour pouvoir gérer leur propre niveau d’eau. » La division du Marais poitevin en trois Sage n’est pourtant pas un héritage de l’histoire mais de susceptibilités politiques : le département de la Vendée voulant conserver la main sur son complexe de barrages s’est opposé à tout rapprochement. Et ensuite, et au fur et à mesure, c’est l’État qui a rajouté des exigences et des niveaux, comme la Gémapi (gestion des milieux aquatiques et prévention des inondations).
La séparation du Marais poitevin en un puzzle aux pièces pas toujours bien ajustées n’est pas tombée du ciel juste pour embêter les gens, elle a une histoire, c’est une adaptation à la réalité des choses, et aujourd’hui, chacune des pièces est un objet de droit. Tout simplifier ne serait donc pas simple ni forcément efficace. M. Martins poursuit son raisonnement : « les premiers syndicats du Marais ont des prérogatives en droit qu’aujourd’hui, il serait extrêmement difficile de mettre en place. Ils peuvent intervenir dans un terrain qui ne leur appartient pas, le propriétaire ne peut pas les empêcher car c’est pour le bien commun. Par exemple, le syndicat fait racler un canal, il va pouvoir mettre sur un terrain les sédiments, que le propriétaire le veuille ou pas. Si d’aventure on veut faire qu’une seule et même entité qui gère tout le bassin, quid du droit et quid de toutes ces prérogatives ? Je trouve qu’aujourd’hui, ce n’est pas si mal géré que ça. »
Un territoire = une politique ?
Le titre de la journée disait tout. La gouvernance du Marais poitevin ne repose pas sur un millefeuille mais sur un puzzle. Chaque structure a ses compétences, son terrain d’action, ses moyens et même, quand les compétences sont identiques, « on travaille ensemble », assure Pascal Olivier. « Nous, notre syndicat, on travaille avec le SMVSA et l’IIBSN. On est la fusion de trois anciens syndicats de rivières et on exerce la compétence pour une quarantaine de communes regroupées dans des EPCI, » pas de mille-feuilles donc, mais un puzzle aux bords tout de même en friction, qui ici et là se chevauchent. Il y a du jeu. Stéphane Boulard : « On a à apprendre à travailler ensemble. Chacun de son côté parce qu’on a des spécificités. Peut-être apporter plus de coordination. C’est là où transformer l’EPMP en EPTB pourrait peut-être apporter une meilleure coordination entre les Sage. On peut travailler là-dessus, mais pas tout refonder et ne faire qu’un seul Sage ! »
James Gandrieau aime aussi jouer au puzzle en mangeant le millefeuille. « Je préfère le puzzle parce que ceux qui l’ont construit le connaissent par cœur, ce qui fait que pour les autres c’est dur à comprendre. On peut imaginer fusionner certaines pièces, mais lesquelles ? Je pense que c’est plus dans le rôle de chacun qu’il faudrait clarifier des choses. Il faut que qu’on le simplifie et qu’on le dise clairement à chacun, « c’est ça ton rôle ! » Aujourd’hui, tout le monde veut tout faire, on écrit, on passe notre temps à écrire. Simplifier n’est en réalité pas le bon mot, c’est plus donner des orientations très claires avec des objectifs à atteindre, et cesser de vouloir tout faire à la place des autres en dessous. Chacun a son rôle et son niveau. » La définition du principe de subsidiarité. Pour être clair, propose Jannick Rabillé, le comité de bassin des agences de l’eau s’honorerait à moins dire ce que chaque territoire doit faire. Au contraire, il devrait permettre à chacun de se prendre en main en reconnaissant sa spécificité et en lui demandant des documents de planification moins précis, mais adossés à des obligations réelles de résultat sous son contrôle. « Il ne faut pas uniformiser, transposer la même politique sur l’ensemble des territoires, il faut des politiques adaptées à chaque territoire. »
Tout cela reste très technique, y compris pour l’auteur de ces lignes pourtant rompu à la réglementation. Pascal Olivier : « Nous, en tant que syndicat gémapien, on a une chargée de com’ depuis un an. C’est important d’abord parce que les gens, on leur fait découvrir qu’il y a la colonne Gémapi sur leur facture, ils ne savent pas à quoi ça sert, maintenant, l’idée c’est de leur faire comprendre et leur expliquer pourquoi elle n’est prélevée que sur la taxe foncière » donc, uniquement sur les propriétaires et les entreprises. 15 euros par an chez Stéphane Boulard, « enfin, 18 en comptant la lutte contre les ragondins ! » précise-t-il. Chez James Gandrieau, c’est encore plus cher, « 25, 26 euros, dans les années à venir on sera sans doute à 35 euros [le maximum autorisé par la loi est 40] », parce que sa CLE touche le littoral, grignoté par la mer. « 80 % de la taxe est due à la submersion marine, ce que les gens qui habitent très en amont ne veulent pas comprendre : pourquoi eux alors que l’érosion est un problème national ? C’est pourtant de la solidarité amont-aval. » Les citoyens de Pouzauges doivent être solidaires de ceux des Sables-d’Olonne, car l’eau les relie. Encore faut-il le leur montrer.
L’État accapareur
Jean Launay est une figure de l’eau en France. Président du comité national de l’eau, il a été maire de Bretenoux durant 25 ans, et député du Lot pendant quatre mandats. Ce natif du château d’eau qu’est l’Avesnois, au sud du Nord, a donc passé sa vie dans une ville du causse du Quercy, où l’eau ne se voit pas : dans un karst, la pluie s’enfuit vers les tréfonds. « Ce n’est pas parce qu’elle est cachée qu’elle n’existe pas. Tout ce qui se passe sur les sols du causse central, à côté de Rocamadour, tout ce qui se passe sur les sols karstiques est important pour nos rivières souterraines, et les rivières souterraines, c’est celles qui constituent les sources d’approvisionnement de l’eau potable, avec des durées d’infiltration très différentes selon les endroits. Tout cela est conditionné par les conditions de la circulation de l’eau, y compris quand elle n’est pas visible. » Une circulation compliquée notamment pour la Garonne par le moindre enneigement, les demandes de la centrale nucléaire de Golfech et celles des irriguants. « Il y a vraiment une prise de conscience sur ce territoire [le bassin Adour Garonne] des difficultés liées à la gestion de l’eau, en particulier dans le contexte du dérèglement climatique. Ça a été accentué par les phénomènes de canicule de 2022-2023 et c’est une bonne chose. L’eau est un sujet éminemment politique, pas de droite ou de gauche, mais politique au sens propre : on ne peut pas aujourd’hui s’impliquer sur une gestion de territoire si on ne prend pas en compte les enjeux que pose le sujet de l’eau. » Toujours l’élu attend-il d’être les pieds dans l’eau pour qu’il se rende compte qu’il y a un problème. La catastrophe est plus pédagogique que la prévention depuis la nuit des temps.
Le Comité national de l’eau est le parlement de ces parlements que sont les comités de bassin des agences de l’eau. C’est une instance purement consultative, où tout le monde est présent, ministères, collectivités, représentants des usagers économiques et non économiques. Un lobby qui ne dit pas son nom, qu’en général les décideurs écoutent. Jean Launay désigne le financement de l’eau. « Depuis la loi de 1964, l’eau paye l’eau, un principe largement dépassé, puisqu’aujourd’hui, l’eau paie l’eau et aussi la biodiversité, » vu que le budget de l’Office français de la biodiversité (OFB) est en grande partie alimenté par un prélèvement sur celui des agences de l’eau. 418 millions environ, essentiellement par les agences Seine Normandie (38 %), et Rhône-Mediterranée-Corse (26 %), pour un budget global de 659 millions d’euros. Autant d’argent qui n’est plus à la disposition des agences de l’eau, alors que les finances publiques sont tendues, et que les dépenses liées à l’eau ne peuvent qu’augmenter (ne serait-ce que par le renouvellement des réseaux). Jean Launay pousse un soupir : « heureusement qu’il y a eu la création de la taxe Gémapi alors que le dogme de « pas d’impôts nouveaux » s’impose pratiquement dans tous les discours politiques ! S’il n’y avait pas eu la Gémapi, la gestion du risque inondation se serait retrouvée sur la facture d’eau à un moment ou un autre. Il faut assumer que pour créer de la solidarité, il faut payer ! » L’eau coûte, il semblerait qu’elle ne rapporte pas assez : 23 milliards environ par an pour la France, il en manquerait 13 milliards chaque année pour couvrir la réalité de ses externalités négatives, en particulier sur la santé et l’environnement.
Autre inquiétude de Jean Launay, « la modernité de la loi de 64, il faut en prendre garde, car elle est toujours fragile. Parce que je pense qu’il y a dans notre pays des tendances recentralisatrices et jacobines, en particulier au ministère de Bercy, qui sont à l’œuvre. L’État n’aime pas les taxes affectées. Or, toutes nos redevances, quelles qu’elles soient, pollution, prélèvements et autres, sont des taxes affectées. C’est l’argent de l’eau, qui revient après sur les territoires par les programmes bâtis par les agences, en fonction des objectifs qu’on se donne dans les Sdage et puis dans les programmes d’intervention. »
Jean Launay sait le pouvoir de captation de l’État, qui siphonne tout ce qu’il peut pour faire semblant de se désendetter. La circulaire Bayrou de juillet 2025 n’a pas soigné son inquiétude : on y lit que « la relance de la déconcentration doit venir conforter le niveau départemental comme échelon de référence pour la mise en œuvre des politiques publiques. Pour cela, l’autorité du préfet de département doit être renforcée sur l’ensemble des administrations de l’État et des opérateurs, ses pouvoirs et ses moyens accrus et sa capacité de pilotage stratégique réaffirmée. » En clair, le préfet est désigné comme le délégué territorial des opérateurs de l’État (OFB, Ademe, Anru, Cerema, Conservatoire du Littoral, ONF, VNF, Anah…), capable de demander un réexamen des décisions prises par ces derniers, « avec effet suspensif de la décision concernée jusqu’au réexamen » et de déroger à celles-ci. Une recentralisation qui ne dit pas son nom, aux effets pervers car tout dépendra de l’habileté – ou de la volonté – des Préfets à arbitrer entre les rapports de force. Non, selon Jean Launay, il vaudrait mieux considérer la chose de manière opposée : « déconcentration de l’État, ça veut dire que l’État doit cesser de se méfier de lui-même, à commencer de ses agences de l’eau, qui sont des établissements publics. L’État nomme les directeurs généraux, voire les directeurs adjoints des agences. Il envoie un commissaire du gouvernement à chaque réunion de comité de bassin. On a aussi des préfets et les coordinateurs de bassins à la présidence des conseils d’administration… on pourrait assouplir un peu tout ça et laisser vivre les bassins et tous ceux qui les composent autour de la démocratie participative ! » Effectivement, ce n’est pas ce que l’ex-Premier ministre envisageait, sans que l’on sache ce que le nouveau fera de la circulaire. On en a toutefois une idée avec le moratoire.
À mesure que l’État constate son appauvrissement, son inefficacité et sa faiblesse, il bombe le torse. Dans un pays qui tous les cinq ans recolle la tête du roi, dont chaque maire appelle le préfet quand le chauffage du gymnase est en panne, cela inquiète sans vraiment heurter. Les collectivités locales ont quand même des outils d’émancipation, de décisions propres, les Établissements Publics Territoriaux de Bassin (EPTB) et les Établissements Publics d’Aménagement et de Gestion de l’Eau (Epage) ces derniers destinés à la gestion des inondations. Il y en a sur le bassin Adour Garonne. « J’ai été de ceux qui ont participé aux discussions de l’affirmation juridique du rôle des EPTB. J’étais conseiller général à l’époque quand s’est créé l’EPTB Dordogne, Épidor, sur les six départements traversés par la rivière. Il faisait de la coordination, des études, mais n’était pas maître d’ouvrage sur les inondations et les milieux aquatiques. Les EPAGE répondent à cela : j’en ai donc créé un sur le périmètre de la vallée de la Dordogne-Lotoise, parce qu’il a la capacité à être maître d’ouvrage. C’est ce qu’il faut pour avoir une bonne gouvernance de l’eau. Il ne suffit pas d’être un organe de discussion, de médiation, il faut aussi être en capacité de faire. »
Le liant du puzzle administratif de l’eau se trouve dans les moyens de décider et d’agir. Encore faut-il en avoir les finances. Des directeurs d’EPTB et d’EPAGE réclament depuis des années une redevance spécifique prélevée, comme les autres redevances, sur les factures d’eau. Aujourd’hui ces établissements sont financés par les agences de l’eau et leurs structures fondatrices, les départements par exemple dans le cas d’Epidor. « Les EPAGE peuvent se doter de la compétence Gémapi, donc de la taxe Gémapi, avec ce plafond aujourd’hui à 40 euros, trop bas pour des élus que j’ai rencontrés. » À tous les niveaux de compétence, le méli-mélo de l’eau manque d’argent et de gouvernance vraiment claire.
L’État, bon coordinateur
Est-il donc nécessaire de transformer l’EPMP en EPTB pour augmenter sa capacité d’agir ? François Geay est le directeur de l’établissement. Nommé il y a dix-huit mois, il estime que son regard est encore neuf. « L’EPMP a été clairement créé avec l’idée de durée limitée. On doit réfléchir à l’avenir, et je ne sais pas quelle forme ça peut avoir. L’EPTB, c’est clairement l’option la première sur la table parce que c’est ce que la loi permet. » On n’en saura pas plus. M. Geay est plus dissert : « Quand je suis arrivé l’année passée, un président de CLE m’a dit que pour comprendre le fonctionnement de ce territoire, il faudrait faire un effort de 15, 20, 30 minutes de géographie. » Il lui a fallu beaucoup plus, reconnaît-il, « tellement le territoire est complexe : ici, on a un marais de 100 000 hectares, deuxième plus grande zone humide de France après la Camargue, qui est le réceptacle des eaux de bassins-versants qui font près de 640 000 hectares, et derrière il y a un territoire de bocage avec du relief plus marqué et un chevelu beaucoup plus dense de cours d’eau. » Le directeur de l’EPMP montre une carte, toute simple, celle des 8 200 km de canaux, avec une multitude d’ouvrages de retenue circonscrits par le contour des quatre bassins-versants – Sèvre Niortaise, Curé, Vendée et Lay. « Le territoire qu’on a sous les yeux, c’est 344 communes, 22 EPCI, 4 départements, 2 régions, 3 périmètres de Sage, 39 syndicats de propriétaires (ASA) et autres syndicats mixtes. » C’est parce qu’il y avait des tensions entre toutes les pièces de ce puzzle, que la parole se perdait, que l’EPMP a été créé. « C’est la prise de conscience dans les années quatre-vingt-dix, j’essaie toujours de voir le verre à moitié plein, d’un territoire qui n’évoluait pas favorablement, où les usages de l’eau étaient excessifs : on s’était mis à pomper pour irriguer sans freins, il y a eu une diminution de la surface en prairie, une céréalisation importante, le drainage de zones humides, et des pertes de biodiversité. Cela s’est traduit par une condamnation de la France auprès de la Cour de Justice de l’Union européenne, » en 1999 pour manquement de l’État à ses obligations de protection du Marais poitevin, condamnation à laquelle la Coordination pour la défense du Marais poitevin (CDMP), organisatrice de cette journée, n’a pas été étrangère. Les acteurs du territoire se sont ensuite ressaisis, des audits ont été réalisés, un plan d’action a été mis en œuvre entre 2003 et 2013. « À l’occasion de l’évaluation à mi-parcours de ce plan d’action pour le Marais poitevin, une des recommandations a été de dire qu’on avait besoin que l’État soit un peu plus présent, vienne nous remettre d’accord, nous permette à nouveau de nous parler. »
La loi Grenelle 2 a été l’occasion de créer cet établissement public. Ses fonctions ont été fixées par le décret du 29 juillet 2011, avec en particulier, on l’a compris, celle de créer un espace de dialogue, de médiation entre les différents acteurs, dans l’objectif de restaurer les fonctionnalités du Marais poitevin : la fonctionnalité circulatoire (le cheminement de l’eau, les crues), les fonctionnalités biologiques (l’expression de la biodiversité), et les fonctionnalités épuratoires naturelles des zones humides, tout en ne fâchant pas les activités économiques. Coordination, sans maîtrise d’ouvrage. La tête sans les bras ?
Pas tout à fait, conteste M. Geay, car « on a aussi une compétence foncière, à l’instar du Conservatoire du littoral et des établissements publics fonciers (EPF). On peut mobiliser les capacités de préemption. Notre vocation est d’être complémentaire des opérateurs fonciers, nombreux sur le territoire, des départements avec leur politique Espaces naturels sensibles [ENS], des Conservatoires des espaces naturels [CEN] également. On acquiert du foncier qu’on va mobiliser dans des opérations de mobilité foncière, d’échange, d’amélioration de l’occupation du sol, pour accompagner tout le travail lié aux règles de gestion de l’eau. » Un budget est dédié à cela, dans une enveloppe globale financée par le ministère de la Transition écologique et l’agence de l’eau Loire-Bretagne (une quote-part sur la redevance prélèvement d’eau).
L’EPMP a amélioré la gouvernance de l’eau dans le Marais poitevin. Mais est-il seulement lui-même bien gouverné ? Présidé par le Préfet de la région Nouvelle-Aquitaine, le conseil d’administration est composé de 45 membres. C’est beaucoup. Ils sont répartis en cinq collèges où l’État est prépondérant, mais pas majoritaire. « Tout le monde est représenté, les collectivités au travers des EPCI, les départements, les régions, les CLE, les Chambres d’agriculture, le Comité Régional de la Conchyliculture, les Fédérations de Pêcheurs, les associations de protection de la nature… et il y a aussi deux commissions consultatives où il y a encore plus de membres que le CA, également quatre groupes de travail géographiques ainsi que des comités de suivi au niveau des ouvrages hydrauliques. » L’EPMP a été conçu dans un esprit de subsidiarité : faire au maximum à l’échelle adéquate. Cela fait du monde à coordonner.
« On a cette impression d’un très très grand nombre d’intervenants, mais dans la réalité, ils ne sont pas si nombreux que ça et surtout, ils ont des rôles bien précis. Ce qui est très très important, c’est qu’on ne se superpose pas. » Personne ne se marcherait donc sur les pieds grâce à l’EPMP. Illustration avec l’irrigation.
François Geay est honnête, il admet que « les territoires n’avancent pas tous à la même vitesse car il y en a encore où le travail reste largement devant eux, parce que c’est beaucoup plus clivé chez eux, entre des acteurs qui n’ont pas toujours une connaissance suffisante de la manière dont fonctionne le territoire. » Il y a des gens de mauvaise foi, qui veulent l’eau pour eux seuls, et d’autres, majoritaires, qui n’ont tout simplement pas de temps à consacrer pour comprendre la complexité du Marais poitevin, de son eau, de sa biodiversité, de sa gestion, des enjeux, de son histoire. « C’est pour cela qu’on fait de l’expérimentation. Dans tout le travail que l’on mène sur les contrats de marais, on accepte de se tromper, de tâtonner. On cherche où se trouve la zone de convergence, la zone de compromis, et quand on l’a trouvée, on la teste, cela prend deux ans, trois ans, on valide et on ajuste. »
Yves le Quellec est un historique du marais, une de ses figures, un des deux organisateurs de la journée. Trente ans de combats pour conserver le pays afin qu’il aille mieux. Un militant écologiste dans le meilleur sens du terme, ni sectaire ni dogmatique, qui a mis les bottes quand il a eu l’impression que le marais était géré par un cercle d’initiés. Il est de ceux qui avaient porté plainte à la Cour de Justice européenne. Il s’est à une époque beaucoup engueulé avec James Gandrieau. « Une chose miraculeuse, si je peux dire, ça a été la création de cet établissement public. On portait une idée de ce genre depuis très longtemps, nous, la Coordination. L’EPMP peut être vu comme une surcouche mais c’est l’organe aujourd’hui qui réunit les missions de la gestion de l’eau et de la biodiversité. Il y a quinze ans, c’était quand même très novateur. » Historien du marais, Yves Le Quellec narre un univers où tout le monde s’est toujours foutu sur la gueule. « Il y a une conflictualité inhérente au territoire, c’est comme cela. Cependant, les années de grandes bagarres, entre les questions environnementales et le productivisme agricole par exemple, semblent loin, ce qui ne veut pas dire que tout a été résolu, que tout va bien, mais objectivement, je pense que les choses ont évolué. » Ce que d’après Yves nombre de ses collègues écolos n’ont pas vu ou ne veulent pas voir, coincés qu’ils sont dans une « espèce de faille spatiotemporelle des années quatre-vingt-dix, » qui justifie leur radicalité, c’est-à-dire eux-mêmes : une association peut-elle un jour dire que les choses vont mieux dans la mesure où elle a été fondée sur l’adhésion de membres au « tout va mal ? » Il semblerait que non.
La course au maïs
Sophie Devienne est professeure d’agriculture comparée à Agro Paris tech. Elle s’est penchée sur une question toute bête : est-ce que l’eau, ici, dans le Marais poitevin, permet au moins de créer de la richesse ? « L’idée, c’est d’avoir une approche globale, pluridisciplinaire, de mobiliser à la fois l’histoire, l’agronomie, la zootechnie, l’économie, pour essayer de comprendre les politiques agricoles, les transformations des systèmes de production agricoles. » Des enquêtes ont été conduites durant six mois auprès d’une cinquantaine d’agriculteurs installés dans les bassins-versants de l’Autise, du Curé, de la Courance-Mignon et de la Boutonne. Ils ont été regroupés par systèmes de production – des exploitations qui ont à peu près les mêmes ressources, les mêmes surfaces, le même niveau d’équipement, le même type de main-d’œuvre, les mêmes itinéraires. Résumons grossièrement : au nord du Marais, les paysans ont les pieds sur un calcaire karstique, une nappe fissurée et discontinue qui échange très rapidement avec les cours d’eau, alors qu’au sud, les bottes se posent sur un substrat globalement imperméable, dont l’eau, contenue entre les fissures, constitue un réservoir assez faible lui aussi en communication directe avec les cours d’eau. En définitive, « la capacité de stockage dans le milieu est très faible », ce qui conduit la chercheuse à une réflexion iconoclaste : « quand on entend qu’il faut laisser l’eau dans le milieu, je suis d’accord… mais le milieu… il n’a pas ici une capacité de stockage très importante ! »
Maintenant, regardons l’histoire. Jusqu’aux années 1950, toutes les exploitations pratiquaient la polyculture élevage, les rotations culturales faisaient alterner des céréales avec des plantes fourragères, légumineuses ou plantes sarclées (pommes de terre, carottes par exemple). Le sol était couvert en permanence et enrichi par le fumier constitué à partir des déjections des vaches ou chèvres laitières, des chevaux de trait, porcs et volailles. Il fonctionnait bien, faisait son office en matière de rétention d’eau, le besoin de fertilisants était faible. Comme partout, tout a changé au cours de ces années 1950 et 1960. Les engrais arrivent en même temps que les engins agricoles, les clôtures électriques, les pesticides et la sélection génétique. Le maïs fait son apparition, mais il reste discret, uniquement sur les terres les plus profondes. « Dès lors, le système va évoluer autour de l’intensification du système de polyculture élevage. On a toujours cette articulation entre les deux, mais avec un développement important de la production laitière. Les rotations sont encore longues alors qu’un facteur démographique entre en jeu : « un processus d’agrandissement des exploitations commence, il est lié à la reprise des terres des exploitations les plus petites, dont les enfants cessent l’activité pour partir travailler en ville. »
Seconde étape, la spécialisation. Nous sommes entre les années 1960 et le début des années 1970. La moissonneuse-batteuse se généralise en grandes cultures tandis que l’élevage est bouleversé par la possibilité de s’équiper d’une salle de traite et d’une stabulation. Comme cela coûte très cher, se renforce le mouvement général de regroupement des parcelles, et les exploitants qui investissent sont poussés à se spécialiser pour rentabiliser encore mieux. « C’est pour ces raisons que le maïs s’est développé. C’est pour lui que l’on commence à drainer les plaines alluviales, et que l’on démarre les pompages en rivière et les tout premiers forages pour irriguer. » Pour quels bénéfices ? Sophie Devienne a suivi l’évolution relative des prix des produits agricoles et ceux des moyens de production utilisés par les agriculteurs de 1970 jusqu’à aujourd’hui. « Ce qui frappe dans les courbes, c’est le ciseau : les produits agricoles diminuent de manière très importante en valeur – en monnaie constante, c’est-à-dire corrigée de l’inflation, alors que le prix des consommations intermédiaires [l’essence ou les engrais par exemple] se maintient et que celui des machines et biens d’équipement ne cesse d’augmenter. » Ce coup du ciseau explique l’accélération de la course à l’agrandissement et à la spécialisation des exploitations, pour tenter de maintenir sa marge, voire, de gagner un peu plus. « Les politiques publiques vont pousser à cela, même si, » insiste Sophie Devienne, « il n’y a que les agriculteurs ayant les capacités d’investir qui vont être capables de suivre. Beaucoup sont laissés au bord de la route. Entre 1950 et aujourd’hui, une exploitation sur sept seulement est encore en activité ! » L’inévitable spécialisation a pour conséquence l’abandon de l’élevage par les plus grandes exploitations, au profit exclusif des grandes cultures irriguées (maïs, blé, orge), et dans le marais desséché ou en fond de vallée, la monoculture de maïs. « Les exploitations de taille moyenne vont plutôt se tourner vers des productions qui permettent de dégager plus de richesses par unité de surface, plus intensives en travail, comme le bovin lait avec salle de stabulation et salle de traite pour les fermes sur les sols les plus profonds, caprin lait pour les autres. » Vous l’aurez compris, les plus petites structures en resteront à la polyculture élevage.
L’ère du pompage est révolue
L’histoire continue, et c’est la troisième phase, l’irrigation.
De la sécheresse de 1976 jusqu’à la loi sur l’eau de 1992, elle est systématisée. Le ciseau des prix qui pousse les agriculteurs à produire plus pour maintenir leurs revenus et avoir une chance d’installer un de leurs enfants rend enviable « des équipements d’irrigation individuelle qui arrivent sur le marché, qui sont fiables, financièrement accessibles. Certes, il n’y a à cette époque pas de subvention pour l’irrigation, mais il y a des crédits à taux bonifiés qui vont encourager ce mouvement-là. En revanche, il y a des subventions pour le drainage du marais. » Les agriculteurs se sont agrandis, ils se sont mécanisés, ils se sont spécialisés, ils vont devenir irriguant. Pas partout néanmoins, car l’irrigation est fonction de la localisation (devoir tirer des kilomètres de canalisation depuis un forage n’est pas très rentable), et de la capacité d’investissement – vu qu’il n’y a pas de subvention. Cela exclut la plupart des exploitations. Dans un premier temps c’est le maïs qui bénéficie de toute cette eau, puis le tournesol et la luzerne, d’autant plus rapidement que les quotas laitiers incitent à (sur) produire. Effet pervers, les exploitations exclues de l’irrigation se spécialisent encore plus en grande culture « en sec » sur les terres argilo-calcaires des plateaux, et s’agrandissent toujours plus pour créer de la valeur ajoutée. « Or, plus les exploitations s’agrandissent, plus elles ont tendance à laisser tomber l’élevage pour se tourner vers les grandes cultures et la simplification des rotations. » Tout cela grâce au développement de l’irrigation qui s’est fait sans véritable politique de gestion de la ressource, et va conduire à des « tensions sur l’eau » dès la sécheresse de 1989.
La loi sur l’eau de 1992 impose un changement radical, avec l’obligation dans chaque bassin-versant d’avoir une gestion équilibrée de la ressource entre les différents usages. Depuis, nul ne peut plus, en principe, pomper ou forer comme il veut, il faut déclarer, demander une autorisation, se voir allouer un volume maximal, installer un compteur. Les zones où l’eau manque le plus sont déclarées en zones de répartition des eaux (ZRE), où l’usage peut être réduit ou interdit. « C’est la fin de l’expansion de l’irrigation, et puis c’est la mise en place autour du Marais poitevin d’une réduction progressive des volumes pour tenter de retrouver un niveau d’eau suffisant dans les rivières en été, avec en contrepartie un programme de construction de réserves de substitution. »
L’irrigation, indispensable et inégalitaire
Sophie Devienne nous parle du Curé pour évoquer un autre effet pervers de l’irrigation. Ce petit fleuve s’écoule (et déborde) au sud du Marais jusqu’à la mer. « Les volumes autorisés ont subi une diminution rapide depuis les années 2000, on a donc demandé aux agriculteurs de faire des économies d’eau. Or, ce qu’il est important de comprendre, c’est que ça a figé la situation et les inégalités : un petit nombre d’agriculteurs avait réussi à faire des investissements pour accéder à l’eau, désormais, il n’y a plus possibilité de faire de nouveaux forages, il n’y a plus de nouveaux entrants en irrigation, à moins de racheter une exploitation qui a déjà des autorisations… » À cette inégalité fixée par le temps zéro de la nouvelle règle, s’en est ajoutée une autre car les autorisations en volumes qui obligeaient à faire des économies ont été établies sur la base d’une référence pour chaque agriculteur, ce qui le désavantageait s’il était déjà sobre. « La loi ayant figé les situations acquises, elle a été génératrice d’inégalités. » Néanmoins, elle a poussé les agriculteurs à faire des efforts. Le volume utilisé pour un hectare de maïs est passé de 3000 à 2500 m3, voire 2 000 m3, qui plus est dans un contexte où la PAC maintenait ses aides aux céréales et oléoprotéagineux irrigués, alors que l’agroalimentaire commençait à mieux valoriser des cultures irriguées à forte valeur ajoutée tels que le haricot vert, le maïs semence, le tournesol, les céréales à paille, l’orge de brasserie ou encore le blé dur. « On voit dès lors le maïs reculer chez les irriguants, qui se tournent vers ces cultures pour compenser le fait qu’ils ont moins d’eau. Les autres, qui n’ont pas accès à l’irrigation, se tournent plutôt vers l’élevage avicole hors sol, l’élevage caprin ou l’agriculture biologique. Sinon, partout recule l’élevage bovin, au profit, notamment sur les plateaux très étendus, du colza, du tournesol, du blé et de l’orge sur des exploitations qui s’agrandissent rapidement. »
Quatrième étape de l’histoire racontée par Sophie Devienne, la loi LEMA de 2006 avec son obligation de retour au bon état des eaux. Nouvelle diminution des volumes autorisés, en partie compensé par la construction conflictuelle de réserves de substitution. « Ce qui est clair, c’est que partout où elles ont été construites, elles ont surtout bénéficié aux agriculteurs qui étaient déjà irriguants. » 2006, c’est aussi le découplage des aides PAC : elles ne sont plus proportionnelles aux quantités produites, mais versées en fonction d’une référence historique, la moyenne des aides perçues entre 2002 et 2006. « La conséquence est que les agriculteurs qui avaient touché des aides pour des cultures irriguées vont toucher encore alors même qu’ils se sont mis à faire d’autres cultures. »
L’irrigation a décidément amplifié les inégalités entre agriculteurs. Mais pour tous, cependant, un autre facteur va encore accentuer la difficulté d’accéder à l’eau : l’explosion du prix de l’électricité qui ne favorise pas l’usage des pompes d’irrigation. Il y a beaucoup de courant dans l’eau. « De 2010 à 2023, le coût de l’électricité n’a cessé d’augmenter. En revanche, le prix du maïs a évolué très défavorablement. Logiquement, partout où l’eau est sécurisée par des réserves, on a une palette de cultures irriguées potentielles qui est plus large. » Les agriculteurs se sont adaptés en modifiant leurs rotations, en optant pour une irrigation d’appoint, avec moins de « tours d’eau » au printemps, et uniquement sur certaines cultures. « Mais depuis les années 2010, la période est beaucoup plus difficile parce qu’on a un ciseau des prix qui est extrêmement défavorable avec des prix des céréales globalement bas. On a également une poursuite très rapide de la concentration de la production en sec, avec l’agrandissement des exploitations restantes, et le recul de l’élevage. » Sophie Devienne constate aussi le développement très rapide du travail à façon : des entrepreneurs qui travaillent sur des surfaces « en sec » de plus en plus grandes, 500, 600, 700 hectares.
Le bio et l’élevage favorisés
« La main-d’œuvre agricole irriguante représente à peu près 47 % des actifs sur tout le bassin du Marais poitevin, 30 % des exploitations : il y a deux fois et demi plus d’actifs chez les irriguants que chez les non-irriguants, » nous éclaire Frank Michel, chargé d’études Économie et Prospective à la Chambre régionale d’agriculture de Nouvelle-Aquitaine. « Et dans la mesure où l’on concentre la valeur ajoutée sur moins d’hectares, la taille moyenne des exploitations des irriguants est plus petite dans tous les bassins que celle de ceux qui sont restés en sec, sauf dans les systèmes céréaliers où c’est assez similaire. » Gagnent-ils leur vie ? Frank Michel a regardé les comptes. « On calcule la valeur ajoutée brute, soit les ventes moins ce qui sert à produire, engrais, semences, traitements, gazole, et ainsi de suite [les consommations intermédiaires]. On enlève la dépréciation des équipements, qui sert à renouveler le matériel, et on tombe sur la valeur ajoutée qui représente la richesse créée pour l’agriculteur, mais aussi pour le territoire, parce que c’est ce qui va rester pour ensuite payer les salaires quand il y a de la main-d’œuvre extérieure, les intérêts d’emprunt du capital, et les fermages. Enfin, on rajoute les subventions, et on arrive sur le revenu agricole. » Le résultat n’est pas folichon. En 2022, un hectare de maïs a dégagé environ 770 euros. Aujourd’hui, simulé, ce serait 600 euros. C’est à peu près autant que le blé tendre qui a besoin de trois à quatre fois moins d’eau à l’hectare. Le ciseau des prix et la hausse du coût de l’eau ont eu raison du maïs. « En fait, ce sont les systèmes d’élevage sans irrigation qui génèrent le plus de valeur ajoutée à l’hectare. À l’inverse, en culture, les blés, colza, orge, tournesol, cultivés sans irrigation – système le plus présent sur le Marais poitevin, créent le moins de valeur ajoutée à l’hectare. » Le seuil de viabilité d’une exploitation irriguée sur des terres à faible potentiel se situe au-dessus de 100 hectares, et même 150 pour les céréales.
Un niveau qui ne peut que remonter car les volumes d’eau autorisés en été pour l’irrigation sont amenés à diminuer. Selon les scénarios inscrits dans les PTGE, cela serait de l’ordre de moins 40 % à 70 % sur tous les bassins d’ici 2027 ! « L’irrigation a permis de maintenir des exploitations agricoles, elle a permis le développement de filières à haute valeur ajoutée, beaucoup en bio [en légumes de plein champ ou secs, 80 % des exploitations irriguées sont sous label AB], particulièrement là où l’eau était sécurisée. Il y a une diminution de la ressource d’un côté et une diminution des volumes autorisés de l’autre. Mais à côté de ça, il y a aussi un accroissement des besoins de l’agriculture avec le changement climatique qui modifie le régime des précipitations et augmente l’évapotranspiration. Que faire ? »
Sophie Devienne a trouvé des réponses dans le Marais poitevin. Des gens qui ne font plus du tout de maïs irrigués, qui utilisent leur petit quota d’eau pour arroser de manière systématique des productions à forte valeur ajoutée sur de petites surfaces, ou à très faible dose sur des espèces cultivées en sec, mais aussi pour démarrer des couverts en été. « Ces nouvelles stratégies d’irrigation sont aussi agroécologiques. Ce sont des systèmes qui sont plus autonomes et économes, avec moins d’intrants et plus de valeur ajoutée par hectare. » Allongement des rotations, variétés qui ont moins de besoins, stockage de l’eau par toutes les manières possibles. Par les sols, surtout ! Moins souvent labourés, travaillés de manière superficielle, donc moins tassés et mieux structurés, couverts en permanence, plus riches en matière organique les sols augmentent leur réservoir utile en eau. « Dès lors que son accès est sécurisé sur toute la période estivale, l’irrigation permet d’une part de limiter la baisse du nombre d’exploitations agricoles, surtout celles avec un élevage de ruminants, d’autre part de développer des cultures sous contrat à forte valeur ajoutée et rémunératrices, notamment en agriculture biologique. Comme on le constate déjà depuis au moins dix ans, la valeur ajoutée créée par m3 d’eau sera l’arbitre : les irriguants vont encore plus rechercher une meilleure efficience économique de l’eau, et donc continuer à maintenir l’élevage, passer en AB (ou sous démarche « production locale ») et diversifier les cultures irriguées selon les contrats des filières alimentaires ou de semences. »
L’eau est une paysagiste
L’irrigation a eu des effets pervers que le temps a commencé à corriger. Sans elle, il n’y aurait plus beaucoup d’agriculteurs, il y aurait peu de légumes et sans doute aucun exploitant installé en bio. Les paysages auraient changé.
Alexis Pernet les regarde. Il est professeur à l’École nationale de paysage de Versailles (ENSP). « Ma formation d’architecte-paysagiste a été créée en 1945, dans un contexte dramatique, avec des paysages à reconstruire. » Il fallait tout refaire, y compris recréer des paysages en entier. Pour autant, « les Trente Glorieuses qui ont suivi ont apporté leur propre lot de dégradations, de reconfiguration des territoires, très souvent sur le principe de la table rase, c’est-à-dire sans une réelle prise en compte des substrats, de l’histoire longue des paysages, de ce « palimpseste », c’est-à-dire de ce parchemin sans cesse écrit et réécrit, que sont nos paysages. » Ici dans le Marais poitevin, le palimpseste remonte à l’arrivée des hommes qui ont dû faire avec l’eau, et progressivement gagner sur son emprise.
Alexis Pernet vit ici, tout en enseignant là-bas, la définition même du « turboprof inversé », selon lui. Le travail sur le paysage a commencé sous l’égide du Parc naturel régional, dans le marais mouillé. « C’est le grand Plan paysage qui à partir de 2016 a conduit en presque dix ans à la replantation de plus de 100 km d’alignements sur le long des multiples canaux du marais et à la diversification de la trame arborée pour faire face notamment à la problématique de la chalarose du frêne. » Classique, pourrait-on dire. Plus paysager, ose-t-on, est le travail sur les digues, « les levées fluviales qui sont des ouvrages capitaux, parce qu’ils font la séparation historique entre les marais mouillés et les desséchés. Ce sont des œuvres d’ingénierie qui ont accompagné le premier capitalisme agraire, que l’on connaît moins sous l’angle paysager, alors que beaucoup de ces levées fluviales sont aujourd’hui classées, et donc, protégées. » Troisième terrain de jeu du paysagiste, les retenues de substitution, faussement renommées grandes bassines. Celles de Sainte-Soline par exemple, qui avaient fait l’objet, un temps, d’un accord entre toutes les parties, le fameux Protocole, devenu fantôme suite à son abandon par certains. « J’ai fait partie du conseil scientifique et technique, une expérience difficile. Le paysage en tant que tel avait été négligé, dans une période où on a été plutôt guidé par des solutions techniques de stockage de l’eau. » Ailleurs, cela dit, c’était pareil. Alexis Pernet a monté des ateliers sur des sites où devaient se bâtir des réserves, il a apprécié « l’interconnaissance » qui en est ressortie, le croisement des disciplines. Par contre, il a été frustré de l’absence de réflexion paysagère : « ce n’est pas qu’on n’avait pas d’idée, je crois que c’est surtout le cheminement de l’idée vers l’action sur lequel beaucoup d’acteurs ont calé. Faute de méthodes, on n’a pu déboucher sur des actions pérennes et lisibles pour le grand public, pour les associations, les partenaires, etc. »
La frustration permanente des paysagistes : comment traduit-on une idée, comment met-on en œuvre une intention sur le terrain ? Pour trouver des réponses, Alexis Pernet s’est tournée vers la zone atelier Plaine & Val de Sèvre. Une zone atelier est une « unité fonctionnelle » (un fleuve, un marais, une chaîne de montagnes…) sur laquelle divers laboratoires conduisent des recherches pluridisciplinaires. Il en existe 16 en France (métropole et outre-mer). Pilotée par le chercheur Vincent Bretagnolle, directeur de recherches au CNRS et de la station biologique de Chizé, la zone atelier numéro 10 qui a intéressé M. Pernet couvre 450 km2 – 24 communes, 40 villages, 435 fermes, et travaille sur l’évaluation des nouvelles pratiques agroécologiques et alimentaires. Le Marais poitevin est en dessous : la zone atelier se trouve en tête de bassin. « On réfléchit à cette tension qui n’était pas résolue entre la volonté de réponse technologique pour stocker l’eau, et cet horizon un peu plus difficile à atteindre, plus diffus, pas forcément nouveau, mais en tout cas difficile à partager à une très large échelle, de solutions fondées sur la nature, de mesures naturelles de rétentions d’eau, c’est-à-dire qu’on réfléchit à la manière dont on peut faire jouer au paysage un rôle hydraulique. » Ce qu’Alexis Pernet appelle les paysages éponges parce que les sols sont des réservoirs.
Ne rem-pa-rez pas !
Non que tous les paysages du Marais poitevin soient en capacité permanente de garder de l’eau, tant s’en faut, mais ils peuvent jouer ce rôle à certains moments, sous certaines conditions de sols, de climat, d’aménagement urbain, de conduites de culture et d’élevage. « Je suis parti sur l’objectif non pas d’inventer à moi tout seul ce qu’était un paysage éponge, mais de questionner les conditions qui font que, sur une exploitation donnée, à son échelle ou à celle d’un territoire plus large, on puisse déployer de façon plus coordonnée, et maîtriser, planifier la mise en œuvre de solutions fondées sur la nature. Et j’ai commencé, comme tout bon paysagiste en tout cas, à arpenter le territoire, à le regarder, à le dessiner. » Pour montrer, développer un langage cartographique de la transition agroécologique accessible à tous. Des cartes et des coupes qui disent plus que de longs discours, selon Monsieur Pernet, mais qui restent à faire, car les dernières coupes, « magnifiques », datent des années 1980. « On a choisi de travailler à partir des données fournies par les agriculteurs eux-mêmes quand ils font leur déclaration PAC et quand ils nourrissent ce fameux registre parcellaire graphique, le RPG. On a choisi d’essayer de coller sur cela une symbologie, c’est-à-dire des couleurs qui parlent de paysages, d’atmosphères, de sensations qu’on a face aux plaines, aux marais. » Elles sont belles, mais leur lecture reste
difficile car cela nécessite d’être capable de voir en trois dimensions, de se repérer à partir d’un aplat plein de symboles et de couleurs peu tangibles. « On a fait en sorte que nos cartes puissent être utilisées à deux échelles conjointement, c’est-à-dire qu’elles soient lisibles à l’échelle du territoire, du bassin-versant, de très loin, dans des situations véritablement de lecture des paysages ; mais aussi qu’à l’échelle d’une ferme, on puisse s’en servir pour projeter des transformations en termes de maillage agroécologique. »
Autre écueil que déplore le paysagiste, la tendance de tous à s’enfermer avec ses semblables, sur un paysage réputé à soi, ce que le paysagiste dit de manière plus imagée : « j’appelle cela le remparement social, qui est un facteur d’aggravation des crises environnementales. Je le dis à chacun, ne faites pas des frontières, faites des marges ! » Les marges sont des barrières peu solides que l’on peut passer assez facilement, après avoir discuté et proposé. À l’inverse, les remparements peuvent être les « réserves de substitution, mais aussi ces paysages où on n’a plus le droit d’aller, des chemins ruraux où on ne veut plus d’accès parce que des agriculteurs les ont intégrés à leur exploitation. Non, faites des marges, faites des lisières épaisses, des choses un peu incertaines, des entre-deux, y compris dans les grandes organisations gestionnaires de l’eau, faites des espaces institutionnels où l’on puisse avoir une porosité d’échanges, entre des gens de statuts bien différents… Ne vous remparez pas dans la gestion purement technique et technologique de l’eau. » Mal lues, les cartes paraissent être des puzzles d’espaces séparés par des fossés ou des montagnes. Apprivoisées, complétées par des coupes, elles montrent les interfaces réelles et possibles.
Moins on en a, mieux on l’utilise
Agriculteur et irriguant, Simon Berland a son mot à dire. Il s’est installé Langon en 2006, en bordure du Marais poitevin, à la fois sur le marais mouillé (élevage sur prairies naturelles) et sur la plaine où il cultive en bio depuis 2010. Il est aussi président d’une structure qui commercialise des légumes secs, en direct et pour des cantines, magasins et quelques industriels (LSBV, Légumes Secs Bio de Vendée). « On a eu la chance de commencer cette aventure avec des acteurs historiques de la bio qui nous ont bien soutenus. Globalement les prix n’ont pas baissé, par contre nous aussi on est bien dans le ciseau des charges qui ont vraiment augmenté. Il y avait les charges d’irrigation, mais il y a aussi toutes les charges de semences. On a baissé nos marges, forcément. » Sans irrigation, pourrait-il produire ? « En réalité, en agriculture bio, on n’a plus la béquille de la chimie, alors on est obligés de réfléchir à la rotation. À mettre en place une rotation longue, avec des légumineuses, diversifier les assolements avec notamment une alternance cultures d’été, cultures d’hiver, cultures de printemps, ce qui nous facilite la vie sur la gestion des problèmes de maladies et d’enherbement dans les champs. L’accès à l’eau a été une simplification pour nous. » L’eau a été la cerise sur le gâteau d’une modification en profondeur de ses itinéraires de culture. De l’eau aspergée, pulvérisée par des pivots et des rampes, car l’assolement que Simon Berland a mis en place est tellement long et diversifié qu’il empêche d’enfouir des tuyaux pour faire le goutte-à-goutte et que certaines parcelles peuvent se retrouver sans devoir être irriguées durant cinq ans. « Sans irrigation, on serait moins diversifié, on ferait moins de valeur ajoutée, c’est certain. » Dans un Marais poitevin demain sans irrigation, « il y aurait l’agrandissement des fermes, la simplification des assolements, et le retour à de la chimie… » À bon entendeur anti-retenues d’eau, salut !
L’eau décidera de l’avenir, lequel convoque l’histoire que connaît un peu Frank Michel. « Ici, il y a eu un moment où il n’y a eu que des vignes, jusqu’à il y a 150 ans. Ensuite, il n’y a eu que du lait. Et maintenant, il n’y a que des céréales. Il y aura toujours des grandes exploitations. Tout l’enjeu, ce sont les interstices entre elles : comment faire revivre ou subsister d’autres types de productions, d’autres façons de produire ? » En aidant les agriculteurs, a priori : c’est bien joli de faire des Plans d’alimentation territoriaux (PAT), des tables rondes, de prononcer des grands mots, ça n’est rien tant que ce n’est pas suivi d’actes concrets. « Si le relais de la consommation ne suit pas chez le public, c’est aux collectivités d’assurer leur rôle territorial. Or, malgré les discours, elles n’achètent pas plus, » déplore Simon Berland. Ce que reconnaît François-Marie Pellerin, observateur historique du Marais poitevin et président du CDMP. Face au changement climatique qui risque demain de priver temporairement d’eau le Marais, il faut faire feu de tout bois : solutions techniques et fondées sur la nature, ensemble. « C’est grâce à ce mix-là qu’on arrivera à répondre à la survie d’un milieu, d’un paysage, en phase avec la polyculture, aux questions fondamentales sur le partage de l’eau sécurisée. Mais chaque réponse a sa temporalité, » et nécessite de se réunir, de s’écouter… sur le terrain : « c’est ce qu’on avait fait lors des ateliers dans le cadre du Protocole. Devant les paysages, devant le fait d’être forcé de lire les paysages et de dire ce qu’on veut en faire, on arrive à trouver, à travailler à des convergences. »
Surtout si l’on est contraint, a pu constater Sophie Devienne dans le bassin Adour Garonne. Là-bas, selon elle, « les agriculteurs qui ont les plus petits volumes d’eau sont ceux qui la valorisent le mieux. Plus on est sur des exploitations grandes, qui ont des volumes très importants, moins la valorisation de l’eau est importante parce qu’on simplifie les itinéraires. » Avec cette aberration paradoxale d’avoir ici et là creusé des retenues collinaires parfois surdimensionnées. « Demain, il n’y aura pas beaucoup d’eau, il va falloir la partager, il faut ce filet de sécurité, mais ce que montrent tous les résultats dans le bassin Adour Garonne, c’est que plus la répartition est égalitaire, plus l’utilisation est efficace sur le plan économique. » Ne pas reproduire les inégalités figées par l’interdiction de l’irrigation libre, après que celle-ci a pu profiter aux plus gros irriguants… sans qu’ils aient aujourd’hui besoin de toute l’eau à leur disposition. « Il y a des gens qui avaient des gros volumes et qui les ont abandonnés parce qu’ils s’étaient agrandis tellement qu’ils n’ont plus le temps de s’occuper de l’eau stockée ! » La question essentielle est de savoir pour qui l’on veut stocker de l’eau, et pour quoi faire.
Il y a dans le Marais poitevin une commission de répartition des prélèvements. Tous les syndicats agricoles y siègent. « Quand on a des baisses de volume drastiques d’une année sur l’autre, il y a des zones où on ne touche pas les volumes de moins de 20 000 m3. C’est-à-dire qu’il y a une meilleure répartition qui se fait par défaut. Il n’y a que ceux qui ont des gros volumes qui subissent des baisses, et ceux qui ont un peu moins ne les subissent pas. Et ça va dans le sens, très objectivement, de l’efficacité dont parle Sophie » précise Frank Michel. Jusqu’en 2000, 80 % des surfaces irriguées étaient cultivées en maïs, aujourd’hui c’est entre 50 et 60 %, et si la tendance se poursuit, cela devrait être divisé par deux d’ici 2050.
Changer de discours
Président du conseil scientifique et prospectif du Parc naturel régional du Marais poitevin, Patrick Steyaert était accompagné de son président, Pascal Duforestel. Ensemble, ils ont écouté les débats de cette journée, qui leur ont inspiré quelques réflexions. « Il y a un politiste que j’aime bien qui s’appelle Pierre Muller, », démarre M. Steyaert, citant ce directeur de recherches au CNRS adepte de l’approche cognitive de l’action publique, « il a dit il y a déjà 15 ans que les politiques publiques françaises vivaient un moment de désectorisation et de re-territorialisation. Si ici, dans le Marais poitevin, on a un puzzle à l’œuvre plutôt qu’un millefeuille c’est justement parce qu’il y a eu des cadrages de l’action publique qui ont été désectorisés. » Le haut de la pyramide a adapté ses demandes à l’échelle territoriale. Moyennant quoi il a laissé aux collectivités le soin d’essayer de s’agencer, de s’accorder, de se coordonner, le Marais en est la démonstration. Pour autant, la désectorisation à la Pierre Muller n’est pas parvenue à relier les politiques agricoles avec les politiques environnementales, « ni au niveau européen, ni au niveau national, et donc non plus au niveau local. » Les deux interlocuteurs regrettent en conséquence l’irresponsabilité majeure des politiques à ne pas avoir su ou voulu organiser la conception de l’action publique de manière plus intégrée entre des enjeux qui peuvent paraître contradictoires et sont pourtant complémentaires. La fameuse « transversalité », tarte à la crème de tous les débats depuis des années, que chacun appelle de ses vœux tout en se refusant de la mettre en œuvre, car elle oblige à sortir de son bureau.
Pourtant, on y arrive ici et là à l’échelon local où s’observent des recompositions sociales, dont j’atteste la réalité et l’accélération, sur tous les sujets et en particulier l’eau : des gens qui n’étaient pas habitués à causer entre eux se mettent à le faire, ils échangent et découvrent lors de réunions publiques, d’ateliers ou de tables rondes que l’autre, pourtant d’avis opposé, n’est pas un ennemi. Le manichéisme recule lorsqu’on prend le risque de l’empathie c’est-à-dire d’être surpris. « Quand vous êtes engagé dans ce type de processus, vous avez des cadres de pensée qui évoluent parce que vous êtes confronté au point de vue de l’autre, vous êtes confronté à des problèmes concrets et votre conception de ce qu’est la réalité ou de ce qu’elle devrait être bouge et évolue, » analysent les deux représentants du Parc naturel régional.
Sainte-Soline ne représente en définitive qu’une théâtralisation politique et médiatique pour les besoins de quelques-uns, ce qui s’y est passé n’est pas le reflet de la réalité des discussions à l’échelle où l’eau se gère. C’est heureux à entendre alors que les chargés de l’eau sont confrontés à une complexité nouvelle amenée par le changement climatique. « Ça bouge tout le temps et il y a quelque chose qui est totalement irréductible, c’est l’incertitude. Et ça, c’est quelque chose, car on a l’habitude de gérer en fonction de certitudes. » L’imprévisibilité croissante du climat comme des ressources naturelles vient heurter la façon de faire de la politique dans les pays occidentaux, basée sur la connaissance scientifique dans le but de « mettre en conformité le réel avec ce qui est connu, » parfois juste pour balayer les problèmes sous le tapis : lorsque le taux de nitrates dépasse la norme sanitaire, on a plus vite fait de mélanger l’eau de la rivière avec de l’eau de la station d’épuration pour diluer, que d’en chercher les causes. Avec tant d’incertitudes, on ne sait plus trop comment faire, ce qui peut conduire à prendre des décisions d’affichage, « et cela fait naître des controverses, » et des conflits stériles comme Sainte-Soline.
Profitons-en, en fait, rebondit M. Steyaert : « il faut au contraire faire de la controverse une possibilité de productivité sociale, il faut l’explorer en la décortiquant, en la déconstruisant, pour voir ce qui est connu et ce qui ne l’est pas, pour faire bouger aussi les cadres d’interprétation et les cadres de pensée des gens qui participent à cette exploration, » afin de produire un discours différent, adapté à la réalité. Seul capable de s’opposer aux discours explosifs, simplistes et faciles qui ne mènent nulle part si ce n’est sur les plateaux télé. Le problème d’un discours complexe est qu’il nécessite plus d’attention, car il n’est pas toujours tangible pour le grand public. Dévoiler les sources de pollution aux nitrates pour expliquer comment on réduira le problème sur le long terme car il faut à la fois interroger les itinéraires agricoles et radiographier l’ensemble de la pollution diffuse et ses 500 molécules embêtantes n’est pas aussi facile à comprendre que la désignation d’un responsable unique, l’agriculteur par exemple, et une réponse simple, la suppression de l’élevage porcin. Et à l’inverse, que Bruxelles ou les écolos sont responsables des plaies d’Égypte.
Le « narratif », comme il faut dire aujourd’hui, ne peut plus être le même. Ou comment (mieux) raconter les temps qui viennent sans tomber dans le piège de l’eschatologie (le catastrophisme), du déni ou de la croyance en une technologie salvatrice. Pour cela, « il faut d’autres types de compétences, de médiation, d’accompagnement, il faut mobiliser les connaissances autrement, pas simplement pour prescrire, mais aussi pour accompagner, pour aider à construire problèmes et solutions. C’est toute une autre manière de penser, » à laquelle nous invitent Messieurs Steyaert et Duforestel… qui vantent les mérites relationnels des parcs naturels régionaux, où l’on sait faire de la médiation territoriale et même, de l’expérimentation. Ce n’est pas faux.
Pourquoi parler d’environnement aujourd’hui ? Le sujet semble lointain alors que la guerre est proche et que le désastre politique se poursuit. La France n’a plus grand-chose à dire au monde, l’État s’effrite, l’insécurité et la revendication des individualités érodent la Nation, l’Assemblée nationale s’est réduite à une guerre de partis, l’Europe se gâche devant ses ennemis et faux amis, et il faudrait alerter encore sur la crise de la biodiversité ? L’iniquité progresse, et il s’agirait de défendre les ZFE ? L’Occident se fissure et il serait bon d’inquiéter à propos du climat ? Oui. Pour trois raisons : la première est que cela n’ira pas mieux en faisant comme si les sujets d’environnement étaient accessoires ; la seconde est que le danger de ne pas chercher de réponses stratégiques aux questions d’écologie est du même ordre de grandeur que celui porté par la crise de la dette et l’évolution géopolitique ; la troisième est qu’en dépit des critiques et des postures, la transition est bien amorcée grâce aux collectivités locales. Il y a le théâtre à Paris, il y a une réalité de l’action ailleurs, il y a aussi des faits qu’on a l’habitude en France de balayer sous le tapis mais qui sont tenaces. L’écologie n’est pas une lubie de bobos occupés à nuire aux gens, elle est une nécessité. Mieux : une sauvegarde de la politique., un renouveau de la social-démocratie. Exemple au nord de l’estuaire de la Gironde. À la demande de la Communauté d’agglomération Royan Atlantique (CARA), j’ai lu tout ce que j’ai pu trouver sur elle afin de lui dire comment je la voyais demain. Ce n’est pas un audit mais une enquête, une réflexion de journaliste spécialisé. C’est un long texte, que voici.
La politique est décidément le reflet de la société. Inconstante comme le temps est devenu instable. Nous vivons dans un monde qui était tranquille, météo prévisible, guerre froide puis « dividendes de la paix », et ne l’est déjà plus. Un monde qui sera de plus en plus surprenant, car brutal.
Il y a désormais tant de dioxyde de carbone dans l’atmosphère que celle-ci est tout agitée. Quand on communique un surcroît d’énergie à un fluide, air ou eau, celui-ci s’agite pour retrouver un état d’équilibre, il est animé par des turbulences toujours plus fortes. Les vents et les courants sont ces turbulences. À l’échelle du globe, ils transportent d’immenses quantités de chaleur entre l’équateur et les Pôles selon le principe des vases communicants : les températures tentent de s’égaliser entre le sud et le nord. Cela se fait au moyen de grands cycles aériens (les cellules, il y en a trois sur l’hémisphère nord) et d’immenses systèmes de courants marins (les gyres, un par demi-océan, nord ou sud, ils circulent d’est en ouest) qui, ce faisant, établissent l’empilement des climats depuis l’équateur vers les Pôles. Le cycle de l’eau est évidemment lui aussi affecté, l’effet de serre générant plus de chaleur, donc plus d’évaporation. La suite éternelle évaporation/ condensation est elle aussi touchée par le changement climatique, auquel elle participe en retour car la condensation, à haute altitude, libère de la chaleur qui ajoute aux turbulences.
Plus de CO2, plus d’énergie, plus de chaleur, plus de vapeur d’eau et plus de turbulences. La théorie est illustrée par les faits : le temps est devenu brusque, et surtout, moins facile à prévoir. La météo telle que nous l’avons connue n’existe plus. Les « normales saisonnières » – la très classique courbe en cloche qui illustre le temps qu’il fait – ont avalé leurs extrêmes qui sont en train de se banaliser. Plus rien n’est constant : quand il pleut, c’est tout d’un coup, ou pas du tout pendant un moment. Les orages sont violents, les sécheresses plus dures, précoces et longues. Le temps est imprévisible. En effet, il n’y a plus de saisons, ou plutôt il n’y en aurait plus que deux, l’hiver et l’été, changés, le premier plus doux, le second plus sec.
Il y a par contre une constante : la France glisse bien vers le sud. Où sera Royan dans une génération ? Sans doute du côté de Biarritz, à quelques kilomètres à l’intérieur des terres.
Mais, il fait beau ici ! ?
En apparence, tout va bien. De quoi devrait-on s’inquiéter ? La communauté d’agglo vit sous un climat propice à la bonne vie : climat océanique tempéré et ensoleillement maximal. Et puis, si on s’en tient à une lecture rapide des chiffres, les prévisions (ne serait-ce que celles de climadiag) invitent à se frotter les mains.
À Royan et consorts, le nombre de jours considérés comme estivaux (température maximale de 25 °C) devrait en 2030 passer de 37 à 45, voire 62 selon l’intervalle de confiance et un risque moyens. L’économie de la ville et de son agglomération dépendant largement du tourisme, le changement climatique a l’air tout à fait bénéfique. D’autant que ce nombre de jours d’été grimperait encore vers 59 à 72 d’ici 2050, et atteindrait un sommet situé entre 75 et 93 à la fin de ce siècle. Passer d’un à trois mois de beau temps en moins de quatre-vingts ans, voilà une bonne nouvelle !
Redescendons sur terre et allons à la plage. L’Observatoire de la côte Nouvelle-Aquitaine l’écrit sans ambages : plus de 73 % du linéaire côtier de Royan-Atlantique (soit environ 445 hectares) sont exposés à l’aléa recul du trait de côte. Autrement dit, au risque d’érosion. Jour après jour, les plages de la CARA sont grignotées par un phénomène naturel amplifié par le changement climatique. Cette portion de l’estuaire de la Gironde est constituée majoritairement de dunes et des flèches sableuses, par nature friables, depuis des siècles rabotées par une « dynamique sédimentologique » particulièrement forte. Le long de la côte, la dérive littorale, courant parallèle, est la main principale qui rogne les plages, de manière plus efficace que partout ailleurs en Charente-Maritime. Évidemment, le changement climatique lui facilite la tâche en montant le niveau de la mer et en agitant la houle, dont elle est issue. Soyons francs : en se basant sur un niveau zéro situé à La Rochelle, les projections moyennes de l’Observatoire indiquent que la mer va prendre du terrain à la CARA : d’ici 2030 elle monterait de 5 à 18 cm, entre 14 et 32 cm vers 2050 pour finir entre 45 cm et 77 cm au-dessus du niveau actuel à la fin du vingt et unième siècle.
Les plages seront donc plus vite et profondément rongées, jusqu’ici et là disparaître. Les cartes montrent toutefois que les maisons seront peu concernées, à peine le seront les routes. Mais outre l’imprécision des modèles (notamment ceux décrivant la force de la houle et la fréquence et l’intensité des tempêtes), il faut garder en tête deux choses : l’objet plage qui fait venir les touristes est en train de se dégrader, il se réduit en largeur de plus en plus vite ; et à mesure que l’eau de mer monte, elle accède à de nouvelles surfaces, s’infiltre et déclenche des effets dominos. Même si la mer reste loin de la route, celle-ci peut-être déstabilisée par en dessous jusqu’à tout d’un coup se fissurer. Et puis, l’effet domino devient maximal, irréversible dès lors que la plage a disparu. Car son rôle est de protéger ce qu’il y a derrière de la force de la houle et du vent. Un littoral est par définition un no man’s land, ni mer ni terre, qui disperse l’énergie des coups de mer et des coups de vent. Les dunes, les plages, les flèches encaissent les chocs, mais à mesure qu’elles le font, elles s’amenuisent et lorsqu’elles ne sont plus là ? Il reste les marais littoraux, s’il y en a encore en arrière de ces protections sableuses.
Bref, Royan a la même question à se poser qu’une station de ski : comment continuer à faire venir des touristes alors que ce qui les fait venir aura en partie disparu ? Surtout ne pas tomber dans le paradoxe du canon à neige… Fabriquer de la neige puise dans une ressource rare, l’eau, coûte de l’énergie, l’électricité, et se sert qu’à décider le plus tard possible en espérant que l’État viendra à la rescousse. Pour la CARA, les ouvrages d’art sont des canons à neige. Épis et enrochements ne durent qu’un temps, ils coûtent cher et ne font que déplacer le problème, en l’amplifiant : lorsqu’on retient du sable pour engraisser une plage, c’est toujours au détriment d’une autre.
Royan n’est pas si mal. Un climat océanique tempéré, typique de l’Aquitaine : des pluies modérées, des températures qui le sont aussi et des étés relativement secs. Une mesure météorologique rendue plus agréable encore par un des plus forts taux d’ensoleillement de France. Cela et les plages expliquent le bonheur des habitants de la CARA.
Que nous disent les augures ? Que la modération pluviométrique va perdurer, ouf, en dépit d’épisodes de fortes pluies (plus de 20 mm en une journée) plus fréquents dans l’année. Quelques jours en plus, mais brutaux, plus en hiver, moins en été. Ce n’est pas la mer à boire ! D’autant que la pluviométrie est l’un des domaines de la climatologie qui est le plus difficile à modéliser. Tout ce que l’on peut dire, quel que soit l’endroit, c’est que la quantité d’eau qui tombera demain du ciel restera la même qu’aujourd’hui, mais elle sera répartie de manière différente dans l’année. Or, c’est précisément cela qui est important : notre incapacité à prévoir des abats d’eau brutaux qui en quelques heures dépassent les capacités des réseaux d’eau pluviale ou des rivières, et augmentent la probabilité d’une inondation par ruissellement ou débordement. Il suffit d’une fois pour noyer des quartiers, des maisons et des champs…
Les températures sont plus faciles à imaginer. Royan est dans la moyenne nationale : + 1,5 °C environ d’ici 2030, un peu plus en été ; + 2 °C en 2050 et + 3,5 °C en 2100 (+ 4 °C en été). Cela semble peu, comme des centimètres d’océan en plus ou des millimètres de pluie supplémentaires. Les chiffres ne sont pas tangibles. Ce qui l’est peut-être plus est de se dire qu’à chaque degré supplémentaire, ce sont des milliards de calories qui gagnent l’atmosphère, de l’énergie supplémentaire, encore, que l’air et l’eau vont devoir évacuer en s’agitant. Et puis, ces chiffres sont des moyennes, qui masquent l’évolution des températures minimales. Or, ce sont elles qui sont les plus importantes à considérer en été, car lorsqu’il a fait très chaud, on compte sur la nuit pour se rafraîchir. Donc, sur des températures bien plus basses que durant la journée : lors de la canicule 2003, les gens sont morts la nuit, pas le jour, parce qu’ils n’étaient pas parvenus à se refroidir en dormant. Conventionnellement, on considère qu’une nuit est trop chaude au-dessus de 20 °C. Il y en a 5 aujourd’hui à Royan. Ce nombre pourrait aller jusqu’à 8, voire 19 en 2030. De 15 à 27 en 2050, entre 31 et 50 à la fin du siècle. Entre un mois et un mois et demi de nuits suffocantes supplémentaires. L’intervalle est important, néanmoins, il masque lui aussi une autre réalité : c’est une moyenne à l’échelle d’une ville, qui ne dit rien de la disparité de l’urbanisme. Or, entre une rue toute minérale exposée au sud et un parc urbain, l’écart de température à la même heure, le même jour, au niveau du sol, peut s’avérer considérable (de 10 à 30 °C). Les nuits trop chaudes seront tenables ici, mais insupportables partout où l’effet de chaleur urbain (ICU) n’aura pas été corrigé.
Le tourisme, les zones littorales, les réseaux d’eau pluviale, les cours d’eau et les personnes âgées seront aux premières loges de l’éventuelle mauvaise adaptation au temps qui vient. Ajoutons l’agriculture. Elle dépend de l’eau, qui dépend du sol : 60 % de l’eau douce présente à la surface du globe sont contenues dans les sols. Lesquels n’en contiennent jamais autant que bien structurés, couverts et non tassés. Les projections montrent que le nombre de jours au cours desquels l’indice d’humidité du sol superficiel (SWI, pour Soil Wetness Index) sera inférieur à la valeur limite de 0,4 augmentera sans doute en été et en automne, les deux saisons critiques. En 2030, il pourrait passer de 73 à 85 lors de la première, de 54 à 73 au cours de la seconde. Une évolution qui ne devrait pas s’accentuer jusqu’en 2100, ce qui n’en aggravera pas moins à la fois le besoin en eau du monde agricole, et le risque de rétractation gonflement des argiles (RGA), présent sur la quasi-totalité du territoire de la CARA.
L’agriculture est le miroir du changement climatique. Les vignerons le savent bien, eux qui récoltent quinze jours à trois semaines plus tôt qu’il y a un demi-siècle. L’aire de répartition de la vigne s’accroît d’ailleurs vers le nord, à mesure que la France, descendant vers le sud, devient plus favorable à sa culture : dans mon Cambrésis natal, des agriculteurs se mettent à faire du vin, comme leurs prédécesseurs du « beau Moyen-Âge » (XIIIe siècle). Sur le territoire de la CARA, l’avancée des vendanges pour le cognac et le Pineau pourrait atteindre un mois à la fin du siècle. Avec les conséquences que cela a sur la teneur en sucre et le degré d’alcool des jus. Sera-t-on encore dans la norme des AOC ?
La même précocité se dégage des prévisions concernant les autres cultures : la sortie de l’hiver des plantes devrait être avancée d’une à deux semaines sur le territoire de la CARA dans les décennies à venir. Ce qui pose trois problèmes aux agriculteurs : les plantes ayant une montée de sève précoce risquent plus d’être terrassées par un coup de gel tardif, cette précocité sera plus avantageuse encore aux mauvaises herbes qui sont par définition rustiques et opportunistes, et cela change toute l’organisation du travail de l’agriculteur.
Le blé serait néanmoins très favorisé par la hausse de la température moyenne. Sa « disponibilité thermique » (nombre de jours où la température moyenne est positive) augmentera, elle passerait de 3 620 (en °C) à 3890-4087 en 2030, elle pourrait atteindre 4 238 en 2050 et 4 627 en 2100. Une félicité qui corrigerait la baisse des rendements enregistrée depuis vingt ans et relancerait nos exportations. À la condition qu’il y ait assez d’eau disponible dans le sol… et que les températures n’augmentent pas trop ! Car au-delà de 25 °C, les cultures commencent à souffrir de la chaleur. Au fil des jours, cela amène à l’échaudage, les rendements baissent, la qualité des produits se détériore et en définitive, les cultures meurent sur pied : j’ai un souvenir très fort des tournesols penchés par terre lors de la canicule de 1976… Le nombre de jours dits « échaudant » est d’environ 9 du côté de Royan. Il passerait à 17 en 2030, de 13 à 20 en 2050 et de 18 à 25 en 2100. Presque un mois de risque d’échaudage, cela commence à faire beaucoup.
Ajoutons pour finir qu’il y aura moins de jours de gel, divisés par presque deux entre 2030 et 2050 et par trois à l’horizon 2100. Le risque pour les plantes sortant en avance de leur léthargie hivernale va donc diminuer. À ceci près qu’il y aura toujours des coups de gel tardifs printaniers, et que sans période de froid ou de gel importante, la destruction naturelle de beaucoup d’adventices n’existe plus.
L’eau devrait être notre miroir
Résumons. Le changement climatique ne crée pas de situations nouvelles, il ne fait qu’accentuer l’existant, et lever le voile sur notre façon d’organiser le territoire.
Les vulnérabilités que le PCAET de l’agglo a mises en évidence ne sont pas nées du dioxyde de carbone, encore moins de l’érosion de la biodiversité ou de la pollution de l’air : elles sont là depuis toujours, produites par la conjonction de la géographie, de la topographie, de la nature des sols, de leur usage et de celui de l’eau.
Le territoire de la CARA est concerné par des risques évidents. Coincé entre deux estuaires (la Gironde et la Seudre) et l’océan atlantique, il est largement soumis au risque inondation. Celui des rivières (en particulier à Saujon), celui de la mer (notamment les communes situées au nord et au sud-est du territoire, les tempêtes Martin en 1999 et Xynthia en 2010 n’ont pas été oubliées), celui du ruissellement (partout où l’artificialisation empêche la libre circulation de l’eau et son absorption par les sols).
Le risque sécheresse est bien connu également, eu égard au nombre d’arrêtés catastrophe naturelle le concernant, 10 par exemple à Royan sur les 21 pris depuis 1982 (les autres sont la submersion marine – 4 – et l’inondation, 7). Un risque qui va exploser avec l’allongement du nombre de jours secs : ils pourraient représenter entre 50 % et 80 % de l’année à l’orée du prochain siècle ! Les argiles et les personnes fragiles accuseront le coup.
Voilà qui désigne un autre risque sans doute moins bien appréhendé, comme partout en France : celui de l’approvisionnement en eau. On n’en manque pas, dans le département, rassure le syndicat départemental des eaux Eau17. On n’en manque pas plus sur le territoire couvert par la CARA. Vous ne serez pas sans eau dans ce siècle, en tout cas en 2050. L’eau est sous vos pieds, elle ne va pas s’évaporer d’un coup. Dans son étude prospective, Eau17 rassure pour vous alerter : l’eau est là, certes, mais à partir du mitan de ce siècle il faudra faire attention à ce qu’on en prélève, car les captages dans la Seudre seront moins faciles, la rivière allant vers des étiages de plus en plus précoces et longs, tandis que d’autres captages, profonds, risquent d’être affectés par la salinisation. Un effet de l’entrée de l’eau de mer sous le littoral à mesure qu’elle y grimpe, mais aussi de la nature géologique de quelques nappes profondes dévoilée par le changement climatique : l’évolution des températures entraîne une modification de la circulation hydrologique profonde, ce qui peut aboutir à un « dessalement » de certaines roches. En résumé, l’eau est bien le reflet de ce qui se trame en surface : en apparence tout va bien, en réalité, la fragilité s’installe.
Pour la limiter, il s’agit de « sécuriser les approvisionnements », comme on dit dans les bureaux d’études. C’est-à-dire ? Moins perdre et moins consommer. Chercher les fuites et les colmater, encore faut-il bien connaître son réseau ; hiérarchiser les besoins (les espaces verts des communes de la CARA seraient par exemple très utilisateurs d’eau potable) ; engager le territoire vers une sobriété pérenne (ne pas corriger les économies faites sur les espaces verts en ajoutant des douches de plage, l’effet rebond) et un réaménagement adapté à la réalité de la ressource.
L’eau a beau être là et bien là, elle est de moins en moins disponible en été, quand tout le monde en a besoin. Surtout, les touristes et les résidents secondaires, qui consomment deux fois plus que les résidents et ne la paient pas au prix des coûts supportés par les résidents permanents. Pas plus que les agriculteurs à l’aune des pollutions qu’ils diffusent dans les rivières, dont le traitement dans les usines d’eau potable, déjà très élevé, explosera avec la mise aux normes imposée par la directive européenne DERU2 (directive eaux résiduaires urbaines).
Il est à noter ici que décidément, il faut se méfier de ce que l’on voit. Contrairement aux apparences, l’état écologique des cours d’eau du territoire de la CARA n’est pas bon. La totalité est classée dans un état moyen ou médiocre selon la directive-cadre sur l’eau. La moitié des masses d’eau souterraines est polluée. En cause, en plus des usages agricoles, notre vie de tous les jours (la moitié des substances problématiques sont portées par nos urines, ce sont des molécules issues des médicaments et des cosmétiques), celle des touristes qui sont moins regardants que chez eux, celle enfin de nos villes largement propices au ruissellement des eaux pluviales qui entraîne tout ce qui traîne sur les toits et les chaussées et fait parfois déborder le réseau d’assainissement. Pas de chances, les polluants se retrouvent d’autant plus concentrés dans les eaux que celles-ci s’amenuisent : laSeudre, en étiage chaque année plus tôt, est ainsi chaque année plus polluée. Ajoutons à cela que la nature ne peut pas toujours exercer ses talents de dépollution dans la mesure où les cours d’eau ont été rectifiés et les milieux simplifiés : le « vivant » n’a plus le temps ni la diversité d’outils lui permettant de traiter à notre place les grosses molécules qu’on fait circuler sur ses espèces.
L’impensé des eaux de pluie
Longtemps a-t-on considéré la pluie comme un déchet à éliminer le plus vite possible vers un réseau spécifique. L’essentiel était qu’elle parte vite dans la nature, même si dans le trajet elle s’écoulait en rivière le long des rues.
Le risque d’inondation par ruissellement n’en était pas un : quand les maisons avaient la cave remplie d’eau, c’était à cause du cours d’eau qui avait grossi, d’une nappe qui était remontée, on accusait l’orage sans jamais désigner son vecteur, le ruissellement. La doctrine a changé à Douai dans les années 1990 après que la ville ait été inondée trois fois : l’ouverture de la voirie en certains endroits permit de limiter le ruissellement et évita par la suite à la cité d’être à nouveau sous les eaux. Mise en œuvre par l’association locale Adopta, la solution douaisienne est depuis copiée partout en Europe. L’eau de pluie est une ressource. En France, cela a été long, car l’eau pluviale n’est toujours pas une compétence obligatoire, elle est confondue avec l’assainissement et n’a pas de budget dédié. Pourtant, comme le rappelle le rapport de la CARA sur le zonage pluvial et, il y a près de dix ans, le rapport de Pierre Alain Roche, la gestion à la parcelle des eaux pluviales répond à la fois au risque d’inondation par ruissellement, à la limitation des rejets de polluants dans les milieux naturels et à la végétalisation des villes pour lutter contre l’effet ICU.
L’État en a inscrit la nouvelle doctrine dans le droit : les arrêtés du 21 juillet 2015 et du 31 juillet 2020 imposent de ne pas verser l’eau de pluie (par débordement lors des orages) dans le réseau d’assainissement plus de 20 fois dans l’année, ou bien que ces vidages restent inférieurs à 5 % des volumes habituels d’eaux usées. Les villes doivent choisir et trouver des solutions de stockage ou de tamponnage. Par du béton pour stocker le trop-plein, avec la nature pour le limiter et le ralentir. En sachant que le seuil de 5 % va être abaissé avec la DERU version 2 : 2 % à partir de fin juillet 2027 (date limite de traduction de la directive en droit français). La priorité est désormais d’infiltrer l’eau de pluie le plus en amont possible, en particulier dans les agglomérations où le réseau unitaire existe toujours, avec un maximum de « solutions fondées sur la nature » pour les pluies habituelles, et des bassins d’orage pour tout ce qui dépasse avant le réseau traditionnel d’eau pluviale qui n’a plus vocation à grossir pour accueillir des abats d’eau toujours plus brutaux.
D’où l’intérêt de développer des zonages pluviaux ou des schémas directeurs de gestion des eaux pluviales (SDGEP). Même si leur valeur juridique n’est pas extraordinaire (surtout en l’absence de SAGE), ils permettent aux collectivités d’avoir une vision globale de l’eau qui leur tombe dessus, et des chemins qu’elle emprunte avant de gagner les milieux naturels. La CARA a fait son zonage en 2023 et, cela tombe bien, est couverte par deux SAGE. Outre le risque inondation par ruissellement, le document indique que la mauvaise gestion de l’eau de pluie entraîne une « dégradation régulière de l’eau de mer » avec des restrictions de baignades à la clé ; ainsi que des « difficultés récurrentes pour l’ostréiculture. » Le SDGEP pointe également toutes les limitations à son plein exercice. En premier lieu, la gestion des eaux de pluie réclame une coordination de tous les services… une transversalité plus dite que réelle dans notre pays cloisonné où chaque service regarde devant lui (les services voirie, espaces verts, circulation, assainissement et autres ne parlent que rarement ensemble). Ensuite, l’infiltration à la parcelle, les jardins de pluie, les noues végétalisées, les boulevards ouverts en deux et autres équipements d’absorption des eaux pluviales habituelles, ainsi que la destruction des obstacles à l’écoulement du ruissellement résiduel, ne concerne que les surfaces publiques, qui représentent moins de 20 % de la superficie d’une agglomération (« la collectivité n’a pas d’obligation de collecte et traitement des eaux pluviales issues des propriétés privées, » précise le schéma directeur). Autre bémol : l’infiltration à la parcelle n’est pas recommandée là où il y a de l’argile à smectite, vermiculite et montmorillonite, grand pourvoyeur du risque RGA.
Un dernier point, et non des moindres. Le rapport Roche déplorait en son temps que la gestion de l’eau de pluie n’était pas financée, car elle était et est d’ailleurs toujours du ressort budgétaire de l’assainissement, pour un coût annuel national supérieur au budget des agences de l’eau (2,5 milliards d’euros). Il recommandait l’instauration d’une taxe spéciale, affectée au seul usage de la gestion des eaux pluviales, sur l’exemple avorté de la taxe mise en place par la loi sur l’eau et les milieux aquatiques (LEMA) de 2006, modifiée par la loi Grenelle 2 de juillet 2010, finalement supprimée par la loi de finances de 2015. Elle était de 1 €/m2/an au maximum, pas vraiment incitative mais très pédagogique : voici ce que coûte le ruissellement. Le schéma directeur de l’agglo ne revendique pas autre chose, en estimant qu’il s’agirait de sortir « d’une approche assainissement à une approche risque et aménagement du territoire » des eaux de pluie.
Démographie, revenus, logement, voiture : un territoire très fragile
Il y a une autre vulnérabilité de la CARA, plus grande que les autres : elle-même.
Retraite et tourisme, jusqu’à quand ?
La population de l’agglo est globalement âgée (48 % de 60-74 ans d’après le Scot – contre 26 % en France, c’est trois fois plus que les gens âgés de moins de 20 ans), elle est concentrée sur le littoral, et elle triple en été. Une naissance pour trois décès contre quatre pour trois à l’échelle nationale : indéniablement, la population vieillit. Sans surprise l’économie du territoire est tournée vers les services et les commerces. Trois quarts des emplois se trouvent dans le secteur tertiaire, en particulier dans la santé, le social et l’hôtellerie-restauration. L’essentiel des revenus provient des transferts sociaux (dont les pensions de retraite) et du tourisme. À l’heure où les comptes publics sont dans le rouge, que la démographie du territoire va entamer une chute, que les paysages qui attirent les touristes sont en train de changer, les deux piliers de la vie économique de la CARA sont menacés.
Une autre fragilité du territoire est liée aux deux précédentes, c’est le logement. En France, personne ne s’est soucié de ce sujet. L’inconscient collectif, accroché au premier acquis de la Révolution, la propriété privée, a poussé l’État à nous inciter à devenir propriétaire. À nous endetter, moyennant la perspective d’un enrichissement lors de la vente, au détriment de la génération d’après. Faute d’encadrement du marché immobilier et de volonté foncière des collectivités, les prix n’ont cessé d’augmenter : dans la CARA, l’indice d’évolution des loyers est passé de 100 en 2000 à près de 150 en 2019, plus que la moyenne nationale (l’indice 150 n’a été atteint que cette année). Le prix moyen du mètre carré sur le littoral tourne autour de 3 000 euros, il peut dépasser les 4 500 euros dans les quartiers proches de la mer notamment à Saint-Georges-de-Didonne. Ces tarifs ont été entraînés dans la hausse par l’augmentation de la vacance (elle est de 4 à 5 % sur la CARA selon les sources, 11 % en France) et surtout celle de la location de courte durée (AirBn’b) : aujourd’hui, les jeunes ne peuvent pas acheter, ont des difficultés à louer car la moitié du patrimoine immobilier appartient à dix pour cent des Français, un quart à… 1 %. Un patrimoine qui devrait rester dans les mains des mêmes par les bienfaits de l’héritage, imposé en moyenne à 7 % alors que les revenus du travail le sont à 47 %.
Sur le territoire de la CARA il y a a priori autant de logements que d’habitants. Mais 43 % sont des résidences secondaires, un taux qui grimpe encore sur le littoral. L’offre s’en ressent et les résidents permanents, jeunes ou moins jeunes, sont obligés de gagner l’intérieur des terres. Là où ils vivent, les locaux sont pour près des trois quarts propriétaires-occupants, de maisons individuelles de grande surface pour les deux tiers d’entre eux, dont la moitié a été construite avant 1975 (ce n’est pas le cas à Royan). Non seulement le logement est cher, en plus il est a priori énergivore (l’habitat consomme la moitié de l’énergie utilisée sur le territoire, et est le second émetteur de gaz à effet de serre).
Inaccessible, excluant, inadapté aux chaleurs qui viennent, de plus en plus coûteux à entretenir et à rénover, le logement est la bombe sociale qui vient.
Corollaire à la situation de l’habitat de la CARA, les transports représentent un tiers de la consommation énergétique du territoire et 46 % des émissions de gaz à effet de serre, selon le PCAET. L’enquête sur les habitudes et modes de déplacements des habitants réalisée par l’agglomération explique ces podiums : trois quarts des déplacements sont réalisés en voiture, contre à peine 8 % en bus et 1,7 % a vélo ; les deux tiers d’entre eux se font sur moins de 2 km, les trois quarts pour moins de 1 km, un tiers même pour moins de 500 m. Le plus intéressant est que 98 % des habitants de la CARA stationnent leur véhicule à moins de cent mètres de là où ils doivent se rendre… à 63 % pour autre chose que le travail ou les études, mais pour acheter des produits ou s’adonner à un loisir. Autre élément qui interroge, seuls9 % des déplacements sont des « boucles complexes » (je pars de chez moi, je vais au travail, puis chez le médecin, je rentre en faisant les courses) qui justifient pourtant l’usage de la voiture.
La voiture est l’autre bombe sociale : elle coûte cher aux ménages qui dépendent d’elle faute de pouvoir se loger en centres-villes ou près de leurs lieux de travail, elle est très consommatrice en foncier (3 places de parking par jour, soit 65 m2, pour 1,2 occupant et moins de 10 % de temps d’utilisation sur sa vie), elle est le moteur de l’étalement urbain, elle dépend de ressources exportées qui peuvent facilement se tarir (souvenons-nous de la crise de 1973).
Ménager le territoire en privilégiant ses ressources rares
L’avenir de la CARA devra avant tout s’appuyer sur le maintien de quelques ressources aussi peu renouvelables à l’échelle d’une société que vitales aux Hommes.
L’eau
Si le territoire n’en manquera pas, les usages augmenteront alors que la disponibilité de la ressource se réduira et qu’empirera son mauvais état. La France a réussi à bien administrer l’eau depuis la loi de 1964 qui a instauré la gestion par bassins. Eau17 est un exemple de « gouvernance » coordonnée à l’échelle d’un département entier. Les actions mises en place dans les campings visant à réduire les consommations et leur bonne connaissance (compteurs, réducteurs de débit, recyclage de l’eau de nettoyage des filtres des piscines etc.), la mise en place progressive de la télérelève, la suppression des douches de plage au profit de rince pieds et la réflexion collective sur des scénarios d’adaptation démontrent que la question de l’eau est prise sérieusement en compte par la CARA.
Bien que Royan n’ait pas comme Saintes ou Oléron développé une charte de territoire sobre en eau. Il ne serait toutefois pas infécond d’aller plus loin.
L’eau sera plus chère
La sobriété est un objectif devenu tarte à la crème : tout le monde en parle en souriant, car on l’associe à la pauvreté dans une société qui n’existe que par la consommation. Comment convaincre les habitants et les acteurs économiques de la rareté d’un bien aussi vital ? En particulier les touristes et les résidents secondaires qui consomment plus ? Les campagnes de sensibilisation sont assez peu efficaces, car elles touchent la minorité de la population qui était déjà convaincue. Reste le prix : dans une société de marché, n’a de valeur que ce qui affiche un prix élevé. Augmenter le tarif de l’eau sera rendu de toute façon obligatoire par l’augmentation des coûts de potabilisation et d’assainissement liés à la DERU2 et, hélas, à la permanence des polluants existants et à l’arrivée de nouveaux, faute de leur réduction à la source. Le poste eau ne compte que pour 1 à 3 % du budget des ménages, on peut l’augmenter sans que cela ne soit un drame social. En particulier si on gonfle beaucoup plus, comme la loi l’autorise, le prix de l’eau pour les touristes et les résidents secondaires : Toulouse l’a fait en accroissant le prix durant la saison estivale (+ 42 % entre juin et octobre), pour l’abaisser en hiver (de 30 % entre novembre et mai), afin que les habitants ne soient pas lésés.
L’eau devrait rester sur le territoire
Allons encore plus loin. Adosser PLUi et Scot à la quantité d’eau disponible, de manière à ne pas engager la CARA dans des projets d’aménagement qui s’avéreraient préjudiciables à la ressource, en quantité comme en qualité. Cela amène à une réflexion globale : l’eau du territoire ne devrait-elle pas y demeurer ? Là où elle tombe, que la pluie aille dans le sol, c’est la nouvelle (!) gestion intégrée par le biais de la désartificialisation et du déraccordement. C’est aussi la fameuse REUT, encore trop peu utilisée si ce n’est pour des usages à l’utilité sociale secondaire (les golfs), et toujours aussi difficile à mettre en œuvre en dépit des facilitations récentes permises par le Plan Eau (la mise en conformité des bouches d’arrosage de la voirie de l’île de Ré par les eaux de la station d’épuration a coûté très cher à Eau17…). Le réusage, en bon français, est à manier avec précaution afin de ne pas réduire la quantité d’eau qui retourne au milieu naturel, il est aussi à circonscrire dans le voisinage immédiat des sources de manière à ne pas avoir à développer un coûteux et peu rentable réseau de distribution propre. Il faut que ça en vaille vraiment la peine. C’est le cas à Saint-Georges-de-Didonne et Saint-Palais-sur-Mer : les employés municipaux peuvent arroser les espaces verts à partir de « bornes vertes » alimentées par les eaux usées traitées des deux stations d’épuration. Ces eaux-là servent aussi à l’arrosage du golf de Royan.
La REUT est intéressante à deux conditions : si elle n’oblige pas à créer un nouveau réseau, je l’ai dit, et si elle n’entraîne pas d’effet rebond – l’eau réutilisée doit venir en substitution d’une eau potable, elle n’est donc pas un volume en plus à destination d’un même usage. Sera-ce le cas du vaste projet de réutilisation de l’intégralité des 3,4 millions m3 rejetés chaque année dans l’océan par les stations de Saint-Palais-sur-Mer et des Mathes ? Le but est de soulager la Seudre trop sollicitée pour les besoins de l’irrigation. Il y aurait un intérêt certain pour le fleuve, qui verrait ses étiages mieux contrôlés. Il y aura un intérêt évident pour les irriguant dont l’approvisionnement sera sécurisé. Mais les cent et quelques millions à investir seront utilisés pour produire quoi et pour qui ?
L’eau amène à une réflexion globale sur le modèle agricole et la façon de nourrir l’agglomération : est-il judicieux d’irriguer des cultures, même au goutte-à-goutte, même à partir d’eaux usées, si elles sont exportées en dehors du territoire ? Un cognac, un maïs, un fruit, un légume qu’on transporte, loin, c’est de l’eau cachée que l’on perd. Est-il cohérent de fournir les cantines scolaires avec des aliments venus d’ailleurs gavés d’eau et émetteurs de gaz à effet de serre ? L’eau virtuelle est un excellent indicateur, aussi parlant que le bilan carbone. Il devrait être considéré par les collectivités dans leurs achats : quand on achète, on acquiert de l’énergie consommée, du carbone émis et de l’eau.
L’eau doit rester ici, alors pourquoi ne pas la garder ? Créer des… bassines ? Plutôt des retenues d’eau pluviales, qui seront sans doute rendues indispensables à mesure que les jours de sécheresse s’additionneront. Mais l’eau appartient à tout le monde et les agriculteurs ne la paient pas à leur juste prix, aussi, un projet de retenue ne pourra pas, à l’avenir, être décidé par eux seuls. Une ressource rare et peu disponible telle que l’est mérite qu’on se pose, toujours, la même question : est-ce que cela en vaut la peine ?
Même les agriculteurs devraient vraiment la payer…
L’exemple de l’industrie invite à l’optimisme. Elle a fait beaucoup d’économie d’eau par le réusage, l’utilisation des eaux de pluie et l’optimisation de la circulation de l’eau dans les usines. Le Plan Eau et la réforme du financement des agences de l’eau l’ont il est vrai poussée à l’amélioration en augmentant de beaucoup ses redevances, les agences l’ont aidée en subventionnant en partie ses nouvelles pratiques. L’agriculture a par contre été exemptée fin 2023 par Élisabeth Borne, alors Première ministre de l’écologie, de toute hausse de ses redevances. Une iniquité quand on sait que selon la Cour des Comptes, trois quarts des redevances sont payées au titre de l’alimentation en eau potable, donc par les citoyens, alors que celle-ci ne représente que 16 % des prélèvements en eau (et 26 % de la consommation finale) ; alors que l’irrigation ne rapporte que 6 % du total, pour 9 % des prélèvements et 58 % de la consommation.
La « baignabilité », un puissant moyen politique
Comment faire comprendre l’eau ? Faire accepter des lois et des normes obscures ? Un moyen pédagogique très efficace est apparu lors des JO, auquel personne n’avait pensé : la baignade en eau vive. Le retour des nageurs dans la Seine a agi comme un révélateur du besoin de fraîcheur en été de citoyens qui veulent se réapproprier ce avec quoi l’urbanisation, l’hygiénisme et la généralisation des piscines les avaient séparés : le cours d’eau. Depuis lors, maints élus ont découvert qu’en affichant l’objectif de rendre à nouveau « baignable » leurs rivières, ils parvenaient à faire comprendre à leurs administrés l’intérêt de moins polluer, de faire évoluer le monde agricole, d’interroger l’urbanisation. La « baignabilité » est un moyen et un aboutissement : quand un cours d’eau redevient accessible aux nageurs, c’est que le cycle de l’eau est à nouveau convenable. C’est aussi un message social, car un cours d’eau où l’on peut nager, c’est un loisir gratuit.
L’agriculture est le pilier de l’adaptation au changement climatique. Car d’elle dépend en grande partie la qualité de l’eau et la bonne santé de « l’actif » principal de la CARA, les sols.
PLUi et Scot à réécrire selon les sols
Un sol bien structuré, jamais nu, sans tassement, vivant, est ce qu’on fait de mieux en matière de réserve et d’épuration de l’eau, de foyer de biodiversité et de puits de carbone. Sans parler du fait que les sols portent quatre-vingts pour cent de nos aliments. À tous ces titres, le sol devrait, comme l’eau, être qualifié de bien commun de la Nation, et non pas comme simple « contributeur » à celui-ci. En dépit de sa nécessité vitale, le sol n’a pas d’existence juridique en France. Contrairement à l’eau, l’air ou les espèces vivantes, il ne fait l’objet d’aucun livre dans le code de l’environnement.
C’est que le sol est encore, dans notre culture collective, une surface plane dont la propriété privée permet de faire ce que l’on veut. Le sol n’est pas la ressource naturelle la moins renouvelable qui soit, il n’est qu’un potentiel à valoriser.
La loi ZAN a entrepris de corriger cela. Mal écrite, mal expliquée comme le sont souvent les lois tellement bavardes en France, pourtant amendée par le Sénat, mais transformée en loi anti-ruralité par les démagogues, l’objectif ZAN est à soutenir car il donne enfin une valeur au sol en préservant les terres agricoles. Prosaïquement, si demain on le supprimait, les agriculteurs perdraient 400 000 hectares de SAU à l’horizon 2050, selon l’Institut de la transition foncière. Par ailleurs, supprimer le ZAN ne serait pas la meilleure préparation de la société à la traduction nationale, d’ici trois ans, de la directive-cadre sur la surveillance et la résilience des sols. Bien que largement amoindrie par rapport au texte initial, cette directive imposera d’évaluer la qualité des sols à partir d’indicateurs physicochimiques et biologiques, sur lesquels seront adossés à terme le prix de vente des et le niveau de fermage des terres agricoles et le versement des primes PAC. Une révolution en cours qui favorisera, à terme, les prairies plutôt que les champs de betteraves.
Cependant, des agglomérations telles que Chambéry, Ris-Orangis et Rouen ont déjà intégré la qualité objective des sols dans leurs PLUi ou leurs Scot. Rouen est allé le plus loin en embauchant une personne dédiée à l’adaptation de la méthode MUSE du Cerema aux contingences locales et à la volonté de la Métropole. Le résultat est une cartographie très précise du territoire qui montre les fonctions des sols (biodiversité, eau, carbone etc.), établie par un pédologue. Cela a à la fois permis d’éviter le coup de pelle sur des sols urbains qui se sont révélés capables de porter une végétation plutôt qu’un supermarché, et d’amadouer les élus réfractaires au ZAN qui ont vu que certains sols qu’ils pensaient mis sous cloche sous prétexte qu’ils étaient des friches, pouvaient en réalité être urbanisables eu égard à la faiblesse de leur multifonctionnalité. La CARA serait bien inspirée d’établir une cartographie précise de ses sols, au moins de leur usage ainsi que la Safer Normandie le fait depuis des années, à l’échelle du 1/10000e (programme Vigisol).
L’arbre et sol, prioritaire sur la voirie
Au moins considérer les sols comme le capital fondamental de l’agglomération. À la fois en ville, et à la campagne. En ville ? Les sols ouverts, couverts de végétation, constituent un adjoint fondamental au réseau d’eau pluviale et le support de la végétalisation, seule à même de réduire l’effet ICU. En pratique, tout réaménagement de voirie devrait être conçu uniquement dans ce but : faciliter le cycle de l’eau pour créer demain plus de fraîcheur. Un objectif prioritaire devant celui de créer des pistes cyclables, a fortiori devant la voiture et l’implantation de nouveaux commerces. Pour que la ville n’étouffe pas, il lui faudra de l’humidité et de la transpiration, c’est-à-dire, des arbres. Or, ceux-ci mettent quinze ans à pousser, il leur faut en bout de croissance autant de surface de sols ouverts que la superficie maximale de leur feuillage. S’adapter aux canicules réclame beaucoup de place, et du volume : 10 m3 au moins pour un arbre en parfaite santé.
Sauver l’élevage…
À la campagne, des sols multifonctionnels impliquent un moindre labourage et surtout, une couverture permanente. C’est en cours, l’agriculture change, en dépit des déclarations conservatrices de certains de ses représentants syndicaux : derrière l’image réactionnaire qu’en donne la loi Duplomb, l’agriculture s’essaie à la conservation des sols, au bio, voire aux deux en même temps. Les agriculteurs y gagnent car de manière générale, des sols moins travaillés nécessitent de remplir moins souvent le tracteur et le pulvérisateur. En outre, l’agriculture proche du sol exige de l’attention et de nouveaux savoirs : les agriculteurs reprennent tout ou partie de leur capacité à décider. Cependant, le changement d’échelle impliquera une baisse des rendements et une instabilité des récoltes, car l’agriculture dépendra plus qu’aujourd’hui du fonctionnement réel de ses sols. À compenser par un accroissement des surfaces, en particulier si l’agriculture réussit le pari (très difficile) de produire mieux avec moins ou plus du tout d’intrants, en replantant des haies, en entretenant des biotopes tels que les zones humides. Un pari impossible à gagner si le changement d’usage se poursuit et s’accélère à cause d’une éventuelle abrogation de la loi ZAN.
Les agences de l’eau participent largement à ce changement de la façon de produire en subventionnant par exemple des silos pour stocker les grains produits. Elles aident également les exploitants à respecter les cadres et règlements sur les aires de captage ou la qualité de l’eau des rivières en finançant clôtures, bandes enherbées, plantation de haies ou de légumineuses (pour absorber l’azote résiduel). Les collectivités peuvent participer à l’effort en signant des contrats pluriannuels avec les agriculteurs, en contrepartie d’une modification de leurs pratiques, dans le cadre, ou non, d’un PAT. Ce sont en particulier les éleveurs ovins et bovins qu’il leur faut aider, car leurs bêtes entretiennent le meilleur sol qui soit, la prairie, alors que la société ne les aime pas et que la grande distribution condamne la plupart à un asservissement économique. Comme le fait la CARA, la facilitation des circuits courts, en permettant aux éleveurs de vendre si ce n’est en direct, du moins dans des magasins de producteurs, améliore leur condition en éliminant le racket habituel. Si rien n’est engagé pour contredire la courbe qui mesure la chute du nombre d’éleveurs, la France pourrait se retrouver sans aucun d’ici 2030. Mais cela n’arrivera pas car faute d’actions politiques, nationales ou territoriales, ce sont les marchés financiers qui se changeront de soutenir l’élevage : les prairies vaudront en effet de plus en plus cher sur les marchés du carbone, déjà elles intéressent des opérateurs qui commencent à les considérer comme des « actifs » de long terme.
La CARA aura besoin d’espaces pour se réaménager afin de s’adapter aux temps qui viennent. Il va lui falloir laisser de la place à l’eau (pour qu’elle s’absorbe, pour qu’elle s’écoule lentement dans les milieux naturels et plus vite lorsqu’elle déborde, sans obstacle, en ville), à l’ombre (un arbre ne nécessite pas beaucoup de place : il en nécessitera beaucoup demain), aux sols, à une agriculture plus proche des besoins des gens et à qui on demande de tout préserver (les sols, l’eau, la nature etc.) et aux espaces verts (et bleus : les baignades) capables de rafraîchir les gens, à tous les sens du terme.
Ménager le territoire, pas la voiture
Ce ménagement du territoire ne peut pas faire l’économie d’une réflexion sur la place démesurée occupée par la voiture, dans l’espace et dans nos vies. D’un rapport à l’autre, la société se rend compte que la voiture lui coûte trop : entre une centaine et plus de trois cents milliards d’euros selon les sources, en dépenses totales annuelles pour la France. Pour un ménage moyen, équipé d’1,5 automobile, elle représente un budget considérable, compris entre 6 000 et 9 000 euros annuels, sans compter le capital immobilisé dans le garage qui augmente le prix du mètre carré. Pour une collectivité, la voiture est la première cause de soucis : l’auto réclame des parkings (trois par voiture, un pour la maison, un autre pour le travail, un troisième pour ce qu’on fait entre les deux) dont la surface totale de voirie (65 m2) est supérieure à la surface minimale d’un logement pour une personne. C’est elle qui décide depuis un demi-siècle de l’aménagement des territoires.
Pour le démontrer deux économistes, Frédéric Héran et Emmanuel Revalet, ont en 2008 inventé un indicateur afin de représenter de manière simple l’empreinte sociale de tous nos moyens de transport : l’espace-temps ! Soit la mesure de la consommation de temps et d’espace par le stationnement et la circulation. En terme clair : quelle surface de voirie mange un bus, un train, un piéton, une voiture au cours d’une heure, d’une journée, d’un mois, d’un an ? Un exemple : pour un aller-retour de 10 km dans une journée, un piéton occupe 3 m2.h, un usager du tram 4 m2.h (il y avait un tram à Rouen avant 1945), un cycliste 11 m2.h, un voyageur en bus 12,50 m2.h, un motard 29 m2.h et un automobiliste… 192 m2.h ! Le résultat n’est pas surprenant bien qu’en apparence paradoxal : en dépit de sa petite taille (tout est relatif avec la généralisation des SUV), l’auto, en temps et en espace, exerce un monopole sur la chaussée en stationnements et en bouchons. Un bus, aussi gros soit-il, est plus mobile, car il stationne peu, vu qu’il roule souvent. Au final, il occupe moins d’espace et de temps. Comme un taxi, une voiture de location, en covoiturage ou en autopartage.
L’auto est à bannir des centres-villes : à quand un tramway bordé d’arbres hauts le long du littoral de la CARA ? Y compris la voiture électrique, car le problème avec l’auto est moins les polluants et le carbone qu’elle émet que la place qu’elle occupe, qui implique étalement urbain, bruit, agressivité et stress. En électrique, on gagne juste des bouchons silencieux.
Des transports en commun ? Densifier plutôt
Cela dit on peut aussi critiquer les transports en commun.
C’est un économiste israélien qui s’en est chargé, Yacov Zahavi. Il y a cinquante ans, il proposa une hypothèse : l’être humain se déplace chaque jour avec le même budget temps. Une heure à peu près, quels que soient l’époque et le lieu. Un peu moins (50 minutes) à la campagne et en zone urbaine peu dense, un peu plus — 75 minutes — en zone dense, tout moyen de transport confondu. Cette constante étant établie entre la distance et la vitesse moyenne, il en découle qu’un gain de vitesse se traduit par une distance supplémentaire. Ce qui compte, c’est de ne pas dépasser le budget temps (une heure) : plutôt que de conserver le gain de temps offert par une nouvelle rocade, un vélo électrique ou un métro tout neuf, et ainsi passer moins de temps dans les transports, nous préférons l’investir pour aller toujours plus loin. C’est idiot, mais c’est comme ça et en plus, on ne s’en rend pas compte, sauf quand on se retrouve enfermé dans l’étalement urbain qui découle de cette conjecture : puisque moins je mets de temps, plus je vais loin, et puisque les réseaux de transport sont sans cesse améliorés, étant donné que ma vitesse moyenne augmente en conséquence, je mets toujours moins de temps pour faire le même trajet, alors je vais plus loin encore. Ce qui n’incite pas les élus à freiner l’étalement urbain.
En voiture, aussi bien qu’en transport en commun : ce qu’avait imaginé Yacov Zahavi s’est vérifié à mesure que les pouvoirs publics étendaient les lignes de TER, de bus, de TGV ou de RER. Et en définitive, à cause de ce choix fait pour la distance plutôt que le temps, l’espace se distend alors qu’il devrait se rétrécir. « Le temps gagné à aller plus vite est en fait utilisé pour aller plus loin », (je cite Frédéric Héran et Emmanuel Ravale).
Des mathématiciens se sont amusés à mettre ce constat en équation : la surface des agglomérations suit exactement le carré de l’augmentation de la vitesse moyenne des moyens de transport. Le retour vertueux en arrière nous fera sans doute mieux respirer, mais il n’est pas certain que tramways et vélos changent quoi que ce soit à notre façon irrépressible de nous déplacer toujours plus ou loin. L’offre crée la demande et induit un effet rebond contre lequel il est difficile de lutter, sauf à mettre en application une coercition douce telle que la loi ZAN, ou, à propos de la mobilité, les ZFE ou les ZTL. Comme la baignabilité, afficher l’objectif de respirer mieux implique de considérer le besoin réel en transport : les communes qui se le sont donné ont toutes vu leur pollution diminuer.
Cela dit, la nécessité d’avoir un bus ou, pire, une voiture découle de l’éloignement, lequel est l’enfant malheureux de la hausse du prix de l’immobilier. Tout est lié en écologie. Cela tombe bien, le ZAN, la loi Littoral et la rénovation énergétique poussent à densifier, à combler les dents creuses, à rapprocher les gens.
Le temps
Nous courrons après le temps, nous n’en avons jamais assez, nous allons de plus en plus vite. Pour le raccourcir toujours, nous avons chassé le tramway au profit de la voiture, nous avons troqué nos lignes de chemins de fer qui allaient partout (c’est toujours le cas en Suisse) pour des TGV. Qu’a-t-on gagné ? Pas grand-chose il faut croire, car nous sommes toujours en retard dans l’adaptation au changement climatique. À force d’atermoiements et de lâchetés, le temps commence à manquer. Les collectivités vont certes plus vite que l’État empêtré par la médiocrité politique, sa lourdeur intrinsèque et l’incohérence des lois et règlements. Elles sont toutefois loin du compte. Le changement climatique galope aussi vite que l’érosion de la biodiversité et les coûts socio-économiques induits par la pollution, la malbouffe ou l’usage des écrans.
Un exemple frappant est la rénovation énergétique.
La rénovation énergétique : que de temps perdu…
Cela fait plus de cinquante ans qu’on en parle publiquement, depuis le premier choc pétrolier, et trente ans qu’elle est inscrite dans la loi. Il y a eu les Points info énergie mis en place au début des années 1980 par la FME, l’ancêtre de l’Ademe, qui sont devenus, au gré de l’obsession de l’administration à créer des acronymes pour répondre à l’obsession de ministres à laisser une trace en changeant tout, les espaces info énergie (EIE) ou agences locales de l’énergie et du climat (Alec). Les Points Info énergie n’étaient pas bien connus, leurs successeurs sont devenus invisibles : la rénovation énergétique n’a donc jamais vraiment existé dans la vie des gens. Le pire a été atteint quand l’État a décidé de la retirer des mains historiques et techniques de l’Ademe pour la confier à celles, incompétentes en la matière, de l’Anah.
EIE, Alec et autres points d’information sont devenus des espaces conseils France Rénov encore plus discrets que les autres. Créés pour renseigner et aider gratuitement les habitants, ils sont peu utilisés. Et lorsqu’ils le sont, ils déçoivent, car tout doit commencer par une demande de dossier sur le Net, ensuite tout ne peut passer que sur le Net, et un numéro de téléphone qui donne accès à un conseiller anonyme qui n’habite pas là où se trouve la personne. Ajoutons la complexité du dossier à monter, l’impossibilité de revenir en arrière quand il est bloqué par un mauvais renseignement, le temps de réponse trop long pour l’accepter ou pas, celui encore plus long pour délivrer les subventions, lesquelles changent à chaque ministre, et les gens, massivement, renoncent à rénover.
Très critiquée par le Sénat, la rénovation énergétique version Anah est illisible et inefficace. En 2023, la deuxième chambre dénonçait dans un rapport la « rigidité » d’un système « accentuée par la centralisation excessive, qui n’est pas compensée par la présence de conseillers locaux au contact des usagers… » car les accompagnateurs France Rénov’ « n’ont pas le droit d’accéder aux dossiers individuels des usagers… » Sous prétexte de massifier, l’État a décidé avec France Rénov de mettre en place ces accompagnateurs de rénovation, qui sont privés, payants et obligatoires. Plutôt que d’encourager les initiatives locales qui avaient fait leurs preuves, là où les collectivités s’étaient investies dans leurs Alec ou EIE. En définitive, écrivent à la fois le Sénat et la DGCCRF, le système actuel profite surtout aux truands qui ont fait de la rénovation énergétique l’un des secteurs économiques les plus fraudés du pays.
Une fraude qui commence par le diagnostic DPE, que plus personne ne devrait prendre au sérieux tant il est entaché de doigts mouillés et d’arrangements entre des diagnostiqueurs formés en quelques heures et des agences immobilières qui doivent vendre. L’audit énergétique est autrement sérieux, mais il utilise le même logiciel, 3CL, qui fait rentrer chaque logement dans un modèle théorique, et calcule des consommations estimées toujours supérieures aux consommations réelles. Un logiciel qui reflète une idéologie de la rénovation encore tournée vers l’isolation pour faire face au froid, et ne tient pas assez compte de l’inertie thermique pourtant essentielle dans la lutte contre le chaud. Un logiciel qui pousse grossièrement à utiliser pompes à chaleur et chauffage à bois, sans se soucier de l’ABF. En définitive, DPE et audits ne servent pas à grand-chose, car ils révèlent ce que n’importe quel bon technicien des EIE et Alec du pays est capable de voir en visitant une maison tout en lisant les factures.
C’est vraiment là où les collectivités ont un rôle non pas moteur, mais central, à jouer dans l’accélération de la rénovation énergétique : conseiller les citoyens en amont et en aval (le financement), gratuitement, les orienter vers des artisans dûment référencés et vérifiés, voire, vers des vendeurs de matériaux avec lesquels elles négocieraient des marchés. Des matériaux biosourcés, produits si possible sur place (la CARA aide par son PAT la culture du chanvre, excellent isolant) afin d’être cohérent avec l’objectif affiché : est-ce cohérent de mesurer les émissions de carbone d’une habitation sans intégrer celles des matériaux conseillés pour les faire baisser ? Pour faire de la bonne rénovation énergétique, il faut être simple, lisible, constant, et local, comme l’est CARA Rénov’, l’Alec locale.
… que les collectivités peuvent rattraper
Local, cela veut dire tordre le bras aux ABF et prioriser les énergies disponibles, le bois ou la géothermie par exemple, les réseaux de froid et le chauffage solaire. Cela signifie de penser la rénovation à l’échelle d’un quartier : une maison au vent protège les maisons mitoyennes, elle mériterait que celles-ci l’aident pour entamer sa rénovation, avec la médiation de la collectivité. Un immeuble qui a beaucoup de surface de toiture pourrait produire de l’électricité et de l’eau chaude pour le lotissement d’à côté. Des propriétaires d’une même rue devraient être incités à rénover en même temps, afin de faire baisser les coûts en matériaux et en pose, et de bénéficier de cet outil financier bien rodé, s’il est bien conduit, le CPE (contrat de performance énergétique, par lequel c’est le maître d’œuvre des travaux qui les finance tout en partie en se remboursant sur les économies d’énergie réelles, négociées sur un marché spécifique), qui a montré son efficacité dans le monde industriel et les bâtiments publics Et aussi dans les grosses copropriétés, l’angle mort de la rénovation en France.
Un autre angle mort : la chaleur fatale. Un data center fabrique de la chaleur, qui n’est utilisée par aucun légumier. Tout aménagement nouveau devrait être réfléchi selon l’eau disponible et un partage de l’énergie.
Il est à noter, pour terminer sur une note énergétique positive, que l’État a sorti, ça lui arrive, une loi remarquable, le décret Tertiaire. Grâce à elle, le secteur des services sait où il va et comment faire.
Les collectivités à la rescousse de l’écologie
Arrêtons de tourner autour du pot. Est-ce que la cohérence réclamée lors de ces deux journées consacrées aux sols ne serait pas de les considérer comme un bien commun afin que l’intérêt général prime sur celui d’une collectivité, d’un particulier, d’un aménageur ? « On se heurte avec les sols à la propriété privée », ne cesse de répéter Philippe Billet. Si la loi de reconquête de la biodiversité l’avait écrit noir sur blanc plutôt que d’affirmer que le sol « contribue » au patrimoine commun de la nation (ce qui ne vaut rien, juridiquement), « les propriétaires auraient pu penser qu’ils auraient été dépossédés par l’État, ce qui est faux, puisque cela aurait introduit une espèce de dissociation entre une valeur générale et une valeur de propriété, » qui existe déjà : si vous avez une maison dans un secteur sauvegardé, vous ne pouvez pas en faire tout ce que vous voulez, car l’ABF a son mot à dire sur la couleur des volets comme sur l’ampleur de la rénovation énergétique que vous prétendez conduire. « On pourrait généraliser le principe de la transpropriation. Prenez un monument historique, le mur appartient au propriétaire, l’historicité appartient à la nation. Vous prenez un périmètre de protection de captage, le sol appartient au propriétaire qui a une contrainte dans un but d’intérêt général – et une indemnité, donc on arrive bien à faire une dissociation juridique entre la propriété et ce qu’on appelle le droit de jouissance, c’est-à-dire le droit d’usage du bien qui peut être détaché et affecté à autre chose à condition qu’il y ait, puisqu’il y a une privation, une indemnité, » et pas une rémunération qui impliquerait que le service appartiendrait au propriétaire du sol. Mais voilà, la propriété privée est sacrée en France, elle est un des grands acquis de la Révolution, présente tout en haut de la Déclaration des droits de l’homme et du citoyen, elle est dans notre culture collective la seule assurance contre la pauvreté quand l’heure de la retraite est venue. Protéger vraiment les sols revient à indiquer à tout le monde qu’en dernier lieu, ils ne sont pas plus à nous que l’eau et l’air. Une autre révolution.
Les sols sont en train de devenir un acteur social à part entière. Depuis les canicules, depuis les incendies, depuis les nappes qui peinent à se remplir, ils sont enfin apparus pour ce qu’ils sont, la première réserve en eau de surface de la planète. Et même, le premier puits de carbone, popularisé en son temps par Stéphane Le Foll avec son fameux programme 4 p 1000 : sur le papier il suffirait d’augmenter de 4 pour 1 000 le taux de matières organiques du sol pour absorber la totalité du carbone que nous émettons chaque année dans l’atmosphère ! Coup de génie marketing, la formule a conduit un peu de lumière sur cette éternelle boîte noire qu’est le sol. Éponge et puits de carbone, le sol est progressivement devenu un enjeu : puisqu’il nous rend ces deux éminents services, il s’agirait de ne point trop perdre de surface chaque année. La loi zéro artificialisation nette (ZAN) avait pour objectif de préserver les terres agricoles de l’envie des aménageurs. Pour autant, une terre maintenue en agriculture garantit-elle la pérennité des services que les sols nous rendent ? À mesure que la boîte noire s’ouvrait, plus on l’éclairait, plus le fond semblait s’éloigner. Plus on s’intéresse aux sols, mieux on veut le caractériser, moins on sait comment arbitrer entre les usages possibles. Or, il est temps, car le changement climatique accroît le besoin de capter du carbone et de l’eau en quantité, sans parler de celui de produire de la nourriture avec un minimum de dégâts sur les composantes des écosystèmes. Aujourd’hui, les politiques sont interpellés par l’impérieuse nécessité de garantir aux générations futures une bonne « qualité » des sols, voire, une « bonne santé. » Bien que ces concepts soient toujours sujets à débat, ils se sont imposés au monde agricole sous la forme des « indicateurs » censés guider leur travail afin que la qualité ou la santé de leurs sols soit correctement évaluées. Avec le couperet d’une directive européenne, que les défenseurs des sols montrent depuis 20 ans. Même en ville les sols sont aujourd’hui un sujet d’intérêt : timidement, des élus tentent à l’occasion de la révision de leur PLU (i) ou de leur Scot (i) d’asseoir leurs décisions sur des cartes de « multifonctionnalité » des sols. De quoi nourrir en abondance les bureaux d’études et justifier moult colloques sur les meilleurs indicateurs. En juin 2025 à Romainville (banlieue nord-est de Paris), emmené par le think tank Adebiotech et l’INRAE de Dijon, le colloque IBOSS a ouvert la boîte à outils des indicateurs biologiques réellement opérationnels, ceux immédiatement utilisables.Un long texte illustré par Thibaut Roy.
les 50 de l’inrae
Le 20 novembre 2024 il y eut un grand raout à Paris. L’INRAE présentait enfin son référentiel d’indicateurs élaboré après un long travail scientifique (Indiquasol) coordonné par la juriste Maylis Desrousseaux et la directrice de l’unité Info & Sols de l’INRAE d’Orléans, Isabelle Cousin, présente en ouverture de ces deux journées. Plusieurs centaines d’indicateurs expertisés parmi 1 800 publications analysées, une cinquantaine retenue dans un résumé de dix pages assez lisibles. Par la même occasion furent proposées des définitions de la qualité et de la santé d’un sol : la première « correspond à la description de ce qu’il est ou des fonctions que le sol réalise, » tandis que la santé renvoie selon les auteurs du rapport « à un jugement sur ce que le sol vaut ou ce qu’il devrait être. » Six fonctions ont été retenues par les experts : la régulation de l’eau en quantité et en qualité, celle des contaminants, le stockage du carbone, la fourniture de nutriments à la biocénose (l’ensemble des êtres vivants d’un écosystème), l’entretien de la structure… du sol lui-même et être un support à la biodiversité. Pour jauger ces fonctions et évaluer leurs parts relatives, délivrer in fine un bulletin de notes, rien de tel qu’une belle collection d’indicateurs et celle des valeurs de références qui vont avec. Des indicateurs dont « l’opérationnalité » a été évaluée, assure Nicolas Chemidlin Prévost-Bouré, enseignant-chercheur à et directeur de la Recherche et de la Valorisation de l’Institut Agro Dijon. « On a voulu répondre à une question simple : est-ce qu’on a des outils reproductibles, normalisés, des référentiels robustes ? Pour y répondre, on a introduit la notion d’opérationnalité d’usage » (capacité à fournir des informations pertinentes), en plus de la plus classique opérationnalité technique (on peut les mettre en œuvre. partout de la même manière). Les indicateurs ont été en quelque sorte expertisés par un indicateur de bon fonctionnement (pour ne pas répéter opérationnalité), ce qui a abouti à la répartition de tous en trois familles : 16 indicateurs sont d’ores et déjà considérés comme matures (par exemple ceux qui s’intéressent aux vers de terre et aux nématodes), 24 sont en maturation (les indicateurs qui mesurent l’activité enzymatique ou les micro-arthropodes notamment) et 11 qui peuvent mieux faire (« en développement », préfère dire Nicolas Chemidlin Prévost-Bouré, dans le lot on ne remarque aucun indicateur biologique, ouf). L’activité enzymatique est donc en maturation. Elle prend son temps, alors qu’on la mesure depuis longtemps : « c’est [en, effet] un ensemble de vieux descripteurs bien connus, on a essayé d’avoir une méthode utilisable par tout le monde », explique Christian Mougin, directeur de recherches à l’INRAE. Dix activités enzymatiques ont été standardisées, normalisées et mesurées par des moyens qui ont été miniaturisés. « On cible en particulier les oxydases, les hydrolases et les enzymes qui interviennent dans la respiration du sol. » La méthode Biochem-Env que présente Christian Mougin porte en particulier sur les enzymes qui assurent la dépolymérisation des chitines et des lignines, s’occupent de la nitrification et la dénitrification, assurent la métabolisation des sulfates ou encore la transformation de la cellulose et de l’hémicellulose. « En définitive on obtient pas mal de corrélations entre nos mesures et celles de la biomasse des micro-organismes, » avec ce bémol qu’une forte activité enzymatique peut aussi être le signe avant-coureur de la dégradation d’un sol.
Bénéficiant de son antériorité, l’indicateur vers de terre est un des plus robustes. C’est aussi sans doute le seul connu du grand public, eu égard à la notoriété de son animal. Mis en place en 2010 par Daniel Cluzeau, directeur de recherches à l’université de Rennes, l’Observatoire participatif des vers de terre (OPVT) est emblématique de la « science participative ». Il en est aujourd’hui à 7 000 participants répartis dans 1 200 communes et 25 départements, avec 10 000 observations en stock, « avec un taux d’erreur de 28 % », quand même. Mais les soixante pour cent d’observations dites « collaboratives » sont sûrs, car elles incluent l’envoi de vers de terre à des laboratoires de recherches. Robuste, l’indicateur lombricien incarné par son fondateur, Daniel Cluzeau, est appliqué en ville depuis 2015, où il se penche sur les sols urbains d’Île-de-France, de Dijon et de Bretagne qui révèlent être des sortes de « zones refuges » pour les vers de terre. Cerise sur le turricule, l’abandon du test moutarde au profit du test bêche a amélioré la contextualisation des observations en fournissant des informations à la fois sur les vers, et sur la structure des sols. Autre grosse bête bien étudiée par les chercheurs, le carabe. Facile à voir, jouissant d’une certaine notoriété (l’insecte est souvent cité par les associations de protection de la nature pour illustrer le fait qu’avec des carabes, donc, les haies qui les accueillent, pas besoin de pesticides pour détruire les limaces qu’ils dévorent), le coléoptère s’est adapté au système agricole : « il est capable de se disperser dans le milieu, il peut donc partir et revenir après une pulvérisation, il est le prédateur de plein d’organismes », décrit Mickael Hedde, directeur de recherches à l’unité Eco & Sols de Montpellier. Le scientifique ne fait toutefois pas de préférences, il le considère et s’en sert autant que beaucoup d’autres invertébrés de grande taille tels que les limaces, les vers de terre – encore eux, les perce-oreilles, les fourmis ou les cloportes. Les invertébrés sont récoltés, triés, ils sont reliés à leurs milieux (grandes cultures, prairies permanentes ou temporaires, villes, boisements), des statistiques sont établies au fil des ans. « On aimerait faire une sorte de Living planet index du WWF, mais on se heurte encore au manque de spécialistes capables d’identifier ces éléments de la macrofaune, et à d’autres écueils, » tels que la variabilité temporelle des populations, toujours aussi mal connue ; et le fait que les bases de données des gros invertébrés existent bien, mais sont largement sous-exploitées
Le nématode, un héros si discret
À une échelle plus petite se trouve la mésofaune. Enchytréides (des vers), collemboles ou acariens. On les compte et on les dénombre, de façon à nourrir un indicateur italien nommé QBS (Qualità Biologica del Suolo) qui, nonobstant la marge d’erreur parfois importante, montre que la diversité des collemboles est la plus faible dans les vignobles et les grandes cultures. Un autre indicateur calcule le rapport de biomasse entre ce groupe et celui des acariens : ces derniers l’emportent sur les premiers dans les forêts, tandis qu’à l’inverse les collemboles sont sur la première marche dans les grandes cultures et les prairies. De plus en plus utilisés, constate Mathieu Chauvat, enseignant-chercheur au laboratoire Ecodiv (Étude et compréhension de la biodiversité) de l’université de Rouen, les indicateurs « mésofaune » sont encore en manque de référentiels et de corrélations avec la qualité (ou la santé !) des sols. Avec les nématodes, des vers ronds (ils n’ont rien à voir avec les lombriciens, les vers de terre, ni avec les enchytréides) on n’a pas ces problèmes, tant ce groupe, bien que microscopique, est observé par des spécialistes passionnés. Voire, un peu amoureux vu comment ils et elles en parlent. C’est le cas de Cécile Villenave, une fan. « Ils ont toutes les qualités pour faire de bons bio-indicateurs car ils sont beaucoup étudiés par la recherche, on a beaucoup d’informations sur leurs milieux de vie, sur la diversité en fonction des conditions des milieux, » présente la responsable scientifique de la société Élisol environnement. Les nématodes ont l’avantage d’être nombreux (ils constituent 80 % des organismes pluricellulaires dans un échantillon de sol) et réagissent de manière très fine aux variations de leur environnement. Élisol a développé Elipto, une base de données avec un référentiel d’interprétation nourri de dix ans de travail sur et avec les nématodes. « On a presque 10 000 analyses sur l’ensemble de la France, à partir de là on fait un bilan sur six fonctions assurées par les nématodes, puis on établit un score de 1 à 10. » Niveau d’activité biologique, pression parasitaire, voies de décomposition de la matière organique, stabilité du milieu, intensité des flux de nutriments, chaque paramètre est « scoré » (noté) de 1 à 10, l’ensemble donne un graphique en toile d’araignée. Plus on s’approche de la périphérie, mieux c’est. Au centre, par contre, c’est critique. Bilan des courses ? De manière contre-intuitive, tant l’agriculture productiviste a mauvaise image, il y a nettement plus de nématodes sur les grandes cultures ; mais nettement plus de diversité fonctionnelle sur celles conduites en bio avec labours modérés. Les indicateurs utilisés par Élisol montrent également que les cultures intercalaires, classiques dans les conduites en conservation des sols, améliorent l’état des sols en trois ans.
Omiques & IA
Comme d’autres sociétés et laboratoires, Élisol ne se contente plus de l’identification des nématodes par l’œil des spécialistes. Elle pratique désormais la reconnaissance informatique. Les nématodes sont nommés et dénombrés automatiquement, l’identification des genres suffit à établir le diagnostic grâce à un logiciel dénommé Elia basé sur l’IA. L’intelligence artificielle, encore elle. De même, le fameux ADN environnemental, devenu figure médiatique avec la mission Tara. Prendre un seau, garder les fragments d’ADN, les amplifier, les repérer, les associer aux bouts d’ADN d’espèces enregistrés dans des bases de données. « Il y a de moins en moins de spécialistes pour identifier les animaux », avoue Mickael Hedde. Qui poursuit : « Il y a aussi une facilité technique – car on fait comme une analyse chimique, que tout le monde sait faire, et ça prend moins de temps qu’aller sur le terrain pour prélever les animaux eux-mêmes. » Le monde vivant dans une pincée de terre. Qui plus est, l’analyse de l’ADNe, comme il faut écrire, est facile à standardiser et elle est automatisable. Sur le papier, c’est magnifique. Sauf qu’on ne connaît pas encore très bien le comportement de l’ADN dans le sol. « Il y a notamment des questions sur le temps de rémanence – quel âge à l’ADN que l’on mesure ? » La pincée de terre est peut-être un mausolée. Il n’en reste pas moins qu’avec dix ans de recul, l’ADNe montre plus de sélectivité que les méthodes traditionnelles : plus d’espèces détectées, dont certaines ne l’avaient pas été par observation humaine directe. « Il reste un besoin de standardisation, de constituer des bases de références, et d’intégrer cette méthode dans les suivis nationaux. » L’ADN environnemental est le matériau des sciences « omiques », comme le dit joliment Téo Fournier, un des dirigeants de la société GenoScreen. Omique ? Metabarcoding, métagénomique « shotgun », métatranscriptomique ou encore métaprotéomique. Comprenne qui pourra. Cette branche montante de la métrologie porte l’espoir d’une « vision complète du microbiote des sols avec un niveau de résolution fonctionnelle et taxinomique sans équivalent. » Échantillon, extraction de l’ADN, amplification par PCR de gènes marqueurs, séquençage, regroupement des séquences en « amplicon » (fragments d’ADN) et enfin, assignation taxinomique : le metaboarcoding permet d’identifier la composition en taxons d’un échantillon d’ADNe en ciblant les variations d’un même gène marqueur. « Il répond à la question simple : qui est là ? La métagénomique répond à la même question en ajoutant une autre : qui peut faire quoi ? » Cette fois, tout l’ADN est séquencé, et le « potentiel fonctionnel » de l’échantillon de sol est identifié selon la présence de certains gènes. Quant au qualificatif shotgun, l’auteur de ces lignes avoue n’en avoir pas bien compris la singularité : l’ADN est cisaillé au hasard (comme un méchant explosé à la chevrotine ?) en petits fragments qui sont ensuite réassemblés. Quant à la métatranscriptomique, elle ne s’occupe pas d’ADN, mais de ce qui en assure la transcription en protéines, l’ARN. Cette technique permet d’aller au-delà du potentiel fonctionnel en criblant les fonctions réellement exprimées par le microbiote du sol. En apparence, tout ceci est fascinant. Avec de telles méthodes, on a vite fait de se tourner la tête : prélevez un peu de sol, et sans bouger de votre bureau, vous aurez une idée de la biomasse, de la biodiversité, des relations entre les espèces et de l’état (pour ne pas dire qualité ou santé) d’un sol selon les fonctions relatives que les organismes assurent. Quel sentiment de puissance ! Adieu les vieilles sciences naturalistes ! Téo Fournier n’est pas dupe. Il reconnaît volontiers les limites des trucs qui se terminent en « omique » : « C’est cher, les délais sont longs, une grande expertise est nécessaire, on a du mal à générer des référentiels, » et la reproductibilité est encore difficile. Ingénieur agroécologue (sic) dans deux laboratoires privés, Labocea et Qualyse, Sylvain Mesplou s’occupe, lui, de protéomique. Identifier des protéines d’un échantillon, en particulier la glomaline (une glycoprotéine fabriquée par les champignons mycorhiziens). Dans le sol, les protéines ont un rôle multiple : elles agrègent les particules entre elles, immobilisent des métaux lourds et apportent des nutriments. Alors faisons-en un bel indicateur ! Broyage de la terre, centrifugation, coloration, extraction de toutes les protéines. « C’est un indicateur corrélé à la quantité de matières organiques, qui réagit bien – on l’a vérifié au champ – aux pulvérisations de pesticides. » De manière générale ce nouvel outil réagit beaucoup mieux aux pratiques agricoles que le protéo-indicateur traditionnel (celui qui mesure essentiellement la glomaline), et est bien corrélé à d’autres indicateurs qui mesurent par exemple le carbone organique, le potassium ou la quantité d’ADN.
À partir de ces techniques, des outils statistiques travaillent à prédire le potentiel des communautés microbiennes : on appelle cela « l’inférence fonctionnelle. » À partir de ce que l’on sait déjà ailleurs, imaginer ce que l’on pourrait trouver ici, avant même le premier coup de tarière. L’affaire se décline en trois indicateurs, l’entité fonctionnelle (FEs) qui identifie les espèces ayant les mêmes fonctions, la redondance fonctionnelle (Fred) évalue le nombre de taxons pour chaque entité fonctionnelle, et la vulnérabilité fonctionnelle (FVuln), comme son nom l’indique, mesure la vulnérabilité de ces mêmes fonctions. Des résultats ? Il y en a : la capacité à prévoir de ces outils semble correspondre à la réalité, car ils montrent que la richesse en entités fonctionnelles suit celle des bactéries, qui évolue positivement avec le niveau de perturbation intermédiaire. Il y a donc plus de FEs dans un échantillon de sol extrait d’une culture de céréales ou d’un vignoble que dans une prairie ou une forêt. À l’inverse, Fred est plus élevé en forêt qu’en aire viticole, en grandes cultures et en vignobles. On s’en doute un peu, sur le podium de la FVuln se trouve la vigne, puis les céréales et les prairies, la forêt étant bonne dernière. Analyse de Sébastien Terrat, maître de conférences à l’université de Bourgogne à Dijon et directeur du département Génie Biologie de l’IUT Dijon-Auxerre : « en forêt, on a des fonctions identiques portées par de nombreux micro-organismes tandis que dans un vignoble, on a de nombreuses fonctions portées par un seul taxon, » ce qui n’est pas forcément le signe d’une capacité à résister tout seul à un stress. Là encore, il n’est pas question de se prendre pour un démiurge capable de tout prédire en deux clics : « Ces nouvelles approches permettent d’obtenir des prédictions sur les fonctions putatives des micro-organismes au niveau des gènes ou des voies métaboliques, en se basant sur les connaissances génomiques d’organismes déjà isolés et/ou cultivés. Toutefois, du recul et des validations scientifiques sont encore nécessaires pour éprouver leur robustesse au terrain. » On respire.
Forêts, vignobles et mangroves : comment indiquer les bonnes pratiques
Voici maintenant du concret. Conduit par Camille Chauvin, ingénieur de recherches chez Élisol environnement et Céline Emberger, chargé de projets forêts au Conservatoire d’espaces naturels (CEN) Occitanie, le projet InSylVioS mesure l’impact de différentes pratiques de gestion forestières sur la biodiversité des sols. « En particulier l’effet de l’intensité des éclaircies de peuplements avec cette question : peut-on identifier des pratiques plus durables ? » Cinquante-six peuplements dominés par hêtres ou Douglas ont été expertisés. « Sur le Douglas, aucun groupe faunistique n’est favorisé par une éclaircie forte [les coupes à blanc]. Les éclaircies légères sont par contre toujours favorables à la vie du sol. » Et sans éclaircie du tout, on ne voit pas de changement notable : ne rien couper n’apporte rien, preuve une fois encore de l’intérêt des perturbations intermédiaires. Et de l’indicateur « nématodes, » pilier de ce projet : les vers ronds sont de bons porte-parole de l’écosystème édaphique forestier. Ingénieur de recherches à l’INRAE de Dijon, Cyril Zappelini a préféré travailler sur les sols viticoles. Alsace, Côtes de Provence, Mâconnais et Chalonnais, Côte de Nuits et Beaune. Que l’on soit en conventionnel, en bio ou en biodynamie, qu’est-ce que le sol nous raconte ? 219 parcelles en exploitation ont été étudiées, 55 en Alsace, 54 en Côte de Nuits et Beaune, 47 dans le Chalonnais et le Mâconnais et 66 en Côtes de Provence. Soit, 77 en conventionnel, 72 en Bio, le reste, 70, en biodynamie. « On a utilisé des indicateurs moléculaires de biomasse et de diversité microbiennes, et des interactions entre les taxons. » Le résultat global est sans appel : contrairement à ce que l’on pourrait penser, vu que les sols viticoles sont très travaillés et les vignes beaucoup pulvérisées, il n’y a de sols viticoles morts. « 18 % sont dans un état critique qu’on peut améliorer, 38 % sont à surveiller et 44 % se trouvent dans un bon état microbiologique. » Les meilleurs sols sont les Alsaciens (65 % de bon état), les plus mauvais les Côte de Nuits/ Beaune, là où les sols sont les plus travaillés : « en Alsace, il y a un faible travail du sol, l’enherbement entre les rangs est important, les sarments reviennent aux sols et, effet important, la densité de cépage est moindre, » deux fois inférieure aux Côte de Nuits/ Beaune. Les indicateurs de microbiologie montrent donc que les pratiques intensives dégradent la qualité biologique. L’un d’entre eux délivre une information frappante : « le réseau d’interactions entre les microbes est de 141 737 en Alsace, il tombe à 52 171 dans les Côtes de Provence, 22 626 à Chalon et Mâcon et… 4 932 en Côte de Nuits et Beaune. » En Bourgogne les sols ne sont pas morts, ils souffrent. Logiquement, en bio et en biodynamie le nombre de parcelles en bon état microbiologique monte respectivement à 42 % et 49 %. Autre milieu, autre monde, la mangrove. En 2015, l’Office Français de la Biodiversité a mis en route le projet DCE Mangrove (pour directive-cadre sur l’eau), pour repérer et cultiver les bio-indicateurs les plus robustes et adaptés à décrire les pressions que l’Homme exerce sur cet écosystème littoral. À l’issue d’une première phase conduite en Guyane, Martinique, Mayotte et Guadeloupe, 17 indicateurs ont été repérés. La phase 2 a débuté en 2024 « pour distinguer la variabilité naturelle des descripteurs sélectionnés de celle induite par les impacts anthropiques, » relate Maud Fiard, ingénieure de recherches à l’université Aix-Marseille. La robustesse théorique des indicateurs est mise à l’épreuve dans « 59 mangroves aux situations environnementales contrastées, échantillonnées en Guadeloupe et en Martinique. On analyse à la fois la strate forestière et le sédiment. » Les indicateurs sont nombreux : espèces de palétuviers et hauteur de leur canopée, abondance et biomasse de la méiofaune (les animaux de 0,1 à 1 mm de long qui vivent dans un sédiment), notamment par usage d’un autre membre de la famille des omiques, la métabolomique non ciblée. Soit l’analyse de tous les métabolites récoltés dans un échantillon sans en cibler aucun. Une fois établie, la liste des indicateurs devrait aider les gestionnaires à mieux décider. On peut en tout cas l’espérer.
Dijon et Bruxelles éclairent les aménageurs
De mêmes indicateurs ont été utilisés dans le cadre du projet ProDij. Caractérisation écologique des sols urbains de Dijon, afin d’aider la Métropole à mieux aménager son territoire. Pas seulement, selon Pierre-Alain Maron, directeur de recherches à l’INRAE de Dijon : « la société prône le retour de la nature en ville, la lutte contre l’effet de chaleur urbain, le développement de l’agriculture urbaine… cela passe par les sols ! » Encore faut-il avoir ce qu’ils ont dans le ventre. Cinquante outils de diagnostics ont été utilisés, sur 80 sites représentatifs des grands usages urbains : voies du tramway, bords de route, ronds-points, prairies, cours d’école, parcs urbains, squares, jardins familiaux et jardins partagés. Démarré en 2021, le projet a donné des premiers résultats, dans trois catégories, le « patrimoine biologique » (abondance, biomasse et richesse des lombrics, nématodes et micro-organismes), fonctionnement biologique (les mêmes groupes biologiques avec des indicateurs plus précis) et le carbone organique du sol. « De manière générale, tous les sols étudiés présentent un bon état en termes de carbone, » il reste donc de la matière organique à Dijon. Les chiffres sont moins bons en ce qui concerne le patrimoine biologique (51 % des sols se trouvent dans un état qualifié de moyen, 37 % sont en mauvais état) et le fonctionnement de l’écosystème sol (58 % d’état moyen, seulement 4 % dans un mauvais état). On retrouve ces chiffres quel que soit l’usage des sols. Par contre, si on affine, on remarque des différences claires entre les types de voiries : les ronds points s’en sortent mieux que les bords de route, pis, les voies de tram, où Daniel Cluzeau s’ennuierait : on n’y trouve presque pas de vers de terre. Aucunes différences notables par contre en ce qui concerne les sites que Pierre-Alain Marron qualifie de « récréatifs » (prairies, parcs, écoles et squares). « Il y a une nette différence en revanche entre les jardins partagés et les jardins familiaux : les premiers sont dans un bien meilleur état que les seconds, » sans doute parce que les jardins partagés sont soumis à des règles en matière d’usage de l’eau, de travail du sol et d’apports de matières organiques. En Belgique, François Henry, l’expert sol de Bruxelles environnement, l’administration en charge de l’environnement et l’énergie dans la capitale belge, s’occupe d’une affaire comparable à la dijonnaise, l‘indice de qualité des sols bruxellois, l’IQSB. Il nous montre une photo de ses slips, salis d’avoir été enfouis dans la terre brabançonne. On ne dira jamais assez l’intérêt pour les spécialistes des sols à porter des sous-vêtements en coton : pour leur assurer une fin de vie honorable, les enfouir leur donne l’occasion de révéler le foisonnement de la vie du sol. La pression foncière est énorme à Bruxelles car le territoire, sorte de Berlin du temps où la future capitale était enfermée dans l’Allemagne de l’Est, est une enclave de 182 km2 qui n’a pas le droit de s’étendre. « On mesure classiquement sur le terrain la structure et la compaction (tassement) du sol, la stabilité des agrégats et la conductivité hydraulique, et en labo des paramètres tels que le rapport C/N ou la respiration microbienne. » Pas de biologie. « On aurait pu réfléchir pendant des années aux meilleurs indicateurs, on a préféré foncer, et on fait évoluer l’indicateur au fil de l’eau, on en est déjà à la 5e version. » Une aide à la décision sous forme d’un indice global, censée éclairer les élus locaux. De l’IQSV à l’IQSW, il n’y a qu’un pas franchi par Brieuc Hardy, chef de projet et d’expérimentation au Centre wallon de recherches agronomiques (CRAw). « C’est un indicateur citoyen basé sur l’observation, et la notation [pour ne pas dire scoring], de quelques paramètres simples », tels que la texture du sol, sa compaction, la forme des mottes, la présence de turricules ou d’eau stagnante. Nul n’en attend de grandes révélations, l’outil est conçu en premier lieu pour sensibiliser les citoyens.
dalles de béton et terrains de foot, des aires de changement
Entre Dijon et Bruxelles, Battle Karimi a fait un détour par La Défense. La directrice scientifique de Novasol Experts expose le travail qu’elle conduit pour l’établissement public d’aménagement de La Défense Seine Arche. « Depuis 2021, l’Epadesa entreprend de désartificaliser, revégétaliser et réemployer les terres excavées sur cet environnement qui compte parmi les plus artificialisés de France. En 2023 on a commencé à discuter avec eux sur l’évaluation de la qualité des sols en vue, précisément, de les réutiliser, d’en faire un gisement pour divers projets. » Novasol a travaillé notamment sur l’extension d’une trame verte et brune le long des terrasses de l’université de Nanterre (en réaménageant notamment une ancienne ferme urbaine), l’aménagement de nouveaux parcs urbains et la mise en place de noues végétalisées. Dans ce quartier d’affaires où le minéral règne il y a l’idée de refaire en tenant compte de la qualité des sols. « On a adapté la stratégie d’études et de prélèvements pour chaque site, tellement les conditions et les sols sont différents. » Et on y est revenu une fois les aménagements réalisés. La noue, par exemple. Quatre cents mètres de long d’une lasagne à trois étages : d’abord un mélange terre et pierre, puis une terre végétale constituée à partir de limons argileux et de compost, là-dessus 15 cm de BRF (bois raméal fragmenté) en paillage. Novasol a ensuite semé une prairie multispécifique qu’elle a activée par une inoculation de micro-organismes, elle a enfin planté arbres et arbustes. Au départ, les indicateurs n’ont pas révélé une immense qualité microbiologique. Mais dix-huit mois après, les choses s’étaient beaucoup améliorées : les sols en mauvais état sont passés de 87 % à 20 %, même, 13 % de sols en bon état sont apparus. Il semblerait que la « relance biologique active « (le mélange d’argiles et de compost) et la plantation d’arbres et arbustes expliquent une telle évolution favorable. P.-D.G. de la société suisse Microsol, Étienne Roulin s’est intéressé à une infrastructure urbaine particulière, les terrains de sport. A priori, c’est tout vert, c’est du gazon, c’est donc vivant. En France, on en dénombre près de 40 000, qui occupent à peu près la surface de Paris, soit 15 000 ha. « C’est étrange, » fait mine de s’étonner l’ingénieur, « la quasi-totalité des collectivités les gèrent elles-mêmes, elles s’engagent pour la biodiversité, la résilience climatique, la sobriété… mais les terrains de sport restent en dehors de cette dynamique ! » Alors qu’ils sont un gouffre énergétique, à engrais et à eau, tant l’entretien du gazon réclame de soins dispendieux. « Ça tombe souvent malade en plus, car les variétés sélectionnées, stressées, poussées au maximum de leurs performances, sont fragiles. » Qui plus est, le sol étant compacté par la pression des crampons, le système racinaire se développe mal. « Depuis 2016 on a mis en place [en Suisse] des stratégies de régénération des stades basées sur l’agriculture de conservation et la permaculture, » et le fonctionnement des sols forestiers. « On veut restaurer les cycles du vivant : porosité, respiration, vie microbienne diversifiée et locale, enracinement, nutrition naturelle, » avec l’aide de micro-organismes, notamment des protozoaires cultivés par les collectivités à partir de thés de compost oxygénés. Les divers indicateurs choisis montrent l’efficacité du système : – 30 à 50 % sur l’arrosage, engrais organiques réduits de moitié, enracinement à 18 cm. Reste à convaincre la FIFA.
La pollution des sols est-elle la pollution des vers ?
D’autres indicateurs bien robustes ont été assemblés pour répondre à un questionnement terre à terre : mon sol et ce qui s’y trouve sont-ils pollués ? Ces indicateurs ont aidé Colette Bertrand, chargée de recherche en écotoxicologie du paysage à l’INRAE de Versailles à évaluer l’exposition aux pesticides de la faune du sol en grandes cultures, ainsi que l’impact de ceux-ci sur des organismes a priori non concernés par les pulvérisations. Quarante parcelles (21 en conventionnel et 19 en bio) ont été ciblées au nord-ouest de Paris, à Orgeval (dans les Yvelines). Des carabes, des vers de terre, des enchytréides et des escargots ont été prélevés. « Cinquante et une molécules ont été détectées dans les sols, les plus fréquentes sont par exemple le methabenzithiazuron, un herbicide, le carbendazime, un fongicide, ou encore l’imidaclopride, un insecticide » de la famille des néonicotinoïdes, interdit en 1999. « Ce qu’on tire de ce travail, c’est que les données de concentrations dans les vers de terre, ne reflètent que partiellement la contamination des sols, » par contre, la mesure des taux de survie, de la fertilité, du nombre de descendants, de la croissance ou encore de la motricité d’autres espèces animales prélevées comme les escargots semble être un indicateur pertinent : « les données de contamination des sols pourraient être de bons indicateurs d’effets écotoxicologiques sur certains organismes. » Nous voilà prévenus.
Pierre-Bénite, Arabie saoudite, comment suivre une renaturation ?
Le projet Gesipol-Diva, s’occupe d’une autre forme de contamination, celle des sols de friches industrielles. À Bordeaux, Lyon et Saint-Chamond, Lilian Marchand, responsable de projet environnement au LyRE, le centre d’innovation de Suez et Florence Baptist, dirigeante de Soltis Environnement, ont emprunté la méthode Triade. Ils ont sélectionné certains indicateurs (dont le recouvrement végétal, la richesse floristique, en acariens, bactéries, champignons, collemboles et évidemment en nématodes), ont mis en ligne un outil spécifique pour rentrer les données de terrain et surtout, ils ont simplifié « les équations, car les indicateurs ont du mal à parler entre eux » et ne sont pas « scorables » de la même manière. Ce qui en est ressorti pour le site de Pierre-Bénite à Lyon, réhabilité en 2022, c’est que l’on mesure toujours – sur les escargots – des effets écotoxicologiques deux ans après, également une faible diversité faunistique et une très faible complexité du réseau trophique, mais, à l’inverse, les indicateurs ont révélé une activité enzymatique élevée qu’explique une haute teneur en nutriments des sols. « Cela dit, ce qui est important, c’est de comparer les données année après année. Or, avec l’étude de 2024, on voit que cela s’est beaucoup amélioré. » Triade est une approche normalisée (Iso) d’évaluation des risques écologiques spécifiques aux sites contaminés, les SSP (sites et sols pollués). Pourquoi Triade, au fait ? L’outil couple trois champs d’analyses différents, chimique, écotoxicologique et écologique, son usage délivre une note qui, si elle est considérée comme inacceptable, conduit à le réutiliser, jusqu’à deux fois (trois fois en tout, donc). À chaque remise sur le métier, l’évaluation est approfondie par l’ajout de nouveaux indicateurs permettant de répondre à des questions toujours plus précises. « Le but est de valider une absence de risques pour les écosystèmes, de suivre l’efficacité d’un traitement et de fournir des préconisations de gestion, » détaille Benjamin Pauget, responsable R & D de la société Tesora. Jennifer Harris, chercheuses en microbiologie environnementale, et Virginie Derycke, cheffe de projet en site et sols pollués/environnement, toutes deux du BRGM, confirment : les bio-indicateurs aident à choisir le scénario de dépollution d’un sol pollué le plus adapté. « Ces indicateurs biologiques sont intégrés progressivement, on a toutefois encore besoin de référentiels et de documents guides adaptés aux contextes et aux utilisateurs (donneurs d’ordre, maîtres d’ouvrage etc.). À ce stade, il faut les utiliser avec précaution. » Pourtant, Olivier Hullot, chercheur en postdoc au Bureau, montre à partir des résultats d’une enquête conduite sur 5 sites et autant de niveaux de réhabilitation par des « solutions fondées sur la nature, » sur trois temporalités (6 mois, 2,5 ans et 7,5 ans), qu’en dépit du manque de standardisation des indicateurs biologiques (biomasse microbienne, activités enzymatiques, nématodes) et physico-chimiques (matière organique, texture, pH) utilisés ils « fournissent des signaux précoces robustes de réhabilitation, avec des réponses plus marquées pour les stratégies les plus intensives. » Allons plus loin. Avec une réhabilitation de fait, par abandon d’activités. L’Arabie saoudite, sa sécheresse. Chercheur au Cirad, Marc Ducousso présente un travail sur des indicateurs « micro-organismes » spécifiques aux sols hyperarides. Cinq sites sélectionnés dans la réserve de Sharaan au Nord-Ouest de l’Arabie saoudite, dont trois n’ayant jamais été cultivés et deux qui l’ont été durant une vingtaine d’années. La prise en compte des champignons a amélioré le diagnostic : « pour un site, on n’observe aucun signe de reprise de la végétation naturelle du désert et pour l’autre site, on constate une « autorestauration » et par certains aspects, il ressemble à un site naturel (LR). » L’étude a montré également la stabilité du réseau microbien des milieux naturels par rapport aux sites anciennement anthropisés. Surtout, qu’il existe quelque chose dans le sol dans un environnement parfaitement hospitalier. Pas de doute, il n’existe pas de sols morts dans le monde.
Voilà le monde des indicateurs. Il se porte bien, il est actif, inventif, réactif. Mais il se demande : à quoi sers-je si je reste chez moi ? Une table ronde a tenté de lui apporter des réponses. « Comment développer une offre de conseil et des actions adaptées ?
Préserver l’eau par les sols
L’agence de l’eau Seine Normandie a participé au débat, en la personne de Christophe Poupard, directeur de la connaissance et de la planification. Au premier abord, qu’est-ce qu’un des six agences de bassin métropolitaines faisait dans ce cénacle de spécialistes du sol ? C’est que les sols retiennent 60 % de l’eau de surface, et qu’une eau de qualité dépend de la qualité des sols situés au-dessus ou en périphérie de l’endroit où on la prélève. « Le conseil scientifique du comité de bassin de l’agence, après avoir auditionné plein de scientifiques qui travaillent sur le sujet, a émis en 2022 un avis sur l’intérêt d’avoir des sols de qualité pour la qualité de l’eau. Pour nous, les sols sont un appui important. » Raison pour laquelle les agences de l’eau aident le monde agricole à développer les pratiques les moins préjudiciables à la qualité de l’eau. « On aide déjà les agriculteurs à adopter des méthodes différentes. On aide la remise en place de haies ou de prairies. On a aussi une approche filière, c’est-à-dire qu’on sait que pour avoir des cultures à pas niveau d’intrants, avec peu de phytos, peu d’azote et peu d’eau, il faut qu’il y ait des filières de transformation derrière. Donc on aide, par exemple, des séchoirs à luzerne pour permettre la culture de luzerne. » Une agence de l’eau finance à partir de demandes de subventions. Dans le dossier, elle peut avoir besoin d’études de sols, notamment pour une opération de désartificialisation en ville. L’infiltration à la parcelle est beaucoup soutenue. « Alors, ce n’est pas nous qui conduisons les études de sols. Tout ce qu’on veut, c’est savoir si le projet présente vraiment un intérêt pour la circulation de l’eau. Est-ce que ça va permettre d’éviter qu’il y ait trop d’eau qui aille dans des tuyaux ? Est-ce que ça va permettre de mieux infiltrer ? » Les sols savent le dire, si on leur pose les bonnes questions.
Comment créer un sol
Le BRGM peut être amené à se retrouver avec une agence de l’eau à l’occasion d’un projet urbain. Par exemple lorsqu’une collectivité parle de se végétaliser afin de lutter contre l’effet îlot de chaleur urbain. Elle fait en sorte d’infiltrer à la parcelle, d’abord, ensuite elle plante. Il est arrivé que le Bureau l’alerte : si vous plantez sur un terrain argileux à smectites, vous risquez d’aggraver le risque RGA ! Le BRGM sollicite les bases de données et les tableaux d’indicateurs pour autre chose : la réhabilitation des sols, comme on l’a vu plus haut, et les sols dits reconstitués. Philippe Bataillard est chimiste du sol à l’Unité Risques Sites et Sols Pollués : « comment est-ce que je peux reconstruire un sol en gagnant du temps sur la nature » qui sait réhabiliter toute seule un sol pollué ? « Comment recréer un sol qui peut être un peu, je vais appeler ça une formule 1, c’est-à-dire multifonctionnel, pour qu’il rende le plus de services possibles à la collectivité ? Nous, on regarde un peu moins la biodiversité, je le reconnais, pour aller vers des fonctionnalités de support de culture, de réserve en eau utile, » ou de stockage de carbone. Pour Silvère Frédaigue, le sol doit d’abord produire. Maraîcher, responsable commercial et marketing de la CAMN (Coopérative d’Approvisionnement des Maraichers Nantais) il utilise des sols reconstitués. « Pour produire de la mâche, nous autres maraîchers ramenons 60 tonnes de sable par hectare et par an. Ce sol, on le fait évoluer année après année selon une dynamique différente, tant dans sa structure que dans sa texture, ce qui fait qu’on est toujours sur un référentiel mobile. » Auparavant, les maraîchers ne s’embêtaient pas, le sol étant considéré comme un simple support de cultures, ils le traitaient chaque année au metham-sodium afin de le stériliser avant chaque plantation. Depuis que ce produit a été interdit en 2018, le sol est redevenu vivant, il a fallu faire avec, en le faisant évoluer. « Les maraîchers se sont retrouvés face à un challenge important qui était de dire qu’on va devoir travailler avec la microbiologie, on va devoir travailler avec des équilibres, on va devoir travailler avec des gestions sanitaires comme les maladies fongiques. Ils ont travaillé à reconstruire un socle, un sol. Évidemment, les indicateurs sont au centre, puisque finalement, ce sont des outils qui permettent de savoir si on va dans le bon sens ou pas. »
Il est donc possible de demander aux indicateurs comment il faudrait construire un vrai-faux sol pour atteindre certaines valeurs. Encore faut-il les comprendre, savoir les écouter, dit en substance Joëlle Sauter, responsable de l’équipe sols et fertilité, au service Multiperformance et Transitions Agricoles de la chambre d’agriculture Grand Est : « L’étude Indiquasol, c’est un progrès énorme, c’est un travail de synthèse absolument fantastique qui a été produit. Mais il reste encore cette dernière marche, cette dernière étape à franchir pour que tout ce travail puisse être compris, pris en main, adopté et mobilisé par les agriculteurs. » Ce n’est pas le tout d’avoir la liste des courses, encore faut-il savoir cuisiner. « J’ai cru comprendre qu’il y aura des financements à venir, qu’une suite sera donnée à Indiquasol, » espère-t-elle. Accompagner le monde agricole pour qu’il s’approprie tous ces indicateurs et ne les voit pas comme un empêchement à faire son travail. « Quand des indicateurs sont produits, il s’agit de faire tout un travail pour accompagner les destinataires, ceux qui sont censés pouvoir les utiliser pour faire évoluer leurs pratiques. C’est d’ailleurs une des missions du réseau mixte technologique [RMT] sols et territoires qui fédère des acteurs de la recherche, de l’enseignement agricole, du développement, que de s’approprier toutes les données, les savoir-faire et de les rendre plus facilement utilisables. » Les indicateurs sont là, laissons-leur le temps d’êtres digérés par les bonnes personnes, d’être par elles diffusés puis validés par le terrain. Laissons d’abord le temps aux conseillers agricoles de se les approprier, « il faut qu’il y ait une sensibilisation, une motivation, que les conseillers voient bien que connaître les indicateurs va pouvoir les faire évoluer dans leur métier pour accompagner encore mieux les agriculteurs dans des pratiques qui permettent d’assurer la viabilité des exploitations. » Les maraîchers nantais ont créé le Comité Départemental de Développement Maraîcher (CDDM) qui s’occupe précisément des indicateurs, de leur mise en œuvre, de conduire des expérimentations chez les producteurs. Un travail qui semble se heurter souvent à un mur, résumé par une proposition de Silvère Frédaigue : pour mieux travailler, il ne serait pas inutile de disposer d’un… indicateur de qualité des connaissances des conseillers – et des agriculteurs. « On a un moteur extrêmement puissant, les indicateurs, c’est la puissance du moteur ; mais il y a la capacité à transmettre cette puissance. Et dans la transmission, il y a les conseillers, or, je pense qu’en ce qui les concerne la marche n’est pas importante, elle est abyssale. Oui, vraiment, j’aimerais bien un indicateur de la qualité des connaissances des conseillers, » sinon, les indicateurs agités par les chercheurs ne trouveront jamais le chemin de la ferme. Cela tombe bien, Mathieu Valé, responsable scientifique du laboratoire d’analyse et de « conseil agro-environnemental » Aurea, travaille tous les jours avec des conseillers agricoles. Il en voit des très moteur, qui s’intéressent, demandent des informations, testent eux-mêmes nouvelles méthodes et indicateurs. « Les nouvelles générations qui arrivent sont un peu plus sensibilisées, même s’il y a énormément de turnover. De toute façon, en gros, les conseillers ont besoin de choses extrêmement simples. En outre, ils ont peu de temps pour être formés. » Les chambres d’agriculture ont pour eux des plans de formation, « pour accompagner leur montée en compétences sur la prise en compte des indicateurs et pouvoir accompagner les agriculteurs sur des diagnostics plus portés sur la biologie, » lui répond Joëlle Sauter. Elle voit toujours l’étincelle, sur laquelle les chambres doivent sans cesse souffler en faisant garde à ce qu’elle ne s’éteigne jamais. Chez tout le monde : « il faut continuer à promouvoir, à sensibiliser tous nos décideurs sur l’importance des sols et de ces questions qui rentrent dans le quotidien des agriculteurs. » Elle doit parler d’expérience.
Faire dialoguer les logiciels et les gens
Pour faciliter le travail de tout le monde, une plateforme en ligne est en cours de construction, sous l’égide de l’Association française pour l’étude du sol (Afes). « Aujourd’hui, c’est un petit peu la jungle, parce qu’il y a plein d’informations qui sont dispersées à différents endroits, c’est à travers cette initiative, cette future plateforme du sol qu’on va essayer de simplifier votre vie, » annonce Joëlle Sauter. Silvère Frédaigue aimerait aller encore plus loin : que les outils de saisie associés à chaque indicateur communiquent entre eux, pour que l’agriculteur n’ait à en remplir qu’un seul, ou si peu. « Il faudrait une normalisation, créer un protocole de communication qui fasse que, quel que soit l’outil qu’on met en œuvre, qu’il provienne de l’INRAE ou d’une start-up, hé bien ces outils-là s’agglomèrent, discutent les uns avec les autres de manière relativement simple, je pense qu’avec cela, on aurait des outils qui deviendraient opérationnels. » Cela tombe sous le sens, mais Mathieu Valé doute de la pertinence de cette énième déclinaison de la tarte à la crème appelée guichet unique. D’abord parce que ce serait très long à faire, ensuite, « [sur des projets semblables] on a déjà été confrontés à des réticences des agriculteurs qui nous disaient « je mets mes données parcellaires accessibles à tout le monde, je perds la maîtrise sur mes données ! » Alors, ils ont freiné un peu et ont donné le minimum d’informations. » Le partage de données interprétées et harmonisées existe bien au niveau des laboratoires, il est balbutiant à l’échelle des agriculteurs, qui sont à l’origine des données brutes. Quoi qu’il en soit, qu’est-ce que les premiers concernés, les agriculteurs, attendent en retour des diagnostics réalisés sur leurs parcelles ? Mathieu Valé en a sondé : « la moitié, en gros, était partante pour de l’appli smartphone et de l’interface en ligne, l’autre moitié disait « non, moi je veux du B2B, je veux quelqu’un en face de moi pour discuter des résultats. » Donc il faudra forcément du mix. » Et puis, poursuit-il, on a beau essayer d’être super-pédagogue, il y a des concepts difficiles à faire passer, des vocabulaires différents et des définitions disparates de mêmes notions. Comment faire dialoguer sans incompréhension des chercheurs, des bureaux d’études, des paysans, des conseillers qui ne parlent pas le même langage et ont chacun des idées reçues et des certitudes ?
agriculteur, n’oublie pas tas bêche !
Surtout après que l’INRAE a proposé sa cinquantaine d’indicateurs. Qu’en faire ? « Ça n’est trop que si on nous demande de tous les utiliser ! », réfléchit Mathieu Valé. « Il faut bien définir à l’avance pourquoi moi, agriculteur, coopérative, je veux faire des analyses. La liste de l’INRAE est juste une boîte à outils à valoriser. En fait, il faudrait d’abord faire un prédiagnostic : aller chez l’agriculteur, lui demander, « c’est quoi tes atouts, tes contraintes, tes besoins » etc. à partir de là, lui dire « on a besoin d’en savoir plus parce que [tu nous dis qu’il y a] des problèmes d’infiltration ou de stagnation de l’eau », et alors sortir tel ou tel indicateur de la boîte à outils. » Une approche utilitariste, pragmatique, car on ne peut ni tout regarder d’un coup, ni appliquer comme on le fait (trop) souvent une même grille d’analyses à tout le monde. Silvère Frédaigue abonde : « les agriculteurs n’ont pas tous les mêmes besoins. La diversité des indicateurs, je trouve donc que c’est quelque chose de très bien. Par contre, il faut les rendre dynamiques. Refaire les analyses tous les 3 ans par exemple. Les producteurs ont besoin de concret, ils ont besoin de se dire, « tout ce que je mets en œuvre, ça fait sens et ça fait évoluer mon système dans la direction que je souhaite. » Pour cela, il faut aussi beaucoup d’ergonomie, afin de suivre facilement l’évolution de son système d’exploitation. » Pourquoi pas d’abord des indicateurs simples à manier par l’agriculteur lui-même, comme le test bêche, promu par Joëlle Sauter ? « Oui, il permet par exemple de voir des compactions majeures sur les 30 premiers centimètres, » approuve Silvère Frédaigue, « et si on voit grâce à cela un sol où l’eau et l’air ne circulent pas, à quoi bon faire une analyse de plusieurs centaines d’euros pour aller mesurer de l’activité microbienne quand on sait qu’elle ne fonctionne pas sur un sol pareil ? » Autrement dit, la boîte à outils de l’INRAE se doit d’être hiérarchisée : on commence par la bêche, pas par la respiration microbienne ou l’ADNe. « La hiérarchisation est indispensable, l’indicateur biologique, ne vient [que] comme un biomarqueur de confirmation, il vient étudier des questions de santé long terme. » Mathieu Vallé est un peu dubitatif, car il voit beaucoup d’agriculteurs peu formés ou peu intéressés à l’idée de faire des tests eux-mêmes. Mais peut-être est-ce un peu à cause des mauvaises habitudes « on sait qu’il faut promouvoir cela, mais dans les faits, ce n’est quand même pas énormément utilisé. Cela dit, quand nous, on propose des services, des analyses, c’est clés en main, c’est-à-dire qu’on fait nous-même le prélèvement, alors que ce serait sans doute plutôt à l’agriculteur de le faire, parce qu’il en profiterait pour observer son sol. » Et puis, une bêche, l’agriculteur l’a déjà.
La pédagogie par les PNR
L’agriculteur ou le chargé de mission de parc régional. Les 69 PNR sont des nouveaux venus dans le monde des sols. Leur objet premier est de valoriser tous les patrimoines d’un territoire, en en faisant causer leurs usagers et acteurs. Les PNR sont des parlements qui ne disent pas leur nom. « Les agents ont des liens très forts avec les habitants, les acteurs des territoires, dont les agriculteurs. Ils peuvent sensibiliser sur les sols, » présente Léa Pourchier, chargée de mission Énergie, Biodiversité et Sols à la fédération nationale des parcs naturels régionaux. « Un autre élément important et intéressant, c’est que les PNR sont aussi des outils d’expérimentation. On aime bien tester ! Beaucoup d’acteurs viennent nous voir pour mettre en place de nouvelles choses. Il faut juste que cela corresponde avec le projet de Parc, » inscrit dans sa charte, qui est sa feuille de route stratégique discutée et approuvée par les élus des communes adhérentes. Elle dure quinze ans et est rediscutée à l’issue de cette période. Les sols font désormais partie des patrimoines à préserver. La fédération nationale des parcs naturels régionaux y est arrivée par… les éoliennes. « On est soutenus financièrement par l’ADEME, sur une convention de sensibilisation des agents des parcs sur l’impact des énergies renouvelables sur les sols. On a mené quelques actions, des webinaires, des partages d’informations et à la suite d’une enquête que j’ai menée auprès des agents, je me suis rendu compte qu’il ne fallait pas seulement se limiter au secteur de l’énergie, car en fait, il y avait des besoins énormes de partout, et même des demandes de la part des agents de créer vraiment un groupe de travail sur les sols. » Car les agents constataient depuis quelques années une dégradation des sols, de leurs fonctions écologiques, sans se sentir capables d’y remédier, faute de suffisamment de compétences. Convaincre les élus de l’importance des sols lorsqu’ils ont à réfléchir à un projet d’énergie renouvelable, lors des discussions relatives au renouvellement (ou pas) d’une charte. Former les agents à prélever des sols, à réaliser des diagnostics, à épauler les agriculteurs. « Mieux connaître leurs sols, cela ressort beaucoup dans la bouche des élus, pendant le processus de révision, » se réjouit Léa Pourchier. Dans ce but, 5 PNR – en cours de sélection – vont devenir dès cette année les pilotes d’un plan d’action en faveur de la santé des sols, à partir de ce que le PNR des caps et marais d’Opale est en train de faire depuis janvier 2025 : une vaste vulgarisation à destination des gens, des élus et des techniciens du parc, à base de résidence d’artistes, de conférences sur les liens entre sols et alimentation et de parcelles tests.
Encore faut-il qu’il y ait des sols. Or, ceux-ci n’ont de valeur que si l’on en fait quelque chose. Le sol, en France, n’existe pas en soi, seulement s’il rapporte ou rapportera un jour de l’argent. On peut avoir la plus belle gamme d’indicateurs du monde, si la loi ne protège pas les sols de son premier ennemi, le macadam, cela ne servira à rien. C’est le sujet de la seconde table ronde.
Une sénatrice désabusée
La réglementation et le foncier comme vecteurs d’amélioration de la santé des sols. Par une interview filmée au Sénat, la sénatrice PS de la Charente Nicole Bonnefoy a introduit les débats de la seconde table ronde par l’évocation pour le moins contrastée de la vie politique des sols. Ses collègues en parlent, tout le monde en cause, pourtant, le projet de loi présenté par la sénatrice en 2023 portant sur la santé des sols a été rejeté selon elle à cause d’un certain lobby : « mes collègues de droite m’ont dit que si la FNSEA soutenait le texte, ils le voteraient… » Un lobby et d’autres qui souffleraient le vent mauvais sur les deux assemblées, celui qui a poussé au vote la loi Duplomb qui désole la sénatrice. À propos de la directive-cadre sur les sols, qui devrait être traduite en droit français avant trois ans, la sénatrice entend les reproches d’une partie du monde agricole et des Safer – les diagnostics de qualité des sols vont coûter trop cher au regard du prix modeste de l’hectare – elle y répond en réclamant « un accompagnement et des aides », soulignant que « le coût de ne rien faire sur les sols serait bien supérieur. » Certes.
Film réalisé et monté par Arthur Rifflet, assisté de Théo Denhez.
Le bon sens ou la norme ?
Dix minutes de propos qui ont fait immédiatement réagir Baptiste Gatouillat, référent sols des chambres d’agriculture : « je pense que les agriculteurs ne sont pas réfractaires au changement. Là où on le devient c’est que nous, chambres d’agriculture, on a tout un système de développement sur le terrain, des conseillers qui peuvent accompagner. Mais si nous, agriculteurs, on a l’impression d’avoir en face de nous non pas à un conseiller mais plutôt un agent de l’État qui vient appliquer une réglementation sur l’exploitation, le regard et l’envie d’y aller sont tout à fait différents. » Tout ce qui vient du haut et n’est pas accompagné a la promesse d’être rejeté. « Il faut vraiment que la réglementation s’applique avec du bon sens paysan. Si c’est pour nous faire des diagnostics qui vont nous coûter les yeux de la tête, ce n’est pas la peine d’essayer de venir avec une proposition comme ça. Il faut, j’insiste vraiment, qu’il y ait création de valeur ajoutée sur l’exploitation. C’est ça, une réglementation intelligente avec du bon sens paysan. Et là, à partir de ce moment-là, il n’y a pas de problème. » Reste à savoir ce qu’est le bon sens paysan. « On produit une alimentation pour nos concitoyens, à un moment on a été capables de faire des efforts, on a su produire en quantité, on a su apporter de la qualité, là maintenant on nous demande [de préserver] l’eau, l’air, le sol… j’ai envie qu’on rajoute la vie du paysan dans la réglementation. » Bref, pas besoin forcément de réglementation, le bon sens serait de faire confiance aux agriculteurs.
ZAN le mal parti
Margot Holvoet n’a pas d’avis sur la proposition. L’Institut de la transition foncière dont elle est la déléguée générale ne s’intéresse d’ailleurs pas tellement aux sols agricoles mais à tous : il s’occupe d’aménagement du territoire. « Les réglementations sont bien souvent nécessaires pour donner un cap, donner des objectifs, impulser aussi des dynamiques qui bien souvent ne s’enclenchent pas, car il faudrait derrière les traduire en politique publique, c’est-à-dire permettre de les appliquer. » En France, on considère généralement qu’un règlement ou une loi suffit à régler un problème. Sans s’inquiéter de son application. Le ZAN par exemple, beau à regarder, pourtant détricoté. « Il [aurait fallu] l’accompagner d’une politique publique, travailler sur les enjeux de financement, des évolutions fiscales, on peut penser aussi à des évolutions du modèle économique de l’aménagement. » La loi ZAN initiale était complexe, elle plongeait les élus locaux dans la perplexité : comment je peux à la fois préserver les terres agricoles et construire des logements, alors qu’une bonne partie de mon budget provient des taxes prélevées sur le foncier ? Cependant, une étude de l’Institut a montré que « lorsqu’on regarde les EPCI, on voit que la corrélation entre augmentation de la population et augmentation de l’artificialisation est très fine. On a même 500 communes qui n’ont pas artificialisé du tout sur les 15 dernières années, alors que plus de la moitié d’entre elles a gagné en emploi, en population. » Le développement d’une ville n’entraîne pas mécaniquement de nouveaux besoins fonciers. Des chercheurs l’avaient déjà montré : en France, l’étalement urbain est allé beaucoup plus vite que la population. Il semblerait que les élus locaux estiment qu’il leur faut être d’abord des bâtisseurs. « La loi ZAN c’est une avancée pour nous, » défend M. Gatouillat, avant d’en montrer le principal effet pervers : « mais on voit que la commune qui avait bien géré son foncier, qui a pris un, deux hectares, finalement, se retrouve plus pénalisée que la grande métropole qui avait pris beaucoup plus de surface. » La loi ZAN imposait en effet de réduire de moitié la consommation de foncier d’ici 2030, à partir de ce qui avait été déjà artificialisé entre 2010 et 2020 : les communes historiquement les plus utilisatrices de sols étaient donc favorisées, les plus vertueuses se privaient dans le même temps de possibilités d’aménager demain. « Nous, agriculteurs, on était d’accord sur cette réglementation-là, mais finalement, au niveau local, les élus de petites communes nous ont avertis qu’il y avait aussi cet effet pervers. Il y a eu en conséquence une révision nécessaire de la loi, » poursuit M. Gatouillat. Philippe Billet, directeur de l’institut de droit de l’environnement de l’université Lyon 3, partage ce constat : « la loi ZAN, au départ, c’était un mauvais projet, parce que se fonder pour déterminer la quantité possible d’imperméabilisation sur les dix années précédentes c’était transformer les plus mauvais élèves en bons élèves, ceux qui avaient mal fonctionné antérieurement bénéficient actuellement de la loi ! » En outre, la loi impose qu’à chaque hectare nouvellement urbanisé, un autre hectare soit désimperméabilisé, renaturé ou empêché d’être artificialisé. Or la compensation est illusoire du point de vue scientifique, car la mise dans le coma d’un sol vivant par son recouvrement sous une dalle est immédiate, tandis que la désimperméabilisation par compensation réclame beaucoup de temps avant de se traduire par un retour à un fonctionnement biologique convenable du sol. Est-il cela dit encore utile de se poser tant de questions ? « Un certain nombre d’oppositions politiques ont obtenu que les communes et les intercommunalités bénéficient chacune d’un hectare incompressible à artificialiser, le cas échéant en se mettant en commun pour pouvoir continuer d’urbaniser. La dernière dérogation en date, publiée le 24 juin 2025 concerne les JO 2030 : l’ensemble des aménagements liés à ces Jeux olympiques ne sera pas comptabilisé au titre du ZAN. C’est pratique. » Des JO qui se feront en plus probablement sans neige.
Thibaut Guigue est président de Métropole Savoie, à Chambéry. Il a adossé la révision simplifiée de son Scot à des critères de qualité des sols. Pour lui, l’effet pervers de la loi ZAN est à nuancer : « nous, on est un territoire qui, sur ces questions de trajectoire ZAN, était déjà très engagé, on avait déjà fait les moins 50 % [avant 2030], on était quasiment à moins 60 %, sur la période 2001-2021. Le constat qu’on fait, partagé lors du congrès de la fédération française des Scot à Arcachon cette année, c’est que finalement les territoires engagés, historiquement, ceux qui sont potentiellement plus pénalisés par la loi, ne sont pas ceux qui se plaignent aujourd’hui, parce que comme ils étaient déjà engagés, ils ont poursuivi la trajectoire, ils ont un certain sens, une certaine responsabilité. » La loi a été mal écrite, « mais au moins elle a enclenché une dynamique : aujourd’hui les trois quarts des SCOT qui sont engagés a minima dans une modification simplifiée ont intégré les sols dans leur réflexion, et pour ceux où le moins 50 % est déjà bien avancé, ils ont intégré la question des fonctionnalités des sols. » Selon l’élu savoyard, il n’y aurait donc plus grand monde qui conteste le fondement du ZAN. Il en aurait été de même avec la loi proprement dite si ses décrets d’application ne l’avaient rendue tant détestable : « les services de l’État, à un moment donné, ont essayé de faire ce qu’ils pouvaient avec la loi telle qu’elle était écrite. Et ils ont fait des choses qui sont extrêmement précises, des tailles de parcelles, etc. Mais en fait, quand on essaye d’utiliser ça au quotidien, nous, élus, on se rend compte que c’est impossible. Si le législateur faisait son travail correctement, [il arrêterait] d’imaginer que son rôle, c’est d’écrire des lois qui font des pages et des pages et qui sont hyperprécises, non, son rôle, c’est bien l’orientation. » La loi est toujours bavarde et conçue pour être appliquée partout de la même façon. C’est l’autre péché originel du ZAN, fidèle au principe constitutionnel d’égalité de toutes et tous devant la loi : la loi se doit d’être la même partout, quel que soit le terrain ; le ZAN avait donc été imaginé pour des territoires qui devaient être tous semblables. Pourtant, la loi avait aussi prévu que ce soit les régions qui distribuent le contenu de l’enveloppe commune de terres à artificialiser, dérogations comprises. « Oui, mais là encore, les territoires sont différents », reprend Thibaut Guigue, « ça a très bien marché en Bretagne, où il y a trente-six Scot qui se sont fédérés dans un seul Interscot, vous avez donc trente-six présidents autour de la table, alors que dans d’autres régions vous pouvez en avoir des centaines, » et là, ça devient compliqué de dire à l’un tu auras un hectare, et à l’autre, tu n’auras rien. Bref, ça avance, mais à son rythme, qui n’est pas celui auquel se meut brutalement le dérèglement climatique. L’Institut de la transition foncière s’est demandé ce qu’il en serait si la loi ZAN était vidée de sa substance, par la loi TRACE notamment. « Sur la période 2011-2021, c’est environ 250 000 hectares qui ont été artificialisés. Donc, si on applique le ZAN, d’ici 2050, on estime que l’on économiserait à peu près 400 000 hectares de terres agricoles, parce qu’il ne faut pas oublier que l’artificialisation se fait à 90 % sur les terres agricoles. » Soit l’équivalent de 5 600 exploitations agricoles moyennes conservées. La loi ZAN est imparfaite, mais elle aurait des résultats si on l’appliquait, si elle s’inscrivait dans une trajectoire générale cohérente qui tend vers la transition écologique. « On a un ensemble de politiques publiques, de réglementations qui permettent d’aller vers la meilleure préservation des sols, le ZAN, évidemment, mais aussi la législation sur les espaces naturels, qui préserve aussi, en passant, les sols. Mais de l’autre côté, on a aussi des politiques industrielles, de logement, agricoles, qui peuvent aller dans l’autre sens. Donc je pense qu’on a vraiment besoin de clarté, de cohérence sur le cap, et c’est pourquoi on a proposé il y a quelques mois, avec notamment Métropole Savoie, un appel pour une politique nationale des sols qui permette d’y voir un peu plus clair sur cette question de l’évaluation des sols, » qui ne marcherait pas sur les pieds de la stratégie nationale biodiversité, de la stratégie bas carbone, du plan national d’adaptation au changement climatique ou encore du Plan Eau.
ZAN au Chapelles
Cohérence, un mot qui revient souvent dans les débats sur à peu près tous les sujets. Chacun « silote », chaque administration, ministre, fait sa loi dans son coin sans se concerter avec les autres. Une tradition française car dans chaque collectivité, le service voirie ne cause pas forcément avec le service mobilité, ni avec les espaces verts ou l’eau. Le couloir de nage permet d’aller droit, mais tout seul. Secrétaire général de la fédération nationale des Safer, président de la Safer Bourgogne-Franche-Comté ex-vice-président du Scot Tarentaise Vanoise et ancien maire de Les Chapelles (Savoie), Gilles Flandin fait un lien, lui, entre sols et transport quotidien : « pour l’élaboration du Scot, on s’était rendu compte qu’on avait des déplacements pendulaires que nous n’étions plus capables d’assumer entre le domicile de travail avec des salariés des stations de ski qui vont habiter dans les zones rurales. Rien que ça, ça a déjà alerté énormément [sur la demande en logements, donc possiblement la demande foncière] et on n’avait pas forcément eu ce regard-là au préalable. L’autre constat est qu’on avait en moyenne un taux d’occupation des lits de moins de 11 semaines par an : [on avait consommé du foncier] pour 11 semaines par an ! À partir de là, on a eu une réflexion pour se dire il faut voir les choses autrement… sauf qu’on s’est très vite rendu compte qu’il fallait agir sur sept ministères différents, » pour écrire le Scot. On lui fait confiance, on n’a pas refait le compte. Les Safer régulent le prix de la terre agricole afin d’éviter l’emballement, la spéculation. De facto, elles préservent les terres, tout en restant lucides : « On ne peut pas empêcher un pays de se développer, mais il faut qu’on apprenne à utiliser ou à regarder de près tous nos besoins, puis de les hiérarchiser et de voir comment on peut faire en sorte qu’ils soient complémentaires les uns aux autres. On a du travail à faire sur ces sujets-là tous ensemble, il n’est pas question d’opposer qui que ce soit, mais il faut qu’on réfléchisse à comment on peut mieux habiter, cohabiter, gérer le foncier encore disponible. » Gilles Flandin parle d’expérience. Il avait réussi à geler la consommation foncière du village dont il fut le maire deux mandats durant. Un PLU d’essence révolutionnaire. Beaucoup de ses administrés lui avaient réclamé que leurs parcelles en périphérie du village fussent déclarées constructibles, au cas où, d’ici à vingt ans, il y aurait une culbute financière certaine. « On a regardé de près le potentiel déjà bâti et pourtant inoccupé, car on a énormément d’anciennes fermes non habitables, inhabitées ou occupées au quart. Dans ces fermes, on a ainsi identifié un potentiel de 80 logements de 60-70 m2 chacun, à faire ou à rénover. » La commune comptait environ 320 logements. Un quart en plus, simplement en améliorant. « On a croisé cela avec le taux de population qu’on souhaitait dans dix à douze ans. On est 600 aujourd’hui, et on a estimé que, par rapport au réseau d’eau potable, à la voirie, à Internet, etc., on peut monter à 800 habitants, en conservant le même nombre moyen d’habitants par logement qui est de 2,5. Du coup, on n’avait pas besoin de plus de logements ! » Utiliser l’existant, ne pas construire pour construire, c’est cela, le zéro artificialisation nette. « Plutôt que de faire un trait de crayon entre ce qui sera urbanisable et ce qui restera agricole, j’ai fait un tour de crayon autour de la commune ! Mais au cas où, on a gardé 2 hectares consommables. » Par exemple pour aménager des parkings extérieurs, car les nouveaux habitants ne peuvent pas toujours stationner au bas de chez eux, afin que la voirie, au centre du hameau, ne soit pas couverte en permanence par des voitures.
Pour d’autres maires, la réflexion n’est pas allée aussi loin. Peut-être un autre regard les aiderait-il, à propos de la valeur qu’a un sol bien structuré et vivant au regard de l’augmentation du nombre et de l’intensité des sécheresses, des inondations, des éboulements et de la rétractation-gonflement des argiles. Le point de vue d’un assureur par exemple. Aurélie Fallon Saint Lo est la cheffe de la « souscription durable » chez Axa. « Dans un monde qui vit une triple crise planétaire, celle de l’érosion de la biodiversité, du climat et des pollutions, ça devient de plus en plus compliqué d’identifier et de comprendre les risques et encore plus de les prévenir. C’est pour ça qu’on transforme nos activités en introduisant la notion d’assurance durable, » c’est-à-dire limiter notre impact sur l’environnement, accompagner la transition et l’adaptation. Par exemple en « militant » (sic) auprès des élus locaux pour de meilleurs plans d’urbanisme, au sens de la prise en compte des risques. Sans aller toutefois jusqu’à menacer les collectivités qui ne se soucient pas plus que cela du débordement éventuel des rivières ni du ruissellement sur la voirie, de ne plus assurer leurs projets de gymnase ou de ZAC. Car, dit Aurélie Fallon Saint-Lô, même si Axa refusait, les communes iraient voir ailleurs. Une réflexion que ne partagent pas tous les assureurs. Axa préfère devancer : « on a développé un accompagnement avec Ma commune en Action pour prévenir et alerter les maires des petites communes sur les manières d’améliorer l’aménagement de leurs territoires en fonction des risques climatiques, » en artificialisant moins, en faisant plus usage de solutions fondées sur la nature. Cette plateforme en ligne aide notamment à la réalisation des Plans communaux de sauvegarde (PCS), sortes de classeurs réponses à tout en cas de crise, obligatoires quand une commune est soumise à un plan de prévention des risques (inondation, incendie etc.). Axa assure également « toute action de restauration de la nature, ou pour générer des crédits carbone ou les futurs certificats biodiversité. » En clair, l’assureur garantit en partie l’investissement qui est mis sur la table pour restaurer une zone humide, contre des aléas climatiques susceptibles de ruiner les résultats escomptés. L’assureur protège également l’acquéreur d’un site pollué : « lorsqu’un industriel décide de vendre un site, il faut faire des diagnostics, et pour conforter la vente, on peut offrir des garanties de passif environnemental. On va alors rentrer dans le risk management, on va vraiment vérifier les diagnostics qui ont été faits, pour s’assurer qu’on a cherché les bons polluants éventuels en fonction de l’historique des sites. » Qui sait, demain Axa demandera peut-être à voir au moins la structure d’un sol afin de jauger de sa capacité à ne pas tomber sur la route ?
À chambéry, Un Scot les pieds sur terre
La loi aiderait peut-être. À propos, qu’est-ce que le juriste pense des indicateurs ? Philippe Billet en a deux définitions : « soit l’indicateur sert de déterminant pour appliquer une norme, c’est ce qu’on est en train de développer en matière de sols. À partir du moment où on aura un certain nombre d’indicateurs [allant dans un certain sens], on pourrait dire que ce sol mérite protection, donc ne sera pas urbanisé. Ou alors, autre définition, l’indicateur sert de référentiel pour un résultat. Exemple, la directive-cadre sur l’eau, ce qu’on appelle le bon état écologique, le bon état chimique, le bon état biologique [est défini] par des indicateurs qui permettent de dire on a atteint ce résultat. » L’indicateur est un point de référence, il engage à partir du moment où atteindre le résultat peut permettre d’éviter la sanction. Il faut donc… une sanction associée à l’indicateur… « L’indicateur, il a vraiment le rôle qu’on lui donne à un moment donné dans un objet donné. » Il est un moyen pour atteindre un objectif. Thomas Guige en a utilisé beaucoup pour la révision simplifiée du Scot. Il a voulu en effet aller au-delà du simple calcul des surfaces artificialisées pour regarder les sols « en trois dimensions » : « on n’est pas uniquement sur une surface plan sur laquelle on vient s’installer, ce sol il a des fonctions, il a des qualités et alors il faut qu’on cherche à les connaître, non pas dans une visée de créer de la norme, mais pour prescrire. » Son Scot s’est porté candidat à un appel à manifestation d’intérêt de l’ADEME sur le ZAN, une grande étude sur les fonctionnalités des sols étendue à l’ensemble du territoire. « On est partis de la démarche Muse, du Cerema [pour cartographier la multifonctionnalité potentielle des sols], qu’on a adapté à notre territoire de montagne. On a fait des carottages, on a pris des indicateurs, on a mis une note sur 30 à chaque fonctionnalité et on a déterminé des niveaux qui donnaient des fonctionnalités fortes, des fonctionnalités faibles et des fonctionnalités moyennes. » Les cartes obtenues ont vocation à aider les élus à mieux arbitrer qu’ils ne le faisaient jusqu’alors. C’est peut-être pour les édiles des plus petites communes que ce sera le plus utile, car, « le maire, quand il doit arbitrer entre un terrain constructible et un terrain non constructible, la plupart du temps il le fait entre son cousin et son beau-frère ! » Montrer à tous une bonne carte incontestable peut permettre d’éviter les conflits de famille. Or, des communes où tout le monde se connaît et est plus ou moins apparenté, Thibaut Guigue en a beaucoup sur son territoire : « on a 255 000 habitants sur 107 communes dans le Scot. Vous retirez les deux plus grandes, vous enlevez d’un coup 90 000 habitants. Donc il reste 105 communes pour à peu près 160 000 habitants. Je vous laisse faire la division, vous voyez la taille moyenne des communes… » On l’a fait, 1 524 habitants. Cela dit, une carte ne suffit pas. Et l’on ne saurait se contenter des fonctions des sols. « On doit aussi tenir compte des investissements à venir en matière de mobilité ou de réseaux d’eau, et arbitrer la constructibilité par rapport à cela. » Bref, de la réalité.
cette vacance qu’on ne veut pas voir
Les territoires sont tellement différents dans leur histoire, leur foncier, leur quotidien, leur identité et leur économie qu’il est illusoire de leur demander de gérer leur aménagement de même manière. D’autant qu’ils n’ont plus moyens d’avant. La FNSAFER regrette d’ailleurs la fin de la taxe d’habitation qui a privé les mairies de ressources, les condamnant à loucher sur le foncier. Philippe Billet fait à ce propos un petit rappel historique : « Je rappelle que la loi SRU du 13 décembre 2000 avait mis en place un impératif de densification. Ensuite, la loi Alur du 24 mars 2014 a supprimé le coefficient d’occupation des sols, la surface minimale pour densifier, pour renforcer l’occupation des sols et permettre de « construire la ville sur la ville », malgré tout, on en est arrivés à créer la ZAN parce qu’on n’a pas appliqué la densification. On a tenté aussi de créer des fiscalités incitatives à l’occupation des sols. Ça n’a absolument pas marché, mais on a passé dix ans à créer une taxe, la taxe d’aménagement, on a aussi passé deux ans à former des fonctionnaires à la gestion de cette taxe. » C’est long. On aurait pu en attendant s’atteler à la vacance des logements et des bureaux existants. « Il y a des millions de mètres carrés inoccupés et on construit toujours ! On est à 11 % de taux d’inoccupation ou d’occupation partielle ! » s’énerve le juriste. Lutter contre la vacance territoriale devrait être un objectif prioritaire. Un autre, soulevé par Gilles Flandin : la consommation masquée. « Ce sont les quelques milliers de mètres carrés, 1 000 par-ci, 5 000 par-là, qui sont à la fois attachés à du bâti résidentiel et à l’activité agricole, et qui, au moment d’une transaction, sortent du milieu agricole pour rejoindre souvent une zone de loisir. C’est la maison avec un peu de terrain autour où il y avait dans le temps une activité agricole, elle est rachetée, les nouveaux propriétaires y mettent un âne, un mouton, un cheval, cela reste donc sur le papier du terrain agricole mais qui échappe désormais à l’agriculture. » Pis encore, le syndrome du cabanon. « Au fond d’un terrain de 1 000 ou 2 000 mètres carrés, on voit un jour un tas de gravats, puis le tas de gravats, il se transforme en un petit cabanon, puis le petit cabanon, on finit par voir une fenêtre derrière, et après, on trouve un canapé dedans. Et tout cela, ça devient une construction, illégale, que les collectivités sont dans l’incapacité de faire disparaître et là, on est tous coincés. » Est-ce important, la tiny house de bobo qui devient un are perdu pour le paysan ? Oui ! « Cette consommation, sur notre territoire, c’est presque 50 % de la consommation de foncier ! En Auvergne-Rhône-Alpes, c’est 5 000 hectares par an qui disparaissent ainsi de l’activité agricole. » ZAN, ou pas.
Arrêtons de tourner autour du pot. Est-ce que la cohérence réclamée lors de ces deux journées consacrées aux sols ne serait pas de les considérer comme un bien commun afin que l’intérêt général prime sur celui d’une collectivité, d’un particulier, d’un aménageur ? « On se heurte avec les sols à la propriété privée », ne cesse de répéter Philippe Billet. Si la loi de reconquête de la biodiversité l’avait écrit noir sur blanc plutôt que d’affirmer que le sol « contribue » au patrimoine commun de la nation (ce qui ne vaut rien, juridiquement), « les propriétaires auraient pu penser qu’ils auraient été dépossédés par l’État, ce qui est faux, puisque cela aurait introduit une espèce de dissociation entre une valeur générale et une valeur de propriété, » qui existe déjà : si vous avez une maison dans un secteur sauvegardé, vous ne pouvez pas en faire tout ce que vous voulez, car l’ABF a son mot à dire sur la couleur des volets comme sur l’ampleur de la rénovation énergétique que vous prétendez conduire. « On pourrait généraliser le principe de la transpropriation. Prenez un monument historique, le mur appartient au propriétaire, l’historicité appartient à la nation. Vous prenez un périmètre de protection de captage, le sol appartient au propriétaire qui a une contrainte dans un but d’intérêt général – et une indemnité, donc on arrive bien à faire une dissociation juridique entre la propriété et ce qu’on appelle le droit de jouissance, c’est-à-dire le droit d’usage du bien qui peut être détaché et affecté à autre chose à condition qu’il y ait, puisqu’il y a une privation, une indemnité, » et pas une rémunération qui impliquerait que le service appartiendrait au propriétaire du sol. Mais voilà, la propriété privée est sacrée en France, elle est un des grands acquis de la Révolution, présente tout en haut de la Déclaration des droits de l’homme et du citoyen, elle est dans notre culture collective la seule assurance contre la pauvreté quand l’heure de la retraite est venue. Protéger vraiment les sols revient à indiquer à tout le monde qu’en dernier lieu, ils ne sont pas plus à nous que l’eau et l’air. Une autre révolution.
Ceci n’est pas une fable. L’eau avait débordé à Valence quand en novembre 2024 à Evian s’est tenue la journée consacrée aux liens qui l’unissent à l’espace. Qu’est-ce que l’on voit de l’eau depuis le satellite, en quoi cela peut-il nous aider à la mieux gérer ? Une manière d’explorer les outils que chercheurs, techniciens et élus ont à leur disposition pour améliorer leur manière de comprendre, de connaître et de prévoir la vie de l’eau que le changement climatique perturbe depuis déjà une génération. Un colloque organisé au Palais Lumière d’Evian les Bains par Bertrand Cousin et son équipe du Cluster eau lémanique.
Le Léman depuis le bateau qui le traverse : c’est grand !
Il faut des sous et du terrain
Dans son introduction, Claude Haegi, Président de la Fondation – suisse – pour le développement durable des régions d’Europe (FEDRE) et Vice-président du Cluster Eau Lémanique organisateur de l’événement prévint d’emblée : « La montagne s’affaiblit ! » Elle s’érode, s’écoule, s’effondre. Elle descend dans les vallées, entraînée par le changement climatique. « Malgré les avertissements réitérés depuis longtemps, », a-t-il dit puis écrit dans un billet sur le réseau LinkedIn, « la fragilisation des espaces naturels, l’effondrement de parois rocheuses dans les vallées montagneuses, des terrains mouvants jusqu’en plaine et en sites urbains s’ouvrant à des flots d’eau et de boue, la fonte spectaculaire des glaciers aux multiples conséquences, » la science avait prévenu, les faits sont là. « On n’avait pas imaginé que des cours d’eau qui étaient tranquilles jusqu’à présent puissent se transformer en menaces considérables. L’eau est sans doute une des menaces les plus grandes, » et c’est tout l’intérêt, conclut-il, de structures telles que le Cluster Eau Lémanique et la Commission internationale de la protection des eaux du Léman (Cipel) de le rappeler et le démontrer sans cesse aux élus et à leurs administrés à l’échelle transfrontalière. Que faire ? « Améliorer le lien qu’il y a entre la gestion de l’eau sur les territoires et l’aménagement du territoire, » défend Bruno Faurel, membre du comité de bassin Rhône-Méditerranée-Corse et président du syndicat d’aménagement de l’Arve et de ses affluents. L’eau n’est toujours pas un élément structurant de l’aménagement du territoire. Elle est toujours considérée comme une ressource, alors que « nos forêts, notre agriculture, notre biodiversité ont aussi besoin d’eau ! ». Or, très peu de documents d’urbanisme et de planification tiennent compte de cette universalité de l’eau. « Rares sont les schémas de cohérence territoriaux (Scot) qui abordent l’eau sous un autre regard que le simple regard de la ressource, », prend-il pour exemple. Avant d’aborder deux sujets qui fâchent : d’abord lrse/e financement de l’eau, aujourd’hui basée sur la seule consommation. « Est-ce de cette manière-là qu’on arrivera à intégrer l’idée que le soin apporté à l’eau, c’est le soin apporté à la nature dans son entier, c’est le soin apporté à notre avenir et à notre qualité de vie ? » La réponse est dans la question. La taxe Gémapi (Gestion des milieux aquatiques et prévention des inondations) a apporté un début de changement en faisant financer la protection… contre les débordements de l’eau par un. pourcentage sur la taxe foncière qui est prélevée par les collectivités. Autre sujet, celui de la gouvernance. Selon Bruno Faurel, l’eau se travaille au ras du terrain, au plus proche du territoire. Autrement dit, pas seulement à celle des six grands bassins-versants inscrits dans la loi de 1964 (voir plus bas). « Il est essentiel que l’échelon territorial puisse se saisir de cette question […] à travers des organisations particulières. Je pense que nous devons songer à couvrir la totalité du territoire français par des commissions locales de l’eau [CLE], qui permettent une démocratie de l’eau, mais aussi à travers des regroupements de collectivités en établissements publics territoriaux de bassins [EPTB], qui sont de véritables objets administratifs, démocratiques, qui ont une capacité d’action décuplée par l’investissement des élus de proximité sur ces sujets. »
Une bonne gouvernance soixantenaire
L’eau, c‘est avant tout une « gouvernance », autrement dit une manière de gouverner. En France, elle est plutôt bonne. Le système mis en place par la loi de 1964 a montré ses mérites, au point d’être exporté. Un petit rappel historique s’impose pour savoir de quoi on parle quand on aborde le sujet de « gouvernance. » Plus ou moins inspirée de ce que faisaient déjà Allemands et Hollandais, cette loi fondamentale a fait le ménage dans le foutoir des textes qui prétendaient jusque-là organiser l’administration de l’eau et faire baisser sa pollution. Elle a mis en place les agences de l’eau, une par bassin-versant (enfin, presque, car il fallait qu’à la tête de chacune pût être nommé un ingénieur d’un des grands corps de l’État !). Alors uniques au monde, les agences de l’eau françaises ont un peu révolutionné la manière d’administrer en France et ailleurs car leurs aires d’actions, les bassins hydrographiques, se substituent aux frontières administratives. Autre révolution à l’époque, la création des redevances, ces taxes assises sur la facture d’eau de chacun de nous en vertu d’un principe écolo, le fameux « pollueur-payeur » – tu pollues, tu paies à hauteur de ce que tu pollues ; et d’un autre, plus basique, plus tu consommes, plus tu dépenses. Vingt-huit ans plus tard, la loi de 1992 a introduit un principe essentiel : l’eau est considérée comme un bien commun de la nation. Cette loi a introduit également l’autorisation du Préfet pour tout projet susceptible d’altérer la qualité de l’eau, et instauré les schémas directeurs d’aménagement et de gestion de l’eau (SDAGE) – des outils de planification, un par agence, déclinés au niveau des sous-bassins (ceux des affluents des fleuves) en Schémas d’aménagement et de gestion de l’eau (SAGE). Les Sage sont mis en œuvre par les Commissions locales de l’eau, les CLE, qui sont des parlements d’usagers et d’élus où l’on parle d’eau et surtout, du territoire de vie. En 2006, la loi sur l’eau et les milieux aquatiques (LEMA) a poussé un peu plus loin le cran de la « démocratie de l’eau » en imposant que chacun de nous doive bénéficier d’une quantité minimale d’eau dans des conditions économiquement acceptables. La LEMA a aussi introduit dans le droit la hiérarchie des besoins sur laquelle les préfets s’appuient en cas de restrictions liées à la sécheresse (L’eau pour les hommes, l’eau pour les bêtes, l’eau pour la nature et, s’il en reste, pour les cultures et les usines). Cela dit, la LEMA est en partie la transposition de la directive-cadre européenne sur l’eau de l’année… 2000 qui fixe un objectif de retour au bon état des eaux, lequel n’est toujours pas atteint. Pas plus que les taux de nitrates dans certaines de nos rivières, qui sont encore assez hauts pour que les plages se couvrent d’algues vertes et que l’Europe fasse payer à la France des amendes pour irrespect de sa directive nitrates votée en… 1991.
La Suisse, la France et la Cipel : une gestion internationale de l’eau
La France est un bon exemple qui s’exporte mais s’arrête aux frontières. Le système se substitue uniquement aux frontières administratives nationales. Or, le Léman est franco-suisse. La limite est au milieu, on la traverse en bateau. Entre Evian et Lausanne, qui gère l’eau ? La Commission internationale de la protection des eaux du Léman, la Cipel. Nicole Gallina en est la secrétaire générale : « c’est une organisation intergouvernementale qui a été créée il y a soixante ans parce que les eaux du lac étaient alors insalubres. 10 000 km2 sur 5 territoires, 3 suisses, 2 français, » cantons et départements réunis par la Cipel en compagnie des agences de l’eau, de la Dreal et des préfectures. « Nous avons un rôle de coordination entre les différents territoires, mais pas uniquement, car la Cipel fait aussi des recommandations, efficaces car elles ont amené, par exemple, à [développer les unités de] déphosphatation des stations d’épuration. » Ce qui a fait disparaître les explosions démographiques d’algues vertes dans le lac-frontière. En cette fin d’année 2024, la Cipel a fait une nouvelle recommandation sur une menace de taille différente, la moule quagga, qui, bien aidée par le changement climatique, a envahi les hauts-fonds du Léman. « On fait de la sensibilisation auprès des propriétaires de bateaux, on leur dit par exemple de bien les laver, et on demande aux autorités concernées de regarder à une obligation en la matière. » La moule est là, l’essentiel aujourd’hui est de limiter sa dispersion. Mais aussi, de surveiller la température. Les eaux du lac se réchauffent, alors, elles se mélangent moins bien. Le Léman a besoin de froid pour qu’en hiver, une stratification s’y installe : une couche d’eau supérieure froide, dessous l’essentiel un peu plus chaud, et le fond, toujours à 4 °C (c’est à cette température que l’eau est la plus dense). Ainsi, au printemps, à la faveur des vents, les eaux peuvent-elles se mélanger, et les eaux du bas riches en nutriments remonter pour se mêler à celles du haut pleines de plancton et d’oxygène. « Il faut des températures hivernales extrêmement basses en parallèle avec des épisodes venteux, mais dans un contexte de changement climatique, les hivers deviennent de plus en plus doux. On n’aura peut-être plus d’hivers froids pour permettre ce brassage. Ça a déjà un impact sur tout l’écosystème, la biologie des poissons et même, l’oxygène : le fond du lac est aujourd’hui asphyxié. » Les efforts de la Cipel et des collectivités avaient permis au lac Léman, autrefois très pollué (quand l’auteur de ces lignes étudiait l’ingénierie de l’environnement à l’université de Lille, au débit des années 1990, le lac était un exemple de mauvaise gestion) de redevenir bien propre, ceux du changement climatique perturbent son fonctionnement biologique et physico-chimique. On ne va pas forcer les eaux à se mélanger, parce qu’on ne va pas faire tourner des hélices dans le lac. Alors, on se contente d’observer pour imaginer des solutions, ensemble. Directrice de l’Institut des sciences de l’environnement et codirectrice de la chaire Unesco-Hydropolitique pour l’Université de Genève, Géraldine Pflieger loue le succès de la Cipel, qu’elle assimile à de la science participative avant l’heure : « aux prémices même de toute cette action, il y a eu une coopération forte entre des acteurs qui étaient à la frontière entre la science et l’action, parce que la situation de sauvegarde du Léman l’exigeait à l’époque : la Cipel a fait un travail extraordinaire dès le début, avec des outils qu’on appelle aujourd’hui science participative. » À l’époque des jeunes avaient pris leurs petites éprouvettes pour analyser la qualité de l’eau des affluents du Léman, cela permit de dresser les premières cartes de pollution, et d’établir la gravité de celle-ci. « Ça a été un véritable déclencheur de l’action parce que cela a conduit à engager tout un programme à l’échelle de ce très vaste bassin, qui a abouti à une reprise complète de la qualité de l’eau de surface sur l’ensemble du bassin lémanique. » Mer intérieure, le Léman est une Méditerranée à l’entrée des Alpes. Soixante ans après la création de la Cipel, les résultats sont là : les taux de phosphore ont baissé et on peut se baigner.
Il semblerait pourtant qu’il faille recommencer car après le phosphore, après la moule quagga qui colmate le réseau de chaleur « écologique » de la bonne ville de Saint-Gingolph, dont Madame Pflieger est la maire – de l’eau captée dans le lac alimente une sorte de pompe à chaleur géante qui apporte aux bâtiments publics et à la moitié des familles chaleur en hiver et fraîcheur en été, voici à nouveau les blooms : « il y a à nouveau des explosions d’algues, comme celle de septembre 2022. Des Uroglena, pas toxiques, mais problématiques. Heureusement que le Cipel était là car il a permis une coordination de tout le monde à l’échelle du lac. » Après. Pourquoi la bonne gouvernance de la Cipel n’a pu permettre de prévoir ce qui pouvait se passer, alors que l’événement a été déclenché par un glissement de terres, autrement dit, par l’arrivée brutale dans les eaux du lac de nutriments portés par des sols… alors que le glissement d’une couche de terres est assez prévisible. « On n’a vu cela qu’a posteriori, il faut reconnaître », admet Nicole Gallina. Depuis lors, les sols sont un peu plus observés, comme la chlorophylle : les élus riverains devraient demain pouvoir être prévenus quelques heures plus tôt de l’imminence de l’explosion démographique d’une algue. Il faut toujours des éléments marquants pour avancer, et prévenir… ce qui est déjà advenu. Un modèle numérique a d’ailleurs été développé, il porte le nom d’une série télé, SWAT (Soil and Water Assessment Tool). Ce modèle, explique Nicole Gallina, « permet de modéliser l’hydrologie du territoire en prenant en compte notamment l’usage des sols et le changement climatique. » SWAT est un modèle d’évaluation du risque érosif autant que de la qualité et de la quantité d’eau dans un bassin-versant, selon la manière dont on modifie l’aménagement du territoire.
Un jour, il faudra s’occuper des débits
Il lui est difficile de prévenir, la Cipel a aussi un problème de coopération côté France. Les collectivités locales sont peu ou mal associées, ce dont témoigne Géraldine Pflieger, en tant que maire de sa commune. « Il manque une dimension multi-échelles, cette façon d’associer les acteurs du territoire qui est très bien faite sur la rive nord du lac, pas assez sur la rive sud. » Il manquerait également une dimension quantitative car la Cipel ne s’occupe « que » de la qualité de l’eau. Or, le travail sur la quantité, sur les débits, est celui des agences de l’eau. C’est dommage, car comme le rappelle Bruno Forel, président du Syndicat Mixte d’Aménagement de l’Arve et de ses Affluents (SM3A), « la moitié de l’eau présente à Arles, dans le Rhône, lors de l’étiage, provient du Léman, qui joue donc un rôle tampon. Il y a interdépendance entre le fleuve et le lac, entre des bassins différents. » Et puis, les problèmes de qualité de l’eau peuvent également survenir après des soubresauts de débits. Une inondation, une crue, cela peut altérer de loin en loin ce qui coulera du robinet. Il faudrait donc envisager une extension des prérogatives de la Cipel, c’est-à-dire, marcher sur les pieds des agences de l’eau. Ailleurs, où il n’y a pas d’agences, cela se fait. Dans le monde, on trouve beaucoup d’exemples de structures de gestion transfrontalières d’un fleuve ou d’un bassin-versant. Conseiller spécial du président (Louis Fauchon) du World Water Council, Guy Fradin les connaît aussi bien qu’il a l’habitude des institutions françaises : ingénieur des eaux et forêts, il a été directeur général de l’Agence de l’eau Seine-Normandie jusqu’en 2011 avant de présider le conseil d’administration de l’Agence de l’eau Rhin-Meuse et l’Observatoire environnemental du canal Seine-Nord-Europe. « Ce qui compte dans une bonne gouvernance, c’est la transparence des institutions, de leur fonctionnement, le rassemblement de l’ensemble des acteurs, le partage des connaissances, un bon financement et une grande cohérence. » Tout cela ensemble. Pour penser ensemble des bassins-versants, l’amont et l’aval, la source et le fleuve, il faut au moins que tout le monde soit d’accord sur les enjeux. « On ne peut pas avoir un pays pour qui l’important c’est la santé, qui doit s’occupèrent d’un fleuve avec un autre pour qui l’important c’est le rural. La hiérarchie des usages doit être la même. » La cohérence des visions, c’est ce qu’il y a de plus compliqué à établir. Elle existe peu ou prou sur le Rhin, le Danube, le Mékong et même le Nil. Elle est discutable sur le Jourdain et n’existe pas à propos du Colorado où la seule cohérence qui règne est celle du chacun pour soi. Géraldine Pflieger cite un bon millier d’accords multilatéraux ou bilatéraux sur l’eau dans le monde, à mettre en regard des 7 ou 8 conflits vraiment repérés dans l’histoire récente de notre planète autour de la ressource en eau. La guerre de l’eau, tarte à la crème médiatique, est un fantasme.
Ne pas oublier les gens…
La bonne gouvernance doit être cohérente à tout point de vue, abonde Jessica Bergstein-Colet, chef de projet à l’association Initiative pour l’avenir des grands fleuves, créée par Erik Orsenna. Elle ajoute le fleuve Sénégal à la liste des exemples de bonne gestion interétatique, partagée entre le Sénégal, la Mauritanie, le Mali et la Gambie. « Parce que tout n’est pas acceptable, dès lors qu’on parle d’eau, il faut expliquer, réexpliquer, toujours expliquer, il faut qu’il y ait un dispositif de sensibilisation mis en œuvre, déjà pour que la vision politique permette d’être instillée à tous les échelons… » Sans acceptation des gens, la meilleure des gouvernances ne sert à rien d’autre qu’à faire des séminaires et des colloques. « Si les populations locales ne s’approprient pas les projets qui les concernent, rien ne peut être fait, en tout cas de façon durable. » Il en va de l’eau comme du vent : les projets d’éoliennes sont souvent rejetés par des populations qui estiment n’avoir pas été consultées en amont, mises devant le fait accompli. L’association fondée par Erik Orsenna est un réseau d’acteurs pluridisciplinaires, d’experts en sciences humaines et sociales, des ingénieurs, des hydrologues, des gestionnaires de ports, qui se réunit régulièrement quelque part sur la Terre pour partager regards, connaissances et solutions de terrain. « Les fleuves sont des artères, ce sont par eux que sont charriées toutes les pollutions, ce sont en eux que se trouvent aussi les solutions. Ce sont des patrimoines, certes, des biens communs, qu’on se doit tous de préserver ensemble, et pour cela, il est indispensable de partager, effectivement, quelles que soient les échelles, une vision politique, » jusqu’aux citoyens, aux usagers premiers de l’eau qui s’écouleraient.
… ni les zones humides !
Christian Schwoeher est le directeur du Conservatoire des espaces naturels de Haute-Savoie. La sensibilisation, il en fait chaque jour à propos des zones humides, dont la plupart d’entre nous ont oublié la définition et l’intérêt. « Il y a une attention particulière apportée au niveau des zones humides dans ce département. On a aussi leur prise en compte dans différentes démarches, que ce soit les SAGE ou des contrats de milieux [ou de rivière], et ça peut se décliner derrière sur des travaux de restauration. Toute la question, en définitive, c’est comment les zones humides sont prises en compte le plus en amont possible, notamment en lien avec les Scot : plus les zones humides sont prises en compte en amont, plus elles sont intégrées dans la planification, plus il y a de relais et de prise en considération. » Il s’agirait que les tourbières deviennent un élément d’aménagement du territoire, estime Christian Schwoeher. On en est loin. Les élus semblent toutefois l’avoir compris, grâce notamment à l’action des agences de l’eau. Chez les agriculteurs ça progresse aussi, en particulier chez les éleveurs. « Il y a en ce moment une discussion sur les conditions des règles de préservation des milieux humides et des tourbières dans le cadre des critères de conditionnalité de la PAC. Demain, quel sera le niveau de prise en considération des milieux humides, étant donné qu’on va peut-être les restreindre à des habitats communautaires, comme les tourbières, c’est-à-dire à des sites protégés, ou à des sites labellisés Ramsar. Derrière cette question il y a celle de la connaissance : où sont les zones humides [communes] ? » Très importantes dans les têtes de bassin, c’est-à-dire dans le chevelu hydrographique de ruisseaux qui amènent l’eau des sources aux rivières, les zones humides sont des tampons en cas de sécheresse et de grands abats d’eau. Elles ne sont pas que des musées de biodiversité à couvrir d’une cloche de protection : ce sont des espaces utiles, presque tous situés en zones de production agricole. Une des difficultés est que leur définition légale est complexe, car elle nécessite à la fois de l’observation de terrain et un sérieux travail de pédologie. Ce n’est pas parce qu’il y a de l’eau qui stagne au milieu d’un champ qu’il y a zone humide, cela peut-être simplement de l’eau de pluie qui ne peut s’échapper car le sol a été tassé par un engin ! Les bureaux d’études se trompent dans un cas sur deux, en France. « On n’est pas en capacité de savoir quel est l’état des lieux de nos zones humides au niveau national, alors qu’on a a priori tous les outils, le spatial ou autres. » Le satellite observe une suspicion de zone humide, pas une zone humide. Photo en main, il faut aller vérifier sur le terrain. Lequel est souvent un terrain agricole, travaillé par un exploitant qui a parfois perdu la mémoire de ce qu’est une zone humide. Guy Fradin et Jessica Bergstein-Colet rebondissent de concert sur les propos de leur collègue de Haute-Savoie. « Les zones humides, c’est l’exemple typique de la cohérence entre la politique de l’eau et la politique agricole. Or, en France, dans un contexte de politique agricole qui est à la fois nationale et communautaire, la cohérence entre la politique environnementale, la politique de l’eau et la politique agricole n’est pas assurée, ni au niveau national ni communautaire. Donc, beaucoup d’agriculteurs sont pris dans ces contradictions, » et ne se préoccupent pas plus de leurs tourbières que de leurs haies. D’autant que la vie est dure : on peut sensibiliser autant qu’on veut, si l’agriculteur qui a du mal à vivre de son travail n’a aucun intérêt économique à ne pas drainer sa tourbière, on ne voit pas pourquoi il les garderait, à moins qu’on ne l’incite financièrement à le faire.
Quand le secouriste aura-t-il l’information en temps réel ?
Pour Géraldine Pflieger, un des intérêts majeurs du satellite est celui du « downscaling », de la descente d’échelle, en français pas tellement plus compréhensible : avec la machine qui tourne, on peut aujourd’hui à la fois disposer d’une vision large des choses et regarder par le trou de la serrure. « On peut aller voir les acteurs locaux, des agriculteurs, des pêcheurs, des élus pour leur montrer les changements à l’œuvre chez eux, » en les comparant avec ailleurs. Le satellite fait un lien entre le global et le local. Son intérêt, finalement, c’est de produire une aide à la décision. Par des gens de terrain, rappelle en conclusion Guy Fradin : « les données doivent toujours être validées, elles doivent être interprétées, elles doivent être croisées, modélisées, utilisées et elles doivent être confrontées à la réalité de terrain quand elles viennent d’en haut. » On aura toujours besoin de techniciens et d’ingénieurs pour développer un regard d’ensemble et interpréter les données venues d’en haut. En particulier lorsqu’elles sont censées éclaire la décision à l’occasion d’une crise majeure. Elle a bien failli être astronaute, elle est officier de marine de réserve et directrice à l’ESA (« conseillère senior ») où elle s’occupe en particulier des réponses aux crises. Isabelle Duvaux-Béchon indique sans fard un problème : les satellites ne dialoguent pas entre eux, et trop peu avec les personnels précipités sur le terrain… « Vous savez, il n’est pas intelligent le satellite, il va prendre des images, envoyer des données, mais il reste l’humain, que ce soit pour fabriquer le satellite ou pour l’utilisation de ses données. » Petit rappel : l’ESA, c’est l’Europe plus la Suisse, le Canada, le Royaume-Uni et la Norvège. L’ESA envoie des satellites pour le compte de ses clients, lesquels peuvent passer par d’autres agences du monde pour envoyer d’autres satellites dans l’espace, tout cela fait un beau petit monde en orbite. Toujours ponctuel, toujours en retard : les satellites d’observation ne sont pas géostationnaires, alors ils passent et repassent au-dessus du même endroit à la même heure, tous les x jours, durant le même laps de temps. « Vous obtenez les informations du satellite deux jours après les avoir demandées, au mieux, car en cas de crise majeure ça peut être un peu plus long. » On peut faire moins avec le système Copernicus (qui a permis de rationaliser la collecte et la diffusion de données satellitaires sur l’environnement et les crises), atteindre six heures, mais six heures, c’est déjà trop tard, surtout quand on prétend suivre depuis là-haut un incendie de forêt gigantesque. « Le vrai problème en cas de crise c’est d’avoir une information de suite, au moment où elle est nécessaire. Mais pour cela, c’est toute la chaîne qui doit réagir entre le moment où l’image va être prise et le moment où les informations traitées par des êtres humains ou par l’intelligence artificielle vont arriver sur le terminal du pompier ou du spécialiste de protection civile ou du centre de gestion de crise. » Une charte internationale « espace et catastrophes majeures « a été signée en septembre 2000 entre 17 agences spatiales et 7 sociétés fournisseurs de données (provenant de 270 satellites), afin d’être à même de fournir des images le plus rapidement possible après sollicitation d’un État. Ce fut le cas le 12 octobre avec le Sri Lanka embarrassé par des inondations. L’information peut être délivrée plus vite, elle n’en restera pas moins entachée de biais, masquée par exemple ici et là par des nuages qui interceptent la lumière renvoyée par le sol, créant des secteurs tout blancs sur les images. Pour pallier, il peut être demandé à un autre satellite, radar, de se pencher sur le problème. Uniquement s’il se promène dans la même zone orbitale, car on ne peut demander à un satellite de sauter d’une orbite à l’autre, ce qui coûterait une fortune en carburant. Heureusement, beaucoup de satellites se suivent sur une même orbite… à distance de quelques heures. « Vous comprenez que si vous voulez avoir une image en un claquement de doigts, il vous faut beaucoup, beaucoup de satellites, et puis il faut les systèmes qui vont avec pour permettre d’acheminer les données et les traiter. » L’image doit être interprétée avant qu’elle n’arrive au pompier, car celui-ci n’aura jamais le temps d’y réfléchir. En cas de crise, des spécialistes doivent être là pour épauler les secours, pour leur délivrer des informations vraiment utiles. Pour leur indiquer, par exemple, à partir d’images d’inondations et d’autres données satellitaires, le nombre de bâtiments encore secs, le nombre de bâtiments détruits, le nombre de bâtiments inondés, l’état des routes, celles praticables pour les engins de secours etc.
Encore faut-il que ces informations parviennent au ras de la Terre. Or, sur le terrain, lors d’une crise majeure, les réseaux de télécommunications sont en général détruits ou fonctionnent très mal. Comment alors recevoir des images à haute résolution qui exigent une large bande passante ? Heureusement, même là où il n’y a plus rien, il y a toujours au-dessus des satellites de télécommunications qui tournent. Mais de modèles, de nationalités et donc de standards et de protocoles différents… Les satellites ne communiquent pas tous entre eux, et si d’aventure le terminal du pompier n’est pas compatible avec certains protocoles, il ne pourra pas recevoir grand-chose. La transparence du téléphone mobile et l’universalité de l’Internet nous ont habitués à la simplicité. Or, en matière de données satellitaires, le bordel règne. Voilà pourquoi l’ESA a proposé il y a deux ans une initiative pour que l’ensemble des moyens spatiaux – et aériens (drones) – sachent se parler de manière que le pompier, sur le terrain, reçoive une information sans avoir à se demander à qui il doit la demander, ni pour combien. « C’est toujours pareil, que voulez-vous, chacun travaille en silo, chaque agence dans son agence, chaque fabricant avec son matériel, chaque spécialiste d’un satellite n’en connaît pas d’autres etc. » L’humanité aime se répartir en casiers, l’ESA espère les rendre transparents, au moins à l’occasion de crises majeures. Pas seulement les grands casiers des grandes organisations, toutes les séparations : « il faudrait conférer à un centre de gestion de crise la capacité à n’importe quel moment non seulement de récupérer de l’image interprétée, mais aussi tous les autres médias, que ce soit la télévision, la personne qui est sur place et filme avec son téléphone et poste sur les réseaux, l’internet des objets, les senseurs connectés qui mesurent par exemple la hauteur d’eau ; bref, toutes ces informations-là devraient pouvoir être récupérées de façon à être intégrées à un flot d’informations interprétées en plus des images satellitaires. » Ajoutons les HABS (High Altitude Pseudo Satellite), c’est-à-dire des ballons que l’on peut envoyer à tout moment à 20 km d’altitude pendant 2 ou 3 mois au-dessus d’une zone. « Tout cela, ce sont des systèmes qui n’ont pas été conçus pour se parler, il faudra qu’ils puissent le faire, ou qu’ils parlent à un orchestrateur commun et qu’on mette en place aussi toute la gouvernance au sens de qui a accès à quoi, quand et à quel prix. »
Cela s’appelle serenity pilot implementation, en langage Duvaux-Béchon. Dans l’idéal, « le pompier une fois sur le terrain précisera sa demande auprès d’un système – on va appeler ça une place de marché digital, qui lui dira par exemple que pour cette demande-là, voilà ce qu’on peut vous proposer, et ça va vous coûter tant : une image dans les 15 minutes d’un satellite privé sera payante (OneWeb, ICEYE etc.), mais si vous pouvez attendre une demi-heure, vous allez avoir une image gratuite d’un satellite étatique, par contre ça coûtera quand même un peu parce qu’il faut compter le traitement derrière de l’image. » La proposition de l’ESA en est aujourd’hui à identifier les « trous capacitaires, » les manques, les besoins en services, en technologies ou en développement. Chaque État membre de l’ESA s’occupe d’un manque identifié, pour éviter que chacun ne fasse la même chose dans son coin. Premières démonstrations en 2025 au sujet des feux de forêt, de la surveillance maritime et même, de la gestion de crise dans un stade. « Oui, en quoi les satellites peuvent aider lors d’une crise de type terrorisme : mobiliser un système de télécommunication parce que les terroristes auront coupé les télécoms sur place, s’assurer depuis l’espace que les voies d’accès pour les forces de police sont bien dégagées etc. »
Le chantier semble considérable. Sur son incendie, le pompier a besoin de prévoir l’avancée du front de flammes, à partir d’informations sur les vents, la température et le degré d’hygrométrie de l’air, sur le type de végétation, son niveau d’assèchement et celui du sol. Il a besoin d’évaluer les risques, donc de données sur les habitations, les bâtiments, qui ou quoi est dedans par exemple à partir du nombre de téléphones actifs dans la zone d’intervention. Les téléphones sont d’ailleurs un bon indicateur de l’ampleur d’une catastrophe : lorsqu’aucun n’est détecté, c’est que les batteries sont vides et qu’il n’y a plus un électron pour les recharger. Le pompier devrait pouvoir disposer de données, d’images rafraîchies toutes les demi-heures. Ça ne sera possible selon la conseillère senior de l’ESA qu’à partir du moment où l’on aura rendu tous les satellites et tous les systèmes de communication interopérables, et que les images et les données puissent être interprétées bien en amont, avant que le pompier ne les reçoive, en les interpolant avec des données issues d’autres mondes, dont les réseaux sociaux : « quand on parle d’une crise ou d’un événement qui se passe quelque part dans une ville, le fait d’avoir la photo de manifestants en train de se réunir quelque part, ou d’une route qui est coupée par un barrage ou un accident, ça va être fondamental, et même peut-être plus utile que d’attendre l’image satellite. » Isabelle Duvaux-Béchon se souvient d’une épidémie de grippe survenue il y a quelques années à l’est des États-Unis. L’information était arrivée plus vite par les médias sociaux que par le pourtant efficace Center of Disease Control d’Atlanta : les gens allaient sur Internet pour consulter les symptômes, tous les mêmes, les algorithmes ont fait le reste, et les autorités ont pu se rendre compte de l’ampleur du problème avant que leurs services ne les informent ! Cela tombait bien, les informations véhiculées par les réseaux étaient valides. Or, ils diffusent aussi énormément de rumeurs, d’informations infondées voire, fabriquées. Issues du satellite ou d’une éprouvette, les données nécessaires à la bonne gouvernance de l’eau doivent plus que jamais être croisées et interprétées.
Le Léman sur appli
Elles le sont de fait si elles sont nourries par les citoyens eux-mêmes. Par exemple dans le cadre du projet Lemanscope, qui récolte des données sur la qualité des eaux du Léman à partir des téléphones portables des gens. « L’idée est de sensibiliser, d’éduquer le public, qui ne le sera jamais assez, mais aussi… de mieux comprendre les variations saisonnières et spatiales de la qualité de l’eau sur l’ensemble du lac. » commence Laurence Glass-Haller, collaboratrice scientifique à l’École Polytechnique Fédérale de Lausanne, une des coordinatrices du projet. « On a les données satellites sur le lac, mais pour les valider, on a besoin des sciences citoyennes, d’observations in situ par les gens. » L’École polytechnique de Lausanne utilise également une plateforme fixe qui flotte sur le Léman, devant Lausanne, baptisée LéXPLORE. Un ponton de 10 m sur 10 m avec une centaine de capteurs sur laquelle les chercheurs se succèdent afin de recueillir des données objectives sur l’eau du lac Léman. « Avec le Lemanscope, on a en plus de cette plateforme quelque 2 000 points de mesures répartis sur la totalité de la surface du lac ! » Des milliers de points réalisés par des centaines de citoyens bénévoles. Et toute l’année, chaque jour et pas uniquement à 11 h 30 comme le satellite qui passe au-dessus du lac comme le facteur, toujours à la même heure. À l’heure où nous écrivons, 655 personnes participent au programme, ce nombre augmente chaque jour. Elles ont réalisé à ce jour 2 346 mesures, à peu près partout sauf au centre du lac, et plutôt côté suisse.
Comment cela se passe ?Que vous soyez à la nage, en bateau, en voilier, en kayak ou même, c’est plus hasardeux, sur un paddle, vous pouvez donc apporter des données au monde scientifique. Des données sur la qualité de l’eau, estimée par sa couleur, évaluée par l’appareil photo du téléphone portable. Toute se passe via une application qui s’appelle EyeOnWater. « Une fois l’application chargée, il suffit de prendre une photo selon un protocole précis : à l’ombre ou dos au soleil, sans vagues, téléphone bien à plat, autant que possible. Et on indique la couleur que l’on voit, à partir d’une échelle qui en comporte 21, » l’échelle de couleurs de François-Alphonse Forel, un savant suisse mort en 1912, un standard dans le monde de la recherche. Voilà pour les teintes allant du bleu au vert.
En ce qui concerne la transparence, le public connecté peut vraiment jouer au chercheur : un disque de Secchi lui est proposé. Connu des étudiants en biologie, cet engin est donc un disque blanc, suspendu à un décamètre souple. On le plonge dans l’eau, et on note la profondeur à partir de laquelle on ne le distingue plus. « On l’envoie par la Poste aux participants ! » Le disque donne une idée de la turbidité de l’eau, donc de la présence de particules en suspension, du phytoplancton, etc. Inventé en 1865, cet outil simple n’a pas été démodé par le satellite. « En hiver, en général, on a des Secchi à 10 m, voire à 17 m. En été, on remonte à 2,5 m. » Plus il y a de plancton, plus l’eau est verte, moins elle est transparente. Et inversement en été, avec la couleur bleue qui domine.
Toutes les six semaines, les organisateurs proposent aux participants du Lemanscope des visites sur la plateforme LéXPLORE, ainsi que des webinaires et des ateliers pour maintenir la motivation qui a tendance à suivre la courbe des températures : quand il fait froid, il est plus difficile d’avoir des observations. « Cela permet aussi à cette communauté de discuter avec les scientifiques sur les problématiques du lac, sur leur perception de la qualité de l’eau, sur leur expérience science participative. » Des participants qui ne sont pas mauvais : d’après Laurence Glass-Haller, ils ne feraient que 15 % d’erreurs. C’est beaucoup, mais pas si mal, d’autant que le satellite lui aussi se trompe : en dessous de 10 m, il ne peut plus mesurer convenablement la transparence et puis, l’analyse des données a prouvé que le satellite est perturbé dans la partie genevoise du lac, ce qu’on appelle le « Petit lac » : « Apparemment, ce serait un problème de brouillage des signaux optiques, parce qu’en fait, le Petit lac est plus étroit, on est plus proche des rives, et la réflectance est plus grande. » Un biais qui peut cela dit s’appliquer aux observations des gens, car « pour les mêmes raisons, on voit que les observations proches des rives sont légèrement moins bonnes que celles prises à plus de 1 km des rives. » Démarré il y a six mois, le projet Lemanscope va durer vingt mois. Il a déjà montré son intérêt : outre la motivation des citoyens amoureux de leur Lac, la masse importante de données contrebalance les erreurs de mesures, et démontre que des citoyens non scientifiques peuvent en termes de qualité de travail s’approcher de la rigueur des chercheurs et de celle du satellite. Et leur fait gagner du temps.
Suivre les blooms
Disque de Secchi ou caméra embarquée sur un satellite, les chercheurs sont capables de dresser régulièrement des cartes de transparence de l’eau et de biomasse planctonique. Frédéric Soulignac, par exemple. Cet ingénieur à l’INRAE travaille avec Géraldine Pflieger sur la modélisation des explosions démographiques d’algues, les fameux « blooms » qui arrivent encore à surprendre tout le monde, en dépit de tous ces appareils braqués sur le lac Léman. « On n’arrive pas à anticiper parce que la vie, c’est complexe ! On ne sait pas tout… On arrive juste à bien reproduire la succession saisonnière des différentes espèces dans le lac avec, au printemps, plutôt des diatomées dans les eaux de surface, et puis, au fur et à mesure que les eaux de surface perdent en nutriments, on a un développement en profondeur d’autres espèces. Par contre, on n’arrive pas à reproduire des événements particuliers comme ce bloom de septembre 2021 [celui des Oroglena sp.] où, en deux, trois jours, on a eu une explosion de la biomasse. » Le satellite permet à Frédéric Soulignac de suivre l’état global du phytoplancton. Il lui donne chaque jour l’état initial… de la veille, vu que le satellite ne passe qu’une fois par jour, à la même heure. « Et puisque l’on connaît bien les courants du Léman, à partir de là, s’il y a un bloom photographié, je peux prévoir sa circulation dans le lac, sur trois à quatre jours. » Une modélisation utile pour les élus qui pourraient décider la fermeture d’un point de captage lacustre de leur réseau d’eau potable.
Il existe une multitude de facteurs expliquant la survenue d’un bloom, mais le seul finalement que maîtrisent à peu près les chercheurs est le mouvement de l’eau, la courantologie. Et cela tombe bien, elle est assez stable. Sauf en vertical : « On voit que la stratification thermique s’intensifie avec le réchauffement climatique. On a une différence de température entre la surface et le fond qui est plus élevée. On a en conséquence un lac plus stable, qui est plus résistant à des tempêtes. » Or, ce sont elles qui obligent les couches d’eau à se mélanger, à faire se rencontrer algues et nutriments. « La stratification atténue la circulation verticale de l’eau, ça déconnecte les eaux du bas des eaux du haut. Les nutriments restent en bas. » Ce qui devrait empêcher les blooms ! « Certes, mais ce sont des bombes à retardement, tous ces nutriments, tout ce phosphore qui s’accumule au fond du lac. » Apparaissant et croissant au printemps et en été, les algues meurent, tombent au fond où elles entrent en décomposition. Aux dépens de l’oxygène, consommé par les bactéries à l’œuvre, au profit du phosphore, produit par la décomposition, qui reste donc sur les fonds. « Or, normalement, en hiver, avec le refroidissement de l’atmosphère, les eaux deviennent froides et comme elles sont plus denses, une convection verticale se met en place, » elles descendent, remplacent les eaux du fond qui remontent, « avec le réchauffement climatique, on s’attend à ce que ce brassage soit de moins en moins profond. » Par-dessus le marché, la moule quagga redistribue elle aussi les nutriments. « Elle se développe au fond, pas dans l’eau ; par son activité filtrante, elle redirige donc les nutriments là où elle se trouve, vers les zones littorales et au fond du lac. Cette moule est désormais la maîtresse du phosphore dans le lac », comme l’est par endroits la crépidule, gastéropode invasif sur côtes de Bretagne.
Grégory Giuliani [dont j’ai fait le portrait dans Marianne le 18 mai 2025] est maître de conférences « senior » à l’université de Genève, au sein de l’Institut de l’Environnement (qui regroupe 130 chercheurs de tout domaine, droit, sciences, économie, management, de l’université de Genève). Selon lui, en dépit de leur qualité (et souvent, de leur gratuité), 93 % des images issues des satellites n’atteignent en définitive pas leurs cibles. « Al Gore, déjà en 1998, disait, à propos du programme américain d’observation de la Terre que la majorité de ces images satellitaires n’avaient allumé aucun neurone d’un être humain sur cette Terre. Et on s’est dit, avec un groupe de collègues, qu’il fallait qu’on maximise l’utilisation de ces données satellitaires au niveau national. » Ils ont alors construit le Swiss Data Cube, une infrastructure technique qui collecte l’ensemble des données de dix satellites américains et européens surla Suisse. Et un peu la France, l’italie, le Lichtenstein et l’Allemagne, vu que les orbites sont inclinées, la focale des satellites déborde donc sur les frontières. « Cela fait environ 3 000 milliards d’observations engrangées, 80 000 images, pour pas très cher », environ 40 millions d’euros. Le programme existe depuis 1984, il couvre l’ensemble des problématiques liées à l’environnement : l’évolution de l’enneigement, l’impact des sécheresses sur le réseau hydrographique, l’identification des poussières atmosphériques afin de prévoir les niveaux de pollutions en microparticules, ou encore la caractérisation des espaces artificialisés par le niveau… la densité de leurs végétations. « Le Cube a permis de montrer l’arrivée de végétations de type méditerranéen en Suisse et la dégradation des terres : on a pu montrer que celle-ci est deux fois supérieure à ce qui est officiellement rapporté par le gouvernement suisse. » La dégradation des terres est évaluée en mesurant les changements de couverture du sol ou de productivité des terres, cette dernière étant basée sur le calcul de l’évolution de la productivité photosynthétique sur une année. Cette (nouvelle) bonne connaissance de l’érosion des sols n’a pas pour autant fait réagir le gouvernement fédéral suisse. « C’est un petit peu frustrant, » reconnaît le chercheur.
C’est en réalité un peu plus que cela, à propos de l’évolution de l’enneigement. Sur une carte des Alpes, à l’est du lac Léman, on voit comme un réseau sanguin rouge qui semble alimenter un tissu bleu. C’est une photo satellite. « En rouge, les endroits où il y a de la neige durant 0 à 20 % du temps en hiver. En bleu, 80 à 100 % du temps. On a comparé cette image toute récente avec d’autres, prises des années auparavant. On a ainsi pu démontrer que la zone rouge, c’est-à-dire le niveau où on trouve peu de neige, remonte en altitude. Et que les zones bleues, bleu foncé en particulier, ont diminué. On a pu quantifier cette diminution et faire une carte qui montre les zones de gains et les zones de pertes à travers le pays sur ces 20 dernières années. » Cette carte, la voici : la Suisse est ponctuée de rouge et de vert. En rouge, les endroits où l’enneigement a baissé, largement majoritaires ; en vert, au nord et au sud de la confédération, les lieux où au contraire, la neige continue de tomber. « On a déjà perdu presque 5 % de neige permanente à l’échelle du pays. Ça fait quand même quelques milliers de km² ! Et on a logiquement une augmentation proportionnelle des zones où pendant les mois d’hiver la neige est rare, de l’ordre de 8 %. » Les prévisions indiquent un avenir potentiel avec 40 % de neige en moins en 2080, à moins que l’on ne parvienne à freiner la hausse des températures à 2,5 °C, auquel cas la baisse ne, serait que de 20 %. « Toutes les stations de ski installées sous les 2 000 m sont a priori condamnées, » conclut Grégory Giuliani, qui hormis justement chez les gestionnaires de station, n’a pas perçu de grand intérêt parmi ses interlocuteurs, en particulier les élus.
Son laboratoire a également travaillé avec Danone au sujet de son impluvium. À partir de photos satellites et de données de terrain « participatives, mais aussi des relevés déjà faits par le passé. On a entré tout cela dans le Cube, on a généré ce qu’on appelle des séries temporelles sur la végétation, l’eau, le bâti etc. On a mixé le tout et on l’a injecté dans un petit truc qui est à la mode maintenant, l’intelligence artificielle. Et, à la fin, on a obtenu une carte qui montre » les différents types d’usages des sols, sûre à 92 %. Chaque pixel mesure 10 m sur 10 m. Chaque année, Danone peut voir l’évolution de son impluvium en observant les changements très précis de couleur. En bleu clair, les zones humides. En gris, les terres artificialisées. L’IA n’est pas un mot-clé, « elle est vraiment utile parce que les volumes de données sont tels qu’actuellement, les techniques qu’on utilisait dans le passé ne permettent plus d’extraire de manière pertinente l’information utile. » Sauf pour l’enneigement, sujet sur lequel l’intelligence artificielle ne marche pas, selon le chercheur suisse.
Malgré la faiblesse relative de la prise de conscience des politiques, Grégory Giuliani continue de penser que montrer de telles cartes synthétiques est indispensable pour susciter ou maintenir l’intérêt des politiques. Ingénieure à la Direction partenariats et stratégie Objectifs de développement durable de l’Agence Spatiale Européenne, Maria-Gabriella Sarah en est convaincue. Il y a 17 ODD définis par l’ONU en 2015, déclinés 169 sous-objectifs (les targets). « C’est le satellite qui nous sert à vérifier où on en est par rapport aux à ces objectifs. On vérifie avec eux les 240 indicateurs (les KPI, en anglais) qu’on s’est donnés. » Grâce à eux, on sait au moins que les ODD ne seront pas atteints en 2030, au rythme où l’on va. La France est bien placée, derrière la Suède, le Danemark et la Finlande. À l’échelle du monde, 17% seulement des objectifs seraient sur la bonne voie, 33% sont au point mort, voire, régressent. Qu’elle provienne du satellite, de laboratoires ou de la science participative, la connaissance n’est qu’un matériau que la société façonne à son image.
Les eaux de pluie ne sont plus gênantes. Longtemps furent-elles considérées à l’égale de déchets, à ôter des regards, sous les pieds, dans des tuyaux, à l’extérieur des villes. La cité devait revêtir un aspect contrôlé. Elle était régentée par le génie civil qui face à un volume de pluie répondait par une section de tuyaux. Et si d’aventure l’eau débordait quand même, à l’occasion d’un orage à l’intensité originale, si elle occasionnait beaucoup de dégâts, la ville demandait aux ingénieurs de lui usiner des canalisations plus grosses, des déversoirs plus profonds, des bords de rivière plus lisses. Comme dans un spectacle de fin d’année perturbé par un spectateur qui se précipite tout nu sur la scène, quand l’eau de pluie s’échappait de son corset, il fallait l’évacuer fermement et discrètement. Tout cela est peut-être terminé. Depuis quelques années, l’eau de pluie n’est plus considérée comme un déchet, elle est une ressource pour faire de l’ombre en hiver et même, pour réaménager la ville. La pluie est devenue un acteur social, grâce notamment au travail conduit par Idealco qui depuis près de dix ans organise le forum national de gestion des eaux pluviales. La dernière édition a eu lieu dans les salons du stade Bollaert-Delelis à Lens.
Rien d’étrange à ce que ces deux journées d’ateliers et de plénière se soient déroulées en pays ch’ti dans la mesure où les eaux pluviales sont entrées en révolution près d’ici, à Douai. Entre 1992 et 1998, la ville du joli musée de la Chartreuse s’était retrouvée, cinq années de suite, débordée par des orages majeurs qui avaient fait se répandre la Scarpe, l’une des grandes rivières du Nord. Les élus s’étaient rendu compte que les systèmes d’assainissement n’étaient pas parvenus à gérer les flots, qu’il allait en conséquence falloir faire un choix : ou bien changer les tuyaux pour des plus gros, très chers, ou bien s’occuper des pluies avant qu’elles ne parviennent jusqu’aux mêmes tuyaux. Le système traditionnel avait atteint ses limites, il débordait de partout et menaçait les finances publiques. Encore fallait-il oser le transformer. Créée pour trouver des solutions, l’association Adopta (association pour le développement de techniques alternatives) s’est révélée être un modèle de concertation entre usagers et acteurs de l’eau, et d’inventivité technique. C’est avec elle que l’agglomération de Douai arrêta le fait que tout aménagement à venir sera sans connexion physique avec le réseau d’eau pluviale. Il fut décidé de ne plus rejeter dans le système de tuyaux habituel, de laisser la pluie s’infiltrer là où elle tombe, à l’air libre, en se rapprochant le plus possible du cycle naturel de l’eau. Créée pour accompagner ce changement de paradigme, comme on dit sur les plateaux télé, Adopta était censée servir de modèle pour les associations du même type, pour chaque collectivité de l’alors région Nord-Pas-de-Calais. Ici et là, les Adopta auraient conseillé bureaux d’études, maîtres d’œuvre, géomètres, paysagistes, entreprises du BTP, pour comprendre et mettre en musique l’infiltration dite à la parcelle, la déconnexion des réseaux, le retour de l’eau dans la ville. En réalité, tout le monde est venu vers l’association qui, une génération plus tard, est quasiment seule sur le territoire ch’ti. Un modèle. Plus de 2 000 réalisations en vingt ans, présentées dans un showroom à Douai et un parcours pédagogique à Clairoix, dans l’Oise. Allez-y si vous voulez savoir comment installer une toiture végétalisée sur votre projet de gymnase, une chaussée réservoir à la place du vieux boulevard, des dalles de gazon sur la place, une tranchée d’infiltration au milieu de l’avenue. Du bon sens vulgarisé sans cesse par l’association : voulez-vous construire un parking ? Bordez-le d’une bande enherbée de façon que l’eau s’y imprègne. Vous allez bâtir un immeuble, vous aurez un parc tout autour ? Dérivez-y les gouttières afin qu’elles l’abreuvent. Aujourd’hui, à Douai, le boulevard Bréguet, pendu entre la Scarpe et son canal de dérivation au nord de la ville, est séparé en deux tronçons par une large bande enherbée qui récupère les eaux de pluie. 25 % environ de la surface de la ville sont gérées de cette manière. En 2005, Douai a connu un orage centennal, il n’y a pas eu d’inondations. Ailleurs, à Oignies, dans le bassin minier, la cité Bonnier a été modifiée de façon que les eaux de pluie, « tamponnées » par des trottoirs de terre, des noues épaisses, des massifs plantés dans les jardins et les espaces verts, puissent être rejetées directement dans le milieu naturel. Cela a coûté 1 170 euros TTC par mètre linéaire de voirie, 11 165 euros TTC par logement. Plus au nord, sur la partie est du port de Dunkerque, des massifs d’infiltration, tout herbus, ont été installés à la place des joints séparant les grands pavés de porphyre. Les pluies habituelles attrapent la pollution formidable des toitures et des pavés du port, passent au travers des massifs, traversent en une journée du sable et des graviers avant d’être drainées en profondeur par des petits tuyaux qui les amènent, en grande partie épurées, vers le réseau traditionnel. Marier sol ajouré et tuyaux pour faire face à la pollution : les solutions fondées (SfN) sur la nature ne sont pas antinomiques avec le bon vieux génie civil pour gérer différemment les eaux pluviales.
Le couperet de la DERU 2
L’expérience douaiso-adoptienne a marqué. En référence ou pas, l’État en a inscrit la philosophie dans le droit : les arrêtés du 21 juillet 2015 et du 31 juillet 2020 demandent aux villes de faire en sorte que « les rejets par temps de pluie représentent moins de 5 % des volumes d’eaux usées produits dans la zone desservie, sur le mode unitaire ou mixte, par le système de collecte » ou bien qu’ils soient à l’origine de moins de 5 % des flux de pollution produits dans la zone desservie par le système de collecte concerné » ou, autre option, « que moins de 20 jours de déversement soient constatés au niveau de chaque déversoir d’orages soumis à autosurveillance réglementaire. » En clair, la loi impose de ne pas verser l’eau de pluie dans le réseau d’assainissement plus de 20 fois dans l’année, ou bien que ces vidages restent inférieurs à 5 % des volumes habituels d’eaux usées. Les villes doivent choisir et trouver des solutions de stockage ou de tamponnage. Par du béton pour stocker le trop-plein, avec la nature pour le limiter et le ralentir. Comme le rappelle Philippe Gouteyron, directeur de projet Plan Eau au ministère de l’écologie, ce seuil de 5 % va être très abaissé avec la DERU (directive eaux résiduaires urbaines) version 2 : « ce sera 2 % ! Et on a jusqu’à fin juillet 2027 pour traduire cette nouvelle directive européenne en droit français. Elle sera un aiguillon, une boussole, qui va nous inciter à trouver de nouveaux leviers pour agir sur les eaux pluviales. Il va falloir trouver des solutions qui facilitent la limitation des rejets par temps de pluie, et donc, réduire au maximum les déversements. Les collectivités devront développer une vraie stratégie, une vision d’ensemble. » Déjà, ne plus considérer que les bassins d’orage sont la destination de la moindre pluie. « La priorité est et sera d’infiltrer le plus en amont possible, en particulier dans les agglomérations où le réseau unitaire existe toujours : il faut réduire à tout prix le déversement et le dimensionner uniquement en rapport avec les orages. » Aux SfN les pluies habituelles, aux bassins d’orage tout ce qui dépasse. Encore faut-il bien calibrer. Eu égard à l’augmentation de l’imprévisibilité des précipitations par l’effet du changement climatique, qui s’accélère, qui s’aggrave nous dit le programme européen Copernicus dans sa dernière livraison du 15 avril 2025, les collectivités ont avant toute décision intérêt à développer zonages pluviaux ou schémas directeurs de gestion des eaux pluviales (SDGEP). Des préalables. Les premiers datent d’une loi de 2010, ils sont obligatoires et adossés aux PLU (i). À partir des équipements d’assainissements et pluviaux existants, ils sont censés permettre de gérer le ruissellement et de prévenir la dégradation des milieux aquatiques lors des grosses pluies. Située entre Valenciennes, Douai et la Belgique, sur l’axe Denain-Saint-Amand-les-Eaux, la Communauté d’Agglomération de la Porte du Hainaut a le sien, avec dedans une cartographie du potentiel de « déraccordement » (sic). Aller plus loin, pour apprécier l’adéquation du réseau d’eau pluviale aux évolutions prévisibles de la démographie urbaine et des précipitations réclame la réalisation d’un schéma directeur de gestion des eaux pluviales. Mis en place en 2015, ce document est facultatif et non opposable, à moins qu’un SAGE ne décide d’en faire une obligation.
La ministre Agnès Pannier-Runnacher a tenu à participer à une table ronde créée rien que pour elle à la fin des rencontres pour parler de tout sauf des eaux pluviales (mais des aires de captages), sous un format discours et non table ronde, sans questions du public, après être arrivée en grand équipage (2 voitures, 2 vans, des motards, une douzaine de personnes avec elle). Après s’être ennuyée assez vite, l’assistance a en général vite oublié les propos ministériels.
Les eaux pluviales ne sont pas financées
Des outils réglementaires veillent donc à la bonne gestion de l’eau tombant du ciel. Il fallait quand même voir s’ils fonctionnaient convenablement. En 2017, l’État commanda donc une enquête à Pierre-Alain Roche, membre du conseil général de l’environnement et du développement durable (CGEDD). « On a pu prendre une bonne année pour faire un travail plus approfondi que d’habitude alors que les calendriers sont d’ordinaire toujours trop réduits. On s’était donné l’échéance de 2027 pour nos objectifs, cela faisait dix ans. » 10 ans pour agir, un laps de temps nécessaire, conforme au temps de la décision publique. « Il y avait urgence à travailler sur la question des eaux pluviales, car si on prend l’entrée protection des milieux aquatiques et de la biodiversité, il était clair qu’au fur et à mesure de la dépollution des eaux, les rejets d’eaux pluviales prenaient une part prépondérante dans la pollution des eaux rejetées. Il y avait en 2017 le sentiment qu’on était pris en cisaille entre des objectifs ambitieux et pas réalistes – comme la dépollution totale par tous les temps, ce qui aurait supposé des investissements impossibles à réaliser, et un sentiment d’inadaptation aux risques liés aux eaux débordantes. » Il y avait aussi un souci de financement, bien surligné dans le rapport. Sans base légale irréfutable, la gestion des eaux pluviales urbaines était – elle l’est encore – confondue avec le service public de l’assainissement, financé par l’usager du service public, à hauteur, à l’époque, de quelque 2 milliards d’euros. Ce serait 2,5 milliards aujourd’hui, soit plus que le budget de toutes les agences de l’eau. Dans son rapport, remis en décembre 2016 au ministère de l’écologie, publié seulement une bonne année plus tard après un délai de réflexion qui a fait sourciller, Pierre-Alain Roche recommandait d’établir une compétence particulière eaux pluviale pour certaines collectivités (les EPCI), comprenant le ruissellement. Aussi, de « fusionner le service public de gestion des eaux pluviales urbaines et celui de l’assainissement collectif en l’étendant au ruissellement, avec des dispositions financières adaptées. Il s’agit d’abonder le budget annexe d’assainissement ainsi élargi, par une combinaison de compensations de charges de service public issue du budget général des collectivités pour les voiries et espaces publics, et par des redevances d’usage du service perçues sur les constructions et leurs annexes. » Pierre-Alain Roche proposait non seulement de réunir administrativement les eaux dans une compétence unique eaux usées-eaux de ruissellement-eaux pluviales-Gémapi (inondation) avec schéma directeur unique, mais aussi de financer leur gestion par de nouvelles taxes perçues sur les constructions et tout ce qui imperméabilise les sols, et non plus seulement à partir des redevances perçues sur les factures des usagers. Pierre-Alain Roche fondait sa demande sur l’échec de la taxe pour la gestion des eaux pluviales, mise en place par la loi sur l’eau et les milieux aquatiques (LEMA) de 2006, modifiée par la loi Grenelle 2 de juillet 2010, finalement supprimée par la loi de finances de 2015. Elle était de 1 €/m2/an au maximum. « Le désagrément de voir les budgets de voirie amputés pour alimenter les budgets d’assainissement a pesé lourd dans le désintérêt de beaucoup d’élus pour cette mesure. Seuls ceux qui étaient en charge des syndicats d’assainissement, potentiellement bénéficiaires de la taxe, la soutenaient véritablement », peut-on lire dans le rapport. Autre raison avancée par M. Roche, la taxe, « dans ses dernières étapes, concernait autant les collectivités locales elles-mêmes, au titre de l’imperméabilisation des espaces publics et voiries que les propriétés privées. » Elle n’était pas populaire, peu d’élus s’en sont saisis. Président d’Adopta, Jean-Jacques Hérin la regrette avec amertume : « Sur Douai, c’était 5 c le m2, c’était faible, mais cela avait l’immense avantage de mettre en lumière le fait que déverser ses eaux pluviales – privées – vers le service public avait un prix. Or, dans notre société, ce qui n’a pas de prix n’a pas de valeur… » Président du comité de bassin Artois-Picardie, grande figure régionale de l’eau, André Flajolet acquiesce avec un dépit semblable : « que voulez-vous, la France est ce pays merveilleux qui a toujours pensé que l’eau devait être gratuite alors qu’elle a un coût ! » Jean-Jacques Hérin poursuit : « le tort que cette taxe a eu était de s’appeler… taxe. Pourtant, elle a incité les élus à une gestion différente. D’ailleurs depuis qu’elle n’existe plus il y a eu des reculs. »
Le rapport Roche a-t-il été lu ?
Les eaux pluviales ne sont toujours pas financées. Sont-elles vraiment considérées ? Il semblerait que la lecture du rapport ait décidément pris un peu de temps, car aucune des autres propositions n’a été sérieusement mise en œuvre par le législateur. Dans le Plan d’action eaux pluviales rendu public par le ministère de l’écologie en novembre 2021, trois ans après la diffusion publique du travail de M. Roche, on en restait encore aux constats lénifiants et on déployait pour y répondre des « actions phares » qui encourageaient, incitaient, facilitaient, sensibilisaient, formaient, développaient. Ça ne mange pas de pain. On se rassurait un peu en lisant page 17 « [qu’] un travail sur l’articulation entre les compétences GEPU [Gestion des eaux pluviales urbaines], GEMAPI et assainissement est prévu au cours de la période 2022-2024. » C’est bien, de prévoir. Les choses semblent bien avancer avec la hâte d’un ruisseau sous canicule. Pierre-Alain Roche a l’art de la litote : « quand on raisonne sur le changement climatique, il ne faut pas oublier que la construction des villes a ignoré les risques, on a donc un exercice de rattrapage, sans doute plus facile à concevoir lors de la conception d’un quartier nouveau comme Matra à Romorantin [un quartier inondable, et inondé sans dommages, conçu en 2015], encore trop rare. Il s’agit de penser la ville, en n’oubliant pas la nécessité de maîtriser les eaux débordantes. Retravailler le bâti, les voiries, les espaces verts existants, pour faire en sorte d’éviter les obstacles et les embâcles. » L’eau passe sur la ville, elle s’écoule à travers elle, la ville doit la laisser s’écouler lorsqu’elle déborde, faire en sorte que le parking souterrain ne se transforme pas en piscine enterrée ou les automobilistes se noient. M. Roche donne l’exemple de Cannes et de Figueras en Espagne, qui ont su s’adapter à l’inéluctable, des pluies fortes et des inondations plus fréquentes : « les aménagements y tiennent compte du fait que l’eau doit circuler, avec par exemple des trottoirs hauts ; en 24 heures les services de la ville sont capables de tout remettre en état… oui ça a progressé, mais il manque encore des réformes institutionnelles, » celles qu’il avait estimées indispensables en 2017. « Il faudrait au moins que l’État ait un deal avec les collectivités, avec une contractualisation d’objectifs, là non plus ça n’a pas beaucoup avancé, » demande M. Roche.
Philippe Gouteyron voit le verre à moitié plein, il défend son employeur : « depuis décembre 2024, un décret renforce la prise en compte du Sage et de son contenu dans les documents d’urbanisme, » ce qui pourrait augmenter mécaniquement le nombre de schémas directeurs de gestion des eaux pluviales. « Les SDAGE et les SAGE, c’est la bonne échelle, c’est là où les choses se passent, » les seuls documents de planification qui permettent d’avoir un effet de levier. Dans le SDAGE du bassin Artois-Picardie que présente Hervé Canler, chargé d’études sur les eaux pluviales à l’agence de l’eau Artois-Picardie, on lit en effet que « les orientations et prescriptions des SCOT et des PLU comprennent des dispositions visant à favoriser l’infiltration des eaux de pluie à l’emprise du projet, » que « la conception des aménagements ou des ouvrages d’assainissement nouveaux intègre la gestion des eaux pluviales dans le cadre d’une stratégie de valorisation de l’eau sur le territoire, » ou encore que « chaque projet ou renouvellement urbain doit être élaboré en privilégiant les solutions fondées sur la nature. » Chargée d’animation du SAGE Croult-Enghien-Vieille-Mer, au nord-est de Paris, Aline Girard indique que chez elle, les règlements d’assainissement et les zonages pluviaux, opposables dans les PLU et PLUi, ont été revus afin d’y inscrire les principes du SAGE, de la manière suivante : « L’infiltration et l’évaporation sur la parcelle doivent être les premières solutions recherchées pour l’évacuation des eaux pluviales recueillies sur la parcelle (…) ainsi, pour les 8 premiers mm de chaque épisode pluvieux, le rejet 0 est considéré comme le cas général. » Pour accompagner les collectivités, un poste d’animateur eaux pluviales et désimperméabilisation a été créé, et un « référentiel des paysages de l’eau » a été élaboré. Tout repose sur l’échelon local, autrement dit, sur les bonnes volontés.
Il faudrait déjà savoir ce qu’est… une eau pluviale
La frontière entre gestion du risque inondation, gestion des eaux pluviales, assainissement et ruissellement demeure très floue, d’autant que le cycle de l’eau se partage toujours entre une multitude de services au sein des collectivités. Le PPRi ne tient toujours pas compte de l’eau qui s’écoule sur la ville. Il faudrait une « approche décloisonnée », défend Sébastien Dupray, directeur technique Risques, eaux et mer au Cerema. Chacun est dans son couloir de nage, la France pense en silo, et les silos sont nombreux, tout le monde le déplore, tous réclament des interfaces où ils pourraient dialoguer. L’eau est séparée en ses multiples états, et en autant de services qu’il en existe dans les collectivités. Rares sont les agglomérations telle que Montpellier qui ont créé un poste d’ingénieur désimperméabilisation et urbanisme, ou Poitiers une vice-présidence dédiée au pluvial. Peut-être est-ce une explication, les eaux pluviales sont mal connues. En France, on passe sa vie à se réunir, à faire table ronde ou atelier, sans se demander si les participants savent de quoi ils parlent. Il manque une culture commune, un vocabulaire partagé. Conjointement, la CDC habitat et la Semac, Société d’Économie Mixte d’Aménagement et de Construction de l’île de la Réunion ont constaté la chose de manière abrupte : « Faute de règles et de normes, on trouve nombre de guides produits par des collectivités ou des associations, proposant chacun leur propre définition de la GIEP [gestion intégrée des eaux pluviales], générant parfois de la confusion à la fois sur la définition du besoin et sur l’atteinte des objectifs. La GIEP, c’est un environnement professionnel propice à la confusion et au greenwashing. » Pan ! Durant un atelier, Pierre Kolditz, chargé de mission cycle de l’eau à la Fédération nationale des collectivités concédantes et régies (FNCCR) a appelé chacun à s’entendre avec l’autre sur une définition commune de la gestion des eaux pluviales… « C’est la partie de l’écoulement qui est gérée par des dispositifs dédiés (infiltration, stockage, collecte, transport, traitement éventuel) ; elles [les eaux pluviales] interagissent en permanence avec les eaux souterraines et les autres réseaux, » et une autre, qui en découle, le ruissellement (« la partie de l’écoulement qui n’est pas gérée par des dispositifs dédiés, » c’est tout simple). Deux définitions tout bêtement extraites du rapport… de Pierre-Alain Roche. Une fois bien en tête, on peut lire le Guide de bonne gestion des écoulements pluviaux et de ruissellement qu’a concocté la FNCCR pour les élus. « Agir en cohérence avec les autres acteurs ; articuler la gestion des eaux pluviales avec les autres politiques publiques ; comprendre quelles sont les responsabilités juridiques respectives de chacun ; mobiliser et mettre en place des mécanismes financiers partenariaux ; prendre appui sur les outils de coopération public-public et public-privé, » en voici quelques canons. Le manque de connaissances et de concertation nourrit la confusion qui crée des blocages. Directeur du développement et de la maîtrise d’ouvrage à la Semac, François Outin parle de mauvaises habitudes et de croyances malheureuses : « Culturellement [à la Réunion], l’eau ne se stocke pas, elle se canalise, elle fait peur, elle est un « ennemi » des biens et des personnes que le maître d’œuvre doit s’empresser d’évacuer de l’assiette foncière du projet, » décrivait-il dans un autre atelier, tout en désignant la méconnaissance générale de la gestion des eaux pluviales à toutes les échelles administratives. Cette inculture génère bien des a priori, en particulier sur l’île de la Réunion : « on entend que la GIEP ne fonctionne pas quand il y a de la pente ; sous les tropiques et ses épisodes pluvieux intenses ; dans toutes les natures de sol ; [qu’elle] n’est pas autorisée par tel texte ou telle norme ; [qu’elle] n’est pas compatible avec les règles sanitaires relatives aux moustiques ; [qu’elle] nécessite d’augmenter la surface des bassins et n’assure pas la pérennité des ouvrages, etc. » Avec la société Elleny et l’association Qualitel, la Semac a créé un label GIEP pour rassurer les porteurs de projet. L’école des Ponts et chaussées propose une autre certification, le « Global Aqua Building. » Quant à elle, l’association scientifique et technique pour l’eau et l’environnement (Astee) a développé un cadre de bonnes pratiques, sous la forme d’une « Charte de qualité nationale des ouvrages et aménagements de gestion durable et intégrée des eaux pluviales. » Le principe ? C’est la société Elleny qui le présente : une bonne gestion des eaux pluviales, c’est gérer l’eau au plus près du lieu où elle précipite, ne pas la mettre en mouvement en la faisant transiter d’ouvrage en ouvrage, rechercher un stockage le plus superficiel possible, définir des temps de vidange selon les usages des zones de stockage, prioriser l’infiltration de l’eau dans les espaces verts, et réaliser des ouvrages simples et pérennes. Dis comme cela, ça a l’air simple.
Le ruissellement et les sols, ces grands oubliés
André Flajolet s’interroge. « Il s’agirait de constater enfin que les eaux usées, il ne faudrait plus y mettre les eaux pluviales, ce qui aujourd’hui oblige à créer des cathédrales souterraines pour les stocker. Qu’elle passe dans les réseaux ou qu’elle glisse le long des fossés, l’eau pluviale va à un moment donné à la station d’épuration, qui se retrouve en surcharge, ou à la mer, » on fait donc du génie civil pour bâtir des réservoirs gigantesques afin de ne pas noyer les stations d’épuration. Mieux vaudrait que l’eau de pluie soit infiltrée aussitôt qu’elle commence à ruisseler, « à la parcelle ». Créer en quelque sorte des mini-zones d’expansion de crue avant la crue. Certes, cela fait longtemps qu’on le dit, mais, que voulez-vous, « on n’est pas équipés en bureau d’études compétents, ni en ingénierie politique, on manque de techniciens et d’élus capables de porter ce discours, car c’est un changement de vision des rapports entre l’homme et la nature, et un changement financier car cela suppose des aménagements urbains conséquents, et des aménagements ruraux qui vont à l’encontre de ce que subventionne la PAC. » Les bureaux d’études. Les témoignages d’élus sont nombreux sur leur incompétence ou leur opportunisme. Un parmi d’autres, recueilli par téléphone en Haute-Savoie par l’auteur de ces lignes : « ils jouent sur notre manque de temps et notre manque de compétences en la matière. Pourtant, faire des études sur les eaux pluviales, c’est un mélange d’hydrologie, de connaissance des sols et du réseau existant. C’est appliquer surtout des formules… sans aller sur le terrain, ce qui conduit à des recommandations aberrantes, sans rapport avec la réalité. » Qui plus est, « les eaux de ruissellement, celles qui circulent sur la voirie, ils n’en tiennent pas compte. Et nous, notre station d’épuration, quand il pleut beaucoup, elle consomme plus de réactifs… » Un coût approché de l’artificialisation des sols. André Flajolet la dénonce. La terre a été domestiquée car il faut qu’elle produise, dit-il, et l’on paie les dommages collatéraux avec le ruissellement, « parent pauvre des réflexions sur l’eau. » Un autre parent pauvre, ce sont les sols : « ils n’absorbent plus, alors que le rapport de la terre à l’eau est devenu central. Comment puis-je utiliser intelligemment l’eau de ruissellement pour en faire une donnée de mon développement ? Comment faire en sorte que demain on ne soit plus en train d’évacuer l’eau de ruissellement mais de la récupérer, de la transformer, de l’utiliser, pour en faire une alliée du développement durable ? Déjà en se disant qu’on ne commande à la nature qu’en lui obéissant, ce qu’on est en train de redécouvrir. Est-ce que l’homme est capable de modifier son rapport à la nature, de modifier ses aménagements ruraux de manière que les types de productions soient en adéquation avec la saisonnalité et l’espace rural ? » André Flajolet critique autant l’espace urbain pensé uniquement pour l’évacuation rapide des eaux pluviales et l’espace agricole dévolu par « l’agrochimie » au « commerce international. » Conseillère technique à la FNCCR, Sandrine Potier ne dit pas le contraire : « on ne gère pas les eaux pluviales en autarcie, il faut voir plus largement, le ruissellement et les aires rurales. » Ne pas oublier non plus, comme le rappelle Sébastien Dupray, que 80% du foncier est privé en ville. L’infiltration à la parcelle, les noues végétalisées, les jardins d’eau, et autres « jardinières loi LOM » installées à Boulogne)-Billancourt (Hauts-de-Seine) ne peuvent donc capter qu’une petite partie des eaux pluviales et limiter un petit peu le ruissellement. Tirer le fil des eaux pluviales déroule une sacrée pelote, celle de notre mode de vie, l’organisation de la société. « Il y a des choses qui bougent, c’est sûr, mais cela ne pas assez vite, car il faut remonter tout un schéma de… désorganisation sociétale pour modifier ne serait-ce que la base de la gestion de l’eau, et trouver des schémas agricoles plus adéquats. » Il faudrait des lieux de partage, d’échange et de propositions, par exemple pour que les différentes sensibilités agricoles aient un lieu d’expression. « Les EPTB, c’est pas mal. » Pourquoi pas les commissions locales de l’eau ? « Elles ne respirent pas toujours la démocratie, il y règne la force des habitudes. »
Un engagement politique impérieux
L’eau pourrait être un acteur du ménagement des territoires. L’eau pluviale en particulier. Cependant elle n’est pas tout à fait bien comprise par les collectivités. Elle n’est pas non plus toujours considérée en tant que facteur d’inondation : le PPRI, répétons-le, ne tient pas compte du ruissellement, à moins qu’on ne le modifie pour cela ou, comme l’a réalisé en 2018 la Métropole de Lille, que l’on élabore un plan spécifique, « le PPRI ruissellement pour le bassin-versant de la Lys à l’aval de la Deûle. » Un PPR peut être établi pour n’importe quel risque. Le Cerema est là pour aider. En faisant visiter son établissement de Saint-Quentin dans l’Aisne. « On a fait de notre site un démonstrateur, pour faire venir les élus, » présente Bruno Kerloc’h, Chef de groupe. « On a planté en phase 1 une haie et un bosquet, on a laissé en croissance libre une « petite forêt » de 270 m2. En phase 2, après une année d’études, on a végétalisé des toitures, créé une mare à niveau variable (elle se vide naturellement), désimperméabilisé le parking avec notamment une chaussée à structure réservoir sur la partie la plus basse. » Rendez-vous dans trois ans pour l’évaluation complète du projet, avec déjà un résultat : le ruissellement sur les toitures végétalisées a diminué de 71 %. De quoi montrer à quelque 1 000 collectivités qu’elles n’ont pas adhéré pour rien au Cerema. Sébastien Dupray : « Elles nous disent qu’elles sont parfois démunies, elles nous interrogent à propos de la directive inondation ou de la cartographie des inondations. » Il y a 19 millions de citoyens en zone inondable, or, d’après M. Dupray, 50 % des dégâts ne sont pas liés au débordement d’un cours d’eau, mais à ceux des égouts, au ruissellement. C’est sans doute beaucoup plus à lire les travaux de l’Institut Paris Région (IPR). Dans une de ses « chroniques des crues et inondations en Île-de-France » de novembre 2023, Ludovic Faytre, géographe-urbaniste, référent études risques majeurs-aménagement de l’IPR met en exergue les chiffres suivants : 88 % des événements enregistrés depuis 1982 donnant lieu à des arrêtés de catastrophe naturelle « inondation » en Île-de-France peuvent être rattachés à des phénomènes de ruissellement ; 100 % des communes franciliennes sont potentiellement exposées à l’aléa ruissellement, soit 101 400 ha (8,4 % du territoire régional). « On essaie de donner des éléments d’informations pour faire prendre conscience, cela a énormément progressé, la question qui se pose maintenant c’est « comment faire ? », alors nous produisons des guides, des outils, pour passer à l’action, » présente Sébastien Dupray. Des solutions adaptées pour les petites pluies, les moyennes ou les plus intenses, en fonction de chaque territoire. « On essaie de faire comprendre aussi qu’il y aura toujours des éléments qu’on n’avait pas prévus, et que la réponse n’est pas qu’une question de tuyaux. » Comment faire mieux ? « Collecter les bonnes solutions, les capitaliser, et les partager. » Le Cerema est un centre de ressources. « Les solutions sont toujours une forme de compromis entre ce qu’on sait faire, ce qu’on peut s’offrir en termes d’argent public, le coût de l’inaction et ce qui est acceptable. Elles apportent toujours plein de services par euro investi. » Ce dont sont certains les gestionnaires de l’habitat social. En conclusion des journées de Bollaert, l’Union régionale de l’habitat, l’agence de l’eau Artois-Picardie et la Banque des territoires ont signé une convention qui les engage à soutenir la gestion des eaux pluviales à la parcelle dans tout projet de construction de ou de rénovation de logements. Trois autres conventions semblables avaient déjà été signées par d’autres agences de l’eau. Un peu avant la signature de celle-ci, Maya Cazin Directrice générale adjointe d’Épinal habitat avait donné le sourire à tout le monde. Elle rapportait les résultats de l’étude du potentiel de déconnexion de 5 000 logements sociaux répartis entre 300 bâtiments : « 60 % des sites sont caractérisés par un potentiel de déconnexion facile à très facile ! » Y a plus qu’à, comme l’a fait la quarantaine des techniciens qui durant deux jours ont présenté leurs chantiers ou leurs réalisations. Gérer différemment les eaux pluviales, c’est possible et cela donne des résultats immédiats. À la condition d’un engagement politique impérieux, ont dit la plupart.