2003 : Les mers , un océan de richesses ? > TR 2 : Observation et connaissance des océans >
Les outils de l'océanographie opérationnelleLes outils de l'océanographie opérationnelle
Gérard Riou, Directeur de l'IFREMER Brest
Biographie :
RIOU GérardCompte rendu :
Voir la vidéo de
Gérard Riou
Transcription :
7 novembre 2003 TR2
Discours de Gérard Riou
Ce matin, nous avons eu un certain nombre de présentations et des discussions autour de l’exploration. Il y a des programmes et des résultats qui ont été présentés puis nous avons eu un débat qui a permis de faire émerger un certain nombre de questions :
savoir quels étaient finalement les moyens dont on a besoin.
il reste encore un certain nombre de domaines qui sont totalement inconnus et qu’il fallait poursuivre dans le domaine de la recherche.
Cet après-midi, nous avons eu des présentations sur des moyens et sur deux programmes scientifiques.
Je souhaiterais élargir un petit peu le débat sur l’ensemble des programmes scientifiques, essayer de réfléchir avec vous sur les principaux drivers, essayer d’en identifier quelques-uns et prendre un exemple de ce qui, à mon avis, constitue une évolution majeure dans le domaine de la recherche marine. Quand on regarde les plans stratégiques qui ont été écrits par les différents organismes, par exemple celui de l’ESF qui a été écrit à la fin de l’année 2000, il identifie cinq axes de recherche qui se retrouvent en totalité ou partie dans la plupart des plans stratégiques des grands organismes de recherche. C’est le cas du plan stratégique de l’Ifremer mais on va retrouver grosso modo les mêmes thématiques dans ceux de la NOAA, les principales universités américaines ou dans des centres de recherche anglais ou allemands. Ces cinq grands axes sont :
* le couplage entre l’océan et le climat ;
* l’exploitation durable des ressources marines, en particulier l’exploitation des ressources vivantes mais l’exploitation des ressources de façon générale ;
* la connaissance et la surveillance de l’environnement ;
* la connaissance de la biodiversité marine ;
* l’étude des marges, peut-être un petit peu plus finalisée avec une focalisation plus spécifique de beaucoup de recherches dans le domaine des géosciences sur une zone particulière que sont les grandes marges océaniques.
Ce matin, il y a eu des questions qui ont été posées pour savoir si l’évolution de ces recherches, c’était finalement un long fleuve tranquille et si c’était une évolution linéaire ou pas. Je crois que les programmes de recherche évoluent sous un certain nombre de contraintes et que les premiers moteurs de ces évolutions sont les résultats des programmes scientifiques. C’est aussi l’évolution des outils, l’apparition des ruptures technologiques. L’apparition de nouveaux outils va d’un seul coup permettre parfois d’avoir accès à des nouveaux domaines qui étaient totalement inaccessibles, fermés en terme d’exploration. Donc l’évolution technologique est un second driver majeur mais il y en a d’autres dont on parle souvent assez peu parce que ce sont des moteurs qui nous influencent, mais de façon indirecte, et sans qu’on en prenne parfois conscience. La recherche ne s’exerce pas de façon totalement isolée de l’environnement socio-économique. Nous sommes nous-mêmes influencés par les grandes évolutions qui existent au sein de la société, au sein de nos organisations, qu’elles soient politiques ou qu’elles soient économiques. Il y a de grandes évolutions qui se dessinent au fil du temps et elles ont inévitablement des conséquences sur l’organisation des entreprises, sur la façon dont les entreprises vont exercer leur métier et elles ont bien évidemment des influences sur la façon dont les instituts de recherche pourront conduire ces programmes de recherche. Je crois que l’on retrouve la persistance d’un certain nombre de grands moteurs qui sont les moteurs majeurs. Il y a d’abord l’accroissement de la connaissance, nous sommes face encore à un monde qui est encore largement inconnu. Nous avons cité des exemples dans le domaine des géosciences, c’est un exemple qui vient facilement à l’esprit parce que tout le monde a en tête l’immensité que représente les océans et la difficulté qu’il y a à établir des cartographies extrêmement précises et à connaître dans toutes ses dimensions sa composition physique, chimique. C’est encore pire si l’on pense à l’ensemble de la vie, de la biologie, du domaine vivant qui se trouve à l’intérieur de ces océans, et en particulier dans le domaine des microorganismes qui reste majoritairement inconnu aujourd’hui. Il y a également un moteur que tout le monde connaît qui est généralement intégré dans toutes les réflexions, c’est la compétitivité. La recherche n’échappe pas à cette compétition. Elle se fait évidemment en coopération et cette coopération existe entre les organismes, entre les différents pays mais il ne faut pas masquer qu’il existe quand même une compétition pour accéder rapidement à des résultats et à l’obtention de cette connaissance.
Je voudrais souligner deux nouveaux éléments qui me paraissent extrêmement importants et qui deviendront de plus en plus importants dans le futur.
Le premier élément concerne la durabilité des activités. Vous allez me dire : « on est revenu au développement durable et à la gestion durable ». Le développement durable, non, ce n’est pas qu’un slogan. Aujourd’hui, c’est clair, il faut qu’on l’intègre dans notre réflexion. Il influence considérablement la façon dont des activités économiques sont conduites, il influence considérablement la façon dont les entreprises organisent leur travail, choisissent des méthodes, organisent des façons d’exploiter des ressources. C’est également vrai pour les programmes de recherche scientifique et les sciences marines n’y échappent pas.
Le deuxième élément que je voudrais souligner concerne l’ensemble de la société : ce sont tous les problèmes de maîtrise du risque. On a tous des exemples de ces problèmes dans la vie courante, en particulier autour des risques sanitaires, mais c’est aussi le risque environnemental. Sa maîtrise a des traductions qui peuvent être extrêmement différentes, qui vont amener par exemple à la mise en place de procédures qualité, de procédures sécurité, le développement de référentiels HSE qui concernent la santé, la sécurité et l’environnement dans les différentes entreprises mais c’est également une préoccupation de plus en plus importante vis-à-vis d’une exploitation, d’une gestion ou d’une conduite durable de l’ensemble des activités.
Qu’est-ce que cela a comme conséquences vis-à-vis des programmes de recherche scientifique ? Cela a une conséquence majeure, c’est que lorsqu’on essaye de répondre à ces demandes sociétales pas toujours clairement exposées mais qui sont relatives à la durabilité des activités ou au problème de maîtrise du risque, ça ouvre tout de suite la porte sur deux grandes conséquences. La première, c’est que ça fait apparaître des questions qui appellent des réponses complexes. Donc pour répondre à un problème de gestion durable, on s’aperçoit très vite qu’on est obligé pour essayer d’apporter une réponse pertinente de faire intervenir différentes disciplines, de croiser différentes compétences et de s’associer avec des compétences que l’on va trouver dans des organisations, dans des structures différentes. Donc on est face à une gestion de la complexité. Par exemple, si on veut essayer aujourd’hui de conduire des programmes efficaces pour la gestion des ressources vivantes pour la gestion des pêches, on va être obligé de conduire des programmes qui vont devoir acquérir des informations, de la connaissance sur la biologie, sur les espèces de poissons qu’on exploite mais on est obligé d’avoir des informations de façon extrêmement large sur tout l’environnement : comment est-ce que les fonds ont évolué, comment est-ce que la température de l’eau évolue, comment est-ce que les courants qui vont transporter les œufs ont pu se modifier entre les époques où on a pu faire les différents comptages et les différentes évaluations de ressources qui ont pu être faites et, bien évidemment, prendre en compte l’évolution des activités humaines ? Donc, nous sommes face à cette complexité dans la conduite des programmes scientifiques mais, en même temps, ces programmes complexes vont permettre de répondre aux questions que la société nous pose. Le deuxième problème, c’est la maîtrise du risque. Par exemple, on le voyait apparaître au travers de la présentation de Heidemarie Kassens qui montrait que s’il y a une fonte majeure de glace au pôle nord, il y aura des modifications de courant, que celles-ci ne pourront pas ne pas avoir d’impact sur le climat en Europe, sur le niveau de la mer et donc sur l’ensemble des activités que non seulement nous conduisons sur la côte mais que nous conduisons aussi sur les terres par la modification du climat. Nous avons également parlé ce matin des hydrates de gaz qui peuvent aussi avoir un impact extrêmement important en terme d’environnement. Il y a un risque environnemental mais qui peut constituer aussi un risque en terme d’exploitation pétrolière sur des chantiers. Pour arriver à maîtriser ce risque, encore faut-il avoir une connaissance suffisante des mécanismes de formation et de dissociation de ces hydrates, une connaissance sur la circulation des fluides dans les sédiments, une compréhension de la stabilité de ces sédiments, de façon à pouvoir faire des prédictions ou des évaluations fiables de la stabilité des pentes qui pourraient mettre en péril des structures d’exploitation offshore ou des installations qui ont été posées sur le fond. Donc on voit bien que cette préoccupation-là ne va pas être neutre par rapport à nos programmes scientifiques. Elles ne sont également pas neutres par rapport à la façon dont on doit conduire les programmes eux-mêmes parce que, si on veut être capable de répondre à ces demandes complexes, à cette maîtrise du risque, il faut être capable de faire de la prévision et tout ce que j’ai entendu ce matin était essentiellement relatif à de la recherche qui faisait de l’accroissement de connaissances, c’est-à-dire ce qui se plaçait en amont de la prévision. On voit bien que la demande sera tournée de plus en plus vers la prévision et non pas savoir ce qui s’est passé avant, même si on en a besoin pour développer la connaissance qui nous permettra de dire quels sont les mécanismes qui doivent être pris en compte pour essayer de comprendre le futur et essayer de le prédire. Donc cette prévision est quand même majeure et pèsera de plus en plus sur l’ensemble de nos travaux. Je ne prétends pas que toute la recherche doit être conduite dans le schéma qui se trouve sur l’écran mais, de plus en plus, la recherche en sciences marines doit se trouver dans un schéma qui doit intégrer la connaissance sur la mer dans des processus de gestion. Ce n’est pas aux chercheurs de conduire ce processus de gestion, c’est à nous d’essayer de positionner notre connaissance, nos programmes de façon à ce qu’ils puissent s’intégrer dans un tel schéma. J’ai beaucoup entendu dire aujourd’hui que nous manquions de ressources, de budgets, de finances. Certains se sont demandé pourquoi les sciences de la mer sont, elles, si peu connues. On s’y intéresse peu car c’est un domaine qui n’est pas très connu, peut-être nous ne communiquons pas suffisamment. Mais, au travers de cette intégration-là, on fera apparaître de façon beaucoup plus importante à quel point il est fondamental de développer cette connaissance de base, cette recherche qui est indispensable pour qu’on soit capable de s’intégrer dans les étapes futures, dans les étapes suivantes. Évidemment, ce schéma n’est pas valable dans toutes les disciplines. Le curseur va se positionner entre ces cinq niveaux de façon très variable en fonction de la connaissance que nous avons dans les différentes disciplines. Par contre, cela impose des approches nouvelles parce que c’est quand même gérer une complexité qui est plus grande, des acteurs beaucoup plus nombreux à gérer et donc c’est une gestion de la complexité.
J’assistais, il y a trois semaines, au baptême de la nouvelle promotion de l’Ensieta et c’était Gérard Darmont qui, dans son discours, identifiait trois grands sujets auxquels les ingénieurs du futur seront confrontés : la mondialisation, la complexité, la maîtrise du risque. On retrouve également cette complexité et ces problèmes de maîtrise du risque. Mais être capable de faire de la prédiction, techniquement ça va imposer un certain nombre de contraintes. Il faut avoir atteint un niveau de connaissance suffisant pour être capable de faire de la modélisation. Mais si l’on veut faire de la prédiction, ça veut dire qu’il faut travailler en temps réel et ça, le temps réel, c’est quelque chose de nouveau qui, aujourd’hui, a fait complètement irruption dans notre société. Je me souviens avoir assisté, il y a quelques années, à une présentation de Bill Gates qui s’était déplacé à Paris pour essayer d’expliquer sa stratégie dans le développement des nouveaux outils informatiques et il avait dit, de façon un petit peu caricaturale, à une assemblée de patrons que ce n’était pas pour eux qu’il était en train de travailler mais pour leurs enfants parce qu’au travers de jeux vidéo, ils apprenaient l’interactivité. Donc l’interactivité, c’est quand même une dominante forte de notre société moderne. C’est à la fois culturel, c’est quelque chose qui s’installe en terme culturel, qui pèse complètement sur l’ensemble de notre société, il suffit de voir à quel point le téléphone portable qui a fait irruption en particulier chez les jeunes de façon massive, l’Internet, qui permettent de tout organiser, de préparer quasiment dans l’instant. Mais faire de la prévision, encore faut-il bénéficier des informations au bon moment pour être capable de le faire.
Pour illustrer le propos, on peut prendre l’exemple de l’océanographie opérationnelle parce que c’est quelque chose qui émerge aujourd’hui. Le but est de prévoir en routine l’état physique de l’océan en quatre dimensions : trois dimensions spatiales plus le temps. C’est vraiment une réalité qui émerge pour l’océan du large. Il y a deux facteurs qui ont été déterminants dans l’apparition de cette océanographie opérationnelle. Le premier a été les progrès de la modélisation mais c’est un mot impropre. Il faut bien comprendre ce qu’il y a en dessous. Quand on dit les progrès de la modélisation, on imagine des gens qui font du calcul numérique devant des ordinateurs qui est la partie émergée de l’iceberg. Mais c’est toute la connaissance qu’on a acquise pendant des années au travers de grands programmes scientifiques internationaux comme le programme CLIVAR qui ont permis de comprendre quels étaient les mécanismes physiques déterminants et ce sont ces mécanismes physiques que l’on a appris à connaître, que l’on a appris à décortiquer, à comprendre les interactions qu’ils avaient entre eux et que l’on a pu mettre en équation. La modélisation n’est finalement qu’un aboutissement logique d’une connaissance qui a été acquise en amont. C’est également une rupture technologique dans les systèmes de mesures qui a permis de faire une observation depuis l’espace avec une résolution extrêmement importante. Il faut se rappeler en particulier que la première carte altimétrique de l’océan a été publiée en 1992. C’est une technique récente, l’océanographie spatiale a donné accès à une vision globale et à un certain nombre d’informations qui ont permis de développer cette océanographie opérationnelle. Mais il faut également un cadre, on voit bien que personne n’est capable de traiter seul des problèmes aussi vastes. Le cadre a été fourni par des programmes internationaux au niveau de la recherche, comme par exemple le programme GODAE, le programme ARGO qui vise à déployer un certain nombre d’équipements de mesures à la mer en se répartissant l’effort entre les différents pays. Ce sont donc des programmes qui ont permis de répartir l’effort et de coordonner les contributions entre les différents pays. Mais également, un effort extrêmement important a été consenti par les instituts et les laboratoires français et il faut souligner l’effort qui a été fait par tous les instituts français puisque c’est le CNRS, le CNES, le SHOM, l’Ifremer, l’IRD, l’IPEV qui se sont groupés pour essayer de construire un ensemble cohérent permettant de jeter les bases de l’océanographie opérationnelle. Il y a des coopérations internationales. Le fonctionnement repose sur trois piliers : un système d’observations satellites qui a trouvé sa concrétisation avec le satellite Jason lancé à la fin de l’année 2000, Coriolis qui est le système d’observation in situ dont le centre de données est à Brest et Mercator qui est la composante modélisation. Ils représentent le schéma que l’on va utiliser pour construire cette océanographie opérationnelle dans la phase de développement qui est celle que nous connaissons aujourd’hui. On voit aujourd’hui que les flèches vont du système d’observation vers le système de modélisation, à la fois pour le système satellite et pour le système d’observation in situ et on verra lorsqu’on va passer à la phase opérationnelle définitive qu’il faudra mettre une pointe de flèche en sens inverse entre la modélisation et le système d’observation in situ pour être capable de le redéfinir, de le redimensionner pour être capable de le faire marcher en opérationnel. Faire de l’opérationnel est quelque chose de complexe et coûteux puisque là il ne s’agit plus d’aller faire une recherche sur une zone déterminée pour une période limitée dans le temps. C’est quelque chose qui doit durer, qui doit être construit dans la durée et qui doit fonctionner de façon permanente pour faire de la prévision et ça ne peut se justifier que si l’on arrive à démontrer son utilité.
On voit l’utilité au travers de la recherche sur l’évolution du climat qui est une préoccupation non seulement des scientifiques mais qui devient une préoccupation majeure, compte tenu des conséquences sur l’ensemble de nos sociétés. C’est également jeter les bases aujourd’hui de ce que deviendra la prévision météorologique saisonnière. Vous vous êtes tous aperçu que cet été, il y a eu une canicule et on ne finit pas de parler de ses conséquences. Mais la question qui se pose aujourd’hui, c’est de savoir si c’est un accident qui s’est produit une fois et qui ne se reproduira pas avant 50 ans ou si ça caractérise une tendance lourde et qu’il faut qu’on s’attende maintenant à ce qu’une telle canicule revienne régulièrement et fréquemment à l’avenir. Cela a des conséquences fondamentales sur les activités économiques, sur les plans de programmation des centrales électriques, sur les systèmes de climatisation, sur l’agriculture, sur la consommation électrique. On a bien vu les conséquences dans le domaine de la santé. Aujourd’hui,est-ce que l’objectif de prévision est atteint, est-ce que le système nouspermet d’aboutir à une prévision saisonnière fiable ? On n’en est pas encore là, on sait bien que les prévisions faites par Météo France ou par le centre de Reading, le centre européen de prévisions à moyen terme, n’avaient pas prévu cette canicule, tout au moins pas avec cette précision-là. Par contre, ce que l’on sait, c’est que les centres de recherche météorologique qui avaient commencé à faire des tests de couplage des résultats de l’océanographie opérationnelle, des modèles Mercator avec des modèles atmosphériques, prévoyaient l’augmentation de température pendant l’été. À mon avis, c’est un résultat extrêmement encourageant qui montre que nous sommes sur la bonne voie et que nous accéderons, si nous continuons cet effort-là, à la prévision météorologique saisonnière, probablement à court terme.
Ce sont également des informations qui sont indispensables pour la Défense, pour la conduite d’opérations sur des théâtres d’opération, pour la navigation et la détection sous-marine.
Mercator fait des prévisions qui sont disponibles sur le web. Aujourd’hui, les prévisions faites concernent l’Atlantique et la Méditerranée, avec une résolution de 1/15e de degré et puis il y a également un modèle global qui est en préparation avec une résolution de 2 degrés mais qui devrait évoluer avec une résolution spatiale plus fine du quart de degré.
Image : La température dans l’Atlantique et dans la Méditerranée à 100 mètres le 12 novembre.
Tout cela ne peut marcher que parce qu’on a des systèmes d’observation qui fonctionnent en temps réel. De façon simplifiée, ce qu’il faut retenir sur le satellite Jason, c’est un satellite (essentiellement la mesure déterminante) qui a permis de progresser dans le domaine de l’océanographie physique, par la mesure altimétrique. Le radar altimétrique utilisé sur le satellite Jason a une résolution de 3 cm. On doit tenir compte d’un certain nombre de corrections de perturbations mais toujours est-il que l’on arrive à avoir une estimation de la hauteur topographique des océans avec une précision de quelques centimètres. C’est vraiment extrêmement important et c’est un résultat qui est même bluffant. Aujourd’hui, ce type de précision dépasse la précision que l’on peut avoir quand on essaye de mesurer la hauteur de l’océan avec des systèmes de mesures in situ si l’on se préoccupe de la hauteur de l’océan par grandes profondeurs d’eau. Si on essaie de le mesurer avec des systèmes acoustiques ou des systèmes à pression, on n’arrivera pas à cette précision-là. Cela pose d’ailleurs un problème quand on fait la qualification de ces mesures satellites, on le fait à partir de mesures in situ et on est bien embêté parce que nos systèmes de mesures in situ n’ont pas tout à fait la résolution suffisante. La résolution, le long de la trace, est de 7 km et comme on fait les mesures en moyenne sur une seconde (le satellite avance vite : 7 km en une seconde), donc on fait une moyenne sur 7 km. Il est programmé pour un cycle de 10 jours, c’est-à-dire qu’il va repasser sur la même trace au bout de 10 jours et entre-temps, il aura fait 123 fois le tour de la Terre, donc on aura eu des mesures sur 123 traces qui se seront décalées dans le temps, compte tenu de la rotation de la Terre.
Concernant les paramètres océanographiques, on peut déduire toute une masse d’informations et c’est essentiellement la topographie dynamique qui va nous permettre de déduire des informations sur le courant. Puis, on a des informations sur l’état de surface de la mer puisque sa rugosité étant différente, les paramètres de rétro-diffusion varient et l’analyse des paramètres de rétro-diffusion est directement corrélée à l’état de surface de la mer.
Le système d’observation in situ, est-ce que c’est aussi merveilleux, est-ce que ça marche aussi facilement ? C’est plus difficile. Il y a une difficulté avec les systèmes d’observation satellite, c’est que l’observation satellite ne donne des informations que sur la surface. À l’inverse, l’océan c’est profond, ça représente un grand volume d’eau et ce que l’on trouve sous l’eau n’est pas forcément identique à ce que l’on voit sur la surface, loin de là, ce serait trop simple. Ce milieu n’est pas facile à observer, il est hostile. Quand on met des équipements dans l’eau, surtout l’hiver, ce n’est pas facile : il est mouvant, il change, il y a des tempêtes. C’est un milieu corrosif et plus on descend, plus on immerge des équipements profonds, plus la pression augmente. Dans les grands fonds, la pression est terrible, ça augmente d’une atmosphère tous les 10 mètres et quand on met un équipement qui mesure du courant ou de la température, les conséquences s’il implose sont moins graves que s’il y avait des hommes mais la résolution du problème technique est tout aussi difficile.
La logistique utilisée est lente, lourde.
Je vais mentionner les difficultés techniques en ce qui concerne les capteurs. Qu’est-ce qu’on sait mesurer finalement dans l’eau, dans la durée ? On sait mesurer la température mais au-delà, tout se complique et ça devient très difficile. Les paramètres chimiques, ça devient extrêmement difficile, il faut utiliser des mélanges de réactifs, utiliser des techniques optiques ou autres et de ce fait, c’est presque impossible à faire fonctionner dans la durée. Il y a également des phénomènes de bio-salissures. Faire de l’opérationnel, ça pose le problème de le faire fonctionner dans la durée, c’est-à-dire résoudre des problèmes comme celui de l’énergie. Puis, il y a des problèmes de télécommunication : faire du temps réel en mer, ce n’est pas facile. Le système d’observation est nécessairement composite : il utilise des navires océanographiques, des navires marchands, des XBT, des mouillages fixes, des flotteurs. Il nécessite une large coopération.
L’avenir, c’est concevoir le système opérationnel, qui existe en mode recherche aujourd’hui, il faudra le revoir, le repenser pour être capable d’avoir un système économique qui fonctionne de façon opérationnelle, donc il y a des efforts à faire un peu partout sur les coûts, sur les fiabilités (fiabiliser les équipements et les procédures). En océanographie hauturière, il faut être capable de faire des loupes à haute résolution sur des zones de chantier, d’intégrer une physique spécifique dans cette physique plus lâche avec des modèles à haute résolution. Ça peut être particulièrement important pour des zones de chantier, par exemple l’exploitation offshore. Mais c’est également faire un couplage aux modèles météo, c’est intégrer la biogéochimie pour les programmes de recherche sur le climat ; en particulier, vis-à-vis du cycle du carbone, c’est fondamental. Aujourd’hui, on mesure la température et la salinité, il faudra bien ajouter d’autres paramètres demain et puis surtout il y a un grand champ très vaste qui s’ouvre, c’est l’océanographie opérationnelle côtière puisqu’il faudra fournir l’information de base à toutes les études relatives à l’environnement et aux activités côtières et littorales qui regroupent la majorité des activités économiques dans le domaine marin.
Mis à jour le 29 janvier 2008 à 11:09