Un rapport parlementaire sur la Science ouverte vient d’être remis au président de l’OPECST et d’être mis en ligne. Ce rapport contient des informations et des avis intéressants. Mais il est truffés de passages consternants. Alors que ce rapport prétend dénoncer la main-mise de « militants » sur la politique de Science ouverte, cela n’empêche pas ses auteurs de rédiger certains passages dans un langage purement… militant, avec des phrases à l’emporte-pièce gratuites comme « des institutions de l’enseignement supérieur en manque d’inspiration ainsi qu’à un monde de la recherche en perte de repères » (page 7).

L’impression que l’on a à la lecture de ce rapport est qu’il résulte d’une compilation de diverses contributions, parmi lesquelles on reconnaîtra celles de Jean-Yves Mérindol, qui ne sont pas dénuées d’intérêt, mais auxquelles ont été rajoutés des règlements de comptes du Syndicat national de l’édition, notamment des éditeurs commerciaux français en SHS, avec les acteurs de la Science Ouverte. Ces règlements de compte, qui n’ont rien à faire à mon avis dans un rapport parlementaire, s’imposent dans la synthèse et la conclusion du rapport d’une manière assez abrupte. Le tout est compilé de manière assez hétérogène, certains avis se contredisant au fil des pages. On peut s’interroger également sur le fait que, parmi les trois rédacteurs du rapport, figure Laure Darcos, ex-directrice des relations institutionnelles du groupe Hachette Livre (2009-2016), membre du Comité exécutif France du groupe Hachette (depuis 2013) et vice-présidente de la commission numérique du Syndicat national de l’édition.

De plus, le point de vue polémique qui sous-tend ce rapport est manifestement totalement focalisé sur les SHS. Cela pose un problème car le rapport a prétention à couvrir toutes les disciplines. Or, et c’est là le plus grave, les avis et analyses qui sont issues du point de vues des rédacteurs sur les SHS sont extrapolées à l’ensemble des Sciences, d’une façon qui trahit une ignorance stupéfiante chez les rédacteurs de la situation pour les Sciences exactes. Il en résulte un tableau de la situation rempli de contre-vérités et totalement décalé par rapport à la réalité (malgré le titre « Pour une Science ouverte réaliste … »).

Ainsi la notion principale qui est dans le collimateur de ce rapport est le modèle diamant. Or on trouve dans le rapport des passages qui semblent montrer que leurs rédacteurs ne maîtrisent pas la définition même de ce qu’est le modèle diamant (voir plus bas) ! Cela pose un sérieux problème.

En effet la conclusion principale du rapport est que l’édition scientifique (et, avec, la liberté académique, etc.) serait menacée par l’hégémonie du modèle diamant.

Cette conclusion est totalement ridicule ! Tous les spécialistes de ces questions (qu’ils soient bibliothécaires, documentalistes ou chercheurs) savent que le modèle diamant n’est pas et ne sera jamais hégémonique. Il suffit de consulter le baromètre de la Science ouverte (fondé sur les publications d’auteurs travaillant en France) pour voir que la proportion d’articles en accès ouvert grâce au modèle diamant ne dépasse pas 9 % et même tendance à baisser ! Le vrai problème est l’hégémonie des grands majors de l’édition scientifique (Elsevier, Springer Nature, etc.), que ce soit pour le modèle d’accès payant par abonnement ou pour l’accès ouvert financé par des APC (redevance de publication payés par l’auteur, ou plutôt, par leurs institutions) ou par des accords transformants (« read & publish »). Problème aggravé par la dictature des indices « H-index », « facteur H », dont les effets délétères sur la Science sont de plus en plus évidents (le dernier effet en date, le plus médiatisé, étant Didier Raoult, un pur produit du système absurde de points SIGAPS, alimenté par ces indices, dont il n’est malheureusement pas question dans ce rapport; dans un rapport datant de 2017, la Cour des comptes signalait déjà l’urgence à rendre les scores SIGAPS « plus discriminants au regard de la qualité des travaux de recherche » ).

La cible de ce rapport serait un groupe de « militants » conspirant pour l’hégémonie du modèle diamant, au détriment de la bibliodiversité, ce qui est un comble car ce sont précisément ces mêmes « militants » qui sont à l’origine de l’Appel de Jussieu en faveur de la bibliodiversité !

Passons en revues quelques passages qui valent leur pesant de cacahuètes (liste non exhaustive) :

Page 7 (synthèse) : « En mettant en péril l’équilibre économique de certains segments du monde de l’édition, [les évolutions vers la Science ouverte] pourraient porter atteinte à la diversité de l’offre éditoriale tout particulièrement en sciences humaines et sociales et conduire à une prise en charge publique du coût des publications (appelée modèle Diamant) »

→ Cette phrase induit une énorme confusion entre « prise en charge publique du coût des publications » avec « modèle Diamant », qui sont deux choses différentes. Remarquons également que c’est le coût de quasiment toutes les publications scientifiques qui est pris en charge par les institutions publiques ! de Elsevier à OpenEdition, en passant par CAIRN…

Page 18, sur le logiciel libre : « La même communauté de hackers idéalistes travaille aussi à la diffusion gratuite et immédiate des données scientifiques, faisant fi du droit de la propriété intellectuelle. »

→ On est en pleine caricature !

À propos de SciHub : « ce piratage pur et simple représente une forme de hacking informatique parmi d’autres, qui n’est pas plus noble que les autres, en dépit de son utilisation massive par les jeunes chercheurs et de sa spécialisation sur les données scientifiques, perçues comme un bien commun. »

→ Pourquoi n’est-ce « pas plus noble » ? c’est un jugement de valeur qui n’est pas partagé par une majorité de chercheurs (rappelons au passage que c’est l’édition scientifique qui est censée être au service de la Science et des chercheurs et non l’inverse !)

« Cette violation du droit d’auteur à grande échelle constitue une menace pour les communautés scientifiques et pas que pour les éditeurs » :

→ il est archi faux de prétendre que SciHub représente une « menace pour les communautés scientifiques », les études sur le sujet montre plutôt le contraire, à savoir, l’effet positif de SciHub sur la recherche (voir par exemple l’étude).

→ menace « pour les éditeurs » : existe-il vraiment une preuve de cela ?

« Il est heureux que la justice américaine en 2017 puis le tribunal de grande instance de Paris le 7 mars 2019 aient déclaré Sci-Hub illégal et ordonné aux grands fournisseurs d’accès à Internet de bloquer l’accès de leurs abonnés à Sci-Hub. »

→ c’est « heureux » du strict point de vue juridique et pour les actionnaires d’Elsevier & consorts, mais déplorable pour la Science en général et pour les scientifiques partout dans le monde pour lesquels SciHub est le seul accès aux ressources scientifiques.

D’ailleurs on reconnaît page 19 que : « Par ailleurs, il faut reconnaître que ces bibliothèques augmentent l’impact et la visibilité des travaux scientifiques : selon une étude de l’université Cornell, les articles qui se trouvent sur Sci-Hub reçoivent 1,72 fois plus de citations que les articles de revues de qualité similaire non disponibles sur Sci-Hub. ». Où est la cohérence dans ce rapport ?

Paragraphe : « 2. La révolution numérique et ses implications »

Page 19 :

« L’édition électronique se développe constamment et offre de nouvelles fonctionnalités pour les auteurs, les éditeurs, les bibliothèques et les lecteurs. La bibliométrie, déjà présente dans le monde du papier (Eugène Garfield a fondé l’Institute for Scientific Information en 1960 et Science citation direct en 1964), prodigieusement raffinée et amplifiée avec la mise en place de gigantesques bases de données (Scopus, Web of Science), s’est imposée dans de nombreux domaines (classements, facteur h, impact factor, etc.). »

Les rapporteurs semblent se féliciter de l’existence de ces indices « prodigieusement raffinés », puisqu’à la fin de cette section, la conclusion est : « Toutes les transformations profondes rappelées ici sont autant de conditions de possibilité ayant permis de penser l’utopie d’une science gratuite, accessible et participative, c’est-à-dire de se projeter vers la possibilité d’une science ouverte. »

Pourtant le fait que ces indices jouent un rôle délétère est l’objet d’un consensus de plus en plus large, porté notamment par la déclaration DORA, comme c’est rappelé dans le rapport page 31, à propos de la conférence « Paris Open Science European Conference – OSEC 2022 » : « Contre la logique d’une évaluation purement quantitative, la déclaration met en avant la nécessité de promouvoir l’appréciation qualitative par les pairs, appuyée sur un usage responsable des indicateurs quantitatifs. »

On trouve pages 34 (note 2) et 35 des récriminations sur la loi pour une république numérique de François Gèze qui n’ont pas leur place dans ce rapport :

« la « consultation publique » ouverte pour trois semaines en septembre 2015, invitant les internautes, quels qu’ils soient (y compris anonymes et étrangers), à donner leur avis sur les divers articles de la « loi Lemaire » peut être vue comme le couronnement de toutes ces nouvelles formes d’action publique : la définition d’un objectif politique clair par l’exécutif, puis la prise en compte d’expertises préalables et l’organisation rationnelle du débat entre acteurs concernés pour mettre au point un projet de loi (consultations, réunions interministérielles, débats parlementaires) ont été reléguées au rang de vieilles lunes ; et cela au profit d’un simulacre de « démocratie » directe à coups de « likes » et de « tweets », permettant aux lobbies les mieux organisés d’« emporter le morceau ». »

→ C’est évidemment tout le contraire. Pour la première fois (et malheureusement, cela ne s’est pas reproduit), l’élaboration d’une loi a été l’objet d’une consultation en ligne citoyenne. Et cela a permis justement de contre-balancer le travail des lobbies. Les « likes » n’étaient pas écrits par des ados qui se seraient passés le mot sur TikTok, contrairement à ce que laisse imaginer la description caricaturale de François Gèze, mais par des chercheurs, des bibliothécaires et des documentalistes, qui ont plébiscité les commentaires du CNRS et de Couperin. De plus cela n’a nullement empêché les lobbies liés au Syndicat national de l’édition d’agir au sein des ministères et des parlementaires, puisque l’article en question a été vidé de sa substance lors de l’arbitrage de Matignon et c’est finalement grâce aux amendements des députés Isabelle Attard et Nathalie Kosciusko-Morizet que l’article en question a été rétabli, quasiment in extremis. L’affirmation qui suit :

« François Gèze estime que le processus technocratique « s’est affranchi, pour l’essentiel, de tout souci d’expertise, de compétences partagées ou de diplomatie, au profit de la mise en scène de parti pris idéologiques et de la fabrication de compromis entre « parties prenantes » établis sur la base du « qui crie le plus fort » dans les antichambres ministérielles, dans l’arène publique et sur les réseaux sociaux ».

est donc de pure mauvaise foi.

Pages 55 et 56 :

« En ce qui concerne la valeur ajoutée des éditeurs, leur premier rôle est, selon le Syndicat national de l’édition, d’assurer la plus grande efficacité de la relation entre les auteurs ou les revues publiées (par des éditeurs scientifiques par exemple) et leurs lecteurs. Ce rôle d’intermédiation concerne d’après les professionnels de l’édition :

la qualité et la rigueur de la sélection des auteurs publiés, point qui détermine directement la réputation de l’éditeur, indicateur essentiel pour les prescripteurs de ses publications (journalistes, libraires, enseignants, bibliothécaires, etc.) et garant d’une diffusion d’autant plus large que cette réputation s’inscrira dans la durée ; la qualité du travail d’édition (accompagnement et mise en forme des textes) et de fabrication des ouvrages publiés ; la qualité et l’efficacité des outils de diffusion/distribution mobilisés par l’éditeur, qu’il s’agisse de l’accès à la librairie ou de la diffusion via des agrégateurs numériques ; la qualité et l’importance des outils de promotion mis en œuvre (publicité, newsletter, sites web, réseaux sociaux, etc.) ; la rigueur des outils juridiques (relations contractuelles de tous ordres) et financiers (rendu des comptes, respect des engagements de rémunération des auteurs, etc.) utilisés. »

→ On retrouve là l’argumentaire classique des éditeurs (« on fait tout le boulot »), très biaisé, oubliant de mentionner que le travail éditorial est fait en grande partie par les chercheurs financés par la puissance publique.

Page 58 : on trouve cette énorme confusion :

« le modèle Diamant ou Diamond (variante « sponsorisée » de la voie dorée, le paiement est en amont mais il est pris en charge par les institutions publiques, agences de financement de la recherche, universités, laboratoires) ».

→ les auteurs de ce rapport induisent une confusion entre le modèle diamant et le modèle décrit entre parenthèse, qui correspond plutôt au modèle « read & publish » ou aux accords transformants ! Une telle confusion est d’autant plus grave que le modèle diamant est présenté comme le grand péril qui menace la Science.

À propos des revues prédatrices :

« Il existerait des milliers de revues de ce genre et un chercheur de bonne foi peut tout à fait être trompé par une revue prédatrice, d’où l’importance de disposer de listes noires de ces revues malhonnêtes. »

→ Pour information, la solution qui consisterait à dresser des listes noires a déjà été explorée, mais elle est abandonnée : Jeffrey Beall a dû retirer sa liste en raison des pressions qu’il subissait, notamment celles de son université, à cause des risques juridiques encourus. Aujourd’hui beaucoup d’institutions évitent cette voie. D’autres solutions sont à rechercher (information auprès des chercheurs, création de labels de bonne pratique…).

Page 59 :

« Le modèle Diamant semble à première vue séduisant et est défendu par les acteurs de la science ouverte de manière assez unanime, son hégémonie future doit être cependant bien pesée car le remède pourrait se révéler pire que le mal. »

→ Il n’y aura jamais d’hégémonie de ce modèle ! le modèle hégémonique a été et est malheureusement longtemps celui des gros éditeurs commerciaux, avec des bouquets d’abonnement. Et le risque majeur est que le modèle hégémonique devienne celui des paiements d’APC, soit sous forme individuelle, sous dans le cadre d’accords globaux très coûteux et qui lieront pieds et poings les chercheurs et leurs institutions au bon vouloir des grandes majors de l’édition scientifique.

« Outre qu’il ferait des éditeurs des acteurs économiques assistés, voire des rentiers, il pose le problème fondamental de la dépendance accrue des chercheurs à l’égard de l’État. »

→ Beaucoup d’éditeurs scientifiques sont d’ores et déjà plus ou moins soit des « assistés » (s’il faut employer ce terme élégant), soit des « rentiers ». Par exemple l’édition scientifique française bénéficie du travail éditorial gratuit des chercheurs payés par les institutions, de plans de soutien et vivent des abonnements des universités. Car, quel que soit le modèle, pour les petits éditeurs, les éditeurs académiques, privés ou institutionnels, il est impossible de vivre sans le soutien constant des finances publiques. Quant aux « rentiers », on les connaît, ce sont les grosses majors (Elsevier, Springer Nature…).

Page 61 :

« Il faudra, plus généralement, une coordination des acteurs et de la politique de la science ouverte et de l’édition, ces deux univers s’ignorant de manière préjudiciable. »

« Cette réalisation louable est un peu l’arbre qui cache la forêt : la politique de la science ouverte et de l’édition n’est pas coordonnée et, pire, il n’y a pas de politique de la science ouverte et de l’édition, une certaine science ouverte militante avançant en percevant l’édition privée comme une simple future victime collatérale de son avènement prochain. »

→ Plus de « coordination » ? c’est possible, mais il faut arrêter de crier au complot des « militants ». La balle est aussi dans le camps des éditeurs commerciaux. Certains, comme EDP Sciences, ne se contentent pas de jouer les victimes tout en profitant des subsides publics régulièrement, mais font l’effort de chercher des modèles économiques vertueux pour développer l’accès libre (par exemple, le modèle Subscribe to Open) en collaborant avec les acteurs français de la Science ouverte. (À ce sujet, il faut souligner qu’EDP Sciences, publiant majoritairement en Sciences exactes, est beaucoup plus exposé à la concurrence internationale féroce des grosses majors que les éditeurs en SHS publiant en langue française et en a souffert).

Par ailleurs, il y a bien une politique de Science ouverte en France, citée en exemple à l’étranger

Pages 61-62 :

« Au cours des auditions menées par les rapporteurs, il est à l’inverse apparu que la politique de la science ouverte, au niveau gouvernemental, est pour ainsi dire exclusivement menée par le ministère de l’enseignement supérieur, de la recherche et de l’innovation, sous l’impulsion d’un coordinateur national qui est lui-même un militant historique de la science ouverte. »

→ Faux, cette politique est enracinée dans un mouvement qui se développe dans tous les grands instituts (CNRS, Inria, INRAE) et les universités qui se donnent les moyens de réfléchir à cette problématique. Elle est totalement en phase avec les dernières prises de position de l’Académie des Sciences. Le tout s’inscrit plus largement au sein d’évolutions internationales.

Cette phrase prouve également que les rédacteur du rapport n’ont auditionné aucun bibliothécaire, documentaliste ou chercheur de base impliqués dans ces questions.

Page 79, cette énormité :

« L’obsolescence rapide d’un article de physique ou de mathématique ne vaut pas pour une étude historique, sociologique ou archéologique. »

→ Pour une mathématicienne ou un mathématicien (à commencer par le Président de l’OPECST !), inutile de commenter, elles ou ils auront sauté au plafond en lisant une telle ânerie. Pour les rédacteurs de ce rapport, sachez que vous pouvez lire les Éléments d’Euclide, rédigé il y a 2300 ans, et que cet ouvrage n’a pas pris une ride ! (il y a bien sûr bien une multitude de textes mathématiques anciens non obsolètes, en réalité aucun bon texte en mathématiques n’est obsolète !). La même remarque s’applique à de larges pans de la physique, sinon toute la physique.

Page 89 :

« 4. Favoriser la voie du pluralisme par la bibliodiversité plutôt que programmer l’hégémonie future du modèle Diamant

Il est recommandé d’abandonner la perspective d’une voie unique, bientôt potentiellement hégémonique, poussant à l’uniformisation et à la généralisation d’un seul modèle, synonyme d’étatisation de l’édition scientifique, et de veiller plutôt à une bibliodiversité effective et ambitieuse. »

→ personne parmi les affreux « militants » désignés ne travaille pour un modèle unique, c’est tout l’inverse ! faut-il rappeler que la mise en avant du concept même de bibliodiversité est l’œuvre de cette communauté ?

« Les livres, les revues et les plateformes payants n’ont pas vocation à disparaître et l’on ne doit pas se résoudre au scénario de la domination programmée du modèle Diamant 4. »

Stop ! personne n’a programmé la domination du modèle Diamant ! cette histoire de « grand remplacement » de l’édition commerciale par le modèle diamant est un pur délire ! (voir les commentaires au début de ce billet.)

Page 90 :

« Sur un plan juridique comme sur un plan démocratique, il appartient au Parlement en tant que législateur de définir le cadre légal de la science ouverte et de l’édition scientifique. Toutes les mesures de régulation supplémentaires au droit en vigueur doivent être regardées avec circonspection.

Il n’appartient pas aux agences de financement (comme l’ANR) ou aux établissements publics de recherche (comme le CNRS, l’Inserm, Inrae ou Inria) d’imposer des mesures contraignantes plus restrictives que la loi. Ces acteurs publics ont en effet eu tendance, avec l’appui du Gouvernement via le CoSo, à rendre obligatoire l’accès ouvert immédiat et à restreindre la liberté de publier, par exemple dans les revues hybrides. »

→ Personne n’interdit de publier dans une revue hybride, il est seulement demandé de ne pas payer d’APC et de déposer l’article sur une archive ouverte, cela ne constitue donc pas une restriction à la liberté de publier. De plus l’accès ouvert immédiat n’est pas obligatoire et il n’est même pas autorisé avant une durée d’embargo, dans le cas où l’éditeur s’y opposerait (on se demande d’ailleurs en quoi le fait d’obliger à rendre ses publications ouvertes serait une restriction à la liberté de publier, étymologiquement, «publier» signifie «faire connaître au public» … ).

Si les parlementaires se penchent sur le sujet, ils faudrait en tout cas qu’il le fassent avec compétence et en évitant les conflits d’intérêt (cf. les liens de Laure Darcos avec le SNE), ce qui n’est pas le cas ici.

Pages 90-91 :

« Dans ce cadre, le respect de la loi, de la liberté académique et du principe à valeur constitutionnelle d’indépendance des enseignants-chercheurs doit prévaloir, y compris dans leur activité de publication. C’est pourquoi les directives d’ouverture immédiate adressées aux chercheurs doivent être évitées : à des obligations sans fondement législatif, il faut préférer des incitations formulées dans le respect de la liberté académique. »

→ Il n’y a pas de directives, la loi pour une République numérique accorde un droit au chercheur et non une obligation. De même les institutions incitent, enjoignent les chercheurs à adopter des pratiques vertueuses, mais ne les obligent pas. Où est le danger pour la liberté académique ? Seules les agences qui adhèrent au plan S le font, mais en échange de financements supplémentaires.

Publicité

Ce billet est la reproduction d’un article paru dans Médiapart le 19 février 2020 (avec quelques compléments à la fin).

Les annonces du gouvernement sur la future LPPR laissent présager plus de financements de la recherche par des projets, des contrats à durée limitée, un système « inégalitaire », mais restent floues et inquiétantes sur… l’essentiel, tel que nous l’enseigne l’histoire des Sciences.

La recherche financée sur projets a-t-elle un sens ?

Un peu partout dans le monde, la recherche est de plus en plus financée sur des projets et les chercheurs sont rémunérés par des contrats limités dans le temps. La France n’échappe pas à cette tendance : les budgets récurrents y sont en baisse constante, le nombre de chercheurs ou d’enseignants-chercheurs aussi (et ce alors que la charge de travail sur ces derniers est en constante hausse, à cause de l’augmentation du nombre d’étudiants). Dans le même temps il est « proposé » aux chercheurs d’aller chercher les financements dont ils ont besoin en montant des « projets » financés par des institutions, comme ceux de l’ANR et de l’ERC (et les universités, dites « autonomes », n’ont pas d’autre choix que de se plier aux injonctions du gouvernement –notamment celles de fusionner entre elles– si elles veulent récupérer une part des financements Idex et Labex). Les effets négatifs de cette politique sont régulièrement signalés depuis longtemps par les chercheurs, mais cela semble n’avoir pratiquement pas d’incidence sur les décideurs politiques. Le gouvernement français actuel persiste dans cette direction, en annonçant une réforme dans laquelle il est question d’augmenter les financements sur contrats, les contrats à durée limitée, la compétition. Mais les demandes les plus fortement exprimées par la communauté scientifique, à savoir rétablir les financements récurrents et les emplois stables à leur niveau d’il y a dix ans, n’ont pas reçu de réponse claire jusqu’à présent. Sujet d’inquiétude supplémentaire, l’avenir d’instituts nationaux tels que le CNRS est un sujet passé sous silence par le gouvernement.

Bien sûr beaucoup de projets de recherche nécessitent des financements spécifiques, lorsqu’il s’agit d’expériences longues et complexes visant à confirmer et consolider des théories déjà étayées, ou bien lorsqu’il s’agit d’applications et de développements. Mais, en ce qui concerne la recherche fondamentale, l’idée de la « piloter » en distribuant les moyens en fonction des projets présentés n’est-elle pas une absurdité ?

Comment découvrir l’Amérique ?

Imaginons un instant que nos connaissances scientifiques et géographiques et nos moyens technologiques soient ceux de l’Europe du XVème siècle, mais que la recherche soit « managée » avec les méthodes actuelles. Un chercheur souhaite explorer l’Océan Atlantique à la recherche d’une nouvelle route maritime pour la Chine. L’expédition est coûteuse et il adresse une demande à une agence de financement, comme l’ERC ou l’ANR. Notre Christophe Colomb du XXIème siècle remplit le formulaire en 50 pages (après avoir lu le document administratif en 50 ou 100 pages décrivant l’appel à projets et expliquant comment remplir la demande). Il justifie la faisabilité du projet par le fait que la circonférence de la terre est de 30 000 km. La demande est examinée par des experts scientifiques nommés par l’agence mais, là, pas de chance : la demande est retoquée, car les experts savent bien depuis Ératosthène que la circonférence de la terre est en fait de 40 000 km, ce qui rallonge considérablement le voyage. Notre chercheur ne pourra pas découvrir l’Amérique (certes, ça ne serait pas plus mal pour les amérindiens) : l’erreur ne vient pas des experts, qui ont fait correctement leur travail, mais du principe qui consiste à ne financer que les chercheurs qui peuvent prouver qu’ils vont découvrir quelque chose.

En réalité tout c’est passé ainsi… ou presque il y a plus de cinq siècles : le vrai Christophe Colomb avait demandé une flotte et un équipage pour son expédition au roi Jean II du Portugal en argumentant que la circonférence de la terre était de 30 000 km (et il était probablement de bonne foi). Le roi consulta un groupe d’experts qui émit un avis négatif pour les raisons tout à fait correctes expliquées plus haut et la demande fut refusée. Christophe Colomb obtint finalement les moyens auprès de la reine Isabelle de Castille, non sans difficultés. On connaît la suite.

Cet épisode bien connu résume un fait universel dans la recherche fondamentale : les plus grandes découvertes sont celles qui sont totalement inattendues et même parfois en contradiction avec les connaissances les mieux étayées. Elles sont aussi souvent le résultat d’une prise de risque insensée. Cette prise de risque était quasiment suicidaire dans le cas de Christophe Colomb. Aujourd’hui on n’en demande pas tant aux chercheurs, toutefois le fait d’explorer pendant des années une terra incognita du savoir, en étant poussé par la simple curiosité et des intuitions difficiles à partager et en traversant des périodes de doute, est une prise de risque intellectuelle que des contrats de recherche précaires et des financements sur projets interdisent.

Cette caractéristique de la recherche fondamentale va de pair avec le fait que, plus une découverte est révolutionnaire, plus il faut de temps pour qu’elle soit acceptée par la communauté scientifique. Pour beaucoup, c’est une évidence, mais parfois on en vient à douter que c’est le cas pour tout le monde. C’est pourquoi il n’est pas inutile de prendre une discipline au hasard, par exemple dans ce qui suit la physique fondamentale, et de passer en revue quelques-uns de ses plus grands épisodes depuis un siècle et demi.

Quelques exemples de la physique fondamentale

Les deux plus grandes théories physiques mises au point à la fin du XIXème siècle sont probablement l’électromagnétisme, œuvre achevée par Michael Faraday et James Clerk Maxwell et la physique statistique, qui repose en très grande partie sur l’œuvre de Ludwig Boltzmann. Sans cette théorie, la physique du XXème siècle telle que nous la connaissons n’aurait jamais vu le jour. Pourtant la théorie de Boltzmann rencontra de nombreuses résistances et celui-ci eut les plus grandes difficultés à la faire accepter. Parmi les chercheurs qui furent réticents figure Max Planck, au départ hostile à l’hypothèse atomique à la base de la théorie de Boltzmann. Mais Planck changea d’avis au bout de plusieurs années et, mieux, il utilisa cette théorie pour étudier le problème du rayonnement du corps noir. Son travail aboutit en 1900 à un des articles les plus importants de l’histoire des Sciences, rien de moins que l’acte de naissance de la physique quantique.

Et pourtant, si à l’époque on avait demandé à Planck de s’auto-évaluer et de dire si l’hypothèse de quantification des états d’énergie qu’il avait introduite dans son article aurait un impact, il aurait été très prudent, tant il considérait que cette hypothèse n’était qu’un artifice mathématique. Il fallut toute l’audace et la clairvoyance d’Albert Einstein, cinq ans plus tard pour faire le lien avec l’effet photo-électrique et prendre cette hypothèse au sérieux : la deuxième étape historique vers la mécanique quantique était franchie.

Vingt ans plus tard, un groupe de jeunes physiciens bâtirent en quelques anni mirabiles l’édifice de la mécanique quantique. Ces Bohr, de Broglie, Heisenberg, Schrödinger, Pauli, Dirac (et d’autres, moins connus) jouissaient d’une liberté académique qu’on a rarement retrouvée dans l’histoire pour une bien triste raison, à savoir que beaucoup de leurs aînés avaient été décimés par la première guerre mondiale.

Un peu plus tard, en 1933, en cherchant à interpréter la radioactivité bêta, Enrico Fermi proposa l’hypothèse de l’existence d’une force, qui serait à l’origine de ce phénomène. Mais son article fut refusé par Nature (avec le commentaire « too remote from physical reality to be of interest to readers ») et Fermi dut le publier dans deux revues beaucoup moins connues. Fermi, qui était conscient de l’importance de son travail, en fut très affecté et cessa de travailler en physique théorique pour se diriger vers la physique expérimentale (où il réussit assez bien puisqu’il obtint le prix Nobel pour ses travaux expérimentaux). L’idée de Fermi fut heureusement reprise et développée par d’autres physiciens : la force proposée par Fermi, au comportement étrange et très différent des autres forces connues, est aujourd’hui appelée force faible. Elle est l’une des quatre forces fondamentales (aux côtés des forces gravitationnelles, électromagnétiques et de la force forte qui assure la cohésion des noyaux des atomes) et son étude a joué un rôle crucial dans la construction du modèle standard unifiant toutes les forces sauf la gravitation.

Parmi les découvertes plus récentes, celles qui sont peut-être les plus importantes sont l’existence de la matière noire et l’énergie noire. Ces découvertes sont à nouveau totalement inattendues et viennent bousculer le bel édifice théorique et forcer les physiciens à le remettre en question.

La « matière noire » (comme l’énergie noire) est en vérité très mal nommée, puisqu’elle est totalement transparente. De ce fait, elle n’est décelable qu’indirectement, à cause de ses effets gravitationnels sur le mouvement des étoiles. Les premiers indices de son existence furent découverts par Fritz Zwicky en 1933 (et indépendamment par Sinclair Smith en 1936), mais cela ne suscita pas un grand intérêt dans la communauté scientifique, d’une part, parce que celle-ci était occupée par d’autres questions et, d’autre part, parce que les mesures étaient peu précises. Il fallut attendre les années 1960 à 1970 avec les travaux de Vera Rubin pour qu’on dispose d’un nombre suffisant de mesures précises et qu’on puisse ainsi conclure à l’existence de cette mystérieuse matière, laquelle a, depuis, fait l’objet de multiples recoupements.

L’histoire de Rubin est édifiante : parce qu’elle était une femme, on lui avait signifié qu’elle avait intérêt à se tenir à distance de la science. Ainsi son professeur de physique, en apprenant qu’elle avait reçu une bourse d’études universitaires, lui avait dit : « « As long as you stay away from science, you should do OK » ». Elle avait donc retenu la « leçon » et évita de travailler dans le sujet à mode à l’époque en astronomie (l’étude des quasars et du mouvement des galaxies) en s’orientant vers un sujet qui n’intéressait personne : « Lots of people were working on the centers of the galaxy, but I got curious about the outsides […] I wanted to know how galaxies ended, which is not a question anyone ever talked about ». Et c’est en travaillant sur un sujet « dénué d’intérêt » pour la majorité de ses collègues qu’elle découvrit la matière noire.

On pourrait allonger indéfiniment la liste, en se concentrant sur un domaine plus pointu de la physique ou en rappelant que la Relativité d’Einstein et la Mécanique Quantique rencontrèrent de très fortes résistance (en particulier en France), ou bien en explorant d’autres disciplines que la physique, comme, par exemple, la biologie et la médecine (voir ce billet de Sylvestre Huet) ou en passant en revue les travaux des futurs prix Nobel qui furent rejetés ou qui rencontrèrent des difficultés à être acceptés. Tous ces exemples confirment à quel point, lorsque la recherche réalise une avancée réelle et profonde, elle est imprévisible et il faut parfois des années avant qu’elle soit acceptée par les scientifiques et qu’on réalise toute sa portée.

A contrario, tout cela montre l’extrême pauvreté et la terrible myopie des indicateurs bibliométriques, fondés sur une mesure du « bruit » généré par les publications des chercheurs et qui servent d’ingrédients de base aux classements internationaux.

C’est pourquoi il est assez désespérant de voir que le discours de certains hauts responsables français (mais pas seulement) n’a pas pas évolué depuis quinze ans et garde toujours comme horizon étriqué celui des classements internationaux et une obsession illusoire d’évaluer et de « piloter » la recherche.

Il est aussi très inquiétant d’entendre ces responsables prôner une politique de compétition, révélant un parti-pris idéologique transposant à la recherche et à l’enseignement supérieur des recettes inspirées du modèle économique libéral anglo-saxon. Sans même entrer dans une discussion sur la valeur de ce modèle sur le plan économique et social, le fait de le transposer à la recherche et à l’enseignement supérieur sans se donner la peine de comprendre leurs spécificités dénote une incroyable légèreté et donne l’impression que ces dirigeants ont simplement cessé de réfléchir.

De l’autre côté de la Manche

Puisque nos dirigeants semblent être fascinés par une certaine vision du modèle anglo-saxon, il n’est pas inutile de regarder ce qui se passe au Royaume-Uni.

Une enquête réalisée auprès des chercheurs britanniques : What researchers think about the culture they work in vient, sans grande surprise hélas, confirmer les effets délétères d’une politique de la recherche dans laquelle l’évaluation est régulièrement utilisée pour allouer les moyens. Parmi les conclusions de cette enquête, on note que :
– 84 % des chercheurs sont fiers de travailler dans la communauté de la recherche, mais seulement 29 % se sentent en sécurité pour poursuivre une carrière de chercheur.
– 78% des chercheurs pensent que les niveaux élevés de concurrence ont créé des conditions peu aimables et agressives.
– Un peu plus de la moitié des chercheurs (53 %) ont cherché, ou ont voulu chercher, une aide professionnelle pour la dépression ou l’anxiété.
– La créativité est l’une des caractéristiques les plus souvent citées d’une culture de recherche idéale, mais 75% des chercheurs pensent qu’elle est actuellement étouffée.

Le point de vue de Dominic Cummings

Aussi étonnant que cela puisse paraître, ce ressenti est en grande partie corroboré par un des conservateurs les plus influents aujourd’hui en Grande-Bretagne, à savoir le conseiller de Boris Johnson, Dominic Cummings. Ce dernier est un des personnages les plus controversés, ne reculant devant aucune manœuvre pour parvenir à ses fins et pour obtenir le Brexit, traité de « Machiavel moderne », de « psychopathe », et, en même temps, un stratège redoutable, sans qui Boris Johnson n’aurait sans doute jamais réussi sa récente partie de poker pour emporter le parlement. Ce qui nous intéresse ici est le fait qu’il est aussi un des très rares politiciens à réfléchir réellement sur la recherche, ses applications et sa valorisation industrielle et sur les solutions pour améliorer son fonctionnement : bien que le personnage soit sulfureux, pour qui s’intéresse à la recherche, son blog mérite d’être lu.

Il en tire un diagnostic impitoyable sur le parti au pouvoir : « Le parti conservateur n’a aujourd’hui pratiquement plus aucun lien intellectuel avec les débats cruciaux sur l’écosystème de la science, la productivité, les universités, le financement, les start-ups, etc. ». Il fait le constat d’une baisse mondiale de la productivité de la recherche, situation face à laquelle « Les conservateurs en sont réduits à des slogans sur la « liberté », la « déréglementation », etc., qui n’apportent aucune réponse à notre problème de productivité » (voir la conclusion de ce billet).

Bien que résolument libéral, pro Brexit et europhobe, Cummings, au terme d’une interview du mathématicien Alain Connes (pages 29 à 31), arrive à la conclusion que : « Les marchés concurrentiels de la tradition anglo-américaine auraient encore plus de succès si leurs institutions politiques finançaient les mathématiques et les sciences sur le modèle des institutions soviétiques et françaises » (page 32).

Dans le même texte, Cummings retrace les origines des révolutions technologiques de la Silicon Valley (le PC, Apple, internet) et analyse les raisons du succès des entreprises de la Silicon Valley (et aussi certaines occasions manquées). La révolution numérique que nous connaissons n’aurait jamais vu le jour sans les projets de recherche en informatique ARPA (Advanced Research Project Agencies), initié par Joseph Lickider à partir de 1963 et parallèlement au projet Apollo, et le projet PARC (Palo Alto Research Center), démarré en 1970 et financé par Xerox. Cummings détaille l’extraordinaire fécondité et la prodigieuse rentabilité de ces projets dont les coûts furent dérisoires par rapport à bien des projets scientifiques et, ce, grâce à une totale liberté laissée aux chercheurs : « people not projects was one of the core principles ». Mais Xerox, paralysé par une bureaucratie sclérosée, loupa l’occasion de tirer profit des formidables découvertes faites dans ses laboratoires, dont les fruits furent récoltés par Steve Jobs, Bill Gates et l’industrie d’internet.

Et Cummings de proposer, parmi ses conclusions : « Il faudrait modifier radicalement la structure et le degré de financement de la science au Royaume-Uni […], notamment en finançant des institutions de type ARPA/JASON qui financent des projets de type PARC dans des domaines tels que l’intelligence artificielle, la robotique, l’énergie, les neurosciences, la génétique, les technologies cognitives […] et, surtout, en finançant des idées qui semblent aujourd’hui « folles », tout comme l’internet et les ordinateurs quantiques semblaient « fous » avant d’être généralisés. Nous devrions créer de nouvelles institutions de type CNRS ou faire en sorte que les excellents centres existants expérimentent le modèle de financement du CNRS (basé sur l’idée de Connes ci-dessus).» (pages 39-40).

Une autre observation sensée de Cummings est que les petites unités, structurées en réseaux, sont bien plus efficaces que les très grosses structures, dans lesquelles la bureaucratie et le pouvoir mandarinale jouent un rôle de frein et absorbent une forte partie des moyens au détriment des jeunes chercheurs. Il est dommage qu’en France on ait pris la direction opposée depuis plus de dix ans, en forçant les universités à fusionner en méga universités.

Bien entendu, Cummings est une personnalité ultra libérale et particulièrement élitiste. Il centre ses investigations sur quelques chercheurs au sommet de l’échelle, dont les points de vue ne sont pas forcément représentatifs. De plus son analyse ne couvre pas les Sciences expérimentales. Néanmoins ses conclusions recoupent le constat partagé par une très large partie des chercheurs et évoqué au début de cet article, à savoir que :

– En accordant aux jeunes chercheurs suffisamment de temps et de tranquillité pour « mûrir » et en les libérant de la pression imposée par des contrats courts ou précaires,

– en leur fichant la paix avec les évaluations et avec la nécessité constante de se justifier sur leurs projets,

– et, tout cela, en assumant le fait de financer fatalement des chercheurs peu productifs (statistiquement, il y en aura toujours !),

… alors la recherche peut être réellement imprévisible et donc incroyablement plus rentable et créative que dans la plupart des systèmes en vigueur aujourd’hui (et l’on peut éviter de gâcher bien des talents chez les jeunes).

En définitive, tout en étant un libéral pur et dur, Cummings explique que les règles de compétition entre entreprises privées, la loi du marché doivent rester strictement dans le domaine de l’industrie et du commerce et que c’est une erreur de vouloir appliquer ces lois au monde de la recherche. Et bien qu’il soit un farouche partisan du Brexit, il recommande à ses compatriotes de s’inspirer du CNRS !

L’auteur tient à remercier Philip Boalch pour avoir attiré son attention sur Dominic Cummings.

 

Compléments

Comme par le passé, les derniers prix Nobel (2019) continuent à récompenser des travaux « dénués d’intérêt » pour la plupart des scientifiques 30 ans en arrière…

1) Prix Nobel de physiologie ou médecine 2019

En 1992, P. J. Ratcliffe soumet à Nature un article sur les mécanismes de réponse génétique à l’hypoxie. L’article est refusé, avec la mention : « reviewer 2 is not persuaded that [your findings] represent a sufficient advance in our understanding of the mechanisms of genetic response to hypoxia to justify publication in Nature ».

En 2019 le prix Nobel de physiologie ou médecine est décerné conjointement à William G. Kaelin Jr, Sir Peter J. Ratcliffe et Gregg L. Semenza « pour leurs découvertes sur la façon dont les cellules détectent et s’adaptent à la disponibilité de l’oxygène ».

2) Prix Nobel de physique 2019

Un collègue m’écrit :

« Votre texte sur le blog de Mediapart m’inspire cette réflexion sur le prix Nobel de Physique 2019 attribué à deux astronomes suisses Michel Mayor et Didier Queloz pour la première découverte d’une exoplanète en 1995.

Là aussi une découverte que n’aurait pu soutenir l’ANR (ou l’INSU…) : leur découverte a été réalisée grâce à l’utilisation d’un télescope français , celui de l’Observatoire de Saint-Michel en Haute-Provence.

A l’époque il n’était pas question de soutenir un programme de recherche d’exoplanètes pour un peu la même raison que les 30 000 km de Christophe Colomb : en gros l’idée générale était que pour observer un « Jupiter » orbitant autant d’une étoile autre que le Soleil il faudrait accumuler des observations extrêmement ténues et difficiles sur plusieurs dizaines d’années (la période orbitale de Jupiter est de 12ans…). Donc hors de portée pour un programme raisonnable de quelques mois ou années.

Ce que personne n’imaginait est que l’on découvrirait une première exoplanète qui fait le tour de son étoile non pas en 12ans mais en 102h.

Les exercices de prospectives INSU ou CNRS (ou suisses aussi) de l’époque ignoraient purent et simplement la thématique des exoplanètes qui, pourtant, après la découverte de 1995 deviendrait l’une des deux thématiques majeures de l’astrophysique (avec la cosmologie).

Le programme de Mayor et Queloz était officiellement un programme de routine d’observations de vitesses d’étoiles pour étudier la dynamique des étoiles de notre galaxie. Et le télescope utilisé (le plus grand sur le territoire national français) était à l’époque en cours de déclassement de télescope national en télescope régional (avec financement de la région PACA) parce qu’on n’imaginait plus faire de la science de pointe avec ce noble et vieil instrument rendu obsolète par les télescopes de pointe installés à Hawaii et au Chili… »

 

Tout le monde est d’accord pour publier la science en accès libre (« Open Access »), mais, bien évidemment, cela a un coût. Se pose alors la question de savoir comment financer la publication en Open Access : cette question est cruciale (et les chercheurs sont malheureusement peu informés sur cette question), car, suivant les modèles de financement, les conséquences peuvent être très différentes.
On a coutume de considérer trois modèles :

(1) le paiement de frais de publication (appelés APC par les éditeurs, pour « Article Processing Charges ») par l’auteur (ou, le plus souvent, par une institution finançant sa recherche). Cette voie est souvent appelée (historiquement à tort) « Gold Open Access ».

(2) le dépôt sur une archive ouverte de l’article ou d’une version conforme à l’article soit immédiatement, si l’éditeur l’autorise, soit, au plus tard 6 (ou 12 mois pour les SHS) après la parution de l’article (en vertu de la Loi pour une République Numérique). Le coût est alors beaucoup plus modeste, puisqu’il s’agit essentiellement de maintenir la plate-forme d’archives ouvertes.

(3) soit enfin la publication dans des plate-formes de revues financées par les institutions (ou par des dons de structures caritatives), de façon à éviter à faire payer l’auteur pour qu’il publie.

(1 bis) Mais un quatrième modèle, qui constitue une variante du premier, qui consiste à faire payer les frais par l’auteur, a fait son apparition. L’idée est de centraliser les paiements des frais de publication au niveau national : les institutions du pays concernées concluent un contrat global avec l’éditeur de façon à régler par une facture unique pour permettre à leurs chercheurs de publier en Open Access dans les revues de l’éditeur, sans se soucier du paiement de frais de publication.

Aujourd’hui, dans plusieurs pays y compris en France, un mouvement œuvre à la promotion du dernier modèle (1 bis), ce qui implique de suivre la voie des « accords transformants », dont il sera question plus bas. Or cette direction me semble être une utopie dangereuse, comme nous allons le voir.

Comparons ces modèles

(1) Les APC individuels

Beaucoup de défauts du modèle (1) – payer pour publier chaque article – sont évidents :

  • d’abord il induit des inégalités pour publier entre les chercheurs suivant les pays dans lesquels ils travaillent ou suivant les institutions, voire même au sein d’un même laboratoire, entre la personne qui détient le pouvoir de signer de bon de commande et ses collègues). Des solutions de tarifs préférentiels ou d’aide par des organismes charitables sont proposées, mais ces solutions placent les chercheurs des pays émergents dans une situation de dépendance (voir ici, page 46) et ne sont donc pas satisfaisantes (ainsi un exemple d’organisme charitable est la Fondation Bill & Melinda Gates, par ailleurs signataire du Plan S, mais les choix « scientifiques » de cette fondation ne sont pas neutres).
  • Ensuite tout cela coûte tout simplement très cher : les frais facturés les plus bas tournent autour de 1000 euros, mais, pour beaucoup de revues, les prix sont plutôt entre 2000 et 3000 euros et, pour les revues les plus « prestigieuses », cela peut atteindre les 5000 euros. Il est d’ailleurs légitime de se demander s’il y a une limite au montant de ces frais, car ceux-ci n’ont en général plus aucun rapport avec le coût réel, mais simplement avec le prestige de la revue : le terme « frais de publication » (Article Processing Charge) est donc dans de nombreux cas mensonger, on devrait plutôt parler d’une taxe sur le prestige de la revue (et comprendre « APC » par « Article Prestige Charge » – comme proposé par Benoît Pier).
  • Ensuite, dans le cas des articles en Open Access dans des revues « hybrides » (c’est à dire des revues auxquelles l’abonnement est payant mais qui contiennent des articles en Open Access), cette taxe d’ouverture de l’article s’ajoute aux fortunes que dépensent les bibliothèques pour s’abonner aux revues où sont publiés ces articles.
  • Le fait de faire payer pour publier en Open Access est un encouragement pour les éditeurs peu scrupuleux à publier le maximum d’articles : cette situation de conflit d’intérêt est à l’origine des revues prédatrices et d’autres dérives moins grotesques, mais tout aussi gênantes, comme les pressions exercées sur les comités éditoriaux pour être moins « exigeant » sur la qualité, qu’on a pu observer par exemple chez Frontiers. Cela conforte également les stratégies d’optimisation du nombre d’articles comme le système de cascade dont le brevet a été déposé par Elsevier (sic !).
  • Enfin, chose gênante, il est très difficile d’estimer combien coûtent tous ces APC. Dans la situation actuelle, ces dépenses incontrôlées s’ajoutent à celles des bibliothèques pour payer leurs abonnements.

Mais ce système a néanmoins une vertu : provoquer un électrochoc chez les chercheurs. Combien parmi eux savent que la dépense annuelle des institutions françaises pour Elsevier atteint les 35 millions d’euros et qu’en Allemagne, avant que ce pays n’engage un bras avec cet éditeur pour négocier, la facture s’élevait à 55 millions d’euros ? Très peu en réalité.

Les chercheurs découvrent cette réalité prosaïque quand on leur demande de payer des APC. Bien sûr les réactions sont très différentes selon les disciplines et les collègues au sein d’une même communauté : certains chercheurs ont été habitués dès leurs premiers pas dans la recherche à payer pour tout (et souvent l’argent ne leur manque pas) et ne sont pas choqués, d’autres ne sont pas réticents par principe, mais réalisent qu’au sein du même labo il n’est pas possible de payer des APC pour tous les articles, car il n’y a pas assez d’argent pour tout le monde. Enfin pour d’autres chercheurs, il est tout simplement hors de question de payer pour publier, soit parce qu’il n’y a pas un rond pour cela, soit parce que c’est contraire à leur idée de liberté académique.

La conséquence est que cela complique la stratégie des éditeurs commerciaux dont le souci principal est de continuer à faire le maximum de bénéfice : ils savent que l’Open Access est inévitable, mais, avec le système avec APC, ils se heurtent à un mur : comment pourront-ils continuer à retrouver les mêmes niveaux de bénéfices qu’avant si les labos rechignent à payer des APC ? La solution qui consiste à faire coexister les APC avec les abonnements (essentiellement la situation actuelle) n’est que provisoire et, dans le cas des articles « hybrides », les chercheurs et les institutions commencent à coincer sérieusement, à tel point que la Coalition S a banni ce système.

Heureusement pour les PDG et actionnaires d’Elsevier & Consorts, un certain nombre de hauts spécialistes de la documentation scientifique dans les institutions publiques ont concocté une recette infaillible pour leur garantir encore de longues et belles années de bénéfices record ! c’est la solution (1 bis) (des bouquets d’APC) sur laquelle nous reviendrons plus loin.

(2) Le dépôt sur archive ouverte

La solution (2) – dépôt sur archive ouverte – souvent appelée « voie verte » est une solution beaucoup plus économique et qu’il est possible de mettre en œuvre assez rapidement, avec un peu de volonté politique et en informant et responsabilisant ainsi les chercheurs. Cette volonté politique est, fort heureusement, en train de se concrétiser en France. Remarquons au passage que la « voie verte » n’exploite en fait qu’une petite partie du potentiel formidable des serveurs de preprints et des archives ouvertes (fonctions souvent assurées par les mêmes plate-formes). A condition bien sûr que les dépôts sur cette plate-forme soient accompagnés de licence permettant le libre usage des résultats (licence CC-0), ce qui est le cas la plupart du temps, ces plate-formes sont aussi la solution pour pratiquer la fouille de texte et de données sans entraves et pour permettre aux chercheurs toutes sortes d’innovations en terme de signalement, de commentaires, d’évaluation, etc. Il semble en outre qu’elles aient un effet sur le rapport de force dans les négociations (voir plus loin à propos de SCOAP3).

(3) Des plate-formes vertueuses d’édition en Open Access

La solution (3) – souvent appelée modèle « platine » ou « diamant » – est la solution idéale : elle permet aux chercheurs de publier sans payer de frais, elle permet à tous de lire gratuitement et, même si elle devrait avoir un coût non négligeable, bien plus important que celui d’une plate-forme de preprints, elle devrait coûter beaucoup moins cher que le système actuel dominé (financièrement, mais pas forcément scientifiquement) par les grands éditeurs, puisqu’il ne sera pas nécessaire de payer le PDG, les lobbyistes, les avocats, les informaticiens pour concevoir des systèmes de chiffrage de ces grands groupes, les services de facturation et surtout… les marges bénéficiaires qui avoisinent les 40 % à verser aux actionnaires. [Ah, j’oubliais aussi la face cachée des dépenses, la plus mystérieuse aussi : les « petites » rémunérations versées par ces éditeurs aux éditeurs en chef et comités éditoriaux (ou aux associations ou institutions qui les représentent). Il semble que ces « petites » rémunérations soient extrêmement variables, mais dans certains cas, elles peuvent atteindre des niveaux étonnants. Il est peut-être temps de partir explorer cette face cachée, qui réserve, j’en suis sûr, des découvertes fabuleuses.]
Seule difficulté avec la solution (3) : celui de la transition du modèle actuel vers ce système « diamant ». Des succès ont été enregistrés et le mouvement s’accélère, mais on est sûr que le chemin sera long (bien plus que la « voie verte ») et que le résultat dépendra du degré de mobilisation des chercheurs et de l’engagement des leurs institutions. Mais c’est normal : « no pain, no gain ».

(1 bis) Les bouquets d’APC

Venons-en enfin à la solution (1 bis). Sur le papier celle-ci est séduisante, parce qu’elle est simple. L’idée proposée est de tout centraliser au niveau national : un consortium négocie avec l’éditeur le paiement d’un montant global qui couvrira les « frais de publication » de tous les chercheurs des institutions du pays pour cet éditeur. L’avantage immédiat est que l’on peut contrôler les dépenses en APC au niveau d’un pays. Les promesses de ce modèle s’appuient sur un « white paper » (traduit en français) écrit par trois spécialistes de la Max Planck Digital Library (une structure qui dépend de la Max Planck Gesellschaft, en Allemagne). Ce papier appelle à convertir l’argent des bibliothèque pour financer les APC. Un calcul instructif y est présenté : les dépenses en abonnements annuelles de toutes les institutions à l’échelle de la planète s’élèvent à 7,6 milliards d’euro et on estime le nombre de publications entre 1,5 et 2 millions d’articles. Une division donne un coût moyen approximatif situé entre 3800 et 5000 euros dépensés par article (dans cette estimation, il est clair que le prix payé pour un article dans Elsevier, Wiley ou Springer est bien plus élevé que la moyenne, sachant que ces éditeurs réalisent près de 40 % de marges bénéficiaires, alors que, pour l’immense majorité des petits éditeurs, les marges bénéficiaires dépassent rarement les 10%). Sur la base du fait que, même en garantissant une marge bénéficiaire pour l’éditeur, le prix d’un APC ne devrait pas, au grand maximum, dépasser 2000 euros, la conclusion est que : « There is currently already enough money in the system » (et qu’il y en a même plus qu’il en faut !) pour faire une transition vers l’Open Access. Y’a plus qu’à !

Le message est simple, convaincant et, porté par une opération de communication bien ficelée de la Max Planck Gesellschaft, nommée « OA2020 », il recueille un certain succès auprès des institutions dans de nombreux pays (dont en particulier les pays voisins de l’Allemagne).

Pour l’instant cette idée n’a (heureusement) pas réussi à s’imposer en France. Mais la même idée avait déjà fait surface dans d’autres pays avant même le lancement de l’opération OA2020 et y a été adoptée, notamment aux Pays-Bas, au Royaume-Uni, en Allemagne, etc. Le Royaume-Uni, premier pays à s’être lancé dans l’aventure, est à part : son modèle compliqué a conduit à une explosion des coûts et n’a pas été suivi par les autres pays. Les stratégies mises en œuvre par les Pays-Bas et l’Allemagne (par exemple) diffèrent en tentant d’éviter de répéter les mêmes erreurs que les anglais. Il faut distinguer deux choses dans ces stratégies :

– la « terre promise », c’est à dire la promesse d’un monde où les APC sont globalement pris en charge par les institutions, tout est en Open Access et le chercheur publie sans se soucier de payer des frais ;

– et le « chemin » vers la « terre promise ».

Le « chemin » ou les « accords transformants »

Comme il est impossible que toutes les institutions et tous les pays du Monde franchissent le pas en même temps, il faut que les premiers pays qui se lancent payent à la fois pour « libérer » en Open Access les publications de leurs chercheurs et pour s’abonner et lire ce qu’on écrit dans les autres pays, en attendant que ceux-ci fassent de même. La solution est de rationaliser la situation actuelle où l’on paye séparément des abonnements et des APC : remplacer tout cela par un accord global, qui prévoit de tout payer en même temps. C’est ce qu’on appelle un « accord transformant » (il y a bien sûr plein de variantes). Pour que la facture globale reste raisonnable cela nécessite de négocier avec fermeté avec l’éditeur.  C’est ce que font les allemands : ils viennent d’obtenir de tels accords avec Springer et avec Wiley avec des conditions tarifaires pas trop mauvaises et ils continuent leur bras de fer, entamé fin 2016 avec Elsevier pour obtenir des conditions similaires. Inclinons-nous devant les allemands (et aussi la Finlande et les universités d’état de Californie) qui ne lâchent pas face à Elsevier, contrairement à nous autres français. Mais il ne faut pas se tromper : le succès relatif des allemands dans leur négociation avec Springer ou Wiley n’a rien à voir avec le modèle poursuivi, mais est dû à leur organisation, leur engagement et l’implication des chercheurs.

A première vue, s’il est bien conduit (ce qui nécessite d’être ferme dans les négociations), le « chemin » des accords transformants présente des avantages et pourrait laisser présager un avenir radieux.

Cependant quelques problèmes viendront fatalement se poser sur ce « chemin ». En effet, imaginons que notre pays conclut de tels accords avec Elsevier et Springer. Je veux publier en Open Access dans une revue qui compte dans mon domaine et j’ai le choix entre des revues qui sont publiées par Elsevier ou Springer, auquel cas les APC ont déjà été pris en charge au niveau national, et des revues qui n’y sont pas, mais qui demandent des frais de publications. A votre avis, je fais quoi ?… Inutile de raconter la suite : force est de constater que le résultat équivaut à organiser un « dumping » sur le « marché » de la publication en Open Access, en faveur des grosses majors de l’édition avec lesquelles on a conclut les accords transformants. Et le pire est que ce « dumping » est organisé par les institutions elles-mêmes ! On continue ainsi à renforcer la concentration du marché de l’édition entre les mains de quelques gros acteurs et à les rendre ainsi encore plus invulnérables (le mécanisme de concentration a commencé depuis longtemps et il a grandement profité du système de bouquets d’abonnements : alors que les budgets des bibliothèques sont en baisse constante et que la plupart des contrats d’abonnement avec les petits éditeurs se renouvellent d’une année sur l’autre, les contrats avec les gros éditeurs sont conclus sur trois ans, voire quatre ou cinq pour Elsevier en France, ce sont donc les petits éditeurs qui servent de « variables d’ajustement ».)

La « terre promise ».

Imaginons maintenant que tous les pays aient adhéré à OA2020 et aient conclu des accords transformants. Au bout de quelques années, toutes les publications sont en Open Access et les institutions ou les pays payent pour leurs auteurs. Que se passera-t-il ?

On se retrouvera toujours face aux mêmes grands groupes d’édition (qui seront peut-être encore plus puissants car, peut-être qu’en cours de route, certains petits éditeurs n’auront pas survécu à la période des « accords transformants » et auront été rachetés par les gros) et, encore une fois, avec un système de bouquets, non plus pour lire, mais pour publier. Or on sait que le système de bouquet empêche toute vraie négociation, puisqu’il permet à l’éditeur de dire : « c’est tout ou rien ». Vingt ans d’expérience de négociations sur des bouquets de revue montrent que, invariablement, les établissements grognent, obtiennent une petite baisse et finissent par céder en payant l’ensemble du bouquet. Pourquoi en serait-il autrement dans un bouquet pour publier ? Qu’est-ce qui empêchera les gros éditeurs d’imposer un nouveau cycle de hausses tarifaires d’année en année ?

L’explication avancée par les promoteurs des modèles de bouquets d’APC est essentiellement que : « cela sera différent car le marché sera concurrentiel ».

Là, honnêtement, il est difficile de suivre et on a l’impression de quitter le domaine du rationnel pour le religieux : pourquoi, comment, diantre, un marché des bouquets de revues (où, rappelons-le, chaque titre est unique) deviendrait-il concurrentiel, simplement parce que l’on passe d’un paiement pour lire à un paiement pour publier ? (comme si la main invisible d’Adam Smith qui nous a abandonné depuis longtemps revennait nous protéger ?).

La réponse avancée est, en gros : « parce que si certains éditeurs augmentent leurs tarifs, les chercheurs iront chez d’autres éditeurs pour publier ». Cette réponse semble complètement fantaisiste : elle suppose qu’on va expliquer aux chercheurs qu’ils ne doivent plus publier dans leur revue favorite parce que l’éditeur est devenu trop cher ? (alors qu’on sait bien que les appels au boycott d’un éditeur, comme celui de la pétition Cost of knowledge contre Elsevier, ont un impact très faible). Cela est en totale contradiction avec l’argumentaire de OA2020 qui promet aux « Researchers » : « Publish in the journal of their choice, participating in the publishing services they want ». (Cette analyse fait en outre abstraction d’un effet de snobisme bien connu qui a toutes les raisons de s’appliquer aux APC, prix à payer pour le prestige d’une revue.)

Ainsi les promoteurs des modèles de bouquets d’APC nous promettent un marché supposé « concurrentiel » alors qu’il n’existe aucune preuve « expérimentale » de cela, vu qu’on n’a jamais testé ce modèle. Et plusieurs décennies de tentatives de négociation avec les gros éditeurs semblent plutôt nous enseigner qu’il n’y a aucune raison pour que le rapport de force avec eux s’inverse simplement parce qu’on paye pour publier plutôt que pour lire.

L’exemple de SCOAP3

Il existe bien une expérience semblant confirmer les croyances en les effets bénéfiques des systèmes de bouquets d’APC (déjà mentionnée dans le « white paper ») : il s’agit de SCOAP3 (Sponsoring Consortium of Open Access Publishing in Particle Physics), mise en avant dans la communication de OA2020 : « The success of SCOAP3 is evidence that established journals can feasibly and sustainably be converted from subscription to open access »).

De quoi s’agit-il ? SCOAP3 réalise au niveau d’une discipline scientifique (la physique des hautes énergies) un projet similaire : chaque pays verse aux éditeurs concernés une contribution, calculée en fonction du volume de sa production scientifique dans ce domaine. Grâce à ces contributions, les articles en physique des hautes énergies sont librement accessibles. Le résultat est que le prix payé par article est relativement bas (près de 1000 euros, encore plus bas que les 2500 euros par articles arrachés par les allemands à Wiley et Springer dans leur dernière négociation). Impressionnant ! (mis à part le fait que, dans le lot, il y a des revues hybrides.) Cette expérience, qui concerne une vingtaine de revues, est-elle reproductible à l’échelle de toutes les disciplines ? Ce n’est pas clair, car elle repose en partie sur le fait que la communauté des chercheurs en physique des particules est très fortement structurée au niveau mondial et que le CERN, organisme doté d’une bonne trésorerie, joue le rôle de centrale d’achat dans cette opération, en collectant les fonds auprès de chaque pays participant. Et, puis surtout, il y a ce « détail » : les chercheurs en physique des hautes énergies ont été les premiers, il y a près de 30 ans, à déposer leur preprint sur arXiv. Et, aujourd’hui, 97 % des articles dans ce domaine sont disponibles sur arXiv ! Il s’agit d’un record absolu, aucune autre discipline n’atteint de tels taux de dépôts des preprints et, même dans la plupart des autres disciplines, le taux de dépôt des preprints sur archives ouvertes ne dépasse pas 50 % ! A mon avis ce « détail » change tout et, en particulier, le rapport de force entre institutions et éditeurs dans les négociations. Il me semble donc que l’exemple de SCOAP3 illustre plutôt l’intérêt d’une utilisation systématique des serveurs de preprints.

Une utopie au service des grands groupes commerciaux d’édition

Les promesses du modèle des systèmes de bouquets d’APC me semblent donc relever de l’utopie dangereuse. Circonstance aggravante, puisque tout sera Open Access dans la « terre promise », plus besoin de SciHub et des réseaux sociaux comme ResearchGate pour se débrouiller et, du coup, les éditeurs seront encore plus forts dans les négociations ! (à propos : SciHub, y faut pas, c’est pas bien, mais… comment feraient les chercheurs des pays en développement sans SciHub ?).

En conclusion ce modèle offre sur un plateau d’argent aux grosses majors de l’édition scientifique la solution d’un problème épineux, à savoir, comment passer à l’Open Access tout en reconduisant un système de bouquets, qui permet de verrouiller la négociation ? (et, au passage, de rendre obsolète leur grand cauchemar, SciHub!).

Sans surprise, les gros éditeurs n’attendent que ça : en réponse au white paper dont il était question plus haut, « Elsevier and other STM publishers generally agree with many of the authors’ observations and recommendations, notably that there may be enough money in the system overall to transition globally to gold open access. » (et le syndicat STM des éditeurs dit la même chose). Ils ajoutent simplement à la fin : « Be realistic about cost ». Hé oui, il faut arrêter de rêver !

Ajoutons à tous ces problèmes que les prix actuels sur le « marché » des APC doivent être interprétés comme des prix d’appel et que les éditeurs entendent bien les faire augmenter (comme l’écrit Elsevier : « future costs of APCs, which are likely to be higher in a fully gold open access world than they are today ») et que cette charge ne sera plus partagée entre les institutions de recherche et l’industrie (qui paye actuellement entre 20 et 30 % des abonnements), mais portée par les institutions uniquement !

On pourrait s’interroger sur les raisons du soutien que reçoit le projet des abonnements à des bouquets d’APC dans les pays anglo-saxons (au delà du fait que c’est dans ces pays que l’industrie de l’édition scientifique est la plus puissante) et s’il n’y a pas des raisons culturelles pour avoir tant confiance en un possible marché vertueux des APC. On pourrait aussi se demander dans quelle mesure le fait que ce projet reçoive un soutien particulièrement fort chez certains hauts responsables du système des bibliothèques est lié à la promesse faite aux « Librarians » par OA2020 : « Take a central role in scholarly communications on behalf of their institution in the emerging open access environment ».

Certaines leçons sont à retenir du projet OA2020 qui a créé une dynamique de mobilisation des institutions publiques de recherche et de collaborations internationales entre elles, a motivé des négociations avec des baisses significatives des prix des contrats, et a amené ses promoteurs à explorer de nouvelles pistes (et à élargir sa vision en prenant en compte la bibliodiversité), précisément grâce à l’argent économisé par ces baisses tarifaires

Mais imputer les succès financiers relatifs des allemands dans leurs négociations au modèle poursuivi serait pure superstition, car c’est seulement par leur fermeté et leur détermination qu’ils ont pu obtenir ces résultats (et, nous autres français, devons en prendre de la graine).

Quel « chemin » choisir ?

D’abord il ne faut pas se tromper de « terre promise » et l’objectif de construire un système de publication en Open Access vertueux (3) doit rester la priorité : cet objectif n’est d’ailleurs pas contradictoire avec les motivations profondes du projet OA2020 (qui finance des modèles de publication vertueux) et il n’exclut les acteurs économiques privés, dans la mesure où leur rôle doit être redéfini comme prestataires de services. Un tel système doit être pensé au sein d’un écosystème plus vaste dans lequel les serveurs de preprints et les archives ouvertes joueraient un rôle fondamental.

La question qui se pose dans l’immédiat est bien évidemment de savoir comment parvenir à ce but et, en attendant d’y arriver, comment éviter le dérapage des dépenses tant que les abonnements et les dépenses en APC coexistent. La réponse est simple : exiger des baisses drastiques des abonnements dans les négociations. On a déjà essayé en France et ça ne marche pas ? Alors c’est précisément sur ce point qu’il faut imiter les allemands et les californiens : être inflexible (à nouveau : no pain, no gain). Cela nécessite de revoir et rajeunir notre logiciel de négociation, c’est à dire (on y revient toujours, cf. précédents billets), de le rendre transparent et d’associer la communauté scientifique, comme par exemple en Californie. En parallèle, le développement des archives ouvertes est un outil sur lequel nous devons nous appuyer.

Note : sur le même sujet, voir Are we being wilfully blind about the transformation that’s needed in scholarly publishing?  par Toby Green

 

Une nouvelle étape de la négociation avec Elsevier a été franchie récemment, avec la signature du protocole d’accord le 28 juin. L’information n’a été diffusée qu’à la fin de la semaine dernière, via une lettre du Ministère datée du 18 juillet 2019 (pourquoi si tard ?) et adressée aux établissements membres de Couperin et une dépêche publiée par l’organe de presse News Tank le lendemain. Comme l’indique cette lettre, les discussions pour fixer les modalités précises de cet accord ont été supervisées par la DGRI (Ministère) et elles ont été menées par une équipe réunissant des membres de Couperin, de l’Abes (Agence bibliographique de l’enseignement supérieur), du CNRS (en tant que tutelle du CCSD, mettant en œuvre HAL) et du ministère. S’ouvre maintenant la phase de mise en œuvre du groupement de commande, qui sera pris en charge par l’ABES.

Il faut rappeler à ce sujet que les accords avec Elsevier font l’objet d’un traitement spécial, car c’est le seul éditeur avec lequel est conclu une licence nationale. Cela signifie que la facture Elsevier sera payée directement par l’Abes en prélevant la somme due par chaque établissement à la source (alors que, pour tous les autres éditeurs, chaque établissement paye sa facture avec le budget qu’il a perçu). Le fonctionnement de ce mode opératoire continue à susciter beaucoup de questions : d’un côté le ministère mentionne dans sa lettre « nous vous recommandons d’adhérer au groupement de commandes » (et c’est même le titre de la dépêche News Tank), d’un autre côté, il semble que l’argent pour payer la facture de cette licence ait déjà été prélevé à la source. On peut donc se demander quelle est la marge de manœuvre des établissements.

Une note de l’ABES et de Couperin (non datée) expose les grandes lignes du protocole d’accord. Peu de changements sont à signaler, par rapport à ce qui a été divulgué en avril dernier, si ce n’est des progrès significatifs en ce qui concerne les « Volet Green Open Access » : les métadonnées des articles et les MAA (« Manuscrits auteurs autorisés ») seront versés sur les archives ouvertes (dont HAL) avec une licence « ouverte » et non la licence imposée initialement par Elsevier. Évidemment on reste loin du versement immédiat des MAA sur les archives ouvertes (afin que ceux-ci soient mis en ligne dès que le permet la Loi pour une République numérique) qui était l’objectif figurant dans le mandat initial, mais il était difficile d’obtenir davantage dans le cadre d’une discussion sur le protocole d’un accord dont les grandes lignes avaient (hélas) déjà été arrêtées le 11 avril.

Quel bilan tirer à cette étape ?

– de nombreux acteurs défendant le système d’archives ouvertes HAL se sont mobilisés pour dénoncer les risques que présentait le « volet green Open Access ». Des efforts importants ont été réalisé par l’équipe ayant mené les dernières discussions avec l’éditeur pour gommer les points les plus dangereux et ces efforts ont porté leurs fruits.

– le « volet gold Open Access » reste apparemment inchangé. En fait, à ma connaissance, ce volet n’a pas suscité de mobilisation des chercheurs ou des bibliothécaires engagés en faveur de la science ouverte, ce qui se comprend aisément : ce volet cautionne implicitement le modèle hybride de publication en Open Access, lequel est considéré par une majorité croissante comme étant à proscrire, comme l’a rappelé la déclaration de la Société Française de Physique. De plus, même pour ceux qui estiment que ce volet constitue une avancée, il n’est pas clair que celle-ci soit réelle car, vraisemblablement, les conditions décrites dans la lettre du 11 avril n’ont pas changé et celles-ci impliquent que, pour bénéficier de la remise de 25 %, il sera nécessaire que l’établissement concerné mette en place un « tableau de bord » et nomme un « référent ». Il est fort probable que dispositif s’avère être extrêmement complexe et coûteux en personnel, à tel point qu’il risque d’être dissuasif pour beaucoup d’établissements !

Il semble donc que ces volets « verts » et « dorés » aient trop longtemps fait diversion et nous aient fait oublier le principal :

– le tarif (avec une baisse relativement modeste) et la durée du contrat déraisonnable, de quatre ans, sont malheureusement inchangés (mais, à nouveau, il était difficile d’espérer un progrès sur ces points, dans le cadre de discussions sur le protocole d’accord).

Tentative d’analyse

Si on se risque à une analyse des raisons de ce résultat plutôt très moyen, on peut distinguer plusieurs facteurs:

Les nombreux problèmes que posait la version initiale du « volet green Open Acess » sont imputables, d’une part, au fait que le comité de négociation, réduit à trois personnes, ne pouvait fatalement pas réunir les compétences sur tous les aspects de la négociation et, d’autre part, au manque de transparence et de communication qui a entouré les discussions, comme cela est très bien expliqué par Daniel Bourrion et comme je l’ai déjà évoqué dans mon premier billet.

Le « volet gold Open Access » (réduction sur les APC) est tout ce qui reste d’un objectif initial qui visait à obtenir une réduction de 90 % et qui aurait été (sans le dire) une façon de s’approcher d’un accord dit « transformant », c’est à dire assurant une transition vers un modèle dans lequel on ne paye plus l’éditeur pour lire des articles, mais pour publier. Ce modèle est défendu depuis plusieurs années par les hauts responsables de Couperin. Il a été adopté par plusieurs pays (dont l’Allemagne et les Pays-Bas), mais cela ne signifie pas pour autant qu’il faille foncer tête baissée vers ce modèle, comme Marie Farge et moi l’expliquons dans l’article ou dans l’article (page 35) : ce modèle peut apparaître comme une solution facile (sur le papier) et rapide pour passer à l’Open Access en contrôlant les coûts à court terme, mais il risque fort de consolider le pouvoir déjà excessif des très grands éditeurs à moyen terme. Un débat transparent et à grande échelle sur ce choix est absolument nécessaire.

Le dernier point est, pour revenir au contenu de mon premier billet, ce fait étonnant :

– alors que l’Allemagne refuse depuis plus de deux ans et demi de signer un nouvel accord avec Elsevier tant que cet éditeur ne baissera pas ses prix, alors que la Californie (suivie par d’autres universités nord-américaines) a décidé de ne pas renouveler ses abonnements à Elsevier, que la Suède suit ce mouvement et que la France a adopté un Plan national pour la Science ouverte

– alors qu’en France, en 2018, lors de la négociation avec Springer l’an dernier, l’offre n’a finalement été validée qu’à la fin du mois de septembre, au terme de 9 mois d’interruption des souscriptions, et alors qu’aujourd’hui, en juillet 2019, au terme de 6 mois d’interruption des souscriptions, le consortium Couperin n’a toujours pas validée l’offre faite par l’ACS (American Chemical Society), malgré des menaces de coupure de cet éditeur en 2019 …

comment se fait-il que l’offre d’Elsevier ait été validée début avril 2019, après seulement trois mois d’interruption des souscriptions ? (on pourrait aussi se demander : comment se fait-il qu’aucune enquête auprès des membres de Couperin n’ait été réalisée avant cette validation, comme ce fut le cas pour Springer et l’ACS ?).

Intense lobbying

En fait il s’avère que la négociation ne s’est pas résumée à une discussion entre Elsevier et les trois négociateurs de Couperin et qu’elle a impliqué en 2018 des contacts au plus haut niveau de l’État.

Des indications sur ces contacts nous sont fournies par la Haute autorité pour la transparence de la vie publique, une institution qui gagne à être connue. Les « représentants d’intérêt », à savoir les lobbyistes travaillant pour des entreprises, sont tenus de déclarer les contacts qu’ils ont eu avec ces responsables publics et de donner des informations sur la nature des échanges. On apprend ainsi grâce au site de la HATVP que :

– afin d’« Informer de l’état des négociations concernant la licence nationale « Science Direct » et les conséquences sur l’écosystème de la Recherche française », des représentants de RELX France (= Elsevier) ont rencontré :

  • « Collaborateur du Président de la République 
  • Député ; sénateur ; collaborateur parlementaire ou agents des services des assemblées parlementaires 
  • Membre du Gouvernement ou membre de cabinet ministériel – Premier ministre, Éducation nationale, enseignement supérieur et recherche »,

en communiquant « par téléphone, par courriels, par rendez vous à la couche politique (Présidence, Premier Ministre, Ministère et parlementaires) l’état d’avancement des négociations concernant la licence nationale « Science Direct » » (opération engageant des moyens entre 100 000 et 200 000 euros).

– le cabinet de consulting Tilder a rencontré « Membre du Gouvernement ou membre de cabinet ministériel – Éducation nationale, enseignement supérieur et recherche »  et « Membre du Gouvernement ou membre de cabinet ministériel – Premier ministre » , pour discuter des « Négociations entre Elsevier et le consortium Couperin » et faire une « Présentation des activités du groupe et pédagogie autour des sujets de science ouverte » (avec, pour chacune des deux opérations, des moyens entre 25 000 et 50 000 euros).

On voit donc qu’Elsevier n’a pas lésiné sur les moyens pour faire valoir son « point de vue » auprès des plus instances de l’État et on est bien tenté de penser que ces efforts n’ont été pas vains. Cela met en lumière le fait qu’une centralisation excessive (et elle l’est d’autant plus qu’il s’agit d’une licence nationale) rend nos institutions fragiles lorsqu’il s’agit de négocier avec de grandes firmes multinationales. On en revient toujours au même leitmotiv : il faut plus de transparence, plus de participation de l’ensemble des acteurs concernées (à trouver dans un vivier composé de dizaines de milliers de chercheurs, de centaines de bibliothécaires et de documentalistes…, cf. par exemple les propositions).

PS 1 : on trouvera sur le site de la HATVP d’autres déclaration d’action de lobbying de RELX France, comme par exemple une « Demande de concertation autour du plan national Science Ouverte », via une « rencontre des conseillers recherche de la Présidence, du Premier Ministre, du Ministère de la Recherche et de parlementaires pour informer de l’absence de dialogue avec l’Édition scientifique privée » (!).

PS 2 : le site de la Haute Autorité ne donne pour l’instant des informations que sur les opérations de lobbying effectuées en 2018. D’autres actions ont pu être effectuées par Elsevier en 2019, mais elles seront publiées durant le premier trimestre 2020.

Dans les 48 heures qui ont suivi le précédent billet, Lise Dumasy, Présidente de Couperin et Grégory Colcanap, le coordinateur de Couperin ont publié un « Communiqué sur la négociation Elsevier » et Lise Dumasy a accordé une interview parue le 11 juin dans NewsTank (interview n° 149309) sur le même sujet. Ces documents appellent quelques commentaires.

A propos du communiqué publié dans l’AEF

Ce communiqué, dans lequel tout va pour le mieux dans le meilleur des mondes, n’aborde pas les points soulevés dans mon billet. On n’y trouvera donc aucune réponse à l’énigme exposée dans ce billet, à savoir par quel « miracle » l’offre d’Elsevier, aussi médiocre, a pu être validée par Couperin en mode accéléré, malgré un certain nombre de protestations.

En revanche il y est question de la mise au point du mandat en amont, c’est à dire avant la négociation. Comme c’est écrit dans le communiqué, il y eut effectivement des enquêtes préliminaires fin 2017. Et on peut confirmer sans risque que tout le monde était bien d’accord pour avoir le maximum au plus bas prix (!), mais, qu’effectivement, il y avait un profond désaccord sur les « accords transformants » (« publish & read »), dont le but à moyen ou long terme est de basculer d’un système où l’on paye pour lire à un système où l’on paye pour publier.

Le communiqué explique alors qu’un groupe de travail a « étudié les différents scénarios » et « proposé une stratégie de négociation consensuelle ».

Cela vaut le coup de s’interroger sur la notion « stratégie de négociation consensuelle ». La question sur laquelle il fallait trancher (inclure de l’Open Access dans des négociations d’abonnements ou pas) est l’objet d’un vieux débat sur lequel je reviendrai ultérieurement. Aucun consensus n’a jamais été obtenu en France depuis plusieurs années sur cette question, mais on a quand même demandé à un petit groupe de travail issu du CA de Couperin de concevoir une « stratégie consensuelle » en quelques mois. Le problème, que j’ai rapidement évoqué dans mon précédent billet, est que ce CA est essentiellement sous l’influence du même petit cercle de bibliothécaires en place depuis longtemps qui, le moins qu’on puisse dire, ne sont pas trop habitués à demander l’avis des chercheurs (ni celui du CCSD, l’unité qui fait fonctionner la plate-forme d’archives ouvertes HAL, comme on l’a vu). Le résultat fut, comme on pouvait s’y attendre, boiteux : d’une part, demander des ristournes de 90 % sur les APC pour satisfaire les tenants des « accords transformants » et, d’autre part, demander à l’éditeur de fournir les méta-données et les manuscrits des auteurs aux archives ouvertes pour faire du « green Open Access »

Cette dernière demande est, si on réfléchit, assez saugrenue. En effet il faut comprendre qu’il y a deux choses qu’un éditeur cupide comme Elsevier rêve de voir disparaître : SciHub et les archives ouvertes (sauf quand l’éditeur est propriétaire des archives ouvertes, comme c’est le cas en chimie, et qu’il peut alors imposer ses licences sur les documents qui s’y trouvent). En effet les archives ouvertes qui ne dépendent pas des éditeurs privés constituent un espace dans lequel les documents sont des objets qu’on ne peut pas accaparer, tandis que toute la stratégie d’éditeurs comme Elsevier repose sur la possession de données et de droits exclusifs sur un corpus de documents, à partir duquel ils peuvent décliner une gamme de « produits commerciaux » à volonté (ces « produits commerciaux » pouvant être des articles, comme des bases de données, de la bibliométrie, des outils d’aide au pilotage scientifique…). Donc, demander à l’éditeur d’alimenter les archives ouvertes institutionnelles, c’est un peu comme demander à Monsanto d’aider les agriculteurs à préserver et utiliser les semences traditionnelles que les paysans ont héritées de leurs ancêtres et de leur terre.

Je pense que les commercia ux d’Elsevier ont dû être très surpris (peut-être même qu’ils ont dû se pincer pour ne pas rire) par cette demande. Pour ne pas décevoir les négociateurs, ils ont concocté leur « volet green OA » de derrière les fagots (avec une « dark archive »), déjà largement commenté ici et , qui n’a bien sûr plus rien à voir avec la demande initiale.

Le mandat pour le volet « gold OA » était aussi une cote mal taillée dès le départ. En demandant une réduction très forte des APC, de 90 %, on déplaçait le curseur très près d’un accord de type « publish & read », sans le dire, de façon à satisfaire les adeptes des « accords transformants » (parmi lesquel les bibliothécaires proches du CA). Avec un résultat final de 25 %, le curseur s’est déplacé de l’autre côté, celui d’une ristourne sur les publications hybrides en Open Access. Or, pas de chance, dans le même temps le plan S est arrivé, proscrivant les publications hybrides ! Il faut ajouter à cela un point qui est soigneusement gommé dans le Communiqué récent de Couperin. En effet, si nous regardons plus attentivement ce que dit la lettre du 11 avril de Couperin (et qui n’aurait jamais dû être rendue publique, comme c’est précisé en introduction du Communiqué, au passage, remercions celui ou celle qui a enfreint « les principes de la charte » à ce sujet), il y est écrit : « Dans chaque établissement un référent devra valider les auteurs qui soumissionnent pour une publication en OA. » Derrière cette phrase d’une clarté lumineuse se cache une autre usine à gaz imaginée par Elsevier, qui conditionne la réduction de 25% sur les APC au renseignement d’informations sur l’auteur et la publication : comme Google & consorts, Elsevier adore faire la collection des données sur les chercheurs et leurs établissements – et évidemment faire faire ce travail gratuitement par leurs « clients » !

En définitive on voit que les volets « gold OA » et « green OA » sont le résultat d’une « stratégie de négociation consensuelle » bancale, conçue à la va-vite, revisitée et repassée à la moulinette par les experts d’Elsevier. Pas étonnant que le résultat ne soit pas terrible. Il est donc peut-être encore temps de renoncer à un certain nombre de clauses et d’arrêter de faire du Theresa May (ou du Boris Johnson).

Le communiqué se termine sur un portrait idyllique du « volet green OA ». À propos des quelques points fâcheux évoqués dans mon billet il est précisé que : « l’éditeur fait preuve d’ouverture pour répondre au mieux à nos attentes ». C’est beau, tant de confiance envers l’éditeur !

A propos de l’interview de Lise Dumasy (n° 149309) du 11 juin dans NewsTank

Je dois reconnaître que, bien qu’on y trouve des observations de bon sens, notamment sur la bibliodiversité, cette interview contient un certain nombre de propos assez désolants, au point qu’on est bien obligé de se fâcher un peu.

Ca commence par une dose de méthode Coué : « Nous avons eu une bonne négociation avec Elsevier, en particulier sur les objectifs qui nous avaient été fixés dès le départ, et nous avons revérifié tout au long du processus en consultant les membres de notre conseil d’administration ». Problème : consulter le CA, c’est bien, mais prendre en compte des avis extérieurs, c’est mieux, et discuter de vive voix de ces avis, c’est encore mieux (voir le  précédent blog).

Ensuite expliquer que « parfois des acteurs […] ne jouent pas trop le jeu collectif » à propos de la négociation Springer de l’an dernier, en rejetant ainsi la responsabilité des difficultés rencontrées sur certains d’entre eux est la meilleure façon de donner des billes à Elsevier, alors que nous sommes en pleine phase de négociations sur les détails techniques les plus importants. Les explications qui suivent : « nous avons pris les devants en expliquant comment nous avons procédé, pour éviter que cela se reproduise dans les négociations avec Elsevier » ne sont vraiment pas claires. En tout cas, je ne suis pas convaincu que la stratégie choisie soit la meilleure pour éviter de reproduire le scénario de l’an dernier avec Springer au terme duquel une bonne partie des établissements n’ont pas suivi l’accord obtenu.

Puis, que la présidente de Couperin affirme que « du côté de HAL, il y a aussi une réticence plus idéologique à être dans une sorte de partenariat avec Elsevier » est proprement scandaleux. A nouveau on ne va pas revenir sur les détails du « volet green OA » dans lesquels le diable se cache (les points techniques, les droits exclusifs acquis par Elsevier sur les manuscrits des auteurs…), mais simplement rappeler qu’à partir du moment où un chercheur verra qu’Elsevier et HAL sont « partenaires » et qu’on lui demandera de déposer sur HAL, parce que cela fera partie de la science ouverte (cf. le discours de Mme la Ministre), le chercheur en question n’y comprendra plus rien.

À un autre endroit la présidente explique qu’« en Allemagne, la négociation entre les acteurs de l’ESR et Elsevier est toujours bloquée, car les allemands n’ont pas pris la même option que nous. Eux veulent un accord de type « publish & read », encore appelé accord transformant, qui repose sur le développement de la voie gold open access. ». Elle ajoute plus loin que : « Elsevier ne voulait absolument pas signer d’accords publish & read [….]». Cette interprétation est à mon avis un contresens : ce n’est pas à cause du modèle « publish & read », choisi par les allemands que la négociation est bloquée, mais tout simplement parce que ceux-ci exigent une baisse des tarifs encore plus importante que 25 % et que, contrairement aux français, ils ne capitulent pas au bout de trois mois ! D’ailleurs Lise Dumasy conclut par : « mais [Elsevier] l’a fait avec la Norvège. Toutefois, dans cet accord, les acteurs norvégiens doivent payer une somme assez élevée par article publié ». C’est donc juste une histoire de gros sous ! Car en effet le modèle « publish & read » sied à merveille à des éditeurs comme Elsevier, pour des raisons détaillées dans l’article que j’ai écrit avec Marie Farge. Et il n’y a pas que Marie Farge et moi qui le disons, Elsevier avait déjà tout expliqué clairement en 2017 ! On pourra aussi lire à ce sujet l’intéressant échange entre un des responsables allemands de la  négociation et un représentant d’Elsevier.

Enfin le plus ahurissant est de voir la présidente de Couperin affirmer que :

« Pour ce qui est de l’open access, qui ne peut être immédiat car la loi française impose un délai de six mois pour les disciplines scientifiques « dures » et douze mois pour les SHS »,

ce qui est évidemment faux. La « loi pour une République numérique » dit tout simplement le contraire : plutôt que d’interdire, elle nous autorise à déposer un manuscrit sur une archive ouverte passé un délai qui ne ne peut pas dépasser 6 mois pour les sciences dures (et 12 mois pour les SHS). Autrement dit, si l’éditeur ne s’y oppose pas (beaucoup sont ainsi), l’open access (dit « vert ») peut être immédiat et, si l’éditeur s’y oppose, l’open access est quand même autorisé par la loi française au bout de ces délais qui sont un maximum et non un minimum ! Tout est écrit dans l’article L533-4 du Code de la recherche. (On notera que la variante énoncée par Lise Dumasy est plus avantageuse pour Elsevier que le vrai texte de loi !) Une telle méconnaissance de la loi (et en particulier d’un article fondamental pour tout ce qui concerne le « volet green OA ») est très inquiétante, d’autant plus qu’il s’agit de négocier des contrats de plusieurs dizaines de millions d’euros d’argent public.

Une telle liste de méconnaissances et de méprises est le signe d’un fonctionnement centralisé et fermé de la gouvernance de Couperin, avec comme conséquence un isolement vis à vis des chercheurs et des bibliothécaires réellement impliqués dans la science ouverte (et aussi des personnes qui font fonctionner HAL, au CCSD !).

Comme dans mon précédent billet, je tiens à rappeler que le but de ce post n’est pas de nuire à Couperin mais de faire sorte que ce consortium évolue vers davantage d’ouverture vers la communauté des chercheurs, comme c’est le cas aujourd’hui en Allemagne et en Californie, et qu’il soit ainsi plus fort dans les négociations avec les éditeurs.

 

 

Avertissement : le titre est un peu provocateur, il reflète l’impression personnelle et subjective d’un observateur attentif des négociations avec Elsevier. Néanmoins les épisodes relatés sont bien réels. Le point d’interrogation n’est pas là pour rien, car certaines questions restent ouvertes.

Les institutions publiques françaises de recherche et d’enseignement supérieur sont en pleine négociation avec l’éditeur Elsevier, dont l’abonnement est arrivé à échéance fin 2018. Ces négociations sont stratégiques car le montant de la facture d’Elsevier pèse presque la moitié de la facture globale des abonnements aux revues en France.

A l’heure où souffle un vent de révolte contre les tarifs abusifs de Elsevier dans plusieurs pays (en Allemagne depuis 2017, rejoint récemment par les universités d’état de Californie, la Norvège, puis par d’autres universités américaines…) et après que la France se soit engagée en 2018 dans un plan national pour la science ouverte, tous les espoirs de faire bouger les lignes étaient permis.

Et puis le 11 avril 2019, Patatras ! La présidente du consortium Couperin, l’association représentant dans ces négociations l’ensemble des institutions concernées en France, transmet à Elsevier une lettre d’accord de principe dans laquelle la plupart de ces espoirs furent douchés. Pire, l’accord est assorti d’un « Volet Green OA » auquel personne ne s’attendait, une usine à gaz assez complexe, qui cache une vision en contradiction avec les avancées de la Loi pour une République Numérique et qui risque d’avoir davantage d’effets toxiques que bénéfiques sur le développement de la science ouverte.

Pourquoi et comment en est-on arrivé là ? A vrai dire, il est difficile d’avoir des réponses complètes à ce sujet. Cependant, au-delà de facteurs extérieurs comme le fait de négocier dans le cadre d’un marché sans concurrence, il apparaît clairement qu’il y a des choses qui clochent au sein de notre système de négociation, notamment dans le fonctionnement du consortium Couperin.

Il ne s’agit pas ici de mettre en cause les responsables de Couperin, ni les négociateurs (dont il faut saluer au passage le travail difficile), mais de constater que ce consortium qui fête ses 20 ans le 20 juin 2019 souffre de certains défauts structurels qui n’aide pas les négociateurs. Le principal d’entre eux est un manque de transparence qui confine à l’opacité, lequel fait davantage le jeu des éditeurs que celui des chercheurs et de leurs institutions.

Quels sont les termes de l’accord ?

– un contrat sur une durée de quatre ans : c’est définitivement trop long à l’heure où les évolutions du système de publications scientifiques s’accélèrent et où nous sommes en pleine transition vers un système d’Open Access.

– une baisse des coûts d’abonnement de 5 % la première année, puis 4 % la deuxième année, 3 % la troisième année et enfin 2 % la quatrième année, soit une baisse cumulée de 11,536% au bout de trois ans (et de 13, 305 % au bout de quatre ans). C’est certes une avancée notable dans la mesure où c’est historiquement la première fois que, au lieu d’enregistrer des hausses importantes de tarifs, on parvient, au contraire, à une baisse. Mais il est peu probable que cette baisse suffise à compenser la hausse des dépenses en «APC » (frais de publication en Open Access) auprès de cet éditeur et encore moins les tarifs excessifs qui sont le résultat de l’inflation que l’éditeur impose depuis longues années, grâce à sa position de force sur un marché sans concurrence.

– une remise de 25 % sur les tarifs publics des APC des revues hybrides et full Open Access (à l’exception de certaines revues). Le problème de cette clause est qu’elle constitue un encouragement à publier en Open Access dans des revues hybrides, alors que ce modèle a été dénoncé à plusieurs reprises (voir par exemple la prise de position de la SFP), et qu’il a été banni du plan S.

– un « Volet green OA » désastreux visant à la diffusion des « manuscrits auteurs autorisés » (MAA) pour chaque article publié dans une revue Elsevier…

De quoi est-il question dans ce « Volet green OA » ?

Les MAA (« manuscrits auteurs autorisés ») désignent ici des documents composés en principe par les auteurs et aux contenus identiques à ceux des articles. La Loi pour une République Numérique autorise les auteurs à déposer ces documents sur archives ouvertes une fois passé un délai d’embargo (le délai maximal est de 6 mois pour les sciences exactes et 12 mois pour les sciences humaines). L’accord avec Elsevier prévoit que les MAA seront versés dans une dark archive (rien que le nom, ça fait peur) dans laquelle ils resteront 24 mois avant de pouvoir être mis en ligne sur les archives ouvertes dont HAL et, qu’au bout de 12 mois, des MAA (avec une licence Elsevier) seront accessibles en streaming sur la plate-forme d’Elsevier avec un lien de HAL vers Elsevier.

Les problèmes posés par cette « usine à gaz », signalés dans un article du Monde, ont été analysés et dénoncés à plusieurs reprises, par l’association CAPSH, la Société Française de Physique, le groupe de travail Science Ouverte de l’Alliance Allistene, un bibliothécaire, la Société de Mathématiques Appliquées et Industrielles, la Société Mathématique de France, plusieurs chercheurs (un exemple). Je reviendrai peut-être dans un billet ultérieur sur les effets toxiques de ce volet, en attendant je vous invite à consulter ces liens.

Un écart important avec le mandat initial

Au delà du désastre de ce « Volet green OA » il faut observer que, dans l’ensemble, les conditions obtenues sont loin de qui était prévu dans le cadre du « mandat » de négociation confié par les établissements à Couperin le 20 juillet 2018.

– la durée du contrat de quatre ans dépasse celle qui avait été fixée dans le mandat de négociation de Couperin et qui était de trois ans. Il avait pourtant été question d’être intraitable sur ce point…

– la baisse du prix au bout de trois ans, qui est de 11,536 %, est bien en deçà de l’objectif des 25 % qui avaient été fixés.

– la remise de 25 % sur les APC des revues hybrides n’a plus beaucoup de sens par rapport à l’objectif initial de 90 %.

– le « Volet green OA » n’a strictement rien à voir avec l’objectif initial du mandat, qui était un « dispositif d’alimentation automatique des archives ouvertes des établissements français en métadonnées et texte intégral (version auteur acceptée), sans embargo ». Il devrait être purement et simplement supprimé.

Certes on ne peut pas faire grief à Couperin du fait de ne pas avoir atteint les objectifs. Mais, là, l’écart est immense. Mais ce n’est pas la chose la plus bizarre :

L’impression d’un accord qui a été accepté de façon précipitée et pratiquement sans livrer bataille

En effet l’année précédente, Couperin avait négocié avec Springer un renouvellement du contrat arrivé à échéance fin 2017. Comme les institutions n’étaient pas satisfaites des conditions proposées par l’éditeur, la négociation s’est prolongée en 2018, plus de neuf mois après l’interruption du contrat, avant qu’un accord soit conclu à l’automne 2018 (et encore, les plus gros établissements ont refusé l’offre, ce qui fait que le chiffre d’affaire a été réduit de moitié). Deux enquêtes auprès des établissements purent ainsi être réalisées durant cette période.

Pour le renouvellement du contrat avec Elsevier arrivé à échéance fin 2018, qui représente une dépense annuelle de près de 37 millions d’euro par an (contre 5 millions pour Springer), on pouvait donc s’attendre à ce qu’on fasse preuve d’autant de prudence et de circonspection, sinon plus, qu’avec Springer.

Ce fut tout le contraire : dès le 8 février 2019, un message de Couperin à ses membres présentait une première version de l’offre d’Elsevier en annonçant qu’elle serait discutée par le conseil d’administration de Couperin le 15 février. Le 8 mars un nouveau message de Couperin présentait une nouvelle version de l’offre, très proche de celle qui fut acceptée le 11 avril. Je fais partie des nombreuses personnes qui, naïvement, s’imaginaient qu’une enquête allait suivre, comme ce fut le cas pour Springer, et qu’on allait pouvoir se rendre compte à cette occasion que l’offre et, notamment, le « volet green OA » étaient inacceptables. Peut-être cette enquête a-t-elle eu lieu ? mais, si c’est le cas, elle fut remarquablement discrète, car malgré ma vigilance et celle d’autres collègues avertis et curieux, personne que je connaisse n’en a eu vent… Cependant fin mars la rumeur selon laquelle l’offre était sur le point d’être acceptée commença à circuler (faute d’autres informations, il ne restait que la rumeur).

C’est pourquoi, le 31 mars, je me suis décidé à écrire à la présidence de Couperin pour signaler les problèmes les plus graves dans cet accord, notamment le « volet green OA » (je ne n’ai jamais eu de réponse). A la même période, début avril, des institutions, des groupes de réflexion émettent des réserves. Pratiquement au même moment, le CCSD, l’unité qui fait fonctionner l’archive ouverte HAL et qui est donc directement concernée, découvre le « volet Green OA » dont elle ignorait l’existence (faute d’avoir été informée). Le CCSD, qui aurait dû être non seulement informé, mais consulté, réagit en rédigeant une note pointant tous les problèmes liés à ce « volet green OA ».

A ce moment on aurait pu espérer que, pour un contrat aussi important, Couperin allait faire une petite pause, se donner le temps de consulter, discuter. Ce fut tout le contraire…

Quelque chose qui ressemble à la politique du fait accompli

En effet, une réunion du conseil d’administration était prévue le 26 avril et, face à un certain nombre de retours négatifs qui commençaient à se manifester, il y avait un peu de temps pour prendre en compte les diverses critiques qui commençaient à être formulées, avant de faire le point à cette réunion du CA. Mais non ! L’offre fut finalement validée par le courrier du 11 avril après avoir été validée par le conseil d’administration sans qu’il se soit réuni, par des échanges de courrier électronique, un mode de décision qui empêche toute délibération et discussion.

C’est un grand mystère de savoir pourquoi le CA n’a pas attendu 15 jours de plus pour discuter de vive voix de l’offre !

Pour compléter le tableau, le Ministère de l’Enseignement Supérieur et de la Recherche avait informé les établissements membres de Couperin dans une note du 20 novembre 2018 que « ces négociations seront supervisées par le conseil d’administration de Couperin et le Comité de pilotage pour la science ouverte ». Or ce Comité de pilotage n’a jamais été consulté !

Les problèmes structurels de Couperin

Comme on le voit, il y a un sérieux problème de transparence, de circulation de l’information et une absence totale de dialogue dans le sens bottom-up. Cela nuit gravement aux négociations, d’autant plus que les compétences présentes dans les hautes sphères où tout semble se décider sont essentiellement celles de bibliothécaires responsables de SCD (Service Commun de Documentation, au sein d’universités) et de chefs d’établissements (présidents d’université, responsables d’institutions de recherche, etc.). Et, in fine, il semble bien que le groupe qui y exerce la plus grande influence soit constitué par un petit cercle de bibliothécaires, les mêmes aux commandes depuis trop longtemps. Leurs compétences sont certes indispensables, mais elles sont devenues plus que jamais insuffisantes.

En effet, le monde de la Science Ouverte d’aujourd’hui n’a plus rien à voir avec celui de l’édition scientifique tel qu’il était à la fondation de Couperin. Il est nécessaire de penser la politique de la documentation scientifique, inextricablement liée à celle de l’évaluation scientifique, de façon plus globale, en prenant en compte le développement des archives ouvertes, infrastructures essentielles pour la construction d’une science ouverte, de l’édition en Open Access, des nouveaux modes d’évaluation, etc. La présence de chercheurs de toutes les disciplines, directement concernés par l’Open Access, est donc d’autant plus urgente. Mais il faut aussi d’autres compétences : des juristes, des négociateurs professionnels, des spécialistes des archives ouvertes, des informaticiens, des spécialistes des données…

D’une manière générale, si l’information circulait de façon ouverte, si l’ensemble de la communauté concernée (chercheurs, documentalistes, spécialistes des archives ouvertes, informaticiens, etc.) pouvait faire part de son opinion comme cela est le cas par exemple dans les universités de l’état de Californie, Couperin pourrait bénéficier d’une bien plus grande diversité de points de vue et de compétence et la plupart des problèmes précédemment rencontrés seraient évités. A ce sujet je vous invite à lire le blog et l’argumentaire de Daniel Bourrion qui propose de rendre publiques les offres des éditeurs et de permettre à toutes les personnes concernées de les commenter. A cet argumentaire, j’ajouterais que, dans l’hypothèse où un éditeur exercerait des pressions, la transparence est la meilleure arme pour y résister et la loi du silence (omerta en sicilien) est la plus mauvaise solution.

En définitive, que les choses soient claires : bien qu’il soit critique, le but de ce billet n’est pas de nuire au consortium Couperin, qui reste un outil indispensable, mais de susciter des améliorations dans son fonctionnement qui deviennent urgentes.

Complément (ajouté le 24 juillet 2019) :  j’ai eu connaissance d’une lettre de CasuHAL, association regroupant les professionnels les plus directement concernés par HAL, composée en grande partie de bibliothécaires et de documentalistes. Dans cette lettre adressée à Grégory Colcanap et Sandrine Malotaux le 31 mai 2019, CasuHAL demande « le retrait de [la proposition d’accès au MAA en streaming sur le site d’Elsevier] et recommande plutôt la mise à disposition systématique et immédiate des MAA aux auteurs des publications, afin de favoriser leur dépôt sur une archive ouverte. », « recommande plutôt la mise à disposition systématique et immédiate des MAA aux auteurs des publications, afin de favoriser leur dépôt sur une archive ouverte. », « le retrait de la proposition de streaming et de la licence limitant la réutilisation et la redistribution. » et « la mise à disposition des MAA sur une archive publique gérant les droits d’accès des établissements qui en feront la demande (PANIST par exemple), dès acceptation pour publication. ».

Hello world!

octobre 6, 2009

Welcome to WordPress.com. This is your first post. Edit or delete it and start blogging!