OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Vers le Libre Accès au Savoir à l’Université http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/#comments Thu, 30 Dec 2010 14:42:47 +0000 aKa (Framasoft) http://owni.fr/?p=39758 Titre original : Le long chemin du Libre Accès au Savoir à l’Université

La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

Retrouvez tous les articles d’OWNIsciences.

]]>
http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/feed/ 2
Le long chemin du Libre Accès au Savoir à l’Université http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/#comments Wed, 29 Dec 2010 14:10:13 +0000 aKa (Framasoft) http://owni.fr/?p=33733 La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

]]>
http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/feed/ 6
L’illustration, ou comment faire de la photographie un signe http://owni.fr/2010/10/17/l%e2%80%99illustration-ou-comment-faire-de-la-photographie-un-signe/ http://owni.fr/2010/10/17/l%e2%80%99illustration-ou-comment-faire-de-la-photographie-un-signe/#comments Sun, 17 Oct 2010 14:47:52 +0000 André Gunthert http://owni.fr/?p=31860 Article initialement publié sur Culture Visuelle, média social d’enseignement et de recherche

.
.

Dans la lignée des travaux ouverts par le colloque “La trame des images” en 2006, nous sommes plusieurs à nous attacher à caractériser les usages effectifs de l’image médiatique. Le schéma traditionnel du recours à la photographie pour des raisons documentaires est manifestement inadapté à la plupart des situations que nous observons. Usages décoratifs, narratifs, allégoriques, signalétiques, jeux visuels, allusions, suggestions déploient au contraire une gamme de pratiques éditoriales aussi complexe que celles de l’énonciation écrite.

Le brouillage de la frontière entre communication et information

Le terme d’illustration s’est imposé pour décrire ces situations où l’image est mise au service d’un discours, d’un récit. Mais sa définition n’est pas encore suffisamment précise. Nous butons sur la polysémie du mot. Dans son sens le plus courant, “illustration” renvoie à toute insertion d’une image dans un contexte éditorial. Mais un emploi plus spécialisé lui fait désigner les usages construits de l’image, en opposition dialectique avec le terme “photographie”, qui connote ses usages documentaires. Le terme est également utilisé dans différents domaines audiovisuels. Au cinéma, accompagner un plan d’une illustration musicale revient à orienter la perception de la scène par le biais de l’ambiance sonore. Dans un journal télévisé, les professionnels désignent comme une illustration l’inévitable séquence du micro-trottoir qui accompagne le traitement d’un mouvement social.

(1) Publicité Végétaline, 1965. (2) Nouvel Observateur, couverture du 11 mars 2010. (3) Sciences & Vie, couverture du n° spécial "Climat" de janvier 2010 (cliquer pour agrandir).

L’illustration est d’abord une catégorie graphique. Dans le domaine de l’image fixe, un fossé infranchissable sépare en théorie l’illustration de la photographie. Non que la photographie ne puisse être utilisée à des fins non documentaires (voir ci-dessus). Mais cet usage retire en principe au matériau photographique toutes les propriétés habituellement reconnues au médium. Photographie d’illustration et photographie documentaire sont supposées relever de deux univers différents: la première est l’affaire du graphiste et implique une commande a priori; la seconde, celle du photographe et suppose une publication a posteriori. La première relève de la communication et admet la retouche, le montage et toutes formes d’édition d’une image qui n’est que le support d’un message; la seconde se veut un document authentique, porteur d’une information objective, et implique le refus de toute manipulation.

Mais la réalité des pratiques déploie un espace plus complexe et plus flou, où la photographie d’information peut très bien servir à des usages narratifs ou allégoriques soigneusement contrôlés. C’est notamment le cas dans la forme du magazine, dont Life représente depuis 1936 le modèle par excellence, voué à la promotion d’un “pictorial journalism” placé sous le signe de l’expressivité. D’où une seconde dichotomie, plus discrète, mais parfaitement opératoire pour les professionnels, entre quotidiens et magazines, entre information “sérieuse” et mise en scène de l’information. Un écart de plus en plus difficile à distinguer, quand la presse quotidienne adopte, notamment dans ses Unes, la culture graphique du magazine, comme le journal Libération à partir de 1981 (voir ci-dessous).

(4) Life, couverture du 30 avril 1965. (5) Courrier international, couverture du 1er février 2007. (6) Libération, Une du 20-21 août 2005 (cliquer pour agrandir).

Divers mécanismes ont contribué à accentuer le brouillage des genres. Le développement des banques d’images, initialement destinées à répondre aux besoins illustratifs, a progressivement conduit à inverser la logique de production des images. Anticipant la commande, ces agences ont entrepris de proposer des photos “prêtes à l’emploi”, adaptées à des demandes stéréotypées et à des budgets restreints, et susceptibles d’être réutilisées dans des contextes divers. Circuler aujourd’hui sur la partie “créative” d’un portail comme Corbis donne une idée de l’industrialisation de l’illustration photographique – amplifiée par la puissance de l’indexation informatique (voir ci-dessous une page de résultats du portail Corbis sur la requête “problèmes de couple”). Compte tenu de la porosité culturelle entre les domaines de la communication et de l’information, il est à peine surprenant de constater que de nombreuses photographies de reportage semblent elles aussi comme composées d’avance pour les besoins éditoriaux. Les photos les plus célèbres, celles qu’on gratifie du titre d’”icônes”, ne sont souvent que des images passées au tamis de la simplification allégorique – des photos que nul n’oserait appeler des illustrations, et qui en appliquent pourtant scrupuleusement les codes (voir ci-dessous, un échantillon de photos célèbres proposées par l’AFP).

Page de résultats du portail Corbis sur la requête "problèmes de couple" (cliquer pour agrandir).

Photos AFP

D’où notre difficulté. Dans une période où les pratiques éditoriales évoluent à vive allure, où poser la limite entre document et illustration? Cette distinction a-t-elle même encore un sens? Audrey Leblanc, qui travaille sur le traitement journalistique de mai 1968, montre que chaque occurrence visuelle est l’expression d’un récit. Ne faut-il pas plutôt admettre que l’allégorie a dévoré tout l’espace médiatique et que, puisque toute image publique est une image éditée, aucune ne peut relever de la fiction de l’authenticité? Pour ma part, mon intuition me pousse à maintenir une frontière entre éditorialisation et usage illustratif. S’il n’existe évidemment aucune forme d’expression chimiquement neutre, pas plus écrite que visuelle, en tirer la conclusion que tout ne serait qu’illusion (ce qui était à peu près la position d’un Baudrillard) me paraît une impasse du raisonnement plutôt qu’une description efficace. Pourtant, mercredi dernier au cours d’une discussion à l’atelier du Lhivic, faute d’une argumentation suffisamment claire, je n’ai pas réussi à tracer la limite.

Faire de l’image un signe

Rien de tel que l’examen d’un exemple pour préciser les choses. L’actualité me fournit le cas de la visite de Nicolas Sarkozy au Vatican, le 8 octobre 2010. Quoi de mieux qu’une entrevue protocolaire, phénomène ponctuel à la scénographie établie, dont la raison d’être est précisément de créer des images?

En suivant peu ou prou la méthodologie décrite par Patrick Peccatte, je collecte un échantillon, sinon exhaustif, du moins représentatif de l’événement: une trentaine de photos publiées sur divers sites d’information entre le 7 et le 9 octobre (voir ci-dessous). Pour des raisons de bouclage précoce, un bon tiers reprennent des images réalisées lors la visite précédente, en 2007 (ce qui est d’ailleurs l’occasion de constater l’absolue uniformité du protocole). J’écarte cette partie de l’échantillon pour me concentrer exclusivement sur les images d’actualité proprement dites. Si je veux repérer une limite, autant me confronter à la situation où les images sont au plus près de l’événement.

Je vois rapidement se dessiner mon cas. Parmi la vingtaine d’images sélectionnées, la plupart privilégient la réception dans la bibliothèque privée du pape (on peut se faire une idée plus complète des différentes étapes de la visite à partir de l’iconographie réunie sur le site de l’Elysée). Neuf d’entre elles sont issues du vis-à-vis des deux hommes sur fond de La Résurrection du Pérugin. Reproduite cinq fois dans différents cadrages, une même image (due à Christophe Simon/pool AFP-Reuters) se détache du lot: elle montre le pape, souriant, en train de glisser un cadeau dans la main du président qui s’esclaffe, tête baissée (voir ci-dessous).

L’image est vivante, intéressante, colorée. Elle présente l’essentiel des informations associées à l’événement, qu’elle restitue d’une manière positive. Retenir cette photo plutôt qu’une autre est bien sûr un choix éditorial, qui trahit une certaine orientation. Peut-on affirmer pour autant que cette image relève du régime de l’illustration, au sens d’une construction du récit?

Mais l’illustration de quoi? Lorsqu’on analyse les articles que cette image ponctue, on note des différences sensibles entre l’approbation enthousiaste de Paris-Match, la description ostensiblement neutre de RTBF Info, la version plus critique du JDD, ou celle franchement acide de 20 Minutes (voir ci-dessous). Qu’une seule et même image accompagne une gamme de réactions aussi large apporte la preuve que cette photo ne peut être ramenée à un symbolisme univoque. Elle renvoie une certaine image de la rencontre, différente d’autres options iconographiques. Mais cette coloration se combine avec les autres informations et facteurs d’orientation éditoriale fournis par les titres, intertitres, chapôs, légendes et textes des articles. La photographie joue ici un rôle principalement informatif et testimonial, auquel sont associées des fonctions décoratives et signalétiques.

A une exception près: l’édition de Paris-Match (ci-dessus, à gauche), qui la présente sous la forme d’une photo légendée, en lui conférant le format le plus important de l’échantillon. Dans ce cas, le titre “Tout sourire” semble moins constituer une synthèse de la rencontre qu’un commentaire du cliché, avec lequel il semble entretenir un rapport nécessaire. C’est l’établissement de ce lien qui indique qu’on est passé au régime illustratif.

Plutôt que de qualifier d’illustration cette photo, dont on a vu qu’elle pouvait être employée dans différents contextes, disons qu’elle fait ici l’objet d’un usage illustratif. Celui-ci est caractérisé par le fait qu’il veut faire dire quelque chose à l’image, autrement dit qu’une intention narrative préside au choix iconographique. Cette intention se manifeste par la création d’un rapport entre texte et image, qui n’est autre que le lien qui fonde la relation sémiotique: il s’agit ni plus ni moins de faire de l’image un signe.

Qu’est-ce qu’un signe? Une nuée d’oiseaux qui vole dans le ciel change soudain de direction. Dans un contexte culturel donné, ce phénomène pourra être perçu comme doté d’une signification, que l’haruspice est à même d’interpréter. Cet événement et celui dont l’interprétation va le rapprocher ne sont pas de même nature: le lien établi entre eux est, comme l’explique Saussure à propos du langage, “arbitraire”. Créer ce lien est l’opération qui fait d’un objet un signifiant, support d’un signifié, et de cette double entité un dispositif unique, dont les parties apparaîtront ensuite comme inséparables.

Comme la nuée d’oiseaux ne donne aucune indication réelle sur les événements humains, le rire de Sarkozy dans la photo vaticane n’a pas de signification à l’échelle globale de la visite. Il serait plus correct de le décrire comme la traduction visuelle d’une sorte d’accident. Un blog du Post.fr révèle que le moment qu’immobilise cette image est celui où Benoît XVI donne à Nicolas Sarkozy le chapelet supplémentaire que ce dernier a réclamé pour la petite nièce de Carla Bruni. Dans cette lecture, la photographie constitue un document qui atteste l’«incartade» typique «des mauvaises manières du chef de l’État français qui font jaser». Dans Match, au contraire, la photo légendée est proposée comme uneallégorie rendant compte de l’atmosphère générale de la rencontre, dans une continuité sans faille du titre, du récit de l’article et de l’image, unis dans un même dispositif.

La force du signe est de dissimuler le caractère construit du dispositif. Je n’entre pas ici dans la discussion sur la nature du signe (sur laquelle je reviendrai), sinon pour indiquer que son application à la photographie, qui n’est pas un signe, représente un vrai coup de force – et une ressource considérable. Comme l’a bien compris la publicité, l’usage illustratif des images d’enregistrement renforce la suggestivité du dispositif, par le caractère d’authenticité qu’il lui confère. En s’appuyant sur la culture des usages documentaires de l’image, l’illustration photographique se donne comme la preuve irréfutable d’une construction narrative qui a la structure d’une fiction.

Le caractère artificiel de ces constructions est souvent repérable par l’observation d’un décalage apparent entre les composantes du dispositif, comme la mobilisation d’une image en dehors de son contexte original. Cependant, le traitement illustratif peut également s’appliquer à des photos contemporaines de l’événement, comme c’est le cas avec l’image légendée de Match. Il sera alors détecté par comparaison avec d’autres élaborations éditoriales.

La distinction illustrative

Sur Culture Visuelle, nous avons recensé depuis plusieurs mois un certain nombre d’usages illustratifs de l’image photographique. La collection de ces exemples montre une gamme qui va du recours le plus élémentaire à l’image comme signifiant redondant du récit à l’allégorie proprement dite, en passant par divers stades d’élaboration narrative. En discutant ou en contredisant les propositions de lecture, certains commentaires ouvrent de véritables querelles interprétatives, qui montrent bien que la construction du sens de ces images relève de l’économie du signe.

Mais l’examen global du traitement visuel d’un événement apporte une précision utile. Sur la vingtaine d’images de l’échantillon, un seul emploi, celui de Match, participe de la construction narrative. Un autre, celui du Post, appartient de manière claire au registre opposé de l’usage documentaire. Tous les autres déclinent les variantes d’une utilisation plus banale et moins construite de l’image photographique, où celle-ci joue un rôle à peine informatif de confirmation visuelle de l’événement, associé à des fonctions décoratives et signalétiques.

Un cas est plus intéressant encore: c’est celui de l’article de 20minutes.fr, où l’usage d’une photographie souriante de la rencontre semble en contradiction avec la tonalité de l’article, qui rassemble plusieurs réactions critiques. Interrogée à ce sujet, la journaliste Oriane Raffin indique qu’elle s’est bornée à reprendre l’illustration déjà utilisée dans un premier compte rendu de la visite, rédigé quelques heures plus tôt à partir de la dépêche AFP (voir ci-contre). A l’occasion d’une de ces hétérophanies pointées par Patrick Peccatte, on découvre ici un exemple d’usage a contrario, sorte de lapsus éditorial que la lecture du texte avait laissé deviner.

La visite éclair de Nicolas Sarkozy au Vatican n’a pas été traitée comme un événement majeur. La plupart des rédactions se sont contentées de reprises plus ou moins développées des dépêches d’agence. Malgré le cliquetis permanent des obturateurs qui frappe à l’écoute de la vidéo de la rencontre diffusée sur le site de l’Elysée, le traitement iconographique n’a pas fait l’objet de beaucoup plus d’efforts. L’image qui a été la plus reproduite était celle qui sortait du lot, dans un ensemble de vues plutôt figées ou stéréotypées – mais c’était aussi l’une des premières images diffusées, par l’AFP aussi bien que par Reuters, puisque réalisée en “pool”.

Rédigé à partir de la dépêche de Reuters, le bref article de Match n’a fait que retenir les éléments les plus positifs de la rencontre, assorti d’un titre qui est lui aussi un énoncé stéréotypé, déjà utilisé à maintes reprises par la rédaction pour légender des images souriantes. Si l’ensemble forme bien un dispositif narratif, c’est plus en raison de la culture de l’illustration du magazine qu’à cause d’une élaboration particulièrement soignée.

Le travail que suppose la construction d’un rapport illustratif réserve la formule aux Unes, aux événements d’importance ou à des cas spécifiques plutôt qu’au tout-venant journalistique. Le recours à l’illustration fournit ainsi une indication d’échelle dans la hiérarchie de l’information. Si son caractère expressif attire l’attention, il reste à l’évidence une large place pour d’autres formes d’éditorialisation, passées au second plan en raison de leur aspect routinier.

Crédit Illustration (ou autres) CC FlickR par ƅethan

]]>
http://owni.fr/2010/10/17/l%e2%80%99illustration-ou-comment-faire-de-la-photographie-un-signe/feed/ 1
Nos vies gérées par les données http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/ http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/#comments Thu, 08 Jul 2010 14:01:59 +0000 Hubert Guillaud http://owni.fr/?p=21513 Nous prenons des décisions avec des informations partielles. Souvent, nous ne savons pas répondre aux questions les plus simples : où étais-je la semaine dernière ? Depuis combien de temps ai-je cette douleur au genou ? Combien d’argent dépensé-je habituellement chaque jour ?…

Pour répondre à cela, certains documentent leurs existences pour obtenir des informations précises et concrètes sur leur quotidien, comme c’est le cas de Robin Barooah, un concepteur de logiciel de 38 ans, qui vit à Oakland, Californie. Barooah a ainsi décidé de se désintoxiquer du café. Pour cela, il s’est rempli une grande tasse de café et a décidé d’enlever 20 ml par semaine. Cela lui a pris 4 mois.

Si vous voulez remplacer les aléas de l’intuition par quelque chose de plus fiable, vous devez d’abord recueillir des données. Une fois que vous connaissez les faits, il est possible de mieux les gérer.

Ben Lipkowitz documente également sa vie via son agenda électronique. Il sait ce qu’il a mangé, ce qu’il a dépensé, les livres qu’il a lus, les objets qu’il a achetés, le temps qu’il passe à nettoyer son appartement… Mark Carranza détaille également son existence depuis ses 21 ans, en 1984, via une base de données qui recueille désormais plusieurs millions d’entrées (voir notamment cette intervention pour le Quantified Self). La plupart de ses pensées et actions sont ainsi documentées.

lesjourneesdeBenLipkowitz

Les journées de Ben Lipkowitz

Je me mesure, donc je suis

“Ces gens semblent avoir un comportement anormal. Aberrant. Mais pourquoi ce qu’ils font nous semble si étrange ?”, se demande Gary Wolf dans un passionnant article pour le New York Times (dont cet article n’est en grande partie qu’une traduction). Dans d’autres contextes, il est normal de récolter des données. C’est le cas des managers, des comptables… Nous tolérons bien souvent les pathologies de la quantification, parce que les résultats s’avèrent puissants. Enumérer les choses permet d’accomplir des tests, des comparaisons, des expériences. Les documenter permet d’amoindrir leur résonnance émotionnelle et de les rendre intellectuellement plus traitables. En sciences, en affaire, et dans la plus grande part des secteurs, les chiffres, carrés et justes, l’emportent.

Pendant longtemps, le domaine de l’activité humaine a semblé à l’abri. Dans les limites confortables de la vie personnelle, nous utilisons rarement la puissance du nombre. Les techniques d’analyse, si efficaces, sont laissées au bureau à la fin de la journée et reprises le lendemain. Imposé à soi ou à sa famille, un régime d’enregistrement objectif semble ridicule. Un journal est respectable, mais une feuille de calcul est effrayante.

Pourtant, les nombres s’infiltrent dans le domaine de la vie personnelle. Mesurer son sommeil, son exercice physique, son humeur, sa nourriture, sa sexualité, sa localisation, sa productivité, son bien-être spirituel semble de plus en plus affiché et partagé. Sur MedHelp, un des plus grands forums internet pour l’information de santé, quelque 30 000 nouveaux projets personnels sont ainsi documentés par les utilisateurs chaque mois. Foursquare, et son million d’utilisateurs, permets à ses usagers de construire automatiquement le journal détaillé de leurs mouvements et de les publier. La Wii Fit, qui permet entre autres de mesurer ses activités corporelles, a été vendue à plus de 28 millions d’unités.

quantifiedselfmeeting

Image : cliché d’une réunion du Quantified Self.

Gary Wolf rappelle que depuis deux ans il anime avec Kevin Kelly le Quantified Self, un site web et des réunions régulières sur le sujet de la documentation de soi, qui l’a amené à se demander si l’autosuivi était une conséquence logique de notre obsession à l’efficacité (voire notre édito sur le sujet : “Finalement, documentez-moi !”). Mais cette recherche d’efficacité implique des progrès rapides vers un but connu. Or, pour beaucoup de gens qui documentent leur existence, “l’objectif est inconnu”. Si beaucoup commencent à le faire avec une question précise à l’esprit, la plupart continuent parce qu’ils croient que cette documentation de soi fait surgir des chiffres qu’ils ne peuvent se permettre d’ignorer, y compris des réponses à des questions qu’ils n’ont peut-être pas encore pensé à se poser.

La montée des capteurs de soi

Cette autodocumentation est un rêve d’ingénieur. Pour comprendre comment les choses fonctionnent, les techniciens sont souvent douloureusement conscients du mystère du comportement humain. Les gens font des choses pour des raisons insondables. Ils sont opaques à eux-mêmes. Les formes de l’auto-exploration de soi (psychanalyse notamment) passent par les mots. Les traceurs explorent une autre voie. “Au lieu d’interroger leurs mondes intérieurs par la parole et l’écrit, ils utilisent les nombres.”

Pour cela, il faut prendre en compte quatre changements importants. Les capteurs électroniques sont devenus plus petits, plus accessibles et de meilleure qualité. Les gens ont eu accès à des dispositifs de calculs puissants et facilement inscriptibles (notamment via leurs mobiles). Les sites sociaux ont montré qu’il n’était pas anormal de partager ces données. Enfin, nous avons commencé à apercevoir la montée d’une superintelligence mondiale dans les nuages (l’informatique en nuage est l’infrastructure de la Machine unique de Kevin Kelly).

Les méthodes d’analyses familières sont désormais enrichies par des capteurs qui surveillent notre comportement, par des processus d’autosuivis plus séduisants et significatifs… qui nous rappellent que notre comportement ordinaire contient d’obscurs signaux quantitatifs qui peuvent être utilisés pour documenter nos comportements. Ainsi Ken Fyfe, l’un des pionniers des dispositifs de surveillance biométrique vestimentaire, rappelle que dans les années 90, quand un coureur voulait avoir des informations sur la mécanique de leurs performances (rythme, cadence…), il devait se rendre dans un laboratoire pour que sa performance soit enregistrée. Désormais, il suffit d’un téléphone mobile ou d’une puce dotée d’accéléromètres et de GPS, pour connaître ces informations, comme le font tous ceux qui utilisent ces outils pour surveiller leurs résultats sportifs. “L’expertise dont vous avez besoin consiste dans le traitement du signal et l’analyse statistique des résultats”, explique James Park, cofondateur de Fitbit, un capteur de mouvement. Philips commercialise désormais DirectLife, Zeo un petit capteur qui capte les signaux électriques du cerveau pendant votre sommeil. L’accéléromètre de Ken Fyfe, développé par Dynastream, est utilisé dans les montres d’Adidas et Polar et mesure également la pression artérielle, le niveau de glucose, le poids, le sommeil… Nike+ commercialisé depuis 2006 a été adopté par 2,5 millions de coureurs.

zeo

Image : Le Zeo et un exemple de mesure de sommeil obtenu depuis cet appareil.

Le rêve de Ken Fyfe est de démocratiser la recherche objective sur les sujets humains. Le coeur de ce laboratoire personnel est désormais le téléphone portable, qui nous enveloppe d’un nuage de calculs, couplé aux sites sociaux. “Les gens se sont habitués à partager”, explique David Lammers-Meis, qui dirige la conception des produits de remise en forme de Garmin, la firme spécialisée dans l’intégration de GPS. “Plus ils veulent partager, plus ils veulent avoir des choses à partager.” Même si on n’a rien à dire on veut avoir quelque chose à partager. 1,5 million de personnes utilisent Mint, leur permettant de partager leurs dépenses pour mieux les maîtriser.

Maîtriser les machines qui nous mesurent

Les manies de quelques geeks sont en passe de paraître normales. Pour Gary Wolf, l’une des raisons pour lesquelles l’autosuivi se répand au-delà de la culture technique qui lui a donné naissance réside dans le fait que dans notre quête à nous comprendre, nous souhaitons récupérer une partie du pouvoir de contrôle et de documentation de nous-mêmes que nous confions aux machines.

Sophie Barbier, une enseignante de 47 ans résidant à Palo Alto, a ainsi commencé à partager les données de ses parcours cyclistes (temps, distance, fréquence cardiaque). Puis elle a commencé à noter son humeur, son sommeil, sa capacité de concentration, sa consommation de caféine… Elle a pris un complément alimentaire, le tryptophane, pour faire disparaître ses insomnies et s’est rendu compte qu’il avait aussi un effet sur sa capacité de concentration. Seth Roberts, professeur de psychologie à l’université de Californie a ainsi développé un logiciel de mesure de la performance cognitive, qui, couplé à un système d’autosuivi pour adapter son régime alimentaire, lui a permis de démontrer que le beurre a contribué a améliorer ses performances cognitives.

Bien sûr, ces auto-expériences ne sont pas des essais cliniques. Le but n’est pas de comprendre quelque chose au sujet des êtres humains en général, mais de découvrir quelque chose sur vous-même. Leur validité est circonscrite, mais elle peut s’avérer pertinente. En général, lorsque nous essayons de changer une habitude, un comportement, on improvise, on oublie nos résultats ou on modifie les conditions sans même mesurer très bien les résultats. Bien sûr, les erreurs sont possibles : il est facile de confondre un effet transitoire avec un effet permanent ou manquer un facteur caché qui influence vos données et leurs conclusions… “Mais une fois que vous démarrez la collecte de données, l’enregistrement des dates, les conditions de basculement d’avant en arrière tout en gardant un registre précis des résultats, vous gagnez un avantage énorme par rapport à la pratique normale”.

“L’idée que notre vie mentale est affectée par des causes cachées est un des piliers de la psychologie”, estime Gary Wolf. “Ce n’est pas seulement le cadre de nos pensées qui nous échappe : nos actions aussi” Terry Paul a développé un outil qui mesure le développement du langage des enfants par le suivi de nos échanges conversationnels avec lui, en traduisant les bruits de l’environnement d’un bébé par des données. Son moniteur – le Lena – est utilisé par la recherche universitaire. Pour beaucoup de parents, il ressemble à un cauchemar de surveillance névrotique : qui voudrait d’un enregistreur numérique qui vous note sur la façon dont vous parlez à votre enfant ? Pourtant, les parents sous-estiment le rôle du langage préverbal sur le développement de leur enfant. .

“Nous ne nous apercevons pas de ce que nous faisons parce que nous sommes motivés à ne pas nous en apercevoir”, explique encore Gary Wolf. Shaun Rance a ainsi commencé à suivre sa consommation d’alcool il y a deux ans, après que son père ait reçu un diagnostic de cancer du foie en phase terminale. Il ne s’est pas engagé à arrêter de boire, il a commencé à compter, en utilisant le site anonyme DrinkingDiary. Par ce biais, il a aiguisé sa conscience du problème, a augmenté sa maîtrise de soi et a réduit sa consommation d’alcool. Il ne peut plus se mentir à lui-même ou sous-estimer sa consommation. Il ne ment pas à la machine, car il n’a pas de raison de le faire.

drinkingdiary

Image : Drinking Diary, le journal de votre alcoolémie.

Pour Dave Marvit, vice-président des laboratoires Fujitsu aux Etats-Unis, où il dirige un projet de recherche sur l’autosuivi, si nous avions un signal doux sur la quantité de sucre dans notre sang, changerions-nous notre façon de manger ? La colère, la joie, notre énergie ou la baisse de forme de notre métabolisme sont des matériaux de notre vie quotidienne. Peut-on ramasser ces signaux faibles pour en faire un levier de nos comportements ? Margaret Morris, psychologue et chercheuse chez Intel a récemment publié une série d’essais utilisant le téléphone mobile pour faire du suivi d’émotion. A plusieurs moments dans la journée, le téléphone des utilisateurs sonnait pour leur réclamer de documenter leur humeur. L’un des utilisateurs s’est ainsi rendu compte que son humeur massacrante commençait chaque jour à la même heure. Les données l’ont aidé à voir le problème et il a introduit une pause dans son emploi du temps pour faire le vide du stress accumulé.

L’insupportable objectivité des machines

Pour Gary Wolf, beaucoup de nos problèmes viennent du simple manque d’instruments pour les comprendre. Nos mémoires sont pauvres, nos préjugés nombreux, notre capacité d’attention limitée. Nous n’avons pas de podomètres à nos pieds, d’alcootest dans notre bouche ou un moniteur de glucose dans nos veines – enfin, pas encore. Il nous manque l’appareil psychique et physique pour faire le point sur nous-mêmes. Et pour cela, nous avons besoin de l’aide des machines. Mais cette surveillance par les machines ne fait pas tout. Alexandra Carmichael, l’une des fondatrices du site d’autosuivi CureTogether, a récemment évoqué sur son blog pourquoi elle avait cessé son suivi. “Chaque jour, mon estime de soi était liée aux données”. La quarantaine de données d’elle-même qu’elle suivait n’a pas résisté à sa volonté et à son amour-propre.

C’était comme un retour à l’école” reconnaissait-elle. “Les traceurs électroniques n’ont pas de sentiments. Mais ils sont de puissants miroirs de nos propres valeurs et jugements. L’objectivité d’une machine peut sembler généreuse ou impitoyable, tolérante ou cruelle.

curetogether

Image : CureTogether, mesurer sa santé.

Cette ambivalence est également à prendre en compte. Le programme de désaccoutumance au tabac mis au point par Paypal Kraft, chercheur norvégien à l’université d’Oslo, a implémenté dans son programme un droit à l’erreur. Quand les gens avouent avoir repris une cigarette, un message les encourage à réessayer, sans les culpabiliser. Même si cet exemple ne trompe personne, les recherches en interaction homme-machine montrent que lorsque les machines sont dotées de caractéristiques émotionnelles, d’empathie, elles sont aussi capables de nous rassurer.

Jon Cousins, développeur logiciel, a construit un système d’autosuivi de sentiments – Moodscope – suite à un diagnostic en 2007 de trouble affectif bipolaire. Utilisé par quelque 1000 personnes, le logiciel envoie automatiquement un mail avec les résultats d’humeur à quelques amis. Désormais, ses amis savent pourquoi il a parfois un comportement étrange. Quand son résultat n’est pas bon, ses amis peuvent l’appeler ou le réconforter par mail, ce qui suffit souvent à le faire se sentir mieux. Moodscope est un système mixte dans lequel la mesure est complétée par la sympathie humaine. L’autosuivi peut sembler parfois narcissique, mais il permet aussi aux gens de se connecter les uns aux autres de façon nouvelle. Les traces de nous-mêmes que laissent ces nouvelles métriques sont comme les pistes de phéromones des insectes : ces signaux peuvent nous conduire vers des gens qui partagent nos préoccupations.

Souvent les pionniers de l’autosuivi ont le sentiment d’être à la fois aidés et tourmentés par les systèmes qu’ils ont construits. Gary Wolf lui-même a expérimenté ce suivi pour mesurer finement son temps de travail. L’outillage a montré que ses journées étaient un patchwork de distraction, agrémenté de quelques rares moments d’attention (moins de trois heures par jour). Après avoir digéré l’humiliation de ce constat, il s’en est servi comme d’une source de perspective critique, non pas sur la performance, mais sur ce qu’il était important de mesurer. Le standard de l’expérience humaine universelle n’existe pas, rappelle-t-il. Les outils de mesure permettent aussi de personnaliser et d’adapter les soins, régimes et diagnostic à son état précis. Et de citer un dernier exemple, celui de Bo Adler, un informaticien des laboratoires Fujitsu souffrant d’apnée du sommeil. Les docteurs souhaitaient lui faire subir une opération chirurgicale, comme ils le font dans la plupart des cas critiques d’apnée du sommeil. Mais Adler n’a pas voulu.

Ceux qui mesurent leur santé savent mieux adapter leurs entraînements sportifs ou leurs régimes à leur condition physique ou à leurs objectifs. Ils connaissent mieux leurs forces et leurs faiblesses. L’autosuivi n’est pas tant un outil d’optimisation que de découverte de soi. Et leur effet le plus intéressant pourrait bien être de nous aider à réévaluer ce que “normal” veut dire, conclut Gary Wolf.

__

Billet originellement publié sur InternetActu.

Crédit Photo CC Flickr : Aussie Gall.

]]>
http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/feed/ 61
Nos vies gérées par les données http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/ http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/#comments Thu, 08 Jul 2010 14:01:59 +0000 Hubert Guillaud http://owni.fr/?p=21513 Nous prenons des décisions avec des informations partielles. Souvent, nous ne savons pas répondre aux questions les plus simples : où étais-je la semaine dernière ? Depuis combien de temps ai-je cette douleur au genou ? Combien d’argent dépensé-je habituellement chaque jour ?…

Pour répondre à cela, certains documentent leurs existences pour obtenir des informations précises et concrètes sur leur quotidien, comme c’est le cas de Robin Barooah, un concepteur de logiciel de 38 ans, qui vit à Oakland, Californie. Barooah a ainsi décidé de se désintoxiquer du café. Pour cela, il s’est rempli une grande tasse de café et a décidé d’enlever 20 ml par semaine. Cela lui a pris 4 mois.

Si vous voulez remplacer les aléas de l’intuition par quelque chose de plus fiable, vous devez d’abord recueillir des données. Une fois que vous connaissez les faits, il est possible de mieux les gérer.

Ben Lipkowitz documente également sa vie via son agenda électronique. Il sait ce qu’il a mangé, ce qu’il a dépensé, les livres qu’il a lus, les objets qu’il a achetés, le temps qu’il passe à nettoyer son appartement… Mark Carranza détaille également son existence depuis ses 21 ans, en 1984, via une base de données qui recueille désormais plusieurs millions d’entrées (voir notamment cette intervention pour le Quantified Self). La plupart de ses pensées et actions sont ainsi documentées.

lesjourneesdeBenLipkowitz

Les journées de Ben Lipkowitz

Je me mesure, donc je suis

“Ces gens semblent avoir un comportement anormal. Aberrant. Mais pourquoi ce qu’ils font nous semble si étrange ?”, se demande Gary Wolf dans un passionnant article pour le New York Times (dont cet article n’est en grande partie qu’une traduction). Dans d’autres contextes, il est normal de récolter des données. C’est le cas des managers, des comptables… Nous tolérons bien souvent les pathologies de la quantification, parce que les résultats s’avèrent puissants. Enumérer les choses permet d’accomplir des tests, des comparaisons, des expériences. Les documenter permet d’amoindrir leur résonnance émotionnelle et de les rendre intellectuellement plus traitables. En sciences, en affaire, et dans la plus grande part des secteurs, les chiffres, carrés et justes, l’emportent.

Pendant longtemps, le domaine de l’activité humaine a semblé à l’abri. Dans les limites confortables de la vie personnelle, nous utilisons rarement la puissance du nombre. Les techniques d’analyse, si efficaces, sont laissées au bureau à la fin de la journée et reprises le lendemain. Imposé à soi ou à sa famille, un régime d’enregistrement objectif semble ridicule. Un journal est respectable, mais une feuille de calcul est effrayante.

Pourtant, les nombres s’infiltrent dans le domaine de la vie personnelle. Mesurer son sommeil, son exercice physique, son humeur, sa nourriture, sa sexualité, sa localisation, sa productivité, son bien-être spirituel semble de plus en plus affiché et partagé. Sur MedHelp, un des plus grands forums internet pour l’information de santé, quelque 30 000 nouveaux projets personnels sont ainsi documentés par les utilisateurs chaque mois. Foursquare, et son million d’utilisateurs, permets à ses usagers de construire automatiquement le journal détaillé de leurs mouvements et de les publier. La Wii Fit, qui permet entre autres de mesurer ses activités corporelles, a été vendue à plus de 28 millions d’unités.

quantifiedselfmeeting

Image : cliché d’une réunion du Quantified Self.

Gary Wolf rappelle que depuis deux ans il anime avec Kevin Kelly le Quantified Self, un site web et des réunions régulières sur le sujet de la documentation de soi, qui l’a amené à se demander si l’autosuivi était une conséquence logique de notre obsession à l’efficacité (voire notre édito sur le sujet : “Finalement, documentez-moi !”). Mais cette recherche d’efficacité implique des progrès rapides vers un but connu. Or, pour beaucoup de gens qui documentent leur existence, “l’objectif est inconnu”. Si beaucoup commencent à le faire avec une question précise à l’esprit, la plupart continuent parce qu’ils croient que cette documentation de soi fait surgir des chiffres qu’ils ne peuvent se permettre d’ignorer, y compris des réponses à des questions qu’ils n’ont peut-être pas encore pensé à se poser.

La montée des capteurs de soi

Cette autodocumentation est un rêve d’ingénieur. Pour comprendre comment les choses fonctionnent, les techniciens sont souvent douloureusement conscients du mystère du comportement humain. Les gens font des choses pour des raisons insondables. Ils sont opaques à eux-mêmes. Les formes de l’auto-exploration de soi (psychanalyse notamment) passent par les mots. Les traceurs explorent une autre voie. “Au lieu d’interroger leurs mondes intérieurs par la parole et l’écrit, ils utilisent les nombres.”

Pour cela, il faut prendre en compte quatre changements importants. Les capteurs électroniques sont devenus plus petits, plus accessibles et de meilleure qualité. Les gens ont eu accès à des dispositifs de calculs puissants et facilement inscriptibles (notamment via leurs mobiles). Les sites sociaux ont montré qu’il n’était pas anormal de partager ces données. Enfin, nous avons commencé à apercevoir la montée d’une superintelligence mondiale dans les nuages (l’informatique en nuage est l’infrastructure de la Machine unique de Kevin Kelly).

Les méthodes d’analyses familières sont désormais enrichies par des capteurs qui surveillent notre comportement, par des processus d’autosuivis plus séduisants et significatifs… qui nous rappellent que notre comportement ordinaire contient d’obscurs signaux quantitatifs qui peuvent être utilisés pour documenter nos comportements. Ainsi Ken Fyfe, l’un des pionniers des dispositifs de surveillance biométrique vestimentaire, rappelle que dans les années 90, quand un coureur voulait avoir des informations sur la mécanique de leurs performances (rythme, cadence…), il devait se rendre dans un laboratoire pour que sa performance soit enregistrée. Désormais, il suffit d’un téléphone mobile ou d’une puce dotée d’accéléromètres et de GPS, pour connaître ces informations, comme le font tous ceux qui utilisent ces outils pour surveiller leurs résultats sportifs. “L’expertise dont vous avez besoin consiste dans le traitement du signal et l’analyse statistique des résultats”, explique James Park, cofondateur de Fitbit, un capteur de mouvement. Philips commercialise désormais DirectLife, Zeo un petit capteur qui capte les signaux électriques du cerveau pendant votre sommeil. L’accéléromètre de Ken Fyfe, développé par Dynastream, est utilisé dans les montres d’Adidas et Polar et mesure également la pression artérielle, le niveau de glucose, le poids, le sommeil… Nike+ commercialisé depuis 2006 a été adopté par 2,5 millions de coureurs.

zeo

Image : Le Zeo et un exemple de mesure de sommeil obtenu depuis cet appareil.

Le rêve de Ken Fyfe est de démocratiser la recherche objective sur les sujets humains. Le coeur de ce laboratoire personnel est désormais le téléphone portable, qui nous enveloppe d’un nuage de calculs, couplé aux sites sociaux. “Les gens se sont habitués à partager”, explique David Lammers-Meis, qui dirige la conception des produits de remise en forme de Garmin, la firme spécialisée dans l’intégration de GPS. “Plus ils veulent partager, plus ils veulent avoir des choses à partager.” Même si on n’a rien à dire on veut avoir quelque chose à partager. 1,5 million de personnes utilisent Mint, leur permettant de partager leurs dépenses pour mieux les maîtriser.

Maîtriser les machines qui nous mesurent

Les manies de quelques geeks sont en passe de paraître normales. Pour Gary Wolf, l’une des raisons pour lesquelles l’autosuivi se répand au-delà de la culture technique qui lui a donné naissance réside dans le fait que dans notre quête à nous comprendre, nous souhaitons récupérer une partie du pouvoir de contrôle et de documentation de nous-mêmes que nous confions aux machines.

Sophie Barbier, une enseignante de 47 ans résidant à Palo Alto, a ainsi commencé à partager les données de ses parcours cyclistes (temps, distance, fréquence cardiaque). Puis elle a commencé à noter son humeur, son sommeil, sa capacité de concentration, sa consommation de caféine… Elle a pris un complément alimentaire, le tryptophane, pour faire disparaître ses insomnies et s’est rendu compte qu’il avait aussi un effet sur sa capacité de concentration. Seth Roberts, professeur de psychologie à l’université de Californie a ainsi développé un logiciel de mesure de la performance cognitive, qui, couplé à un système d’autosuivi pour adapter son régime alimentaire, lui a permis de démontrer que le beurre a contribué a améliorer ses performances cognitives.

Bien sûr, ces auto-expériences ne sont pas des essais cliniques. Le but n’est pas de comprendre quelque chose au sujet des êtres humains en général, mais de découvrir quelque chose sur vous-même. Leur validité est circonscrite, mais elle peut s’avérer pertinente. En général, lorsque nous essayons de changer une habitude, un comportement, on improvise, on oublie nos résultats ou on modifie les conditions sans même mesurer très bien les résultats. Bien sûr, les erreurs sont possibles : il est facile de confondre un effet transitoire avec un effet permanent ou manquer un facteur caché qui influence vos données et leurs conclusions… “Mais une fois que vous démarrez la collecte de données, l’enregistrement des dates, les conditions de basculement d’avant en arrière tout en gardant un registre précis des résultats, vous gagnez un avantage énorme par rapport à la pratique normale”.

“L’idée que notre vie mentale est affectée par des causes cachées est un des piliers de la psychologie”, estime Gary Wolf. “Ce n’est pas seulement le cadre de nos pensées qui nous échappe : nos actions aussi” Terry Paul a développé un outil qui mesure le développement du langage des enfants par le suivi de nos échanges conversationnels avec lui, en traduisant les bruits de l’environnement d’un bébé par des données. Son moniteur – le Lena – est utilisé par la recherche universitaire. Pour beaucoup de parents, il ressemble à un cauchemar de surveillance névrotique : qui voudrait d’un enregistreur numérique qui vous note sur la façon dont vous parlez à votre enfant ? Pourtant, les parents sous-estiment le rôle du langage préverbal sur le développement de leur enfant. .

“Nous ne nous apercevons pas de ce que nous faisons parce que nous sommes motivés à ne pas nous en apercevoir”, explique encore Gary Wolf. Shaun Rance a ainsi commencé à suivre sa consommation d’alcool il y a deux ans, après que son père ait reçu un diagnostic de cancer du foie en phase terminale. Il ne s’est pas engagé à arrêter de boire, il a commencé à compter, en utilisant le site anonyme DrinkingDiary. Par ce biais, il a aiguisé sa conscience du problème, a augmenté sa maîtrise de soi et a réduit sa consommation d’alcool. Il ne peut plus se mentir à lui-même ou sous-estimer sa consommation. Il ne ment pas à la machine, car il n’a pas de raison de le faire.

drinkingdiary

Image : Drinking Diary, le journal de votre alcoolémie.

Pour Dave Marvit, vice-président des laboratoires Fujitsu aux Etats-Unis, où il dirige un projet de recherche sur l’autosuivi, si nous avions un signal doux sur la quantité de sucre dans notre sang, changerions-nous notre façon de manger ? La colère, la joie, notre énergie ou la baisse de forme de notre métabolisme sont des matériaux de notre vie quotidienne. Peut-on ramasser ces signaux faibles pour en faire un levier de nos comportements ? Margaret Morris, psychologue et chercheuse chez Intel a récemment publié une série d’essais utilisant le téléphone mobile pour faire du suivi d’émotion. A plusieurs moments dans la journée, le téléphone des utilisateurs sonnait pour leur réclamer de documenter leur humeur. L’un des utilisateurs s’est ainsi rendu compte que son humeur massacrante commençait chaque jour à la même heure. Les données l’ont aidé à voir le problème et il a introduit une pause dans son emploi du temps pour faire le vide du stress accumulé.

L’insupportable objectivité des machines

Pour Gary Wolf, beaucoup de nos problèmes viennent du simple manque d’instruments pour les comprendre. Nos mémoires sont pauvres, nos préjugés nombreux, notre capacité d’attention limitée. Nous n’avons pas de podomètres à nos pieds, d’alcootest dans notre bouche ou un moniteur de glucose dans nos veines – enfin, pas encore. Il nous manque l’appareil psychique et physique pour faire le point sur nous-mêmes. Et pour cela, nous avons besoin de l’aide des machines. Mais cette surveillance par les machines ne fait pas tout. Alexandra Carmichael, l’une des fondatrices du site d’autosuivi CureTogether, a récemment évoqué sur son blog pourquoi elle avait cessé son suivi. “Chaque jour, mon estime de soi était liée aux données”. La quarantaine de données d’elle-même qu’elle suivait n’a pas résisté à sa volonté et à son amour-propre.

C’était comme un retour à l’école” reconnaissait-elle. “Les traceurs électroniques n’ont pas de sentiments. Mais ils sont de puissants miroirs de nos propres valeurs et jugements. L’objectivité d’une machine peut sembler généreuse ou impitoyable, tolérante ou cruelle.

curetogether

Image : CureTogether, mesurer sa santé.

Cette ambivalence est également à prendre en compte. Le programme de désaccoutumance au tabac mis au point par Paypal Kraft, chercheur norvégien à l’université d’Oslo, a implémenté dans son programme un droit à l’erreur. Quand les gens avouent avoir repris une cigarette, un message les encourage à réessayer, sans les culpabiliser. Même si cet exemple ne trompe personne, les recherches en interaction homme-machine montrent que lorsque les machines sont dotées de caractéristiques émotionnelles, d’empathie, elles sont aussi capables de nous rassurer.

Jon Cousins, développeur logiciel, a construit un système d’autosuivi de sentiments – Moodscope – suite à un diagnostic en 2007 de trouble affectif bipolaire. Utilisé par quelque 1000 personnes, le logiciel envoie automatiquement un mail avec les résultats d’humeur à quelques amis. Désormais, ses amis savent pourquoi il a parfois un comportement étrange. Quand son résultat n’est pas bon, ses amis peuvent l’appeler ou le réconforter par mail, ce qui suffit souvent à le faire se sentir mieux. Moodscope est un système mixte dans lequel la mesure est complétée par la sympathie humaine. L’autosuivi peut sembler parfois narcissique, mais il permet aussi aux gens de se connecter les uns aux autres de façon nouvelle. Les traces de nous-mêmes que laissent ces nouvelles métriques sont comme les pistes de phéromones des insectes : ces signaux peuvent nous conduire vers des gens qui partagent nos préoccupations.

Souvent les pionniers de l’autosuivi ont le sentiment d’être à la fois aidés et tourmentés par les systèmes qu’ils ont construits. Gary Wolf lui-même a expérimenté ce suivi pour mesurer finement son temps de travail. L’outillage a montré que ses journées étaient un patchwork de distraction, agrémenté de quelques rares moments d’attention (moins de trois heures par jour). Après avoir digéré l’humiliation de ce constat, il s’en est servi comme d’une source de perspective critique, non pas sur la performance, mais sur ce qu’il était important de mesurer. Le standard de l’expérience humaine universelle n’existe pas, rappelle-t-il. Les outils de mesure permettent aussi de personnaliser et d’adapter les soins, régimes et diagnostic à son état précis. Et de citer un dernier exemple, celui de Bo Adler, un informaticien des laboratoires Fujitsu souffrant d’apnée du sommeil. Les docteurs souhaitaient lui faire subir une opération chirurgicale, comme ils le font dans la plupart des cas critiques d’apnée du sommeil. Mais Adler n’a pas voulu.

Ceux qui mesurent leur santé savent mieux adapter leurs entraînements sportifs ou leurs régimes à leur condition physique ou à leurs objectifs. Ils connaissent mieux leurs forces et leurs faiblesses. L’autosuivi n’est pas tant un outil d’optimisation que de découverte de soi. Et leur effet le plus intéressant pourrait bien être de nous aider à réévaluer ce que “normal” veut dire, conclut Gary Wolf.

__

Billet originellement publié sur InternetActu.

Crédit Photo CC Flickr : Aussie Gall.

]]>
http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/feed/ 1
Accès Internet en bibliothèque : ce qu’exige vraiment la loi http://owni.fr/2010/03/26/acces-internet-en-bibliotheque-ce-qu%e2%80%99exige-vraiment-la-loi/ http://owni.fr/2010/03/26/acces-internet-en-bibliotheque-ce-qu%e2%80%99exige-vraiment-la-loi/#comments Fri, 26 Mar 2010 08:41:09 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=10918 Photo CC Flickr mag3737

Photo CC Flickr mag3737

Si donner accès à Internet est une des missions importantes des services d’archives, de bibliothèques et de documentation, elle peut aussi engager leur responsabilité, en cas d’agissement délictueux des usagers. Quel équilibre trouver pour préserver la liberté de ces derniers en respectant la législation ?

L’IABD (Interassociation Archives Bibliothèques Documentation) publie aujourd’hui une mise au point, concernant la teneur et l’étendue des obligations légales qui pèsent sur les services d’archives, de bibliothèques et de documentation lorsqu’ils offrent sur place des accès Internet à leurs usagers. L’information a été relayée sur Bibliobsession et Paralipomènes.

Le sujet est complexe et sensible, car il confronte les professionnels de l’information à un choix difficile. Donner accès à Internet constitue aujourd’hui pour les services d’archives, de bibliothèques et de documentation un aspect essentiel de leurs missions ; mais leur responsabilité est susceptible, à divers degrés, d’être engagée du fait d’agissements délictueux qui seraient commis à partir de ces connexions par leurs usagers.

Entre la liberté de l’usager et la responsabilité de l’établissement, il faut trouver un équilibre, qui est d’autant plus difficile à déterminer que les textes applicables sont nombreux (Code des Postes et Communications Électroniques, Loi LCEN de 2004, loi anti-terroriste de 2006, loi Hadopi de 2009, etc) et leurs dispositions délicates à interpréter. Demander aux utilisateurs de s’identifier lorsqu’ils se connectent à Internet ; mettre en place des filtres pour bloquer l’accès à certains sites ; neutraliser certaines fonctionnalités comme le téléchargement ou l’usage des clés USB : autant de pratiques qui ont cours dans nos établissements, sans que l’on sache si elles sont réellement exigées par les textes de loi.

La question est d’autant plus importante que depuis l’été 2009, l’accès à Internet n’est pas seulement un service rendu à l’usager, mais l’exercice d’une liberté fondamentale, explicitement consacrée par le Conseil Constitutionnel à l’occasion de sa censure de la première loi Hadopi :

« [...] aux termes de l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789 : « La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi  » ; qu’en l’état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions, ce droit implique la liberté d’accéder à ces services. »

Fragile, si fragile… la liberté d’accès à Internet. (En defensa de internet. Par tonymadrid photography. CC-BY-NC-ND. Source : Flickr)

Il peut être tentant pour les bibliothèques, archives et centres de documentation de mettre en place des mécanismes de contrôle qui leur permettront de limiter les risques de voir leur responsabilité engagée. Mais il faut bien avoir conscience que si ces dispositifs vont au-delà de ce que la loi exige, ils auront pour effet de restreindre volontairement l’exercice d’une liberté fondamentale des citoyens, constitutionnellement consacrée.

La mise au point de l’IABD passe en revue les textes pour délimiter avec précision le champ de ces obligations légales. Il ressort de l’analyse que si les bibliothèques, archives et centres de documentation sont bien obligés de conserver pendant un an les données de connexion (loi anti-terroriste de 2006), il n’est nullement exigé, ni de recueillir l’identité des personnes qui accèdent à Internet, ni de mettre en place des moyens de sécurisation des connexions tels que des systèmes de filtrage.

Les textes préservent donc le droit des usagers à utiliser Internet librement, sans avoir à donner leur identité et à conserver leur anonymat lors de leur usage des connexions.

L’accès public à Internet est une liberté consacrée, mais hélas menacée. Lors du débat de la loi Hadopi, il avait été un temps proposé par le ministère de la Culture de mettre en place un « portail blanc » pour brider les accès publics wifi et les restreindre à une liste prédéterminée de sites « propres ». Un tel système aurait pu être appliqué dans les parcs ou les mairies, mais aussi dans les bibliothèques et autres services similaires offrant des accès wifi à leurs usagers. Face à cette menace d’atteinte à la liberté d’accès à l’information, l’IABD avait déjà réagi par le biais d’une déclaration. Le projet de portail blanc a finalement été abandonné lors de l’examen au Parlement de la loi, mais j’ai eu l’occasion d’essayer de montrer dans un billet précédent comment la loi Hadopi était susceptible d’aggraver la responsabilité pesant sur les bibliothèques du fait de l’usage des connexions Internet qu’elles offrent à leurs usagers.

Lors du dernier congrès de l’ABF, un atelier avait été organisée sur le thème « L’autonomie de l’usager versus la responsabilité du bibliothécaire » auquel j’avais participé. Il en était ressorti que plus qu’une question légale, les modalités de l’accès à Internet relèvent d’un choix professionnel qui revêt une forte dimension éthique. Pour que la liberté de l’usager puisse exister, le bibliothécaire doit nécessairement accepter d’assumer une part incompressible de responsabilité.

Aux États-Unis, les bibliothécaires ont subi (et subissent encore) les conséquences du Patriot Act, qui les obligent à communiquer aux autorités des données personnelles sensibles de leurs usagers.

Il n’y a pas (encore) de Patriot Act en France, mais bien souvent, il reste plus facile de se connecter à Internet depuis un Mac Do qu’à partir de la bibliothèque de son quartier.

Si les services de bibliothèques, d’archives et de documentation veulent pleinement jouer un rôle d’espace public dans la cité, ils doivent aborder de front ces questions.

Ci-dessous le texte complet de la mise au point de l’IABD.

*********************

Offrir un accès à l’internet dans une bibliothèque, un service d’archives ou d’information : Les conditions juridiques

Entre les missions des bibliothèques, des services d’archives et d’information, et les obligations légales, quelle est la frontière entre un service ouvert à tous et le respect de la loi ? Comment interpréter les mesures préconisées ou imposées par le législateur, et les concilier avec la tradition d’un accès le plus large possible à l’information et à la connaissance ? Y a-t-il un espace d’interprétation propice à la sauvegarde des libertés ? Partageons-nous une posture professionnelle respectueuse du droit mais aussi des intérêts des usagers ?

Quelles obligations légales ?

· Conserver les logs de connexion ?

Internet peut être libre et gratuit pour le public ; les établissements ne sont pas tenus de recueillir l’identité des personnes à qui ils proposent un accès à l’internet ; l’usager peut même utiliser un pseudo pour se connecter et avoir accès à ses espaces personnels. En revanche, on doit pouvoir identifier l’ordinateur à l’origine de l’usage illicite par une adresse IP fixe.

La seule obligation qui s’impose aux bibliothèques, aux services d’archives et d’information (ou aux organismes dont ils relèvent) est de remettre, lors d’une réquisition judiciaire ou administrative, selon les cas, les logs de connexion (note 1) et toutes les informations qu’ils détiennent (note 2). Ces informations seront recoupées par les services chargés de l’enquête pour retrouver la personne à l’origine de l’infraction. L’antériorité exigible pour les données est d’un an.

· Sécuriser les postes ?

La loi n’impose pas que l’on filtre les accès à l’internet des ordinateurs mis à la disposition du public (note 3). Installer des filtres pour bloquer certains sites susceptibles d’être pénalement répréhensibles ne permettrait que de limiter sa responsabilité en cas de réquisition judiciaire, c’est-à-dire seulement après avoir reçu une lettre recommandée enjoignant l’abonné de sécuriser son poste.

En revanche, le fait de munir de filtres les ordinateurs proposés au public limite de manière arbitraire l’accès à l’internet, alors que cet accès constitue une liberté publique consacrée par le Conseil constitutionnel [5].

· Remettre des informations nominatives ?

C’est une obligation qui ne s’impose, au titre de la loi Hadopi, qu’aux organisations qui opèrent en tant que FAI (les services informatiques des universités, par exemple). Il incombe, en effet, aux FAI de fournir aux personnes chargées de l’enquête les informations détaillées dans le décret du 5 mars 2010, dont certaines sont nominatives (note 4).

Le poids de chartes et des règlements

Chartes et règlements intérieurs permettent d’informer le public des bibliothèques sur les usages interdits, sur la surveillance dont ils peuvent faire l’objet et sur l’existence éventuelle de filtres.

D’autres documents destinés aux bibliothécaires leur rappellent le contrôle qu’il convient d’exercer et leur obligation de mettre fin à tout usage de l’internet qui serait manifestement illicite (contrefaçon, cyberpédopornographie, activités terroristes, etc.). L’enquête permettra d’évaluer, en fonction d’un contexte, la diligence du personnel.

Nulle obligation d’identifier les personnes ni même de filtrer les accès à l’internet

En cas de réquisition, les bibliothèques, les services d’archives et d’information abonnés à des FAI doivent remettre aux enquêteurs les logs de connexion et toute autre information habituellement recueillie. Il leur est recommandé de remettre aussi les chartes communiquées aux usagers et les informations destinées aux personnels.

Que disent les textes ?

La loi anti-terroriste

L’obligation de conserver pendant un an les données de connexion, imposée aux fournisseurs d’accès Internet (FAI) par la loi anti-terroriste du 23 janvier 2006 [1], est étendue à tous ceux qui offrent un accès à l’internet à leur public.

Comme l’indique le Forum des droits sur l’internet [7], la conservation des logs peut se faire de trois manières différentes :

- en utilisant localement des unités de stockage dédiées associées à un routeur mis en place pour assurer la répartition du trafic interne entre les différents postes ;

- en confiant cette obligation au FAI auprès duquel on a acheté des abonnements à plusieurs adresses IP publiques correspondant au nombre de postes ;

- en confiant l’enregistrement à un tiers prestataire de services.

La loi Hadopi

La loi dite Hadopi [3] dissocie les obligations des FAI de celles des titulaires d’un abonnement à l’internet. La responsabilité d’une bibliothèque, d’un service d’archives ou d’information titulaire de plusieurs abonnements auprès d’un FAI n’est engagée pour les usages illicites réalisés à partir des ordinateurs connectés au réseau mis à la disposition du public que si les postes n’ont pas été sécurisés, après en avoir reçu l’injonction écrite de la Haute Autorité pour la diffusion des œuvres et la protection des droits d’auteur sur Internet (Hadopi).

Qu’en conclure ?

Ni la loi anti-terroriste, ni la loi Hadopi n’obligent ces établissements à identifier les utilisateurs des ordinateurs mis à leur disposition, ni à conserver des informations nominatives pour les remettre lors d’une enquête diligentée par un juge au titre de la loi Hadopi, ou d’une personnalité qualifiée placée auprès du ministre de l’Intérieur au titre de la loi anti-terroriste, ni même à filtrer à titre préventif les accès à l’internet.

Le respect des usages traditionnellement admis dans les bibliothèques, services d’archives et d’information reste compatible avec les obligations juridiques qui leur sont imposées, dès lors que les professionnels appliquent la loi, toute la loi, rien que la loi.

Textes

1. Loi n°2006-64 du 23 janvier 2006 relative à la lutte contre le terrorisme et portant dispositions diverses relatives à la sécurité et aux contrôles frontaliers. Sur le site Légifrance.

2. Décret 2006-358 du 24 mars 2006 relatif à la conservation des données des communications électroniques. Sur le site Légifrance.

3. Loi n° 2009-1311 du 28 octobre 2009 relative à la protection pénale de la propriété littéraire et artistique sur internet. Sur le site Légifrance.

4. Décret n° 2010-236 du 5 mars 2010 relatif au traitement automatisé de données à caractère personnel autorisé par l’article L. 331-29 du code de la propriété intellectuelle dénommé « Système de gestion des mesures pour la protection des œuvres sur internet ». Sur le site Légifrance.

5. Décision n° 2009-590 DC du 22 octobre 2009. Loi relative à la protection pénale de la propriété littéraire et artistique sur internet. Sur le site du Conseil constitutionnel.

Recommandations – Déclarations

6. Offrir un accès public à l’internet : Des responsabilités aux multiples implications. Déclaration de l’IABD, 10 mars 2009. Sur le site de l’IABD.

7. Les lieux d’accès public à l’internet. Recommandation du Forum des droits sur l’internet, 28 décembre 2007. Sur le site du Forum des droits sur l’internet.

8. Non au portail blanc. Déclaration de l’IABD du 6 mars 2009. Sur le site de l’IABD.

Notes

(1) Logs de connexion

Les données relatives au trafic s’entendent des informations rendues disponibles par les procédés de communication électronique, susceptibles d’être enregistrées par l’opérateur à l’occasion des communications électroniques dont il assure la transmission et qui sont pertinentes au regard des finalités poursuivies par la loi.

Cette obligation s’impose à toutes « les personnes qui, au titre d’une activité professionnelle principale ou accessoire, offrent au public une connexion permettant une communication en ligne par l’intermédiaire d’un accès au réseau, y compris à titre gratuit », une définition qui concerne les cybercafés mais également les bibliothèques. Il incombe aux opérateurs de communications électroniques de conserver pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales : a) Les informations permettant d’identifier l’utilisateur ; [c’est-à-dire celles qui sont enregistrées par lors des communications] b) Les données relatives aux équipements terminaux de communication utilisés ;

c) Les caractéristiques techniques ainsi que la date, l’horaire et la durée de chaque communication ; d) Les données relatives aux services complémentaires demandés ou utilisés et leurs fournisseurs ; e) Les données permettant d’identifier le ou les destinataires de la communication.

(2) Les données nominatives seront remises uniquement si celles-ci sont déjà recueillies habituellement.

(3) Selon l’article 25 de la loi sur le droit d’auteur et les droits voisins dans la société de l’information (Dadvsi), le titulaire d’un accès à des services en ligne de communication au public en ligne doit veiller à ce que cet accès ne soit pas utilisé à des fins de contrefaçon, en mettant en œuvre les moyens de sécurisation qui lui sont proposés par le fournisseur de cet accès en application de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. N’étant pas assortie de sanction, cette disposition ne peut pas être mise en œuvre.

(4) Loi Hadopi. Décret du 5 mars 2010 Les données conservées par les agents assermentés travaillant pour les ayants droit : date et heure des faits ; adresse IP des abonnés concernés ; protocole pair à pair utilisé ; pseudonyme utilisé par l’abonné ; informations relatives aux œuvres ou objets protégés concernés par les faits ; le nom du fichier présent sur le poste de l’abonné (le cas échéant) ; le nom de son fournisseur d’accès à internet. Les données à fournir à la Hadopi par les FAI : noms et prénoms de l’abonné, son adresse postale et son adresse électronique ; ses coordonnées téléphoniques et son adresse d’installation téléphonique.

(5) La bibliothèque titulaire d’un abonnement encourt des sanctions pénales : une contravention de 5ème catégorie (amende de 1500€), une coupure de l’accès à Internet d’un mois et une obligation de mettre en œuvre un « moyen de sécurisation » labellisé par la Hadopi.

25 mars 2010

IABD (Interassociation archives-bibliothèques-documentation) – http://www.iabd.fr

Secrétariat : ABF – 31, rue de Chabrol – 75010 Paris – 01 55 33 10 30 – abf@abf.asso.fr

Billet initialement publié sur :: S.I.Lex ::

]]>
http://owni.fr/2010/03/26/acces-internet-en-bibliotheque-ce-qu%e2%80%99exige-vraiment-la-loi/feed/ 4