WikiJournal Preprints/Quand le mouvement Wikimédia questionne le comment faire science

See this article in English

À propos de l'influence du terrain et du cadre institutionnel
Alain Testart disait : « La méthode, en tant que moyen, ne peut être que subordonnée à une finalité : l'étude d'un objet scientifique. L'objet justifie la méthode. C'est donc par lui qu'il faut commencer lorsque nous nous demandons : comment définir l'anthropologie sociale ? » . Jean-Paul Colleyn à son tour, affirma qu' « il y a aujourd’hui autant d’anthropologies qu’il y a d’objets d’études (anthropologie de l’art, de la musique, de la religion, de la santé ou de la perception) [...] ». Michael Singleton conclura ensuite en disant que « l'anthropologie ça n’existe pas, [...] ce qui existe réellement, ce sont des anthropologues ».

Dans le prolongement de ces affirmations, et selon ma propre expérience, j'aurais à mon tour envie de dire qu'au-delà des objets d'études et de la personnalité des chercheurs, il y a finalement aussi autant d'anthropologies possibles qu'il y a de terrains de recherche et d'environnements institutionnels. En effet, tout au long de mon observation participante au sein du mouvement Wikimédia et de mon intégration au sein du laboratoire d'anthropologie prospective de l'Université de Louvain, s'est installée petit à petit ce que Pierre-Joseph Laurent appellera sans doute une double « familiarité informée ». De cette double adaptation découlera un changement dans ma façon de voir la science. Ce changement est ici illustré par différentes postures dont la première répondra au besoin de vouloir situer mon travail parmi les nombreuses disciplines scientifiques coexistantes et souvent partisanes regroupées au sein du domaine des sciences humaines et sociales.

Opter pour une science à l'écart du corporatisme
En avril 2011, J'ai eu pour idée d'écrire mon mémoire de fin de Master intitulé : Culture FR Wikipédia, Monographie ethnographique de la communauté des contributeurs actifs sur l'espace francophone de Wikipédia au sein même de Wikipédia. J'avais ainsi pour souhait de faire d'une pierre deux coups en écrivant mon ethnographie au sein même de mon terrain d'observation participante dans une sorte de processus récursif. Malheureusement, il s'est avéré que cela n'était pas possible en raison du premier des cinq « principes fondateurs » du projet encyclopédique stipulant que : « Wikipédia est une encyclopédie ». Une affirmation triviale de premier abord, mais qui permet au final de se mettre d'accord sur tout « ce que Wikipédia n'est pas ». À la lecture de ce contenu, j’apprenais donc à mes dépens que : « Les essais personnels et travaux inédits (TI) n'ont pas leur place sur Wikipédia. ».



On me redirigea dès lors vers un autre projet intitulé Wikiversité que je ne connaissais pas à l'époque bien qu'il faisait partie de plus d'une dizaine d'autres projets collaboratifs appelés « projets frères de Wikipédia » (voir figure 1 ci-contre). Je me rendis donc sur la page d'accueil du site Wikiversité et j'y découvris avec grand intérêt que ce projet était un lieu dédié au « partage de contenus pédagogiques et à la rédaction de travaux de recherche ».

Après avoir annoncé mon arrivée au sein du projet par un message déposé sur la page d'une sorte de forum général intitulé « la salle café », j'ai ensuite cherché l'endroit dans lequel je pouvais situer mon travail. Au cours de cette recherche, Crochet.david, un enseignant en électrotechnique administrateur du projet Wikiversité qui avait déjà répondu de manière sympathique à mon message d'arrivée, me proposait sur son espace de discussion utilisateur , de placer mon travail parmi les « travaux de recherche en sociologie ». J'en resterai très surpris jusqu'à la découverte de l'organigramme du projet Wikiversité dans lequel l'anthropologie apparaissait comme départements de la faculté de sociologie.

Cette situation m’apparut extrêmement compliquée, car non seulement je devais demander l'accord de mon promoteur pour écrire mon mémoire en ligne et en temps réel sur un site internet, mais en plus, je devais à présent lui dire que ce mémoire réalisé dans le cadre d'un master en anthropologique, serait publié dans une faculté de sociologie. Connaissant la scission très claire au sein de mon université entre sociologues et anthropologues, je me suis senti quelque peu désarmé face à cette situation.

J'ai alors tenté de placer mon travail au niveau du département d'anthropologie de la Wikiversité sans faire mention de la faculté de sociologie. Mais David Crochet, de son vrai nom, est alors revenu vers moi pour me dire que « les projets sont associés aux facultés et non aux départements. » . S'entame alors un débat qui fut transféré dans la salle café qu'il soit accessible aux autres membres de la communauté. Au terme des discussions, nous sommes finalement arrivés à la conclusion qu'il fallait que je lance une prise de décision pour renommer la faculté de sociologie.

Lors de cette prise de décision, JackPotte, un ingénieur en informatique et autre administrateur du site, avait déposé un message pour nous tenir informés de la classification décimale universelle. Dans cette version de la CDU, le terme anthropologie y apparaissait plusieurs fois, une fois dans le champ des sciences sociales (anthropologie culturelle) et une autre fois dans le champ de la biologie (anthropologie physique). Une telle information m'encouragea d'autant plus à renommer la faculté de sociologie en faculté de socio-anthropologie de telle sorte à pouvoir, avec un seul mot et de façon explicite, de regrouper la sociologie et l'anthropologie au sein d'une même faculté, tout en y excluant de celle-ci l'anthropologie physique.

L'acceptation de ma proposition à l'unanimité, fut pour moi une double satisfaction. D'une part celle de pouvoir présenter mon projet de mémoire dans de bonnes conditions, d'autre part, celle d'avoir lancé et participé pour la première fois à une prise de décision au sein du mouvement Wikimédia. Cependant, cette expérience suscita chez moi un certain questionnement. Comment en effet une séparation entre la sociologie et l'anthropologie a-t-elle pu voir le jour et comment a-t-elle pu persister jusqu'à nos jours ?

Coïncidence ou presque, j'ai trouvé réponse à cette question dans une revue intitulée « socio-anthropologie », fondée en 1997 par Pierre Bouvier, avec pour ambition d'aborder « les déstructurations et les recompositions qui sont au cœur du monde contemporain ». Dans le premier numéro de cette revue, on y cite Yves Grafmeyer qui se remémore qu'à une certaine époque « l’anthropologie, la science de l’homme, s’est consacrée principalement à l'étude des peuples primitifs ». Et on y découvre par la suite dans le texte l'idée selon laquelle « l’anthropologie incombe à l’étude des sociétés sans écriture où se révèlent des cultures exotiques tandis que reviennent de droit à la sociologie les sociétés avancées dans l’urbanisation et l’industrialisation. ».

Voici donc qui répondait à ma question sur l'origine du clivage entre anthropologie et sociologie. Mais il ne s'agit là que d'une explication sur les origines, car aujourd'hui, l'expression « peuples primitifs » a disparu et la notion d'exotisme, a perdutout son sens dès lors qu'un laboratoire d'anthropologie situé en Belgique peut rassembler des chercheurs originaires des quatre coins d'un monde. Quant aux sociétés dites « avancées » dans l'urbanisation et l'industrialisation, il y a bien longtemps qu'elles ont dépassé les frontières de l'occident.

D'autre part, et ce dès la fin du vingtième siècle, l'anthropologie s'est intéressée de plus en plus au monde occidental et contemporain. Parmi les premiers travaux attestant ce changement, on retrouvera par exemple les travaux d'observations participantes réalisés dans le monde du travail par Pierre Bouvier déjà cité précédemment. Il fut avec Marc Augé par ailleurs, l'un des premiers anthropologues francophones à parler d'une « Socio-anthropologie du contemporain ». Mobiliser de nos jours la question d'exotisme et d'un prétendu stade d'avancement des sociétés pour dissocier l'anthropologie de la sociologie n'a donc plus aucun sens.

Reste alors la possibilité de distinguer la sociologie et l'anthropologie de par leurs méthodes. Mais, là aussi, les choses se discutent. Car suite à l'arrivée du courant interactionniste au sein de l'école de Chicago, les pratiques anthropologiques, telles que l'ethnographie et l'observation participante adoptées par la sociologie. Harold Garfinkel professeur de sociologie à Harvard, n'hésitera d'ailleurs pas en 1967 a mobilisé l'expression « ethnométhodologie » pour situer sa méthode de travail. De tels changements de paradigmes feront apparaitre « les conflits des méthodes en sociologie » dont l’existence rendra caduque l'argument de la méthode pour spécifiquement distinguer l'anthropologique de la sociologique.

En vérité, on est en droit de se demander aujourd'hui quels sont encore les sociologues qui pourraient se voir interdire la pratique de l'ethnographie, de l'étude de cas, ou autre démarche inductive ? Et réciproquement, quels anthropologues pourraient encore dire de nos jours que l'analyse quantitative des données de terrain et que la formulation de questions de départ seraient à proscrire de toute démarche anthropologique ?

Au terme de ce raisonnement, je suis donc tenté de croire que ce qui sépare l'anthropologie de la sociologie de nos jours, n'est rien d'autre que le maintien qu'un certain « corporatisme » présent au sein de nos universités. De celui-ci sera né certainement cette réputation de « panier de crabes » attribuée au milieu académique par celui du politique. Un constat bien triste finalement puisque que toute attitude sectaire nuira toujours à l'ouverture d'esprit et à l'échange entre chercheurs et donc in fine au progrès et au développement des connaissances et de la science en général.

Rappelons-nous enfin du concept de « complétude étude » présenté dans un contexte précédant et inspiré des travaux de Ken Wilber remarquablement vulgarisés dans son ouvrage intitulé : « Une brève histoire de tout ». Ne se met-il pas ici tout à propos, pour penser à briser les barrières qui séparent l'anthropologie de la sociologie ? Ne nous invite-t-il pas aussi à briser toutes autres barrières qui sépareraient les chercheurs de toutes disciplines confondues dans le but de les rassembler autour d'une même cause universelle ? Celle d'une complétude étude quadridimentionnelle (culturelle, sociale, psychique et intentionnelle) de tout objet scientifique ?

Par chance et comme le dira Rémi Bachelet, maître de conférences à l'École Centrale de Lille et contributeur du projet depuis septembre 2009, sur Wikiversité, « on est loin des guerres de disciplines ! ». Une raison pour laquelle sans doute, je m'y suis senti libre d'y concevoir le concept de « complétude étude » et d'intégrer au sein d'une étude qui se voulait au départ purement ethnographique, des données quantitatives et statistiques issues du terrain et aussi incontournables que problématiques de par leurs surabondances.

Intégrer l'analyse d'un Big Data statistique et textuel dans une étude ethnographique
Suite à cette première expérience de terrain, viendra une autre remise en question portant cette fois sur la manière d'intégrer au sein d'un travail ethnographique typiquement considéré comme étude qualitative, une multitude de données quantitatives ou statistiques et de textes de discussions librement accessibles sur mon terrain d’études.

Pour clarifier les choses, il est peut-être bon de se rappeler qu'une donnée quantitative, au contraire d'une donnée qualitative, se caractérise par quelque chose de mesurable. Comme exemple trivial, nous avons cette citation de Rosie Stephenson-Goodknight au sujet des éditeurs de Wikipédia : « You can imagine probably 90 percent being men », l'information « 90 % » sera d'ordre quantitatif tandis que l'information « homme » sera d'ordre qualitatif. Mais, encore faut-il garder à l'esprit qu'une donnée quantitative peut devenir la source d'une donnée qualitative et vice versa. Les 29 entailles présentes sur l'os de Lebombo, le plus ancien bâton de comptage connu à ce jour, en est un très bel exemple. Ces marques attestent en effet d'une part, que les premières manifestations scripturales humaines étaient d'ordre quantitatif, mais elles nous permettent aussi de supposer d'autre part, en référence à leur nombre (donnée quantitative), qu'elles furent réalisées par une femme africaine (donnée qualitative) en référence à son cycle menstruel.

Il est donc important de souligner ici qu'une étude dite qualitative, ne pourrait se permettre d'ignorer, ou même de négliger, des données quantitatives quand elles se présentent sur le terrain. Et comme dit précédemment, il se fait que l'espace en ligne du mouvement Wikimédia regorge d'une quantité insondable de données quantitatives, tantôt à l'état brut, tantôt sous forme de tableaux statistiques et d'illustrations libres d'accès et d'utilisation.

Pour comprendre cette situation, il faut savoir que la grande majorité des sites Web contenant les projets Wikimédia sont gérés par un programme informatique appelé MediaWiki et que ce programme enregistre instantanément et automatiquement la totalité des actions faites par les contributeurs et les programmes informatiques qu'ils y mettent en œuvre, et ce dès la création du site. Toutes ces données sont par la suite archivées et rendues accessibles, à quelques exceptions près, à tout internaute via un classement chronologique et paramétrable d'hyperliens listés dans des pages de journaux ou des pages d'historiques de contributions (voir figures 2 et 3 ci-dessous).

En plus de leurs archivages et de leurs facilités d’accès, toutes ces informations sont publiées sous licence creative commons CC.BY.SA. Selon les termes de cette licence, les données contenues sur ces pages sont donc libres d'exploitation et de republication, tel quel, ou dans des travaux dérivés. Seules deux conditions encadre cette liberté : il faut premièrement, « créditer l'Œuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'œuvre », deuxièmement, « diffuser l'œuvre modifiée dans les même [sic] conditions, c'est à dire [sic] avec la même licence avec laquelle l'œuvre originale a été diffusée ».

Cette licence creative commons représente donc une véritable aubaine pour les chercheurs et surtout pour les statisticiens comme pourra en attester l’existence d'une multitude de sites web présentant des analyses effectuées parfois en temps réel au départ de données récoltées sur les sites Wikimédia via une interface de programmation d’application (API). À leurs tours, licence oblige, ces analyses statistiques sont publiées sous licence CC.BY.SA et reviennent donc disponibles pour les chercheurs sous les conditions que celles évoquées précédemment.

Au-delà de cette profusion de données quantitatives et statistiques, le mouvement Wikimédia est aussi producteur d'une quantité insondable d'informations textuelles susceptibles de constituer des corpus de tailles considérables. Toute cette information est disponible sur de nombreux lieux de discussions disséminés au sein des projets, des listes de diffusions de courriels et plus récemment sur l'espace communautaire Wikimedia space actif du 25 juin 2019 au 18 février 2020 comme espace de discussion et maintenu par la suite comme simple espace blog.

Cette surabondance d'informations textuelles n'est pas propre à l'environnement Wikimédia, et semblerait plutôt liée au contexte numérique. Olivier Servais, ethnographe au sein de l'univers virtuel World of Warcraft en témoigne lorsqu'il se pose des questions similaires aux miennes : « Comment dès lors concilier cette gestion de données massives avec cette ambition qualitative ? Comment faire du big data textuel qualitatif dans ce contexte numérique ? »

Face à cette question, je me suis donc retrouvé probablement au même titre que mon promoteur à devoir me situer entre deux positions extrêmes : soit faire l'impasse sur un traitement exhaustif des données statistiques et textuelles au risque d'offrir une vision partielle et potentiellement fausse de la réalité, soit se lancer dans un traitement informatisé des données quantitatives et des corpus linguistiques au risque cette fois de manquer de compétence, de temps d'investigation et de puissance informatique.

À force de pratique, et après plusieurs années de tâtonnement il faut bien le dire, j'en suis finalement arrivé à établir une sorte de processus d'aller-retour entre ces deux extrêmes. D'un côté, je me suis attelé par moment à un traitement informatique et statistique des données de terrain, alors que d'un autre côté et à d'autres moments, j'ai poursuivi un travail ethnographique plus classique d'observation participante durant lequel le classique entretien semi-directif laissait place à la discussion informelle au sein de l'espace numérique Wikimédia.

Pendant que le traitement informatisé m'apportait des informations utiles à l’accomplissement de mon travail ethnographique, celles apportées par mon observation participante et mes discussions me permettaient en retour, d'orienter mes choix dans le traitement informatique d'autres donnée, et ainsi de suite. En fin de compte, cet aller-retour constituera ainsi une belle façon de soulager un travail de recherche au sein d'un espace numérique qui pourrait s'avérer très éprouvant si l'on ne prend garde de combler en matière d'activité intellectuelle, un manque de variation au niveau de l'activité physique.

Comme exemple de traitement des données quantitatives, voici comme cas de figure une analyse statistique faite au départ des rapports financiers publiés sur le site de la fondation Wikimedia. Cette analyse aura abouti à la production d'un histogramme (figure 4 ci-dessous) très parlant concernant les dépenses de la fondation qui m'aura permis en date du 26 juin 2018 de mettre à jour l'article du projet Wikipédia francophone consacré à la fondation Wikimédia. Sur base d'une source qui datait de 2009, on pouvait y lire en effet cette information obsolète suivante : « Près de la moitié des ressources financières [de la fondation] sont utilisées pour acheter de nouveaux serveurs et payer l'hébergement ». À la vue du tableau, cette information apparaissait pourtant déjà erronée en 2009 où l'on pouvait déjà deviner qu'une partie croissante du budget de la fondation serait alloué au paiement des salaires de ses employés. Le coût d'hébergement des projets éditoriaux quant à lui, restera relativement et contre intuitivement stable à partir de 2012.

Il apparait donc ici clairement qu'un travail comptable et statistique, aussi rébarbatif qu'il puisse paraître pour un chercheur habitué aux études qualitatives, fut nécessaire pour rectifier des informations fournies par un simple travail d'observation ethnographique. Il aurait de fait été possible de se fier par exemple au contenu erroné et probablement récupérée de l'article Wikipédia contenue dans une vidéo du WikiMOOC de 2017 dans laquelle on pouvait entendre : « D'où viennent les fonds de la Wikimedia foundation ? Car fournir l'infrastructure technique, les serveurs pour le cinquième site Web le plus visité au monde, ce n'est pas gratuit. ».

Prenons à présent un autre exemple qui concernera cette fois le traitement des données textuelles. Il s'agit dans cet exemple d'exploiter l'une des 300 listes de diffusion réparties par projets et sphères linguistiques au sein du mouvement Wikimédia. Tous ces échanges de courriels sont de fait archivés mois par mois, historicisés et rendus librement disponibles sous licence CC.BY.SA au niveau d'un site hébergé par la fondation Wikimédia. Au départ des archives de la liste de diffusion intitulée « Wikimedia-l », réputée être un espace de discussion pour la communauté wikimédienne au sens large , il est possible de constituer rapidement des corpus textuels et les soumettre à un logiciel de traitement automatique du langage naturel.

Le logiciel choisi fut TXM, un programme informatique développé par deux universités françaises. Ce programme me permit par exemple de découvrir au départ d'une simple requête lexicale, et en référence au mot « the » apparaissant à une fréquence de 1 869 554 fois, que le signe « @ » apparaissait dans le corpus 879 105 fois, tout de suite suivi du mot « gmail » apparaissant lui 877 346 fois. Une simple requête au départ de laquelle on peut donc conclure que les utilisateurs de cette liste de diffusion communiquent en toute grande majorité au départ d'un compte Google.

On y verra ensuite que les premiers noms/prénoms apparaissant dans la liste seront « Gerard » (27 888), suivit de « Erik » (21 924) et de David (20 624). Une analyse des occurrences dans le texte permettra ensuite de voir que les prénoms « Gérard » sont associés à la personne de « Gerard Meijssen » (11 096) faisant l'objet d'un article sur Wikidata mais aussi de « David Gerard » (12 717) dont on peut retrouver la page utilisateur détaillée sur Wikipédia et que le prénom « Erik » est principalement associé à la personne d'« Erik Moeller » (8 616) présentée dans un article de Wikipédia.

Grâce à ce nouvel exercice, il nous est enfin permis de remarquer d'une part, qu'il existe une grande corrélation entre la participation à la liste de diffusion et la possession d'un compte gmail, mais aussi d'autre part, qui devient possible de repérer les personnes très actives au sein de la liste et même de connaitre leur adresse de courrier électronique. Ces informations apporteront de toute évidence une aide utile au travail ethnographique puisque elles permettront de connaitre et de contacter des interlocuteurs privilégiés susceptibles de narrer de façon globale et historique ce qui se passe dans ce lieu de discussions.

Dans des analyses et fonctions plus poussées, TXM permettra aussi de faire apparaître des illustrations graphiques permettant par exemple de visualiser l'évolution de la fréquence d'un mot au sein des conversations. L'exemple ici sera repris du mot « harassement » (harcèlement en français) que l'on voit évoluer en fonction de son nombre d'apparitions au sein de la liste de diffusion (voir figure 5 ci-dessous).

Ce graphique m'aura permis de constater que la question du harcèlement rencontrée au niveau de mes observations ethnographiques n'est pas un épiphénomène à la communauté des éditeurs du projet Wikipédia francophone et qu'il est apparu relativement tôt et par vagues successives dans l'histoire du mouvement Wikimédia. En retour à cette analyse, il apparait donc utile de reparler du phénomène durant les conversations de terrain et de maintenir un certaine vigilance quant à son observation. Pour gagner du temps et éviter de trop solliciter les acteurs de terrains, un retour vers le corpus textuel et TXM permettra aussi une analyse en plein texte. Dans la figure 6 ci-dessous, nous pouvons voir comment au départ du contenu de la liste de diffusion Wikimedia-l, l'outil de recherche de concordance de TXM permet d'afficher la liste des extraits de textes contenant le mot harassment en les centrant sur ce dernier.

À partir du moment où le sujet du harcèlement apparait donc comme un thème central au sein du mouvement Wikimédia, il devient alors intéressant d'en faire une éventuelle étude de cas afin de pouvoir illustrer au mieux le phénomène. Pour ce faire il serait par exemple intéressant de repartir de son propre vécu ou de repartir d'un témoignage comme celui très documenté sur l'une des pages utilisatrice d'une contributrice répondant au nom d'utilisatrice « Idéalité ».

Après avoir reconsidéré les choses en détails, il sera par la suite de nouveau possible de repartir vers une analyse textométrique plus poussée encore, basé cette fois sur de nouveaux corpus formés au départ des espaces de discussion sélectionné en fonction de l'apparition du terme « Idéalité » dans l'idée cette fois de retirer de nouvelles informations qui pourrait contrebalancer le discourt d'idéalités et par la même occasion s'octroyer un accès rapide et localisé aux propos qu'elle aura échangés avec d'autres contributeurs.

Nous l'aurons donc compris, la méthode proposée ici repose sur un aller-retour entre différentes approches précédemment présentée au travers du concept de « complétude étude ». Et voyons à présent quelle posture adopter pour référencer les informations extraites des archives numériques, dans le but de les rendre consultables et vérifiables par les lecteurs. Grâce à ce nouvel engagement méthodologique, ils auront en effet le loisir, au départ de ces sources, de se faire une opinion propre et éventuellement divergente de ce qui leur sera transmis dans cet ouvrage.

Produire une « webographie » au service de la vérifiabilité
La « vérifiabilité » dans l'univers Wikimédia, peut être vue comme une déclinaison particulière de la réfutabilité empirique et théorique introduite par Karl Popper dans sa démarcation entre science et non-science. Alors que Karl Popper demande aux scientifiques d'offrir à leurs pairs un maximum d'informations utiles à la corroboration d'une théorie pour en déterminer sa scientificité au départ d'un ratio réfutabilité/falsifiabilité, les wikipédiens quant à eux, établiront une règle de vérifiabilité selon laquelle « une information ne peut être mentionnée que si les lecteurs peuvent la vérifier ».

Ce qui apparait donc indispensable aux yeux des wikipédiens francophones, « c'est que toutes les informations susceptibles d'être contestées, ainsi que toutes les théories, opinions, revendications ou arguments, soient attribués à une source identifiable et vérifiable ». En résumé, il en résulte donc qu'au sein de ce projet encyclopédique que « toute affirmation contestée ou susceptible de l'être doit être explicitement attribuée à une publication de qualité. On peut supprimer une affirmation invérifiable. En cas de contestation, c'est à celui qui veut insérer une information qu'il revient d'en mentionner la source ».

Ainsi, le point commun entre la proposition de Karl Popper et la règle wikipédienne sera une certaine recherche de réfutabilité au travers d'une expérimentation différée. Au niveau de la différence, la méthode de Popper concernera donc les théories, alors que la règle de Wikipédia concerne les informations. De la règle de vérifiabilité wikipédienne, découlera non plus la nécessité d'apporter un maximum d'informations utiles à la corroboration mais simplement de citer ses sources, entendu que « tout contenu, mis en doute ou susceptible d'être mis en doute, doit être étayé par une annotation menant à une ou plusieurs références qui s'appuient sur des sources fiables et clairement identifiées ».

La position de Karl Popper fut toute fois critiquée par Jean-Claude Passeron qui dira que de telles attentes épistémologiques sont incompatibles avec « la pertinence empirique des énoncés sociologiques [qui] ne peuvent être définie que dans une situation de prélèvement de l’information sur le monde qui est celle de l’observation historique, jamais celle de l’expérimentation. » . Il est vrai, que le lecteur d'un ouvrage scientifique en science sociale sera toujours dans l'incapacité de revivre au même instant et donc dans des circonstances identiques, l'expérience ou l'observation d'un phénomène décrit par un auteur. C'est d'ailleurs pour cette raison que Jean-Claude Passeron introduira le terme « historicité » afin d'offrir aux sciences, historiques par nature, un régime de vérité différent des sciences dites de la nature.

À cette impasse épistémologique d'ordre temporel peut s'ajouter une autre impasse d'ordre spatial dans le cas de travaux ethnographiques réalisés sur des terrains éloignés ou difficilement accessible pour le lecteur. En socio-anthropologie certains auteurs parlent d'ailleurs d'un « pacte ethnographique » grâce auquel « seuls les ethnologues se sentent libérés d'expliquer comment ils ont su tirer d'une expérience unique un ensemble de connaissances dont ils demandent à tous d'accepter la validité. ».

À ce sujet, l'une des polémiques les plus connues concerne les écris de Carlos Castañeda. Traduis en 17 langues et vendus à 8 millions d'exemplaires, les 15 livres de Castañeda sont considérés aujourd'hui comme une œuvre autobiographie productrice de faux. Dans ses ouvrages Castañeda décrit un enseignement reçu par un mystérieux chaman répondant au nom de Don Juan Matus, dont personne n'a jamais réussi à retrouver la trace. Robert Marshall retrace en quelques lignes l'histoire de cette polémique : « Le statut des livres en tant qu'anthropologie sérieuse n'a pratiquement pas été remis en question pendant cinq ans. Le scepticisme a augmenté en 1972 après que Joyce Carol Oates, dans une lettre au New York Times, ait exprimé son étonnement qu'un critique ait accepté les livres de Castañeda comme non fiction. L'année suivante, le New York Times publia un article de couverture révélant que Castañeda avait beaucoup menti sur son passé. Au cours de la décennie suivante, plusieurs chercheurs, notamment Richard de Mille, fils du légendaire réalisateur, ont travaillé sans relâche pour démontrer que le travail de Castañeda était un canular. » .  Un tel épisode soulèvera donc la question de savoir où se place la limite entre l'ethnographie et la fiction ? . À cette question Karl Popper répondra qu'il faut expérimenter à nouveau le vécu de l'ethnographe en retournant sur le terrain alors que Jean-Claude Passeron l'impossibilité de le faire. D'ailleurs, les informateurs seront-ils toujours vivants ? N'auront-ils pas changé d'avis ou de point de vue ? Quel sera aussi le lecteur qui pourra partir à la recherche Don Juan Matus le shaman de Castañeda ? Voici donc toutes les impasses qui pousseront le lecteur à adhérer au pacte ethnographique, ou le cas échéant, à considérer sa lecture comme une potentielle œuvre de fiction.

Cependant avec le nouveau cadre informationnel apporté par la révolution numérique, ces impasses peuvent s'atténuer petit à petit et même complètement disparaître dans le cas d'une étude uniquement basée sur une observation du Web. Ce dernier cas de figure est d'autant plus vrai dans le cadre de cette étude faite au sein d'un espace numérique totalement transparent et archivée tel que nous l'avons déjà partiellement décrit. Grâce au logiciel MediaWiki qui sauvegarde tous l'historique des activités en ligne pour le rendre librement accessible à tous, il devient en effet possible d'offrir aux lecteurs un accès à l’information telle qu'elle aura été découverte par le chercheur. De plus, dans ce contexte bien précis, la contrainte d'historicité soulevé par Passeron disparaît totalement étant donné que l'information archivée sera par définition figée dans le temps et ne subira donc aucune altération entre le moment de sa récolte et celui de sa redécouverte par le lecteur.

Concrètement parlant, il suffit pour cela de fournir des hyperliens ou plus précisément des permaliens qui redirigeront les lecteurs vers des pages Internet qui resteront dans l'état ou elles auront été examinées par le chercheur. Dans l'interface de MediaWiki, ces permaliens sont accessibles via l’item « Lien permanent » situé dans la colonne de gauche apparaissant sur toutes les pages des projets. De manière plus précise encore, il est aussi possible de fournir un lien vers une page qui affichera les « différences entre versions » aussi appelées « diffs » dans le jargon wikipédien. Ces pages « diff » dans lesquelles apparaît surligné dans un cadre de gauche ce qui a été supprimé et en gras dans un cadre de droite ce qui a été ajouté, sont toutes accessibles au départ des historiques des pages de contenus et permettent de visualiser directement l'état de ces dernières avant et après une modification (voir figure 7). L'avantage principal de cette méthode par rapport aux permaliens, est que le nom de l'auteur la modification et le moment exact où elle a été faite sera directement visible sans aucune autre manipulation.

Sur Wikipédia, produire les hyperliens pointant vers des pages « diffs » représente d'ailleurs une procédure courante dans le cadre d'une protestation adressée à la communauté. Dans le cadre d'une contestation du statut d'administrateur, il est par ailleurs clairement stipulé qu'« une contestation doit être expliquée et étayée par des diffs ou entrées de journal, sinon elle n'est pas valide ». Ces pages « diffs » ou du journal des activités permettent ainsi à chacun de valider ou de « réfuter » les accusations portées à l'encontre d'un administrateur du site. Typiquement, on y retrouvera des liens pointant vers des propos ou des actes contraires aux règles et recommandations en vigueurs au sein des projets.

À nouveau donc, nous voyons que l'univers épistémique Wikimédia aura servi d’inspiration sur la manière d'organiser mon travail ethnographique. De manière concrète, voici donc les résolutions sur la manière dont je citerai les source utilisée dans ce présent travail dès lors qu'elles seront en provenance du Web : Chaque fois qu’apparaîtra une information en provenance d'une page Web, celle-ci serra systématiquement suivie d'un appel de note sous forme d'un chiffre en exposé précédé de la lettre W majuscule. Ces appels de notes permettront ainsi aux lecteurs de trouver les permaliens qui lui permettront de retrouver les sources de toutes ces informations dans un état identique à celui de mes observations.

Quand l'information proviendra d'une page MediaWiki, deux cas de figure sont possibles. S'il s'agit d'une information issue d'une page organisationnel, la référence pointera vers le lien permanent de la page dans sa version consultée. S'il s'agit d'une information au sujet des dires ou des faits d'un acteur de terrain, la référence pointera alors vers la page « diff » présentant les différences entre la version pré et post écriture ou le journal des actions utilisateurs. Enfin, si la page n'est pas issue d'un site MediaWiki, la référence pointera dans ce cas vers une version archivée de la page conservée et visualisable sur le site du projet Internet Archive. L'aboutissement d'un tel processus sera donc la mise en place d'une section webographie qui trouvera sa place au côté de la traditionnelle section bibliographie de tout ouvrage scientifique et permettra de la sorte de distinguer aisément au sein de ce travail ce qui aura été produit au départ de sources primaires de ce qui aura été produit au départ de sources secondaires.

Malheureusement, ce qu'il est possible d'offrir à tout lecteur internaute au niveau des sources webographiques primaires, sera malheureusement impossible au niveau des sources bibliographiques secondaires. En effet, depuis longtemps déjà, ces sources font l'objet d'une dramatique marchandisation rendant leurs accès, y compris numérique, payant et donc limité. Aux yeux de certains, cette situation est le résultat d'un « oligopole d’éditeurs qui tire un profit maximum du fait que laboratoires scientifiques et chercheurs sont évalués en fonction des revues ou des maisons d’édition où ils publient leurs résultats ».

Dans un tel contexte et suite à ce que nous avons déjà débattu en début de cette section, aux « questions d'éthique concernent la publication scientifique » s’ajoute désormais d'autres questions épistémiques cette fois, liées à une possible réfutabilité ou vérifiabilité des sources secondaires citées dans un ouvrage. Elles sont supposées exister bien sûr, mais sans y avoir accès, c'est alors là un nouveau pacte que l'on demande aux lecteurs de signer. Un pacte qui regroupera cette fois un ensemble de trois acceptations : une première sur l’existence des sources, une deuxième sur le fait qu'elles ont été pleinement exploitées sans être détournées, soit par déformations des propos, soit par omission du contexte dans lequel elles furent initialement exposées, et une troisième enfin sur le fait que la vérifiabilité de ces sources soit soumise à une marchandisation et donc fatalement une exclusion des personnes les plus démunies financièrement.

Un tel pacte, et surtout sa troisième acceptation, n'est-il pas finalement encore plus problématique que le pacte ethnographique dont nous parlions précédemment ? Doit-on en effet accepter que la pratique de la science ainsi que la réfutation de ses propos soit l’apanage d'une franche limitée de notre communauté humaine ? N'est-il pas temps enfin de penser à une science où toute information serait inconditionnellement accessible à tous et dans le respect de tous ?

Aspirer à une science ouverte et transparente
Comme nous allons le voir, les questions d'ouverture, de transparence ne sont pas nouvelles dans le secteur de la recherche scientifique. Depuis longtemps déjà, un mouvement s'est créé autour de l'expression « Open Science » avec l'apparition en 1999 du site openscience.org dédié à l'écriture et à la diffusion de logiciels scientifiques libres et open source. L'expression anglaise se verra traduite en français par celle de « science ouverte » qu'il ne faut pas confondre avec l'expression « Science libre » qui désigne le nom d'un magazine publié sous copyright.

Le mouvement des sciences ouvertes peut être considéré comme l'héritier de celui du logiciel libre lancé par Richard Stallman dans les années 80. En lançant son projet de système d'exploitation intitulé GNU le 27 septembre 1983 sur la newsletter net.unix-wirards via Arpanet, Stallman faisait appel à la règle d'or pour promouvoir son projet. Il la reformulera et la contextualisera en ces termes : « si j'aime un programme, je dois le partager avec d'autres ». Un extrait de l'ouvrage intitulé : « Richard Stallman et la révolution du logiciel libre » nous permettra de découvrir les origines et les enjeux du mouvement du logiciel libre :

« Stallman propose de classer les œuvres soumises au copyright en trois catégories.

La première, fonctionnelle, comprend les logiciels informatiques, les dictionnaires, les manuels.

La deuxième comprend les œuvres ayant rôle de témoignage — par exemple des documents scientifiques ou historiques. Leur fonction pourrait être mise à mal si les auteurs comme les lecteurs étaient libres de les modifier à volonté. Cette catégorie inclut aussi les œuvres d’expression personnelle — journaux intimes, autobiographies ... — dont la modification reviendrait à falsifier les souvenirs d’une personne ou ses opinions, ce que Stallman considère comme injustifiable d’un point de vue éthique.

Enfin, la troisième catégorie concerne les travaux artistiques et de divertissement. Les droits accordés aux utilisateurs de chaque œuvre doivent, pour Stallman, être adaptés au type d’œuvre. Ainsi pour la première catégorie des œuvres fonctionnelles, les utilisateurs devraient-ils se voir conférer le droit illimité d’en faire des versions modifiées.

Pour les deuxième et troisième catégories, les droits de l’utilisateur devraient être modulés selon le souhait de l’auteur. Cependant, Stallman insiste sur le fait que, quelle que soit la catégorie de l’œuvre, la liberté de copier et de redistribuer de manière non commerciale devrait s’appliquer intégralement et en tout temps. Si cela signifie de laisser les internautes imprimer une centaine de copies d’un article, d’une image, d’une chanson ou d’un livre et ensuite d’en distribuer par courriel les copies à une centaine d’étrangers, alors qu’il en soit ainsi. »

Voici à présent à présent un autre extrait d'ouvrage intitulé cette fois : « Science ouverte, le défi de la transparence » qui nous permettra de saisir comment le mouvement des sciences ouverte se sera approprié l'héritage de Stalleman :

« Bien au-delà de l'accès ouvert, la science ouverte s'étend sur un champ très vaste et prend en compte, dans un effort de rénovation et de modernisation, l'ensemble des problématiques de la recherche et de ses conséquences, telles que l'ouverture et la gestion des données de recherche, l'ouverture et l'inter-opérabilité des logiciels, la transparence des évaluations, l'encouragement de la participation citoyenne à la recherche et la liberté d'accès aux matières d'enseignement. »

Sur base de cette dernière citation, nous pouvons déjà réaliser à quel point le mouvement Wikimédia répond intrinsèquement aux attentes de la science ouverte. D'un côté, son projet de libre partage des connaissances humaines repose sur le logiciel libre MediaWiki qui offre à la fois l'ouverture et l'interopérabilité voulue. De l'autre, le dispositif d'archivage automatisé de MediaWiki tel qu'il fut déjà présenté offre à l'environnement numérique Wikimédia un degré de transparence inégalé.

De façon concrète cette transparence est assurée au travers de chaque page historique associée à chaque page web produite par le logiciel MediaWiki. Dans la figure 2.8 présente ci-dessous représentant une copie d'écran de la page historique de l'article Wikipédia intitulé « science ouverte », on y voit s'afficher de manière chronologique une liste de lignes reprenant de manière respective :


 * un lien « actu » pointant vers la page de contenu tel qu'il se présente actuellement ;
 * un lien « diff » pointant vers une page de différence entre versions dans laquelle apparaît en gras (texte ajouté) et en surligné (texte retiré) les modifications faites au contenu ;
 * la date et l'heure exacte de la modification sous forme d'un lien pointant vers la version de la page archivée juste après la modification ;
 * le nom d'utilisateur de l'auteur de la modification suivit entre parenthèse d'un lien « discuter » pointant vers sa page de discussion et d'un lien « contributions » pointant vers une page listant chronologiquement toutes ses modifications au sein du projet. Par défaut de compte utilisateur, s'affichera alors l'adresse IP de la connexion Internet utilisée par l'éditeur sous forme de lien pointant pareillement vers une page listant toutes les modifications faites par cette adresse au sein du projet. S'affichera ensuite entre parenthèses un lien « discuter » pointant vers une page de discussion consacrée aux échanges avec le titulaire du compte utilisateur ou l'utilisateur d'une adresse IP fixe ou les utilisateurs en cas d'adresse IP dynamique ;
 * en cas de modification mineure la lettre « m » en caractère gras ;
 * la taille de la page suite à la modification et celle de la modification exprimée en octets ;
 * entre parenthèse, un résumé des modifications éventuellement apporté par l'auteur ou le titre de la section automatiquement fourni par le système ;
 * et finalement entre parenthèse un lien annuler permettant d'enregistrer la version de la page antérieure à la modification et un lien « remercier » permettant d'adresse une notification de remerciement à l'auteur.

En haut des pages historiques du projet Wikipédia francophone on verra aussi apparaitre toujours comme le montre le figure 8 ci-dessous un ensemble de liens pointant vers des outils d'analyses statistiques externes. Dans l'ordre de leurs apparitions respectives, ces outils permettront :


 * de filtrer les informations historiques affichées sur la page ;
 * d'afficher des statistiques sur les éditions et les auteurs ;
 * de retrouver l'auteur d'un passage écrit produit sur la page ;
 * de voir les statistiques de consultation de la page ;
 * de connaître le nombre de contributeurs ayant la page dans leur liste de suivi ;
 * d'afficher toutes les modifications de cette page faite par un seul contributeur.

Ces pages d'historiques, permettront ainsi au final de visualiser l' édition d'une page et son évolution au fil du temps comme le démontre de manière explicite la vidéo 1 ci-dessous.

Tout ceci montre donc à quel point le souci de transparence peut être garanti au niveau des projets d'édition soutenus par le mouvement Wikimédia. Les nombreuses fonctionnalités du logiciel MediaWiki que certains pourraient qualifier de « fantasme de la technologie » apparaissent ainsi, dans le contexte bien précis d'une science ouverte, comme solution au « défi de la transparence », J'y vois aussi pour ma part une occasion unique, libre et gratuite de rédiger mes travaux scientifiques dans un espace totalement respectueux des revendications faites par le mouvement des sciences ouvertes, et ce sans aucun effort.

Il est même possible de pousser les choses encore plus loin en créant par exemple un laboratoire d'étude tel que le Laboratoire d'étude du mouvement Wikimédia, dans lequel j'invite tout un chacun, à s'investir dans l'étude du mouvement Wikimédia. Un tel espace permet ainsi de partager publiquement tout un ensemble de ressources découvertes ou produites lors de travaux de recherche, et qui ne peuvent être publiés en raison d'un manque de place un niveau d'un standard éditorial quelconque.

Respecter la vie privée des acteurs de terrain
On est en droit de se demander si un tel niveau de transparence au sein des projets Wikimédia ne risquerait pas de poser problème au niveau du respect de la vie privée. Pour répondre à cette inquiétude il suffit de cliquer sur l'hyperlien intitulé « condition d'utilisation » présent en bas chaque page des projets Wikimédia. Ce lien permet effectivement d'accéder à une page d'informations générales dans laquelle se trouve un nouveau lien qui pointera cette fois vers une page consacrée à la politique de confidentialité adoptée par la fondation Wikimédia.

En Italie comme dans de nombreux autres pays du monde, la responsabilité juridique de la fondation Wikimédia par rapport aux projets éditoriaux qu'elle supporte se limite à son statut d'hébergeur et en aucun cas à celui d'éditeur. En revanche, la fondation et le mouvement Wikimédia par extension se sent très concernée par la protection de la vie privée des utilisateurs des projets qu'elle héberge ainsi que de leurs données à caractères personnels.

Il existe par exemple sur le projet Wikipédia francophone une page titrée Wikipédia:droit de disparaître anticipait depuis longtemps l'apparition du droit à l'oubli ou plus précisément du « droit à l'effacement » apparu en 2016 dans l'article 17 du règlement no 2016/679 édité par la commission Européenne, aussi appelé règlement général sur la protection des données (RGPD). D'une manière quelque peu inattendue, l'arrivée de cette réglementation aura cependant été publiquement condamnée par la Fondation Wikimédia. Appliquée au niveau du contenu de ses projets rédactionnels, la fondation voit en effet dans ce règlement une porte ouverte à la manipulation des informations présentes sur le net. . Il en résultera donc qu'une demande de suppression d’informations liées à compte utilisateur sera accordée, alors que celle d'informations contenues dans un article traitant de ce même utilisateur sera refusée.

En matière de protection de la vie privée, plusieurs autres options s'offrent aux utilisateurs de l'espace numérique Wikimédia dans lequel, signalons-le déjà, il n'est pas nécessaire pas de fournir une adresse courriel pour ouvrir un compte utilisateur. La première protection, et la plus populaire, consiste à créer un compte utilisateur avec pseudonyme de telle sorte à ce que les modifications et actions faites ne soient pas attribuées à son identité propre. La seconde option plus fréquente parmi les utilisateurs moins actifs, est celle de contribuer aux projets sans se connecter. Dans ce cas de figure, en lieu et place du pseudonyme utilisateur, apparaîtra l'adresse IP de la connexion Internet utilisée par l'utilisateur.

Cette deuxième option est cependant moins respectueuse de la vie privée d'un utilisateur, car au départ d'une simple adresse IP, un internaute peut toujours connaitre soit l'organisation qui l'utilise si cette information est publique, soit la ville la plus proche d'une connexion Internet privée et les coordonnées de l'entreprise qui l'aura fournie lors de son utilisation. Au départ de l'adresse IPv4 : 130.104.34.155 par exemple, le site whatismyipaddress.com indiquera qu'elle est utilisée par l'Université Catholique de Louvain alors qu'en utilisant l'adresse 176.164.50.155 sur le site fr.geoipview.com on y verra s'afficher une carte sur laquelle sera désigné la ville de Blois en France.

Plus fréquemment utilisées par les connexions mobiles, les adresses IPv6 sont moins facilement géo-localisables. Mais quelle que soit la situation, il sera toujours possible pour une personne mandatée de contacter le fournisseur d'accès Internet (FAI) d'une adresse IP pour connaitre l'identité du client qui l'aura utilisé à un moment bien précis et donc par exemple à l'heure d'enregistrement d'une modification faite sur un site Wikimédia. En France, mais cela peu varier selon la législation en vigueurs dans les différents états du monde, les informations permettant de faire le lien entre adresses IP et clients doivent être gardées au minimum un an. Dans le système informatique du mouvement Wikimédia par contre, les adresses IP des comptes utilisateurs qui ne sont visibles que par des personnes mandatées par la fondation sont définitivement effacées au bout de trois mois seulement.

Une dernière option possible enfin pour ceux qui ne désirent pas forcément contribuer sous anonymat sera de créer un compte utilisateur à son propre nom. Ce choix personnel doit alors être assumé puisqu'une partie de sa vie s'expose dès lors aux yeux du monde connecté et de façon potentiellement irréversible. Il ne faut en effet jamais oublier que sur le Web toute information divulguée peut toujours être sauvegardée par quelqu'un sur son ordinateur pour un jour réapparaître quelque part sur la toile malgré son effacement. Les vidéos interdites de diffusion sur le Net, qui disparaissent et apparaissent sans cesse en est un bon exemple.

Afficher sa réelle identité au niveau de ses contributions au projet Wikimédia n'a cependant pas que des inconvénients. Cela offre aussi l'avantage d'assurer la paternité de ses écrits et donc de les protéger d'un risque de plagiat tout en les publiant dans la plupart des cas sous une licence CC.BY.SA qui les protégera d'une éventuelle récupération et mise sous copyright. Un tel choix enfin, peut aussi répondre à des obligations d'ordre déontologique liés au cadre d'une recherche scientifique par exemple.

Pour finir donc, toutes ces options et dispositions garantiront une gestion « à la carte » du respect de la vie privée des acteurs wikimédiens et de leurs données à caractère personnel. Elles permettront aussi à certains utilisateurs situés dans des pays sujets à la censure et à la répression de se connecter à des réseaux privés virtuels (VPN) sans risquer de dévoiler, ni leur identité, ni l'adresse de la connexion étrangère qu'ils utiliseront pour se connecter aux sites. Dernière chose enfin, toutes ces dispositions offrent un climat propice à la liberté d'expression, et au dialogue qui somme toute représente un nouvel avantage pour les chercheurs.

Rédiger sa recherche dans un processus dialogique
L'écriture dialogique en socio-anthropologie n'est pas un concept nouveau. Un anthropologue tel que Mondher Kilani en parlait déjà dans les années nonante en citant pour exemple les écrits de Philippe Descola, de Jeanne Favret-Saada et les siens. Il décrit sa propre expérience comme telle :  « Mon texte n'est pas l'évocation d'une expérience subjective irréductible. Il est autant le produit d'une "vérité" négociée avec les oasiens qu'une construction explicitement adressée à un public lointain pour lequel je reconstruis les différents contextes de cette négociation ». Plus récemment, Frédéric Laugrand, mettra au point un système d'atelier de transmission intergénérationnelle des savoirs (ATIS) visant à une coconstruction des savoirs entre des chercheurs et acteurs participants dans une dynamique de transmission à destination des jeunes par le « faire comme si ». Ce processus aura pour but final de produire des documents sous forme de verbatims ultimement validés par les participants.

Dans le cas de ce présent travail, il ne sera pas tant question d'une tel production collective du savoir, mais bien d'une négociation similaire à celle exprimée par Kilani. De la sorte, la coconstruction des idées sera clairement dissociée de l'écriture du texte qui en résulte, ceci même si des retouches au niveau orthographique ou syntaxique seront toujours les bienvenues. Il fut donc bien question comme l'explicitait avant moi Kilani d'« une écriture dialogique plaçant le témoignage personnel et la voix des autres au centre du récit anthropologique » mais sans pour autant donner l'occasion aux autres de participer à l'écriture de ce récit. Ici encore, le dispositif socio-technique mis en œuvre au sein des projets Wikimédia me fut d'un grand secours.

Tous les sites éditoriaux soutenus par le mouvement Wikimédia sont en effet des espaces collaboratifs au sein desquels, le partage du savoir finit par s'établir au travers des gestes anodins d'édition et de surveillance réciproque. En consultant l'article « Science ouverte » sur Wikipédia dans le cadre de l'écriture de ce texte, je n'ai pas hésité par exemple à reformuler la phrase d'introduction avec comme résumé pour ma modification : « Reformulation de la première phrase en vue d'une meilleure compréhension. » . Cette modification une fois accomplie devient alors visible sur cette page « diff » dont nous avons déjà parlé précédemment et dont la copie d'écran, pour rappel, se situe au niveau de la figure 7.

Dès la sauvegarde de la modification, cette page « diff » en question aura été notifiée à tous les utilisateurs enregistrés qui auront choisi un jour de l'ajouter dans leur liste de suivi en cliquant sur la petite étoile située entre l'onglet « Voir l'historique » et le cadre « Rechercher dans Wikipédia ». Cette liste de suivi en question (voir figure 9 ci-dessous) ressemble fortement à une page historique d'un article à la différence près qu'on y trouvera ici toutes les modifications faites aux articles dont on veut suivre l'évolution. En outre, les utilisateurs qui auront configuré adéquatement leur système de notification dans leurs préférences personnelles recevront aussi l'information et un lien vers la page « diff » directement dans leur boite à courriel.

Un tel dispositif technique, renforce donc la dimension dialogique entre les éditeurs des projets Wikimédia dès lors qu'il y aura divergences d'opinions sur la modification faite sur une page. En cas de désaccord, la meilleure pratique consiste alors de cliquer sur l'onglet « Discussion » présent en haut de toutes les pages des projets Wikimédia pour entamer les débats sur une page de discussion associée à la page d'édition.

Dans le cadre de ma thèse de doctorat en temps réel sur le projet Wikiversité, j'ai donc pensé à profiter de ce dispositif pour susciter le dialogues au sujet des comptes rendus de recherches. Mon idée était d'inviter les acteurs du mouvement Wikimédia à s'exprimer ce contenu soit sur l'espace de discussion principal lorsqu'il s'agit de l'ensemble de ma thèse, avec un système de discussions structurées permettant de simplifier la vie des personnes non initiées à l'usage du wikicode, soit sur d'autres pages de discussions associées aux chapitres de mon ouvrage. Afin de rendre ces pages visibles au maximum, j'ai pris soin d'ajouter en dessous du titre de chaque chapitre la mention : « [ Réagir au contenu de ce chapitre ] ».

Par la suite, j'ai même incité les acteurs du mouvement à entrer en dialogue au sujet de ma recherche, en postant régulièrement des messages d'invitations sur les principaux espaces de type forum disponible au sein du mouvement Wikimédia. Voici pour information le contenu de la discussion qui suivit mon premier message titré « Avis de travail en cours » déposé dans le bistro de Wikipédia le 31 mai 2019 : Bonjour, J'ai entamé la rédaction d'une thèse de doctorat publiée sur Wikiversité et portant sur le mouvement Wikimédia. Le premier chapitre de ce travail consacré à la méthodologie est actuellement prêt à être relu par les personnes actives au sein du mouvement. La mise en forme du texte n'est pas terminée et l'orthographe doit y être déplorable, mais j'aimerai le soumettre à réaction avant un prochain rendez-vous avec mon comité d'accompagnement dans le cadre d'une épreuve de confirmation. J'invite donc toutes les personnes intéressées a réagir librement sur la page de discussion consacré au chapitre. Si le cœur vous en dit, vous pouvez aussi corriger l'une ou l'autre faute d'orthographe durant votre lecture. Je vous en serais très reconnaissant. En vous remerciant d'avance et vous souhaitant une belle journée à tous. Bien cordialement, Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie, dyslexie et "dys"traction. 31 mai 2019 à 01:43 (CEST)
 * Intéressant, mais, à part l'orthographe, qui écrit la thèse, le doctorant ou la communauté Wikipédia ? - Siren - (discuter) 31 mai 2019 à 14:12 (CEST)
 * Bonjour Siren, Pour répondre à la question : Au niveau de des mots et des phrases, c'est le doctorant. Au niveau de la connaissance et des idées, c'est le doctorant et la communauté, celle de Wikipédia mais aussi celles de tous les projets soutenu par la fondation. Si la question est posée, c'est sans doute que les choses ne sont pas assez claire. Je vais donc tenter de reformuler les choses de façon plus explicite. D'ailleurs cette présente interaction entre nous illustre déjà en partie l'idée d'une construction dialogique de la connaissance. Dans le cadre de mon doctorat, elle ne peut malheureusement pas être similaire à ce qui se passe sur Wikipédia. Ce travail débouche sur un diplôme, et dans le monde académique qui m'entoure, pour se voir attribuer le titre de docteur, il faut défendre seul une thèse réalisé en solo. Ceci dit Jimbo Wales a reçu de mon université le titre de docteur honoris causa, sans avoir écrit aucune thèse. Donc voilà, il y a bien d'autres personnes encore qui en savent bien plus que moi sur le mouvement Wikimédia et ce serait donc idiot et présomptueux de ma part de ne pas les inviter à entrer en dialogue autour de l'écriture de ma thèse. Déjà un grand merci pour les corrections orthographique et une belle fin de journée ! Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie, dyslexie et "dys"traction. 31 mai 2019 à 23:45 (CEST)
 * Ouaaah, je vais faire un tour par désoeuvrement sur cette page, et chtonk ! scotch. Absolument passionnant, ce truc, je recommande fortement la lecture ! Alors, évidemment, comme toutes les thèses dans un domaine pas mien, c'est tellement concentré que pour mon pauvre esprit va falloir un tit moment pour tout absorber, mais déjà des réflexions fusent.
 * Par exemple j'adore l'idée de base que l'objet de recherche, ancré dans la vraie de vraie réalité, met en forme les méthodologies et pas le contraire, ce qui est pourtant normalement ce qu'on nous enseigne. Je suis bien d'accord pourtant, nos tendances à déterminer des cadres stricts, bien léchés, universels etc. ça vient d'une époque (disons depuis le XVIIIème) où on va favoriser la création de catégories avant même de mettre des objets dedans, une volonté de tout régenter, en quelque sorte, de tout classer et universaliser, de produire des cadres vides. Très Newtonien. Peut-être lié à l'ensemble des représentations du temps (le milieu temporel), chais pas.
 * J'aime aussi, intuitivement, la réflexion sur l'imaginaire et sa force de construction ! Un dernier point sur le premier chapitre (je vois qu'il y a eu plein d'ajouts), il est dit que les sciences sociales ne prétendent pas à définir un ensemble de paramètres absolus qui rendent les expériences reproductibles, contrairement aux sciences autres, dites dures. Mais à mon avis, dans les autres sciences non plus. On y prétend, on prétend faire reproductible, mais c'est juste un outil utile. Les paramètres y sont soumis aux mêmes différences, simplement les sciences dures tendent aussi à des applications et donc veulent être opérationnelles. Un peu comme si on faisait un raisonnement en coupant le chemin à faire en petites étapes (comme Descartes) pour atteindre le but, mais qu'on est bien conscient que le chemin en tant que tel n'existe pas, c'est nous qui l'avons créé pour résoudre le problème.--Dil (discuter) 31 mai 2019 à 23:57 (CEST)
 * Merci pour ce retour encourageant Dil ! Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie, dyslexie et "dys"traction. 2 juin 2019 à 01:42 (CEST) »

En plus des forums de discussion, j'ai aussi utilisé le système de notification Echo mis en place au sein de l'espace numérique Wikimédia. Ce système permet de notifier un utilisateur enregistré au départ de n'importe quelle page des sites Wikimédia. Cette notification apparaitra en haut de toutes les pages des projets Wikimédia une fois qu'il sera connecté et de nouveau, en fonction des préférences utilisateur, dans la boite de réception de son courrier électronique.

Concrètement, il me suffit par exemple au sein de ce présent texte produit sur Wikiversité de créer l'hyperlien : « Psychoslave » pour que l'utilisateur répondant au pseudonyme « Psychoslave » soit averti que je le mentionne ici. Il saura alors que je désire attirer son attention sur cette page, pour dans ce cas-ci, le remercier de l'intérêt qu'il porte sur mes travaux. Pour ne pas attirer son attention, j'aurai pu écrire son nom d'utilisateur sans créer d'hyperlien. Dans ce cas de figure, Psychoslave devra alors faire une recherche laborieuse à l'aide d'un moteur de recherche interne ou externe à Wikiversité pour trouver cet endroit où je parle de lui.

Il restait enfin pour faire fonctionner le dispositif dialogique d'être capable de maîtriser un minimum le langage de mes interlocuteurs. Joseph-Marie de Gérando, l'un des précurseurs de l'anthropologie moderne, n'écrivait-il pas dans le journal de la société des observateurs de l'homme : « Le premier moyen pour bien connaître les Sauvages [expression commune à cette époque], est de devenir en quelque sorte comme l'un d'entre eux ; et c'est en apprenant leur langue qu'on deviendra leur concitoyen » ?

Avec plus de 300 versions linguistiques de Wikipédia, le mouvement Wikimédia apparaît tel un espace de rencontre extrêmement polyglotte. Heureusement comme toujours dans ce type de communauté cosmopolite, l'anglais viendra au secours de chacun pour faire office de lingua franca. Mais il apparait cependant que dans l'espace numérique Wikimédia, la connaissance du langage naturel ne suffit pas toujours. Comme nous l'avons vu déjà vu, la pratique du wikicode peut s’avérer parfois nécessaire pour participer aux discussions ayant cours dans les nombreux espaces numériques gérés par le logiciel MediaWiki. Et heureusement de nouveau que la compréhension du wikicode ne représente pas un obstacle insurmontable dès sa première expérience.

Cependant, pour comprendre pleinement les enjeux du numérique, mais aussi pour pouvoir dialoguer confortablement au sujet de l'environnement sociotechnique du mouvement Wikimédia avec les acteurs impliqués dans sa gestion la connaissance du Wikicode s'avérera souvent insuffisante. Ces discussions feront de fait souvent appel à une connaissance minimum du vocabulaire et de la grammaire de langage informatique divers. Une connaissance pour le moins passive de ces derniers devient dès lors un atout d'autant plus indispensable si l'on ne veut pas faire l'impasse des avertissements de Lawrence Lessig, publié dans son célèbre article intitulé : « Code is law » :

« Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code, on se rend compte que, d’une myriade de manières, le code du cyberespace régule.»

De manière un peu similaire à Tom Boellstorf, cette anthropologue dans Second Life qui organisait des groupes de discussion au sein de sa maison virtuelle baptisée « Ethnographia », les efforts investis pour la mise en place d'une construction dialogique de ma thèse de doctorat auront été fructueux. Ils auront été une précieuse occasion de confronter ma propre vision du mouvement au point de vue « émique » des acteurs de terrain, tout en leur permettant de réagir en cas de problème. Ce processus qui n'aura finalement pas abouti à un nombre exceptionnel d'échanges mais aura par contre suscité un grand nombre de consultations de mes travaux, soit près de 1 150 fois entre le 15 octobre 2019 et le 15 mars 2020. Un ensemble de chiffres rassurant pour peu que l'on adhère à cet adage bien connu : « Qui ne dit mot, consent ».

L'ultime avantage enfin lié à l'environnement numérique Wikimédia, c'est que tous ces échanges, au même titre que l'ensemble du contenu des projets éditoriaux, est librement exploitable dans une étude sans qu'aucune demande d'autorisation préalable ne soit nécessaire. La seule obligation sine qua non pour pouvoir profiter de cette liberté, sera de publier son travail aussi sous licence CC.BY.SA afin de respecter la condition de partage dans les mêmes conditions imposées par celle-ci. Cette condition appelée aussi « copyleft » est de première importance, car elle garantit à elle seule que tout contenu libre reste libre après réutilisation.

Malheureusement, la plupart des études portant sur Wikipédia sont publiées au sein de revues ou d'ouvrages publiés sous copyright. Le cas le plus emblématique sans doute, sera celui de l'ouvrage : « Commons Knowlege An ethnography of Wikipedia » qui comprend une quantité importante de citations en provenance de Wikipédia et qui pourtant fut publié sous copyright en 2015 par la maison d'édition Stanford University Press. Cette entorse à la licence creative commons CC.BY.SA est d'autant plus surprenante que Dariusz Jemielniak, auteur de cet ouvrage, sera élu membre du conseil d'administration de la fondation Wikimédia durant l'année de publication de son ouvrage et sera même réélu par la suite en 2017. Selon l'avis d'un utilisateur expérimenté du projet Wikimédia Commons, Jemielniak et la Stanford University Press, s'exposent cependant au risque de se voir un jour inquiétés par une plainte en provenance d'un ou de plusieurs utilisateurs lésés par cet abus.

Un appel à la contribution
Au terme de cet enseignement produit par la rencontre de deux communautés épistémiques, celle du milieu universitaire et celle du mouvement Wikimédia, et pour peu que l'on dépasse la posture d'opposition d'une certaine élite intellectuelle, l'environnement sociotechnique si particulier des projets Wikimédia peut donc apparaitre comme source d'inspiration pour les communautés épistémiques œuvrant dans le milieu universitaire. Au-delà d'une simple inspiration, on pourrait même à vrai dire y voir une belle occasion de rêver à une science non corporative, multi-paradigmatique, vérifiable par chacun, ouverte, libre d'accès, transparente, dialogique, participative et respectueuse de tous.

Malheureusement, et jusqu'à ce jour, le milieu académique semble peu enclin à s'impliquer dans la production de nouveaux savoirs au sein même de l'univers Wikimédia. Il est vrai que le mouvement s'est principalement concentré sur le développement de l'encyclopédique Wikipédia et par conséquent, sur la récolte, la synthèse et la diffusion d'un savoir préexistant. Plus récemment, le projet Wikidata aura attiré beaucoup d'attention et de moyens institutionnels et financier pour porter son ambition de développer le web sémantique. Suivront les 8 autres projets Wikimédia dont la consultation des souhaits de la communauté pour 2020, exceptionnellement limitée aux « projets hors contenus wikipédiens », peut servir d'indicateur quant à l'importance qui leur sont octroyé par la communauté des contributeurs Wikimédiens.

Sur 72 souhaits formulés, le projet Wikisource arrive en tête avec 28 propositions récoltées. Il est suivi du Wiktionnaire qui récolte 20 propositions, lui-même suivit du projet Wikiversité qui rassemble quant à lui 11 propositions. Malheureusement pour eux, les 5 autres projets restant ne dépasseront pas les 5 propositions. Si l'on ajoute Wikipédia et Wikidata à ces 8 projets, cela nous indique donc que Wikiversité, le seul projet réellement dédier à la production de nouveau savoir, n'apparait qu'en cinquième place en matière d'intérêt porté par la communauté Wikimédienne.

Pourtant les choses évoluent sur la Wikiversité anglophone suite à la naissance du journal scientifique « WikiJournal » déjà primé par l'Open publishing awards dans la catégorie « modèles de publication ouverts ». Peut-être même que d'ici peu, un nouveau projet Wikimédia spécifiquement dédié à la publication scientifique verra le jour au sein du mouvement. N'est-ce pas là une belle occasion pour les universitaires du monde entier de prendre place au du mouvement Wikimédia, non plus en tant qu'utilisateurs passifs, mais bien en tant que contributeurs actifs, au profit d'une science qui ne demande qu'à s'émanciper ?

Remerciement
Wikimedia movement pour toutes les informations de terrain. Oliviers Servais, Pierre-Joseph Laurent, Christophe Lazarro and Emmanuel Wathelet en tant que membre de mon comité d'accompagnement doctoral.

Intérêts divergents
Aucun

Déclaration sur l'éthique
Comprises au sein de l'article