Wikipédia:RAW/2020-07-01


BrèvesModifier

Section 230 — Hors contexte, ces deux mots ne signifient rien en particulier. Pourtant, selon Jeff Kosseff, auteur du livre The Twenty-Six Words That Created the Internet (littéralement, « Les vingt-six mots qui ont créé Internet »), cette section a permis l'avènement d'Internet, rien de moins. La Section 230, qui fait partie de la Communications Decency Act adoptée par le Congrès des États-Unis en 1996, a été proposée « pour deux raisons : favoriser la croissance des entreprises basées sur Internet et permettre aux plateformes de développer leurs propres pratiques de modération sans devenir responsables de chaque mot que leurs utilisateurs publient. »[trad 1] Si un site juge que des mots sont offensants, il peut les tolérer ou les supprimer sans craindre des conséquences judiciaires.

Quels sont les vingt-six mots de la Section 230 ?

No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.

« Aucun fournisseur ou utilisateur d'un service informatique interactif ne doit être traité comme l'éditeur ou le locuteur d'une information fournie par un autre fournisseur de contenu informatif. »

Selon l'auteur de l'article, beaucoup d'avocats américains ignorent les deux grandes forces qui ont soutenu la création de la Section 230 : la presse traditionnelle et les fournisseurs de service. La presse traditionnelle jouit de la protection du premier amendement de la Constitution des États-Unis, c'était donc une extension cohérente. Quant aux fournisseurs de service, telles les sociétés de télécommunications, ils ne souhaitent pas être accusés de malveillance s'ils exercent leur rôle sans favoriser une catégorie de clients. Lorsque c'est le cas, ils agissent de façon neutre. Les réseaux sociaux, qui jouissent de la protection du premier amendement et s'ils n'avantagent pas une catégorie de clients, ne peuvent donc être déclarés coupables de diffuser les messages délictueux de leurs utilisateurs.

 
Le candidat à l'élection présidentielle américaine de 2020, Joe Biden, déclare vouloir abroger la Section 230. [1]

Le président américain Donald Trump a signé le 28 mai 2020 l'Executive Order on Preventing Online Censorship [2] pour rendre les réseaux sociaux responsables des messages laissés par des internautes, ce qui revient à exiger de modifier la Section 230. Si elle était modifiée selon ses exigences, Twitter serait dans l'obligation de supprimer les gazouillis qui incitent à la violence par exemple, y compris des gazouillis du président américain.

Prise à la pièce, chaque modification proposée par l'Executive Order de Donald Trump est sensée. Toutefois, l'ensemble des modifications rend plus compliquée l'interprétation de la Section 230, sans nécessairement mettre un terme à la propagation de la haine sur les réseaux sociaux (Wikipédia compris). Par ailleurs, le président des États-Unis ne peut unilatéralement modifier une loi adoptée par le Congrès des États-Unis. Seul ce dernier peut le faire. Par ailleurs, toujours selon l'auteur de l'article, ni Twitter et ni Facebook n'ont les ressources pour modérer efficacement leurs utilisateurs. Si les deux sites le faisaient, leurs utilisateurs exigeraient encore plus d'efforts dans ce sens. Finalement, la Section 230 ne s'applique qu'aux États-Unis. La diffusion des contenus hors de ce pays est régulée par d'autres lois. [3]

Préservation de l'Histoire — Au contraire de Facebook par exemple, Wikipédia ne réécrit pas l'histoire. L'auteur d'un article publié par Slate explique que, en mars 2020, Facebook a été inondé de billets affirmant que la 5G causait des maladies. En mai 2020, tous ces billets sont invisibles. Facebook, comme plusieurs sites à fort trafic, a supprimé ces messages conspirationnistes, jetant dans la foulée les commentaires qui combattaient cette théorie.

En avril 2020, 75 organisations ont signé une lettre demandant aux réseaux sociaux de conserver les informations sur la Covid-19, de ne pas les supprimer. Lorsque la Wikimedia Foundation a reçu cette lettre, la réaction la plus courante a été : « Ne le fait-on pas déjà ? » La couverture wikipédienne de la pandémie a été saluée, tant par sa profondeur que par son horizon : 175 Wikipédias linguistiques ont au moins un article sur le sujet et on dénombre plus de 5 000 articles sur le sujet, que ce soit dans les domaines économique, social ou médical.

Dans 2 000 ans, les linguistes, les historiens et les sociologues pourront consulter les archives de Wikipédia sur la pandémie de Covid-19. En parcourant les historiques des articles, un historien pourrait apprendre quand des scientifiques ont soupçonné l'origine animale du coronavirus et quand l'idée (mauvaise) de consommer un désinfectant pour combattre la maladie a été proposée. Il pourrait aussi apprendre que le nom donné à cet évènement a changé en quelques jours, passant de « Épidémie du coronavirus de 2019-2020 » à « Pandémie de Covid-19 » pour la Wikipédia en français (la Wikipédia en anglais a débattu du meilleur titre avant d'adopter le titre actuel : COVID-19 pandemic). Le premier titre laisse entendre que l'épidémie ne devrait pas se poursuivre au-delà de 2020, alors que le second titre n'indique rien de tel, tout en remplaçant « épidémie » par « pandémie » et « coronavirus » par « Covid-19 ».

 
L'hydroxychloroquine est inscrite sur la liste des médicaments essentiels de l'OMS, mais il n'a pas été prouvé qu'elle peut combattre le Covid-19.

En 2020, le président du Brésil a affirmé que l'hydroxychloroquine constituait un médicament efficace contre la Covid-19, ce qui s'est révélé faux. En conséquence, YouTube a bloqué l'accès aux vidéos qui faisaient la promotion de l'hydroxychloroquine pour cet usage, ainsi que les commentaires des internautes et les méta-données. Les informations sur ces suppressions ne sont pas publiques parce que YouTube, comme plusieurs autres sociétés, déclare qu'il s'agit de données propriétaires. Également, des individus suppriment des gazouillis sur Twitter ou des billets sur Instagram par crainte de représailles ou de controverses, ce qui constitue une forme de réécriture de l'Histoire. « Wikipédia est moins susceptible d'être accusé de cet effacement historique puisque, à quelques exceptions près, le logiciel préserve l'intégralité de l'historique d'édition du projet. »[trad 2]

Wikipédia n'est pas sans tache. Ses contenus sont symptomatiques du biais de genre, conséquence de ses premiers adeptes, majoritairement des hommes blancs éduqués. L'encyclopédie est aussi biaisée relativement à la géographie. Les évènements hors des pays industrialisés sont parfois niés. Par exemple, une contributrice indienne a proposé, dans la Wikipédia en anglais, un article concernant la désinformation en Inde sur la pandémie de Covid-19. Il a été supprimé ; le groupe pour la suppression a argué que seule l'Inde aurait été couverte alors que le pays n'a pas l'exclusivité de la désinformation sur la Covid-19.

À la fin de son article, l'auteur indique que Wikipédia deviendra, dans un futur lointain, une source primaire, même si l'encyclopédie est classée aujourd'hui comme source tertiaire. Les contenus actuels de Wikipédia constitueront en effet une source d'informations sur la façon dont l'information est construite aujourd'hui.

Stratégie Wikimedia 2030 — La Wikimedia Foundation, malgré l'opposition exprimée en février 2020, projette toujours de renommer l'organisation en « Wikipedia Foundation ». Un sondage a été lancé pour exprimer son opposition à ce changement.

Projet Gutenberg en Italie — En juin 2020, le tribunal de Rome a statué que le projet Gutenberg violait les droits d'auteurs italiens et a ordonné que le site soit bloqué sur tout le territoire italien. Cette décision suscite son lot de critiques parce qu'aucune plainte n'a été enregistrée auprès du tribunal. (fr)[4]

National Emergency Library — Soumise à une procédure judiciaire menée par d'importantes maisons d'édition américaines, Internet Archive (IA) a décidé de fermer le 16 juin 2020 sa National Emergency Library. IA se défend d'avoir enfreint les lois sur le copyright, mais la violation des droits d'auteur peut valoir aux États-unis une amende de 150 000 $ par ouvrage, ce qui explique sa décision. (fr)[5], (fr)[6]

Harcèlement — La Wikimedia Foundation (WMF) souhaite lutter encore plus activement contre le harcèlement, que ce soit sur Wikipédia ou dans un projet frère. Son conseil d'administration a décidé de mettre en vigueur une nouvelle politique à ce sujet d'ici la fin de 2020. La WMF se défend d'agir dans la foulée de l'affaire Fram survenue en juillet 2019 (un administrateur de la Wikipédia en anglais a été bloqué un an à la suite d'harcèlements à répétition). YouTube recourt aux contenus de Wikipédia pour lutter contre la désinformation, ce qui fait de l'encyclopédie une cible de choix pour les trolls et autres pirates de l'Internet. Cette politique s'inscrirait donc dans un plan plus vaste de lutte contre les comportements toxiques. [7]

 
Statue à la mémoire de la pirate irlandaise Grace O'Malley (1530-1603), l'une des héroïnes de la contributrice BrownHairedGirl.

Les plus prolifiques — Le magazine ZME Science a publié un article sur les cinq plus prolifiques contributeurs de la Wikipédia en anglais. Chacun a commenté l'article de ZME. Ser Amantio di Nicolao (3,5 millions de contributions) juge favorablement l'article, mais insiste que la quantité ne suffit pas. Il faut aussi de la qualité dans les écrits. Koavf (2 millions) est satisfait des descriptions, notamment que n'importe qui aurait pu en faire autant que lui. BrownHairedGirl (1,8 million) est déçue parce que la quantité, soulignée dans l'article, n'est pas un bon indicateur de la qualité des contenus. Selon Rich Farmbrough (1,7 million), vouloir opposer qualité et quantité est une erreur ; il faut des deux pour construire de bons articles. BD2412 (1,5 million) juge que l'article résume bien sa page utilisateur. Pour lui, l'objectif de Wikipédia devrait être de la qualité, en quantité.

« Pour n'importe lequel de nos ancêtres, Wikipédia ne serait rien de moins qu'un miracle. Nous savons que ce n'est pas le cas ; c'est juste un système basé sur de l'électricité envoyée dans des puces de silicium. Mais les systèmes sont seulement aussi puissants que les gens qui les construisent le permettent. Dans cette optique, le travail que font des collaborateurs comme ces cinq personnes ici présentes, sans demander de reconnaissance, de gloire, d'éloge ou de fortune, en refusant souvent volontairement, n'est rien de moins qu'un miracle moderne.[trad 3] »

Petit frère est devenu grand — Lydia Pintscher, responsable production de Wikidata, a rédigé un article sur la base de connaissances libre et ses liens avec l'encyclopédie libre. « Wikidata est certainement le projet frère de Wikipédia qui a connu le plus grand succès. Il a profondément influencé Wikipédia, en seulement quelques années. »[trad 4] En 2012, après dix ans de croissance ininterrompue, Wikipédia était une encyclopédie respectée. Toutefois, le Web avait également changé et la Wikimedia Foundation (WMF) cherchait des moyens de mieux soutenir la mission de Wikipédia qui comptait pas moins de 250 versions linguistiques. Le fonctionnement de ce « projet d’encyclopédie collective en ligne, universelle, multilingue » était menacé par la fragmentation des connaissances issues de ces multiples versions linguistiques.

Dès 2005, des gens avaient émis l'idée d'une encyclopédie compatible avec le Web sémantique. Pour y parvenir, les contenus rédigés par des personnes devaient être exploitables par des machines de sorte qu'elles puissent répondre à des questions comme celle de savoir combien de pays sont dirigés par une femme. Plusieurs tentatives avaient déjà été faites, avec des succès inégaux. Lorsque la première brique logicielle de Wikidata — autrement dit, la première ligne de code — fut posée en 2012, le projet arrivait à point nommé. « Wikidata devait être une base de connaissances libre et ouverte, pour Wikipédia, ses projets frères et le monde entier, qui favorise l'accès d'un plus grand nombre de personnes à un plus grand savoir. Actuellement, elle fournit les données sous-jacentes à de nombreuses technologies que vous utilisez et aux articles de Wikipédia que vous lisez tous les jours. »[trad 5] Nous, les humains, souhaitons influencer de plus en plus notre monde chaque jour qui passe. Pourtant, c'est l'inverse qui se dessine avec la présence grandissante de dispositifs d'automatisation, avides de données manipulées par des logiciels propriétaires. Pour Lydia Pintscher, il est essentiel que les outils logiciels qui traitent les données soient libres et ouverts. Wikipédia et Wikidata proposent un modèle en accord avec cette philosophie de liberté et d'ouverture.

À ses débuts, Wikidata proposait un système pour relier les articles des Wikipédias linguistiques les uns aux autres (par exemple, pour relier fr:Mer Méditerranée à it:Mediteraneo à de:Mittelmeer à as:ভূমধ্য সাগৰ à ja:地中海). Avant Wikidata, chaque Wikipédia linguistique comprenait un même ensemble d'articles, reliés par des liens interwikis (terme issu du jargon wikipédien). La création et la mise à jour de ces liens se faisait de façon manuelle, ce qui explique que des liens interwikis étaient régulièrement obsolètes, à la suite d'un changement de titre, le plus souvent. Wikidata a centralisé la mise à jour des liens interwikis, tout en l'automatisant. Et ce faisant, le site a commencé à construire une base de connaissances utile pour la suite de ses travaux.

Pour un même sujet partagé entre plusieurs Wikipédias linguistiques, il était impossible de partager les informations contenues dans les versions linguistiques les mieux développées (exemples : aire, pays limitrophes, villes côtières). Cette limitation empêchait les plus petites versions linguistiques de proposer un minimum d'informations utiles à leur lectorat. Pour les sujets qui évoluaient selon les années électorales par exemple, cette limitation était encore plus criante. Wikidata voulait faciliter le transfert d'informations vers les plus petites Wikipédias linguistiques. Ce transfert s'est concrétisé par les infobox (un autre terme wikipédien), des tables de données présentant de façon synthétique des informations importantes sur un sujet. [NdE : la Wikipédia en français a été le théâtre de longs débats, parfois violents, sur la pertinence d'insérer des informations issues de Wikidata, la plupart n'étant pas sourcées (c'est toujours le cas en 2020). Voir par exemple ces échanges en septembre 2014.]

Dans la foulée, la communauté de Wikidata a envisagé de créer un système capable de relier entre-elles des entités (terme issu du jargon wikidatien). Par exemple, l'entité Berlin est la capitale de l'entité Allemagne. Lorsque ce système a été implanté, la communauté de Wikidata a partagé cette information avec les communautés wikipédiennes. En cours de route, Wikidata a mis en place des systèmes pour mieux soutenir les Wiktionnaires linguistiques, les Wikisources linguistiques, Wikivoyage et Wikimedia Commons, autres projets frères de l'écosystème Wikimedia. Pendant ces années de croissance, Wikidata a vu arriver de nouveaux contributeurs, mais aussi des contributeurs de projets frères, bénévoles plus intéressés à structurer l'information qu'à rédiger des articles. De la fin 2013, année où les données des Wikipédias ont été massivement importées dans Wikidata, jusqu'à 2019, le nombre de contributeurs a doublé, atteignant quarante mille bénévoles.

« Au fur et à mesure de son évolution, Wikidata est devenue une source attrayante pour les projets Wikimedia et ceux qui avaient l'habitude de recueillir les données des infoboxes des Wikipédias. Des sites web externes, des applications et des visualisations utilisaient ces informations comme ingrédient de base, que ce soit un site web pour parcourir des œuvres d'art, un gestionnaire d'inventaire de livres, des outils d'enseignement de l'histoire ou des assistants personnels numériques. Aujourd'hui, Wikidata est utilisé dans d'innombrables endroits sans que la plupart des utilisateurs n'en soient conscients.[trad 6] »
 
Un seul site, pour centraliser toutes les bases de données libres.

La communauté Wikidata se montre actuellement encore plus ambitieuse. Elle souhaite que Wikibase, le logiciel qui propulse Wikidata, soit utilisé par tous les sites Web qui publient gratuitement et librement des masses de données en ligne. L'usage généralisé de Wikibase favoriserait l'émergence de l'« écosystème Wikibase » dans lequel les données seraient librement partagées entre différentes institutions, des militants et des entreprises, lesquelles seraient accessibles au monde entier. Ce prolongement de Wikidata semble possible, sachant que la base de connaissance libre publie déjà des liens vers plus de 4 000 bases de données, projets et catalogues en ligne.

Lydia Pintscher ajoute que Wikibase, à l'image de Wikipédia, ne ressemble à aucune autre base de données parce qu'elle veut couvrir un champ de sujets plus large, tout en publiant des données exploitables par des logiciels. Au contraire de beaucoup de bases de données, Wikidata refuse de simplifier la conception du monde qui nous entoure, qui est par essence complexe. Pour mieux convaincre, Lydia Pintscher pose deux questions : Saviez-vous qu'une femme a épousé la tour Eiffel ? Saviez-vous que la Terre n'est pas une sphère parfaite ? Selon elle, la base de connaissances libre refuse de trop simplifier la réalité, au contraire de plusieurs autres bases de données en ligne. « Wikidata s'efforce de changer cela en ne cherchant pas à imposer une seule vérité mais en recueillant différents points de vue, tout en préservant leurs sources et leur contexte. »[trad 7] Elle aspirerait à sourcer les informations, à la façon de Wikipédia, et refuse d'imposer par le haut un schéma de construction de la connaissance, préférant déléguer cette activité à la communauté (encore une fois, comme le fait Wikipédia).

De plus, Wikidata doit être accessible dans n'importe quelle langue, ce qui explique que le logiciel ne nomme pas les entités (aussi appelés « concepts ») dans une langue en particulier. Chaque entité est identifiée par la lettre Q suivie d'un numéro unique. Par exemple, Q5 sert à identifier le concept « être humain », dont le nom change selon la langue du locuteur. [NdE : Wikidata offre un mécanisme pour identifier dans une langue n'importe quelle entité inscrite. L'entité Q5 ne compte pas moins de 250 langues (dans la page, cliquez sur « Toutes les langues saisies »).]

Elle reconnaît l'importance de Wikipédia dans la construction de Wikidata. « Sans la communauté, l'expérience, le partage des idées et les outils fournis par Wikipédia, Wikidata ne serait pas là où elle en est aujourd'hui. »[trad 8] En retour, Wikidata soutient la mission de Wikipédia en éliminant plusieurs tâches répétitives. Son influence apparaît aussi parmi les projets frères, entre lesquels Wikidata permettrait de faciliter la collaboration, Lydia Pintscher mentionnant entre autres la difficulté pour Wikimedia Commons de collaborer avec les autres projets frères. Le refus de collaborer pouvait aussi être la conséquence de deux constats :

  1. pour les wikipédiens travaillant surtout dans les grandes Wikipédias, les petites Wikipédias linguistiques sont médiocres faute d'une communauté d'une taille suffisante
  2. les contributeurs des petites communautés craignent de voir leurs meilleurs travaux copiés par les plus grandes Wikipédias linguistiques, sans être reconnus.

Wikidata permettrait d'éliminer ces postures.

Lydia Pintscher indique que lorsque vous utilisez l'Éditeur Visuel, la fonction recherche a été améliorée grâce à Wikidata. Beaucoup d'entités de Wikidata sont maintenant dotées d'une courte description et d'une illustration. La base de connaissances libre augmente aussi la visibilité des médias de Wikimedia Commons. Elle permet de quantifier le biais de genre sur Wikipédia, et même de connaître les domaines les mieux et les moins couverts dans une langue, encyclopédiquement parlant. L'auteure déclare que, pour les nouveaux contributeurs, Wikidata constitue un point d'entrée dans l'écosystème Wikimedia moins intimidant que Wikipédia.

Elle termine en exprimant sa reconnaissance envers Wikipédia, le grand projet frère avec lequel il est parfois difficile de cohabiter, et affirme que Wikidata continuera de soutenir Wikipédia, tout en étant un vecteur de changement pour l'encyclopédie libre.

Dans les coulisses de la WikimediaModifier

Rouge Admin — Sur un ton humoristique, des administrateurs de la Wikipédia en anglais déclarent faire partie des Rouge Admin, voulant ainsi démontrer qu'ils ne sont pas des Rogue Admin (que l'on peut traduire par « admin rebelles/agressifs/dangereux »). Ils soutiennent la mission de l'encyclopédie, peu importe les sujets controversés : islamisme, homophobie, athéisme, Big Pharma, extrême-gauche/centre/droite, fascisme, hommes en noir... [8]

Images synthétiques — En mai 2019, cette publication a évoqué des problèmes qui pourraient apparaître dans l'écosystème Wikimedia si des images synthétiques venaient à être téléversées dans Wikimedia Commons. La société Facebook utilise déjà un logiciel de détection de vidéos truquées (des deepfake). Reconnaissant que ce logiciel peut être surclassé, elle a organisé un concours où plus de 2 000 participants ont soumis 35 000 modèles de recherche. Facebook a embauché des acteurs pour créer environ 800 heures de vidéos filmés sur smartphone, le média le plus courant des vidéos téléversées dans le site. Par la suite, les modèles ont « étudié » les vidéos. La majorité n'a pas dépassé la barre des 50 % de réussites, ce qui a déçu le responsable du programme de recherche. Les meilleurs modèles ont ensuite été utilisés pour découvrir les vidéos truquées d'un nouvel ensemble de vidéos, qui comprenait un mélange de « vraies » et de « fausses » vidéos. Le meilleur modèle a atteint 65 % de réussite. Facebook envisage de publier les modèles sous une licence libre. [9]

References responsive — La balise <references> accepte le paramètre responsive, ce qui indique au moteur de Wikipédia d'afficher les références sur une ou plusieurs colonnes selon l'appareil de consultation (portable, tablette numérique, smartphone...). (fr)[10]

Courrier du lectoratModifier

(Il nous fera plaisir de lire les messages déposés ici et, si nécessaire, d'y répondre dans les plus brefs délais.)

  • J'ai lu, ou relu, je ne sais plus, la discussion du Bistro sur l'infobox Biographie2. Elle résume très bien la plupart des critiques qui ont été faites à son sujet et la philosophie derrière son apposition ou non.
    Avec le recul, je constate certaines choses :
    • Le vocabulaire utilisé par certains intervenants a souvent été souligné comme clivant. Difficile d'avoir un échange constructif quand quelqu'un qualifie le travail d'un autre de moche, torchon, à passer en SI, importe de la merde, etc.. J'ai l'impression que de nos jours, ce genre de propos est beaucoup moins toléré sur notre site.
    • Un intervenant dit qu'il aurait fallu faire plus de pédagogie plutôt que de déployer le modèle en masse. De la pédagogie, j'en ai fait ad nauseam pendant plus d'un an. Malheureusement, c'était toujours à recommencer au fur et à mesure que de nouveaux contributeurs s'intéressaient au sujet. J'ai pris la peine de développer abondamment la documentation du modèle et j'ai expliqué et réexpliqué les choses, mais les gensplusieurs ne lisaient pas (ou peu) et se contentaient de balancer leur opinion forgée en 5 minutes à partir d'exemples filtrés par leur biais de confirmation.
    • Mais ce qui me frappe le plus, c'est l'histoire de la divergence des données.
      Dans notre contexte pandémique actuel, où la démarche scientifique bénéficie d'une exposition médiatique hors normes, une bonne partie de la population perd ses repères. On constate qu'une majorité préfère une fausse certitude qu'une vérité avec un degré d'incertitude. Hors « la science n'est pas la quête de la vérité mais la recherche de degrés de certitudes ». Dans un contexte où il existe une certaine incertitude, la science, tout comme le libre, fait le pari de la transparence, de tout mettre sur la table afin que tou-te-s puissent participer au tri (avec suffisamment d'yeux, les bugs sont minimisés). Ainsi, par exemple, si les données brutes internationales, desquelles a été tiré ce fameux article pourri de The Lancet, avaient été (libres|ouvertes), quelqu'un aurait rapidement constaté leur faible (euphémisme) qualité et les chercheurs ne se seraient pas décrédibilisés (et créé cette catastrophe de communication publique) avec cette publication.
      Ainsi, si je reviens à la conversation de septembre 2014, on voit plusieurs personnes cracher sur Wikidata et dire que la plupart du temps, c'est frwiki qui a raison. Ce chauvinisme m'a toujours étonné. Par la suite, en faisant quelques coups de sonde, on a constaté que le tiers des informations de frwiki étaient "fausses", le tiers de Wikidata et qu'aucun des deux sites n'avaient "raison" pour le dernier tiers. Ainsi, la communauté de frwiki préférait que le deux tiers des articles concernés affichent des informations fausses, périmées ou incomplètes, plutôt que de "risquer" d'insérer une incertitude sur le dernier tiers.
      Il y a plusieurs alibis rationnels pour justifier cette position, mais le rejet était surtout justifié par la forme de chauvinisme dont j'ai parlée, consolidée par une fierté mal placée et par l'idée qu'une divergence d'information n'est qu'une incohérence. Non seulement cette vision binaire du savoir est antiscientifique et antipédagogique, mais elle va à l'encontre de la wikiFoi, qui implique de ne pas hésiter, de supposer la bonne foi et de corriger le tir a posteriori en cas de problème. - Simon Villeneuve 2 juillet 2020 à 15:41 (CEST)
  • Le rejet de Wikidata par des membres de la communauté frWiki n'a rien à voir avec une contestation de la démarche scientifique. L'usage de Wikidata dans Wikipédia ne relève en rien d'une démarche scientifique, seulement de l'usage d'outils techniques. Wikidata suscite des questions concernant l'usage de la technique (les traitements de masse de données, notamment), sa supposée neutralité et le processus de substitution du critère d'efficacité à tous les autres. Prétendant simplifier les tâches de contribution, des usages de WD dans WP ne font qu'escamoter l'exigence première de qualité ; des problèmes éditoriaux deviennent des bogues à corriger.
    D'autre part, les usages de WD dans WP imposent une mobilisation des bonnes volontés wikipédiennes pour remplir WD de données, une mise au travail (contributions à WD sous license C0) qui mérite une délibération soutenue et informée. --ContributorQ() 3 juillet 2020 à 23:10 (CEST)
  • La reproductibilité est un aspect fondamental de la démarche scientifique. Lorsqu'une autre équipe arrive à des résultats différents pour une même expérience, il faut mettre les données sur table pour voir ce qui se passe, pour comprendre pourquoi il y a divergence. S'il a été démontré que les données de l'une et de l'autre des équipes sont d'une qualité équivalente, laisser par défaut les données de la première équipe en place en refusant de mettre en lumière les divergences apportée par l'autre équipe est antiscientifique.
    Ce n'est pas la première fois que vous dites que votre critère d'efficacité irait à l'encontre de la qualité, mais je ne comprends pas votre raisonnement. Présentement, il y a des milliers d'articles biographiques sur notre site qui comportent des erreurs, dont la qualité est mise à mal. L'apposition de l'infobox par bot permettrait de mettre en lumière ces dernières auprès des lecteurs, avec environ un tiers de faux-positifs. J'y vois une amélioration globale de la qualité. C'est un autre aspect de la démarche scientifique : on exprime haut et fort, en toute transparence, les incertitudes sur les données plutôt que les laisser en place sous prétexte que mieux vaut un article sans incohérence mais avec des faussetés qu'un article avec des incohérences qui expose une certaine confusion/incertitude sur des données.
    Enfin, si vous n'êtes pas capable de digérer le CC0 (ça a été mon cas un certain temps), rien ne vous oblige à aller dans Wikidata. Si vous constatez des divergences, il s'agit simplement de forcer l'affichage des "bonnes" données en dur dans Wikipédia. - Simon Villeneuve 6 juillet 2020 à 12:59 (CEST)
  • Merci de bien vouloir rester correct et ne pas prendre vos contraditeur(e)s pour des abruti(e)s. « [S]i vous n'êtes pas capable de digérer le CC0 » est un attaque ad hominem. Votre premier texte est boursouflé de dénigrements du genre « les gens ne lisaient pas (ou peu) et se contentaient de balancer leur opinion forgée en 5 minutes à partir d'exemples filtrés par leur biais de confirmation ». En gros, les personnes défavorables aux usages de WD dans WP sont des crétins.

    Je ne parle pas du tout de moi qui, aprés réflexion, a choisi, depuis longtemps, de ne plus participer au projet Wikidata. Je ne parle pas non plus « de la démarche scientifique », mais du rejet de Wikidata qui « n'a rien à voir avec une contestation de la démarche scientifique ». J'affirme que « les usages de WD dans WP imposent une mobilisation des bonnes volontés wikipédiennes pour remplir WD de données », en soulignant que, en particulier, tout le monde n'a pas forcément envie de placer ses contributions sous licence CC0 et/ou de remplir bénévolement une base de données.

    « il s'agit simplement de forcer l'affichage des "bonnes" données en dur dans Wikipédia. »
    Ah, vraiment ? Démonstration : dans l'article Parc national d'Aso-Kujū, les données de l'infobox sont issues de Wikidata. La valeur de la catégorie UICN est erronée. Dans une version avec la valeur en dur rien ne change. Il faudrait donc modifier la fiche WD correspondante (rappel : je ne contribue pas à ce projet) ou corriger un bug dans le modèle ou dans le module qu'il appelle (bogue signalé le 26 avril 2020 puis le bogue signalé le 3 mai 2020). « il s'agit simplement », vous dites...

    J'ajoute qu'il y a un énorme défaut d'interfaçage entre WD et WP, dû vraisemblament à l'empressement technicien de l'implémenter en bricolant des machins et des bidules (on corrigera les bogues dans des versions à venir... Version 4.023, 23.01, 57.02.09c ou, peut-être, 2035/wmf.32y... Sans compter que chaque nouvelle version ramène son lot de nouveaux bogues...). Du code de WD ne devrait pas être importé de WD dans WP.

    PS : je tiens à préciser que je ne suis pas « anti-Widata ». J'estime que le projet Wikidata est une bonne idée et un projet intéressant. Je désapprouvre nombre des usages de WD faits dans WP et, surtout, je déplore notre incapacité collective à maintenir une délibération sereine qui éviterait que s'impose systématiquement le fait accompli technicien. --ContributorQ() 6 juillet 2020 à 18:13 (CEST)
  • Recoucou,
    Je n'entamerais pas une discussion sur ce sujet si je ne pensais pas pouvoir "rester correct". Je pense que j'ai désormais le recul nécessaire pour aborder la chose correctement.
    Ainsi, il n'y avait aucune intention de blesser en disant "pas capable de digérer". Je voulais simplement souligner que je comprenais que des personnes ne veulent pas, notamment, mettre en CC0 leurs contributions car j'ai fait partie de ces personnes un certain temps.
    En ce qui a trait à l'histoire du biais de confirmation, j'exprime ce que j'ai ressenti à plusieurs reprises et je ne visais personne en particulier. De plus, je ne les traitaient pas de crétins, mais de personnes refusant d'aller au-delà de leurs préjugés et refusant la discussion ou les réponses qu'on leur donne. "Buckées" serait un meilleur mot et non, ce n'est pas tous les opposants à Wikidata qui sont "buckés" (j'ai corrigé le tir dans ma première intervention).
    J'aurais aimé que vous rebondissiez sur l'idée que l'on occulte délibérément des erreurs sur frwiki par chauvinisme plutôt que vous me pointiez un modèle d'infobox défectueux, où les valeurs en dur ne sont pas tenues en compte. Ce n'est pas le cas de l'infobox Biographie2, source initiale de mon commentaire. Dans le cas qui vous occupe, si vous n'arrivez pas à trouver quelqu'un pour corriger la chose, vous n'avez qu'à remplacer par une infobox classique ou à retirer l'infobox Wikidata.
    « n'a rien à voir avec une contestation de la démarche scientifique » : ce n'est pas en vous répétant, auto-citant et soulignant votre affirmation qu'elle en sera plus vraie. J'ai exposé en quoi je trouve antiscientifique et antiwiki le refus de mettre en évidence les divergences entre Wikidata et Wikipedia en français, de laisser en l'état des milliers d'articles biographiques dont on sait qu'ils sont problématiques et vous n'avez pas daigné me dire en quoi mon raisonnement n'est pas bon. - Simon Villeneuve 6 juillet 2020 à 18:50 (CEST)
  Simon Villeneuve, ce que vous affirmez sur la méthode scientifique me semble correct, mais cela ne concerne pas l'usage d'outils techniques. En utilisant WD dans WP, nous ne faisons pas de la science, même dans les justifications possibles des usages de la technique. Nous ne faisons qu'utiliser des outils techniques. Nous ne suivons pas une démarche scientifique ; nous appliquons des recettes algorithmiques selon des normes techniques.
Je n'affirme pas qu'il ne faut pas utiliser WD dans WP, mais que nous en faisons un mauvais usage, en général. WD est fait pour, certes, centraliser des données, mais surtout pour faciliter et étendre le travail de bots. WP c'est pour les automates programmables. La répartition des tâches est donc binaire : exploitation des données WD par des automates — comment font Google et Amazon ? — et remplissage de la base. Je suis d'avis qu'il faut exploiter WD, depuis WP, sans forcer la mobilisation wikipédienne pour le remplissage de la base de données. Il ne faut pas construire de surcouche WD à WP, mais des bots qui enrichissent WD à partir des données extractibles de WP et qui mettent à jour WP en important des données disponibles dans WD. Si une couche d'accès aux données WD doit être implémentée, elle doit l'être dans WD. Les modèles, les modules et encore moins les articles ne devraient pas contenir de Qcode.
D'autre part, le cœur de l'activité wikipédienne, qui correspond à l'ambition du projet, est l'élaboration de contenu encyclopédique. Des critères de qualité encadrent cette activité artisanale fondamentalement humaine. Les usages possibles de WD dans WP ne sont d'aucune aide pour honorer nos critères de qualité. En revanche, ce qu'ils peuvent apporter d'efficacité dans la normalisation de certaines tâches est à prendre en considération. J'affirme que la recherche de la qualité est et doit rester toujours une priorité supérieure à tout autre. Je ne parle pas de qualité effective, constatable ponctuellement et que l'usage d'outils techniques pourrait éventuellement satisfaire, mais bien d'une hiérarchie a priori de critères d'appréciation. Autrement dit, la qualité est une fin, l'efficacité n'est qu'un moyen, à mettre modestement au service de cette fin.
Les algorithmes sont bâtis sur des représentations toujours plus pauvres que la complexité du réel. En particulier, ils ignorent le contexte de production des motifs qu'ils identifient — c'est la conséquence de notre propre ignorance et le prix à payer pour l'efficacité. Cet aveuglement technicien est la source des faux positifs. Du contexte de production du contenu encyclopédique émerge la qualité, la part de subjectivité contributive proprement humaine. La reconnaissance de la supériorité de celle-ci ne relève pas de la logique, c'est un choix politique. Bien que technophile, c'est ce choix que je défends.

Il semblerait que nous soyons d'accord sur au moins un point : notre incapacité collective à délibérer sereinement. --ContributorQ() 12 juillet 2020 à 20:12 (CEST)
(la notif n'a pas fonctionné)
  ContributorQ : Dommage que vous répétiez encore et encore qu'il n'y a qu'une seule interprétation possible à notre usage de Wikidata sur Wikipédia (nous ne faisons QUE). Ce que vous faites, c'est d'exposer une énième fois une opposition artificielle entre efficacité et qualité, entre technocrates automates et encyclopédistes artisans, entre bots sans cervelle et humains intrinsèquement supérieurs. J'ai ouvert une discussion sur plusieurs sujets et vous les ignorez tous pour mettre à nouveau de l'avant votre lecture unidimensionnelle et exclusive de la situation. Vous continuez à balayer du revers de la main mes affirmations (Les usages possibles de WD dans WP ne sont d'aucune aide pour honorer nos critères de qualité) pour continuer à plaquer vos vérités hermétiques.
Je vous laisse donc à votre monologue habituel. Pour moi, cette "conversation" est terminée. - Simon Villeneuve 13 juillet 2020 à 12:59 (CEST)
Non pas des « bots sans cervelle », mais nos cervelles limitées par nos biais (voir, par exemple, gouvernementalité algorithmique et idéologie des big data, Antoinette Rouvroy, Youtube, 2018).
Mon but n'est pas de vous convaincre — je connais votre point de vue ; vous connaissez le mien —, mais d'exposer des arguments qui portent la contradiction aux vôtres et, par suite, établissent qu'il y a débat et même controverse. Je tenais à souligner que celle-ci est légitime et à développer. --ContributorQ() 15 juillet 2020 à 11:29 (CEST)
« Peu importe qu'une langue soit une véritable vision du monde ou non, une encyclopédie collaborative
comme Wikipédia offre la meilleure chance de permettre à tout locuteur d'une langue de l'immortaliser.
[trad 9],[1] »
— Marc Miquel-Ribé
Rédigé/traduit par Cantons-de-l'Est
Citations originales
  1. (en) « for two reasons: to foster the growth of internet-based businesses and to allow platforms to develop their own moderation practices without becoming liable for every word that their users post. »
  2. (en) « But Wikipedia is less likely to be accused of this historical erasure since, with few exceptions, the software preserves the project’s entire edit history. »
  3. (en) « For any of our ancestors, Wikipedia would be nothing short of a miracle. We know it’s not; it’s just a system constructed on electricity forced into silicon chips. But systems are only as powerful as the people who build them allow them to be. In that light, the work contributors such as these five here do, without asking for recognition, fame, praise, or fortune, often refusing it voluntarily, is nothing short of a modern miracle. »
  4. (en) « Wikidata is arguably one of Wikipedia's most successful sister projects. It had a profound impact on Wikipedia in just a few years. »
  5. (en) « Wikidata was to be a free and open knowledge base for Wikipedia, its sister projects and the world that helps give more people more access to more knowledge. Today, it provides the underlying data for a lot of technology you use and the Wikipedia articles you read every day. »
  6. (en) « As it evolved, Wikidata became an attractive source for Wikimedia projects and those who used to data-scrape Wikipedia infoboxes. External websites, apps, and visualisations used this information as a basic ingredient: from a website for browsing artwork, to book inventory manager, to history teaching tools, to digital personal assistants. Now, Wikidata is used in countless places without most users even being aware of it. »
  7. (en) « Wikidata is striving to change that by not trying to force one truth but by collecting different points of view with their sources and context intact. »
  8. (en) « Without the community, experience, mindshare and tools that Wikipedia provided, Wikidata would not be where it is today. »
  9. (en) « No matter whether a language is a real entire worldview or not, a collaborative encyclopaedia like Wikipedia provides the best chance to allow any language speakers to immortalize it. »
Notes
Références
  1. (en) Marc Miquel-Ribé, « The Sum of Human Knowledge? Not in One Wikipedia Language Edition », Wikipedia @ 20,