Sous-pages
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
novembre / décembre
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24

Entre la poire...



...et le fromage...

...ajoutons quelques mots sur Wikipédia:
« Sardine à l'huile que fais-tu là rachichi, rachacha, sardine à l'huile que fais-tu là, le chat n'est pas là ! »

— Même pas vrai !

Aujourd'hui, dans Wikipédia modifier

Le 7 décembre 2023 à 23:55 (CET), Wikipédia comptait 2 574 366 entrées encyclopédiques, dont 2 120 articles ayant obtenu le label « Article de qualité » et 3 949 articles ayant obtenu celui de « Bon article ». Pour améliorer le contenu de Wikipédia, nous vous proposons de travailler les articles ci-dessous. N'hésitez pas à ajouter des liens internes, des images, des notions encyclopédiques ou simplement corriger les fautes d'orthographe. Demandez de l'aide en cas de doute ou visitez la page des premiers pas des contributeurs.

Articles remarquables et labels modifier

  Contrôlez, relisez, améliorez et actualisez si besoin ces pages labellisées un 7 décembre :

Pommes à croquer modifier

Articles à améliorer modifier

Articles à créer modifier

Suivi des débats d'admissibilité modifier

Anniversaires modifier

(Pour que l'on n'oublie pas le vôtre…)

Voter pour une écriture plurielle des articles de taxons modifier

Bonjour à tous les contributeurs. Je vous propose de voter pour savoir si le modèle {{Liens}} est bien généralisable à tous les articles du wiki.fr. En effet, un groupe de biologistes, partisans de l'outil Projet:Biologie/Taxobot, pour créer un article de taxons veulent désormais (depuis quelques semaines) que leur écriture soit la seule possible; ils veulent donc supprimer l'insertion du modèle {{Liens}} dans ces articles de taxons.

 
La Liberté guidant le peuple.

rappels historiques :

a) La page Projet:Biologie/Taxobot date du

b) Le modèle {{Liens}} date du

==> Ces deux écritures étaient donc parfaitement possibles et pratiquées depuis mi 2021.

==> Voter <==

PS modifier

Le Projet:Biologie/Taxobot est un outil (fr) à installer sur un poste de travail (en test sur MacOS !) et n'est pas un gadget des préférences wiki.

Le modèle {{Liens}} est déjà inséré dans 376 000 pages distinctes au , et s'inscrit dans la ligné des taxonbar wikispecies Wikispecies Taxonbar et des autres langues Template:Taxonbar.

A vos votes et en vous en remerciant d'avance --Philippe rogez (discuter) 7 décembre 2023 à 09:15 (CET)Répondre

Analyse à grande échelle des commentaires sur les pages de discussion utilisateurs modifier

Une recherche académique sur l'effet des commentaires toxiques sur la rétention des personnes qui contribuent à Wikipédia a été publiée récemment : Toxic comments are associated with reduced activity of volunteer editors on Wikipedia. Elle analyse sur une période de 20 ans plusieurs millions de commentaires déposés sur les pages utilisateurs des 6 plateformes Wikipédia les plus actives, dont Wikipédia FR. La détermination du niveau de toxicité a été faite avec l'algorithme Perspective API (Notamment utilisé par Le Monde). On observe une diminution de l'activité des personnes contributrices à la suite de ces commentaires ainsi qu'un risque important de quitter le projet Wikipédia. Waltercolor (discuter) 7 décembre 2023 à 10:36 (CET)Répondre

Merci pour le lien, mais pourquoi se focaliser sur ce genre d'étude négative? N'y a t'il pas un biais cognitif derrière ce genre d'étude? N'existe t'il pas d'étude montrant que les commentaires bienveillants et les remerciements contribuent à fidéliser les contributeurs? -- Speculos 7 décembre 2023 à 10:48 (CET)Répondre
Y'a vraiment pas besoin d'une API, d'une IA ou de je sais quel truc moderne pour comprendre que si on se fait insulter, menacer, harceler - et que personne bouge -, on se casse. Croquemort Nestor (discuter) 7 décembre 2023 à 11:21 (CET)Répondre
@Speculos : Y'avait une analyse statistique sur le système Wikipédien des remerciements (lien à cliquer) qui concluait que les "merci" font plaisir, mais ne servent pas à fidéliser/retenir les contributeurs. Bref, un merci, c'est cool mais ça sert à rien pour l'amélioration du contenu encyclopédique. - Irønie (d) 7 décembre 2023 à 12:20 (CET)Répondre
Je serais très intéressé par des exemples de commentaires toxiques. Comment un algorithme fait-il la différence entre un commentaire légitimement négatif ({{Test 3}} pour prendre un exemple extrême) et un commentaire toxique ? L'article parle de productivité perdue, or un commentaire négatif visant à limiter un comportement indésirable (vandalisme, spam, conflits d'intérêts, attaques personnelles) est productif. Mais il peut être difficile de confronter un comportement indésirable sans que cela ne soit pris pour une attaque (donc toxique ?). Marc Mongenet (discuter) 7 décembre 2023 à 11:20 (CET)Répondre
Marc: à vue de nez, je dirais qu'un commentaire négatif constructif vise ce qu'on fait (tu as fait ceci, et c'est nul/moche/raté...) et un commentaire négatif toxique vise ce qu'on est (tu es un emmerdeur/complotiste/troll..).--Dilwen (discuter) 7 décembre 2023 à 12:38 (CET)Répondre
« C'est nul/moche/raté » est selon moi loin d'être constructif  , vu que ça ne fait que blesser celui qui le reçoit sans lui proposer des pistes d'amélioration. DarkVador [Hello there !] 7 décembre 2023 à 21:32 (CET)Répondre
Oui, mais ça ne touche que nos actions. Personnellement, si on critique, même durement, ce que je fais (par exemple sur le tableau de sources que j'avais essayé de créer, pour citer un exemple récent), je peux me mettre à distance et me remettre en question, sans en vouloir au critique, ça ne me blesse pas, au contraire. Par contre, un admin a déjà accolé le mot de troll à mon nom, là ça touche mon être, et ce n'est vraiment pas agréable. Je n'oublie pas ce genre de truc, je ne pardonne pas. D'ailleurs, beaucoup discuté avec des profs, qui le disent souvent : critique ce que fait un élève, pas ce qu'il est. --Dilwen (discuter) 7 décembre 2023 à 22:32 (CET)Répondre
Mouais... C'est justifiable, mais je ne pense pas que ça ait beaucoup d'intérêt dans une encyclopédie collaborative quand même. DarkVador [Hello there !] 7 décembre 2023 à 22:34 (CET)Répondre
OK, mais comme ça arrive, vaut quand même mieux en tenir compte. --Dilwen (discuter) 7 décembre 2023 à 22:38 (CET)Répondre
Tout à fait d'accord avec Marc Mongenet. C'est trop caricatural, il n'y a pas les méchants anciens d'un côté et les gentils nouveaux de l'autre. Le chat perché (discuter) 7 décembre 2023 à 11:24 (CET)Répondre
@Marc Mongenet Les détails concernant les degrés de toxicité établis, des exemples ainsi que les scores par version linguistique sont détaillés dans l'annexe. Waltercolor (discuter) 7 décembre 2023 à 11:49 (CET)Répondre
L'article est très intéressant et pas trop ardu à lire, pas tout lu maintenant mais j'y reviendrai. Merci @Waltercolor pour le lien. Frenouille (discuter) 7 décembre 2023 à 12:34 (CET)Répondre
@Waltercolor Merci beaucoup pour le lien, j'ai pu trouver l'annexe (le lien direct ne fonctionne malheureusement pas/plus). Les exemples et leur gradation sont plutôt convaincants. Il n'y a guère que les cas 1 et 3 (0,07 et 0,21 de toxicité) où l'algorithme semble confondre l'humilité (cas 1) et une notification très standardisée à propos de vandalisme (cas 3) avec de la toxicité. Il serait aussi (plus) intéressant de voir combien de temps restent dans Wikipédia ceux qui émettent des commentaires toxiques, surtout ceux qui dépassent le 0,5. Marc Mongenet (discuter) 7 décembre 2023 à 14:57 (CET)Répondre
Ah désolée.. J'ai mis le lien complet mais pas sûre que ça marche parcequ'il y a un code d'expiration. Waltercolor (discuter) 7 décembre 2023 à 15:07 (CET)Répondre
Un tel outil pourrait aussi permettre de juger plus objectivement les wikipédistes « pénibles ». Car pour l'instant c'est un processus laborieux et subjectif qui fini par des votes d'exclusion/banissement. Marc Mongenet (discuter) 7 décembre 2023 à 15:00 (CET)Répondre
@Marc Mongenet Oui ! j'aime cette idée d'un calcul individuel de la toxicité des utilisateurs frwiki. Tant pour décortiquer et comprendre les affaires passées (erreurs de gestion), que pour signaler et prévenir… :) Irønie (d) 7 décembre 2023 à 18:26 (CET)Répondre
Un toxic comment dans la culture états-unienne ne désigne pas forcément la même chose qu'un commentaire toxique dans les cultures francophones... Ou peut-être devrai-je bientôt écrire "désignait", à force de se faire bouffer linguistiquement et culturellement, Deepler et ChatGPTer à la chaîne.
{{petit|P.-S. : académique => universitaire ; la rétention, c'est plutôt pour les jambes lourdes ou les mesures de contrainte ; contributeur n'est pas un adjectif, mais bon on comprend, hein, alors...}} Sherwood6 (discuter) 7 décembre 2023 à 12:50 (CET)Répondre
Rétention fait sens pour des milliers de professionnels du web ; s'agit pas d'un usage littéraire ou d'un néologisme, mais d'un concept clair web/marketing et d'une mesure cruciale pour des milliards d'euros chaque jour. - Irønie (d) 7 décembre 2023 à 17:06 (CET)Répondre
L'article ne définit pas ce qu'est un « commentaire toxique », il renvoie pour cela à d'autres études sur des réseaux sociaux. Apparement, un « commentaire toxique » est repéré par des mots appartenant à un « langage offensif » de type harcèlement. À partir de là, l'article vise à montrer que le commentaire toxique est lié à une « perte de productivité » des contributeurs ainsi intoxiqués. Ce n'est pas la première fois que je tombe sur un article de wikipédologie universitaire qui enfonce des portes ouvertes (une mauvaise critique décourage) et qui fait semblant de ne pas comprendre l'articulation des PF, surtout entre le 2e et le 4e.
Ce qui m'étonne et qui m'inquiète, c'est qu'on puisse s'intéresser/se préoccuper de la productivité d'une activité bénévole (?!). Si ça continue, la communauté wikipédienne sera chapeauté par des wikipédologues.--Pat VH (discuter) 7 décembre 2023 à 13:04 (CET)Répondre
Bonjour. Ce qui m'étonne et qui m'inquiète, c'est qu'une partie de la communauté soit si prompte à considérer que tout va bien madame la marquise. La question n'est pas celle de la « productivité », mais plutôt de la capacité de la communauté à se renouveler (a) et à se diversifier (b). Évidemment, certains ne verront pas le rapport avec la choucroute, mais le fait que la communauté demeure environ à 80 % masculine n'est pas anodin ; je ne prétends pas que la nature des échanges wikipédiens soit le seul facteur explicatif du fossé de genre, cependant le fait que plusieurs contributrices de ma connaissance prennent soin de cacher leur genre m'interpelle, par exemple.
Jules* discuter 7 décembre 2023 à 13:12 (CET)Répondre
Le fait que la communauté soit à 80% masculine s'explique par la structure de départ de Wikipédia, un groupe de jeunes étudiants informaticiens, en gros. Car toute la structure est fondée sur des gens qui savent coder, qui savent inventer des codes, à qui les codes ne font pas peur. Et il suffit de voir la fréquentation d'une fac de sciences, dans le département informatique (pardon de la simplification), pour se rendre compte qu'en 2001 c'était très majoritairement masculin, et je ne crois pas que ça ait beaucoup changé. Pour les contributrices qui soi-disant "cachent" leur genre (le cachent-elles vraiment? Les curieux ont-ils cherché deux secondes?), c'est tout simplement peut-être parce qu'elles se disent que ça ne regarde personne, et qu'on ne devrait pas être influencé par le genre d'une personne pour collaborer sur Wikipédia. Puisque ce site ne favorise pas les relations amicales entre wikipédistes, par prudence et pour les protéger, entre autres raisons valables, il n'y a donc pas de motif de révéler quoi que ce soit de sa vie. --Dilwen (discuter) 7 décembre 2023 à 13:56 (CET)Répondre
À partir du moment où les contributeurs sont par principe anonymes , il me semble difficile de donner un pourcentage selon le sexe, ou alors j'ai manqué quelque chose {{clin} --Adri08 (discuter) 7 décembre 2023 à 14:01 (CET)Répondre
@Adri08 : les pourcentages sont issus d'enquêtes auprès des contributeurs et contributrices, qui peuvent alors déclarer leur genre (même s'ils ne le déclarent pas publiquement sur Wikipédia). — Jules* discuter 7 décembre 2023 à 14:25 (CET)Répondre
Ce genre d'enquête ou les sondés participent s'ils le veulent n'est pas forcément représentative de la réalité. On ne sait même pas définir ce qu'est un contributeur moyen : le nombre d'éditions ne veut pas dire grand chose, la taille apportée/retirée non plus, et juger de la valeur des contributions est subjectif et doit prendre en compte de très nombreux facteurs.
Surtout, il faudrait que le sexe/genre ait une réelle importance sur la qualité et la quantité des contributions, ce qui reste à démontrer.
Si l'on ne peut pas distinguer la contribution d'une femme de celle d'un homme, je ne vois pas trop l'intérêt à s'attarder là-dessus, et la proportion d'articles sur des femmes/des hommes ne doit pas tellement différer de celles des sources. Şÿℵדαχ₮ɘɼɾ๏ʁ 7 décembre 2023 à 14:56 (CET)Répondre
@Dilwenor46 Concernant la part des femmes contribuant à Wikipédia, aucune des explications ne m'a jamais convaincue. Je participe beaucoup à un autre projet où il n'y a pas de wikicode, et où il n'y a pratiquement aucune interaction sociale. Si le code est les interactions étaient une explication valide, alors cet autre projet aurait plus de 50% de contributrices. Or on estime qu'il en a encore moins que dans Wikipédia. Marc Mongenet (discuter)
Sais pas. Il me semble que la misogynie est évidente sur Wikipédia, comme un éléphant dans un couloir, mais c'est très difficile, sinon impossible de le prouver. Il faudrait faire un test du genre : un homme ouvre un compte sous un pseudo féminin, documente ses interactions et tente de voir s'il ressent des différences. De manière générale, je dirais que j'ai l'impression, en observant les interactions entre wikipédiens et wikipédiennes, que les femmes sont moins prises au sérieux que les hommes. Cela expliquerait ce que dit Jules, qui est persuadé que certaines "cachent" le fait qu'elles sont des femmes. Mais je ne suis pas psychologue, je me trompe peut-être. Et ça ne donne aucune explication sur la situation de ton autre site. --Dilwen (discuter) 7 décembre 2023 à 23:55 (CET)Répondre
@Nguyen Patrick VH La définition de ce qu'est un commentaire toxique est décrit dans l'annexe dont je redonne le lien ici.
Je vois deux obstacles à l'accès à cette recherche :
- premièrement, il est écrit en anglais et tout le monde ne maîtrise pas cette langue. Cependant cette recherche portant notamment sur Wikipédia en français, il est important que le contributorat francophone soit informé dans sa propre langue des résultats de cette recherche.
- deuxièmement, il s'agit d'une recherche académique dont le style est formaté. Lorsqu'on n'a pas l'habitude de ce type de document, une lecture en diagonale peut donner des informations incomplètes à partir desquelles on va tirer des conclusions erronnées.
Donc, ce que je suggère, par exemple, c'est qu'une instance francophone comme Wikifranca ou des Wikimédiens en résidence qui sont dans un milieu universitaire (poke @Pyb en résidence) prennent rendez-vous avec ces chercheurs australien et allemands et les interrogent sur des points soulevés par la communauté francophone (comme par exemple : Est-ce une étude américaine ? Les définitions de la toxicité proviennent-elles des réseaux sociaux ? Pourquoi on n'analyse jamais les messages positifs et de remerciement ? Etc...) puis publient un compte-rendu en français pour permettre à tout un chacun de fonder son avis sur des informations de qualité dans leur propre langue.
Waltercolor (discuter) 7 décembre 2023 à 14:06 (CET)Répondre
Un point intéressant est aussi que la perte de productivité directement due à un commentaire toxique est peut-être motivée par, tout simplement, la volonté de lâcher prise et retrouver du calme, d'une part, d'autre part la volonté que l'autre retrouve son calme, ce qu'il retrouvera plus vite si on la ferme un moment, puisqu'on semble l'énerver, ou encore plus simplement la volonté de laisser reposer l'histoire. Si c'est le cas, mais c'est difficile à mesurer, on devrait constater, non pas une perte de productivité après un silence dû à un commentaire toxique, mais au contraire un gain de productivité, puisque le fait de prendre de la distance améliore la collaboration à long terme. --Dilwen (discuter) 7 décembre 2023 à 14:22 (CET)Répondre
Ce que je veux dire, c'est que la productivité ne peut se mesurer au seul nombre de contributions. Dans ce cas, ça laisse de côté la qualité de la production, qui est quand même le but premier. --Dilwen (discuter) 7 décembre 2023 à 14:33 (CET)Répondre
Bof, non. Entre l'utilisateur A qui aura fait seulement 2 edits y'a 4 ans. Et l'utilisateur B qui en aura fait 300 y'a 4 ans. D'expérience, je dirais que les édits de A ont presque disparus (correction, annulation) alors que ceux de B ont été plus bénéfiques (car si B avait fait de la merde, il aurait été bloqué après 30 edits). - Irønie (d) 7 décembre 2023 à 17:15 (CET)Répondre
Irønie: dans l'article le silence succédant aux commentaires négatifs est considéré toujours comme une perte de productivité, puisque la personne attaquée se retire un moment, et ne contribue plus. Je dis que ce n'en est pas forcément une, parce que lorsque la personne se retire ça peut être parce qu'elle accepte de passer à autre chose, et ultérieurement, les productions des uns et des autres seront de meilleure qualité, puisque moins de disputes. Cela ne se passe pas toujours comme ça, mais parfois. Donc, il y a des défauts dans les critères. --Dilwen (discuter) 7 décembre 2023 à 18:11 (CET)Répondre
Sait-on si des gens se penchent déjà sur la traduction ? — Exilexi [Discussion] 7 décembre 2023 à 15:06 (CET)Répondre

┌─────────────────────────────────────────────────┘
Bon et alors que peut-on tirer comme conclusion d'une telle enquête? Les commentaires toxiques « c'est pas bien » (on le savait déjà). Les contributeurs qui font des commentaires toxiques doivent être avertis, puis bloqués en cas de récidive? on le fait déjà... -- Speculos 7 décembre 2023 à 15:04 (CET)Répondre

Du coup, les bandeaux d'avertissement et les messages avant blocage sont considérés comme des commentaires toxiques ? De ce que j'ai lu de l'étude (qui semble avoir une définition très large), je crois que oui. Donc si on veut sanctionner les commentaires toxiques, bon j'ai un peu l'impression qu'on se mord la queue...
Sinon il y a l'air d'avoir d'énorme disparité statistiques entre les wiki par exemple wp:de ayant un nombre de commentaire toxique beaucoup plus élevé que les autres Wikipedia's dont celle en français, chose que je ne saurais expliquer... Nouill 7 décembre 2023 à 15:20 (CET)Répondre
Nouill, tu indiques un point très intéressant, que j'ai vu passer lors d'un coup de gueule d'un admin sur les commentaires toxiques sur le Bistro : un commentaire toxique fait en réponse et protestation à un commentaire toxique est-il un commentaire toxique? (je ne fais pas allusion à toi et moi, hein, pax et amitiés, c'est une vraie réflexion, comment l'algorithme peut-il distinguer entre les deux? A mon avis, il ne peut pas...) --Dilwen (discuter) 7 décembre 2023 à 16:03 (CET)Répondre
Bonjour, puisque que @Jules* porte la question sur ce sujet, répartir par sexe, c'est comme répartir par religion ou opinion politique ou ethnie, en quoi cela apporte quelque chose à l'encyclopédie ? Peut etre faudrait il renommer les pages utilisateur/utilisatrice en "compte"? Si des contributeurs veulent renseigner leurs sexe ou genre, ils ont les boites utilisateurs. Car c'est le seul point de différenciation sur lequel les chercheurs se basent pour constater des "biais", ils ne le font pas pour les religions, or certains croyants pourraient se plaindre de ne pas etre représentés sur WP, et je ne parle pas des opinions politiques. Concernant les commentaires toxiques, on a déja eu une tentative de... "recensement", on sait ce que ça a donné. Kirtapmémé sage 7 décembre 2023 à 15:26 (CET)Répondre
Merci @Waltercolor pour cette confirmation d'une évidence empirique. Je suis d'accord avec CroquemortNestor, on savait déjà que les commentaires toxiques ont pour effet de diminuer l'envie de contribuer : si personne ne bouge, "on se casse", ce qui est d'ailleurs le but des commentaires toxiques. Des études sur le trollage sur internet montrent que les premières personnes à partir sont les membres de groupes minoritaires, parce qu'elles ne disposent pas de soutiens suffisants https://www.lemonde.fr/idees/article/2016/10/04/whitney-phillips-le-troll-aggrave-la-polarisation-politique-de-notre-epoque_5007666_3232.html
La question que je me pose est autre : quelle solution ?
Comment on fait pour protéger les personnes isolées ? et comment on empêche des contributeurs qui disposent d'appuis solides au sein de la communauté de de poursuivre leurs nuisances ? S'il y avait une solution déjà en place, l'étude n'aurait pas vu le jour, en l'absence de matériau disponible. Cette étude montre que le problème est toujours là, non résolu. --JMGuyon (discuter) 7 décembre 2023 à 15:31 (CET)Répondre
@JMGuyon comment on empêche des contributeurs qui disposent d'appuis solides au sein de la communauté de de poursuivre leurs nuisances ? Je ne pense pas que cibler un groupe informel comme origine de ces problèmes soit la meilleure manière de les régler. Sinon désignez les. Kirtapmémé sage 7 décembre 2023 à 15:41 (CET)Répondre
JMGuyon: on ne peut pas les protéger, parce qu'on ne sait pas si les gens sont isolés, et on ne sait pas si les gens ont un groupe de soutien. On ne fait que le soupçonner, mais une paranoïa pourrait naître de ce genre de recherche. Il faut choisir entre deux protections : soit une protection générale, en respectant l'anonymat, soit une protection plus ciblée, mais qui suppose alors d'en savoir plus sur la personne, ce qui contredit la protection générale. Le seul remède me paraît le nombre, qui fera qu'une majorité sera des gens "bien" (comme à peu près tout le temps dans la société), que les nuisibles seront vite repérés, et que la majorité protègera naturellement les isolés.--Dilwen (discuter) 7 décembre 2023 à 15:48 (CET)Répondre
@Kirtap Il existe des algorithmes pour détecter les commentaires toxiques. A partir de là nous pourrions remonter aux comptes émetteurs. Le processus serait beaucoup moins subjectif qu'aujourd'hui. En effet, autant on peut entrevoir plein de biais gênants dans les algorithmes, autant il est peu probable que l'algorithme soit plus coulant avec les utilisateurs connaissant les bonnes personnes, ayant plus de poids de le projet, et autres problèmes qui ont fait couler tant d'encre (toutes ces histoires de clique notamment). Marc Mongenet (discuter) 7 décembre 2023 à 15:54 (CET)Répondre
@Dilwenor46 en réponse à "on ne sait pas si les gens sont isolés" : bien sûr que si, on sait. Les comptes qui ne sont pas isolés sont tout simplement les comptes connus. Parmi eux, ceux (peu nombreux, mais actifs) qui enfreignent les règles, et là, il y a toujours quelqu'un qui se pointe pour dire "+1", "je suis d'accord avec ce qui vient d'être dit", histoire d'empêcher l'ouverture d'une RA.
Quant aux gens isolés, c'est tous les autres. Ce sont les personnes pour qui les règles s'appliquent.--JMGuyon (discuter) 7 décembre 2023 à 16:00 (CET)Répondre
JMGuyon: je ne comprends pas comment un compte connu est forcément non isolé. Question de définition des mots "isolés" et "connu", peut-être? Tu peux expliquer?--Dilwen (discuter) 7 décembre 2023 à 16:06 (CET)Répondre
@Dilwenor46 je rectifie ; à la réflexion, ce qui protège, c'est d'avoir des relations, et non pas d'être connu. Certains comptes sont protégés sans que leur pseudo apparaisse jamais sur le Bistro ; cela se voit au fait qu'ils multiplient les bourdes (problèmes de sourçage, synthèses inédites, pov pushing etc.) sans que jamais personne ne leur en fasse reproche.
Un compte isolé est sans protection au cas où il serait exposé à des commentaires toxiques ou pire, à du harcèlement, des attaques en règle etc.; personne ne viendra à son secours, parce que ce serait se mettre à dos inutilement les comptes intégrés qui le malmènent. Il fait peut-être du bon boulot, mais dans son coin, ce qui ne garantit aucune sécurité.
Un indice du degré d'isolement ou d'intégration : si une personne a beaucoup de contrib et que malgré cela, elle est malmenée, c'est qu'elle a peu de soutiens. Au contraire, si une personne a peu de contrib, mais enfreint les règles impunément, c'est qu'elle est soutenue.---JMGuyon (discuter) 7 décembre 2023 à 17:52 (CET)Répondre
Merci, JMGuyon, c'est beaucoup plus clair comme ça, je comprends ce que tu veux dire. C'est très triste que contribuer à Wikipédia soit contribuer tout seul dans son coin. Et qu'il y ait besoin de sécurité--Dilwen (discuter) 7 décembre 2023 à 18:02 (CET)Répondre
@Marc Mongenet mais comment différencier un commentaire toxique, d'une atteinte aux RSV ? Parce que j'ai l'impression qu'on refait le coup des "micro-agressions". Surtout sur des bases informelles et théoriques ne reposant sur rien de concret. Kirtapmémé sage 7 décembre 2023 à 16:13 (CET)Répondre
J'ai jeté un coup d'œil sur le lien donné par Waltercolor (à 14:06). La table S4 qui donne des exemples de commentaires toxiques côtés de 0 à 1, m'a particulièrement fasciné. Une remarque respectueuse, mais exprimant un doute critique vaut 0,07 de toxicité, un procès d'intention 0,49, une guerre d'édition avec accusation réciproque de vandalisme est à 0,55, et une insulte raciste avec menace d'égorgement est à 0,99. Si je comprends bien, ça voudrait dire que quinze remarques critiques ou deux guerres d'éditions valent une injure raciste avec menace de mort. J'en apprends plus sur les auteurs que sur Wikipédia.--Pat VH (discuter) 7 décembre 2023 à 16:15 (CET)Répondre
Ah oui ? 0,21 pour un message d'avertissement signalant à un contributeur que sa page va être supprimée pour vandalisme. Ça vole haut. On retombe dans les memes travers qu'avec le recensement. Kirtapmémé sage 7 décembre 2023 à 16:25 (CET)Répondre
Les algorithmes, c'est fascinant d'objectivité mathématique... sauf quand on gratte la surface pour aller voir les critères sur lesquels ils reposent. Je préférerai toujours un biais humain direct (l'administrateur y, qui ne comprend décidément pas mon humour ou qui s'offusque rapidement de libertés langagières - d'autant qu'il agit collégialement avec les administrateurs a à x et z, dont les biais devraient idéalement rééquilibrer ceux de y ;) ) à un biais algorithmique où des "chercheurs" ou autres imposent indirectement leurs biais. Sherwood6 (discuter) 7 décembre 2023 à 16:36 (CET)Répondre
C'est quel niveau de toxicité, "Pourriez-vous indiquer votre lien avec la personne / l'entreprise sur laquelle vous écrivez" ? Parce que dans 99% des cas, ça fait fuir les gens (mais pour le coup, je ne suis pas certaine que leur départ soit mauvais pour Wikipédia)... Milena (Parle avec moi) 7 décembre 2023 à 17:03 (CET)Répondre
@JMGuyon Quelle solution ? Et bien si les interactions sont trop décourageantes, il faut limiter au maximum les interactions.
Pourquoi ces interactions ne fonctionnement pas correctement ? Parce que ce sont des avis non sollicités qui arrivent dans un espace personnel qui est cependant ouvert à tous les vents.
Nous avons un système de mise à l'eau à la fois rude et infantilisant.
Débuter sur Wikipédia, c'est la douche froide dans un vestiaire collectif sans qu'il ait jamais été prouvé que ce type de traitement de choc améliore l'apprentissage du partage de la connaissance libre.
Il y a un aspect public de toutes les contributions, et ce même pour des essais liés à un apprentissage et nous devrions réfléchir à cette question.
Je pense qu'en 2023 il est temps de supprimer le bac à sable et de le remplacer par un dahsboard personnel, un tableau de bord muni entre autres d'une palette d'essais privée.
Cet espace permettrait de faire des essais d'édition pour tester les fonctions de base de la contribution, mais sans partage collectif, sans regard extérieur et sans historique.
Le dashboard pourrait aussi proposer des séries de petits quiz et tests avec autocorrection, toujours sans regard extérieur.
Des fonctionnalités plus avancées comme des aides à l'édition pourraient également indiquer une probabilité du niveau de conformité d'une contribution et permettre de corriger une contribution ou même d'y renoncer si l'évaluation est négative.
L'idée c'est de donner le plus possible d'autonomie à la personne, de lui permettre de s'exercer sans danger, de la mettre en situation de demander elle-même un second avis humain, mais seulement après qu'elle a fait son autoévaluation en privé.
Signalons au passage que cela pourrait aussi aider des élèves qui, confrontés d'emblée à un travail collectif dans un espace public ont tendance à se lâcher sous le regard d'autrui, mais confrontés à eux-mêmes dans un espace d'étude avec autoévaluation, seraient peut-être plus réalistes quand à leur véritable niveau.
Waltercolor (discuter) 7 décembre 2023 à 17:53 (CET)Répondre
Je ne suis pas sûre que le bac à sable soit encore le moyen de débuter le plus courant. Il y a les brouillons et le forum de relecture maintenant, ainsi que les pages d'aide comme Aide:Débuter. Milena (Parle avec moi) 7 décembre 2023 à 18:17 (CET)Répondre
Quelques remarques.
- La moitié de le l'article est une méta-analyse qui fait la synthèse d'études précédentes. C'est super intéressant, mais ça rallonge beaucoup la lecture.
- L'analyse porte seulement sur les pages discussions personnelles des utilisateurs (sont exclus les messages bot - et je crois les bandeaux/modèles). Sont exclus les PD d'articles !! (et les commentaires d'edit révoqué...)
- Pas d'analyse sur les dialogues avec IP
- Pas de mention de l'aspect « vandale à qui ont écrit "Boulet, on va te bannir !" », où la productivité implique d'exclure les boulets, et donc des tonalités sévères de message.
- Le message est toxique s'il atteint un haut niveau de négativité (genre 0.8) : les messages agressifs ou trashs (pas la majorité des remarques négative "tu as fait une faute d'orthographe").
- L'étude apporte des preuves statistiques/quantitatives pour démontrer que les propos toxiques coupent l'envie de contribuer. Ça enfonce des portes ouvertes, car on le savait ; mais voir le graphique des gars qui arrêtent de contribuer pendant 15 jours (ou définitivement), a quand même été une prise de conscience. Rares sont les contributeurs qui encaissent sans broncher.
- L'analyse porte sur les wikipédiens s'étant inscrits entre 2012 et 2017 selon mes interprétations de Nostradamus (« between the 4,000th and 6,000th day from the first recorded contribution to English Wikipedia »). Soit avant la période Covid (rétentions exceptionnelle des wikipédiens), et avant les débats sur inclusivité et Code de conduite intergalactique. Ensuite la période 2012+ c'est lointain, Internet et Wikipédia étaient différents. Cette période d'analyse m'énerve, car elle ignore les 5 dernières années.
- Quelque soit le wikilove sur WP, les anciens utilisateurs disparaissent progressivement [remplacés par des nouveaux inscrits]. D'après l'allure des graphs, il m'a semblé que : en mode actuel il restait 30 wikipédiens actifs après 3 ans, alors qu'en mode wikilove il en restait 100 : la différence existe mais est-ce que ça change vraiment quelque chose à la productivité ? Les chiffres étaient flous (enwiki ? tous les wikis?). Si forcer une ambiance full-wikilove n'apporte que 10 utilisateurs supplémentaires après 3 ans, ça change pas grand chose. Faut que je fouille. Je veux dire que dans le phénomène de disparition des anciens utilisateurs au fil des années, les nuances toxique/wikilove me semblent un facteur mineur (selon mon interprétation des graphs). Les auteurs esquivent cet aspect mineur et focalisent sur l'hypothèse "restera 0 anciens après 3 ans si full-toxique"
- Il semble exister des différences nettes entre d'un côté enwiki et de l'autre frwiki/eswiki, sur les graphs. Mais aucun commentaire explicatif des auteurs, hélas.
- Irønie (d) 7 décembre 2023 à 17:40 (CET)Répondre
Est-ce qu'on a des données sûres sur cet effondrement du nombre des utilisateurs actifs?--Dilwen (discuter) 7 décembre 2023 à 18:31 (CET)Répondre
@Dilwenor Par effondrement, je parlais du fait que (presque) tous les comptes créés finissent par arrêter de contribuer après quelques années. Y'a pas de fidélisation apparente (rétention), parce que (selon moi) Wikipédia devient trop chiant, trop compliqué ou pas assez rigolo au fil des années, pour la majorité des inscrits.
Mais comme y'a chaque jour de nouveaux inscrits, ceux-ci remplacent ceux qui partent. Irønie (d) 7 décembre 2023 à 18:40 (CET)Répondre
@Dilwenor46 Le nombre de contributeurs actifs frwiki est stable depuis 2008 [1], environ 5500, il remonte même légèrement depuis 3 ans on dirait. Irønie (d) 7 décembre 2023 à 18:49 (CET)Répondre
Merci ! La périodicité est intéressante. --Dilwen (discuter) 7 décembre 2023 à 21:21 (CET)Répondre
Conflit d’édition C'est une étude intéressante, mais je ne sais pas trop quoi en conclure, d'autant plus que je suis bien d'accord avec Irønie sur le fait qu'il y a une érosion inévitable des anciens participants au fil du temps.
Pour répondre à la remarque de Milena, je pense que leur calcul de toxicité tient à peu près la route, parce que les exemples donnés dans la tableau 4 (page 2) se voient attribué un niveau de toxicité relativement cohérent avec mon ressenti personnel à leur lecture, tout au moins pour « le haut du panier » des attaques. En revanche, toutes les remarques « toxiques » évaluées en dessous de 0,35 n'auraient pas dû être prises en compte du tout, tant il est difficile de formuler certaines critiques dans un langage totalement convivial.
Pour les exemples de toxicité évalués 0,49, 0,55 et 0,72, ils sont monnaie courante ici vis-à-vis des admins, et émanent typiquement de nouveaux venus qui se sont vu placer des bandeaux sur leur article, ou dont l'article est carrément passé en SI. Du coup, c'est un peu le monde à l'envers, car je pense qu'un suivi individualisé ferait sans doute très souvent apparaître que l'admin ainsi traité continue à contribuer, mais que le contributeur si mal embouché se fait assez vite bloquer.
Donc, je trouve ça interessant, mais, je le répète, je ne sais pas trop quoi en conclure, surtout au vu de mes dernières remarques. — Azurfrog [नीले मेंढक के साथ बात करना] 7 décembre 2023 à 18:37 (CET)Répondre
Conflit d’édition Dit autrement, je me pose la question de la baisse des contributions chez les insulteurs encore plus que chez les insultés : un nouvel arrivant au sang chaud, prompt à l'insulte, va probablement se faire bloquer indef après quelques récidives et va donc voir s'effondrer sa « productivité »  . Donc, mesurer uniquement la baisse des contributions chez ceux qui profèrent des propos « toxiques » ne donne qu'une partie du tableau. Je sais bien que c'est compliqué, mais j'aurais aimé voir une corrélation entre les attaques toxiques et les blocages, sachant que ces blocages viendront d'autant plus vite que les attaques seront unilatérales. — Azurfrog [नीले मेंढक के साथ बात करना] 7 décembre 2023 à 18:46 (CET)Répondre
Bah, en même temps j’espère bien que quand j’écris sur une pddu « Ce compte est bloqué indéfiniment pour [tel méfait] », il disparaît effectivement pour quelques jours au moins…
A part ça, je me demande vraiment si on a la même définition du mot « sécurité » —JohnNewton8 (SysOp) [Viens !] 7 décembre 2023 à 18:39 (CET)Répondre
Hmmm... Je pense que considérer comme assez « toxique » (indice 0,14) le fait d'écrire « Ta page utilisateur ne fonctionne pas. Il n'y a rien non plus sur la partie Discussion ! », ça n'a pas un niveau de toxicité qui permette de considérer comme significatif le risque de voir partir le destinataire de cette phrase. Et la phrase suivante, évaluée à 0,21, est carrément une formulation très courtoise pour expliquer pourquoi on a placé un bandeau SI en tête d'un article. — Azurfrog [नीले मेंढक के साथ बात करना] 7 décembre 2023 à 18:53 (CET)Répondre
Oui mais du coup c'est pas considéré toxique parce que toxique ne s'applique qu'à partir de 0.8, non ? On se fiche un peu du score exact du coup, me semble. — Exilexi [Discussion] 7 décembre 2023 à 19:01 (CET)Répondre
Je ne suis pas sûr que ce soit tout à fait le cas, puisque la méthodologie définie précise que « In particular, we compute activity loss not only for the threshold of (Table 1) but for thresholds from 0.2 to 0.9 ». — Azurfrog [नीले मेंढक के साथ बात करना] 7 décembre 2023 à 19:18 (CET)Répondre
Merci beaucoup pour ce résumé et ces remarques ! — Exilexi [Discussion] 7 décembre 2023 à 19:01 (CET)Répondre
L'étude ne prend pas en compte les PD d'articles. Ça me chagrine car j'ai l'impression que les pires embrouilles et insultes viennent des discussions en PD article ou espaces méta. Perso, je dirais que 70% de mes énervements/embrouilles venaient des PD d'article (ou méta/RA), 30% sur ma PD perso. Et vous ? - Irønie (d) 7 décembre 2023 à 19:56 (CET)Répondre
En effet, Irønie, les problèmes se produisent sur les pdd d'articles ou le Bistro : on est en droit d'effacer un message indésirable sur notre ppdU, et signifier à qqn que l'on ne veut pas le voir "chez nous", par conséquent, l'espace le plus safe reste encore la pddU.--JMGuyon (discuter) 7 décembre 2023 à 20:14 (CET)Répondre

Si j'ai bien vu (« Supplementary Table S3 »), on parle pour la version française de 4,282 PU avec au moins un commentaire toxique détecté pour un total de 455, 598 PU avec au moins un commentaire détecté. C'est assez peu au final, et sans doute assez limité pour chercher à avoir une liste de ces commentaires toxiques. Cela permettrait d'affiner la première analyse. Cdlt, XIII,東京から [何だよ] 7 décembre 2023 à 19:58 (CET)Répondre

1% ! Rolala ! c'est rien du tout. On est trop wikilove ici ! Irønie (d) 7 décembre 2023 à 20:14 (CET)Répondre
Ce n'est pas tant le ratio que je relevais que le chiffre brut de 4,282 PU. Si on veut faire une analyse un peu plus fine pour savoir ce qui a été retenu comme un commentaire toxique, 4,282 PU à analyser, ça reste abordable pour un petit groupe de contributeurs/chercheurs. Cdlt, XIII,東京から [何だよ] 7 décembre 2023 à 20:32 (CET)Répondre
Faudrait obtenir leur liste. Sinon faudra éplucher tous les diffs (à cause d'effacement/archivage) de toutes les PU. Enorme boulot, doit y'avoir genre 50-100 diffs PU par heure. - Irønie (d) 7 décembre 2023 à 20:38 (CET)Répondre
Les données brutes sont . (C'est mentionné au bas de l'article). Waltercolor (discuter) 7 décembre 2023 à 21:19 (CET)Répondre
Bonsoir. Je n'arrive pas à trouver l'information suivante : y a-t-il une recherche ou des données parallèles qui pourraient servir de groupe de contrôle? J'entends par là une analyse d'ensemble sur les raisons qui expliquent qu'une personne quitte le projet. Par exemple : la personne a maintenant un emploi, ou maternité, ou parents âgés, bref IRL. J'ai cherché le mot control dans le document et ce que j'ai compris, c'est qu'il s'agissait d'un groupe de contrôle limité sur 100 jours (napoléonesque?). Merci. --Msbbb (discuter) 7 décembre 2023 à 22:58 (CET)Répondre
Je me réponds : personne ne sait...--Msbbb (discuter) 9 décembre 2023 à 17:28 (CET)Répondre