Wikipédia:Sondage/Adoption d'une recommandation sur l'usage de l'IA générative
Contexte et proposition :
Depuis plusieurs mois, nous sommes confrontés à l'apparition d'articles ou de parties d'articles de mauvaise qualité créés en utilisant des IA génératives (Intelligence artificielle#Grands modèles de langage). Ces créations ont à plusieurs reprises été discutées sur le Bistro, et ont donné lieu à des mobilisations pour les supprimer, ou dans certains cas les corriger. Par la suite, un projet dédié a été créé pour réfléchir aux actions à mettre en œuvre.
Contrairement aux textes imparfaits qui ont été le lot de Wikipédia depuis sa création et qui sont gérés par des corrections, des suppressions ou des appels à amélioration via la pose de bandeaux, ces textes générés par IA posent de nouveaux problèmes.
- Leur rythme de création peut être très élevé (quelques minutes suffisent à créer un texte d'une ou plusieurs dizaines de ko).
- Les erreurs intrinsèques à ce type de création sont très coûteuses à détecter, car sous des apparences correctes, elles nécessitent une relecture exhaustive des sources et une comparaison scrupuleuse du texte généré. La couverture correcte et l'absence de biais de sélection des sources (quand celles-ci sont identifiées) requièrent une charge de travail égale voire supérieure à la création manuelle d'un article par un contributeur si l'on tient compte de la partie analyse et corrections.
- Ce travail de refonte est vécu comme ingrat par les contributeurs, qui se retrouvent asservis à des outils au lieu de créer des articles par eux-mêmes. La conséquence est que nous ne sommes pas assez nombreux pour endiguer le flux.
- La présence de tels articles entachés d'erreur fait peser un risque vital de crédibilité sur Wikipédia : si ces articles se développent, les lecteurs n'ont pas de raison de préférer WP à une interrogation directe des IA.
En l'état actuel, la suppression de tels articles est pourtant soumise aux mêmes règles que celle des articles présentant des défauts de type travaux inédits, et nécessite d'investir du temps coûteux d'analyse ; leur création, pouvant être faite de bonne foi par des contributeurs, nécessite à chaque nouvelle occurrence un long travail pédagogique pour sensibiliser ces contributeurs aux problèmes posés, soit là encore un travail d'analyse article par article pour démontrer les failles présentes. Les administrateurs, de leur côté, n'ont pas de support spécifique pour intervenir en cas d'abus.
Pour ces raisons, il est proposé que l'essai Intelligence artificielle générative soit transformé en recommandation.
Discussion précédente :
Modalités :
Pour participer au sondage, il est nécessaire d'avoir le statut autopatrolled. La durée prévue est de 15 jours entre le 25 mai 2025 et le 8 juin 2025.
Résultats
modifierPour | Contre | Neutre | Total | pour/(pour+contre) | pour/exprimés |
---|---|---|---|---|---|
119 | 14 | 5 | 138 | 89.47 % | 86.23 % |
. | . | . | . | contre/(pour+contre) | contre/exprimés |
. | . | . | . | 10.53 % | 10.14 % |
Question
modifierAcceptez-vous que l'essai Intelligence artificielle générative soit adopté comme recommandation ?
Oui
modifier- L'idée générale me semble aller plutôt dans le bon sens. Nouill 25 mai 2025 à 06:44 (CEST)
- Oui. • Chaoborus 25 mai 2025 à 07:11 (CEST)
- Oui. --KPour les intimes © 25 mai 2025 à 07:55 (CEST)
- Devient nécessaire. Esprit Fugace (discuter) 25 mai 2025 à 09:22 (CEST)
- Oui - Uchroniste40 25 mai 2025 à 09:28 (CEST)
- Devient nécessaire. – L'embellie, le 25 mai 2025 à 09:34 (CEST)
- Oui. Litlok (m'écrire) 25 mai 2025 à 09:42 (CEST)
- Sûrement. — JKrs's (discuter) le 25 mai 2025 à 09:52 (CEST)
- Oui. Arn6338 (discuter) 25 mai 2025 à 09:54 (CEST)
- Oui Me semble équilibré entre les risques et les bénéfices. — Dedeun [discuter] 25 mai 2025 à 10:19 (CEST)
- Oui 🐾 tiloudeux (on papote ?) 25 mai 2025 à 10:28 (CEST)
- Oui Ca me semble être un bon point de départ qu'il faudra faire évoluer en fonction des usages constatés. v_atekor (discuter) 25 mai 2025 à 10:39 (CEST)
- Oui, à mon sens il faudrait l'interdire purement et simplement mais cette recommandation c'est mieux que pas de ne pas avoir de consignes. levieuxtoby ✍ · w (il/lui) – le 25 mai 2025 à 10:43 (CEST)
- Bonne base. Jean-Christophe BENOIST (discuter) 25 mai 2025 à 10:46 (CEST)
- Goombiis (discuter) 25 mai 2025 à 10:47 (CEST)
- Oui. Sherwood6 (discuter) 25 mai 2025 à 10:53 (CEST)
- Runi Gerardsen (discuter) 25 mai 2025 à 11:25 (CEST)
- Oui --Nanoyo (discuter) 25 mai 2025 à 11:38 (CEST)
- Oui, cela devient nécessaire --Titlutin (discuter) 25 mai 2025 à 12:20 (CEST)
- Oui, me semble également aller dans la bonne direction. Peut-être que l'on peut également autoriser l'utilisation de l'IAg pour la génération des plans, tâche pour laquelle elle se débrouille bien ? Le Commissaire [d] 25 mai 2025 à 12:29 (CEST)
- Oui --Remy34 (discuter) 25 mai 2025 à 12:34 (CEST)
- Oui. WikipSQ (discuter) 25 mai 2025 à 12:36 (CEST)
- Oui. Les mésusages, graves (informations fausses, références fictives, détournements de sources), se multiplient et sont chronophages pour les autres bénévoles. [Edit : et tout à fait ouvert à aller vers une interdiction pure et simple si la recommandation ne suffit pas.] — Jules* 💬 25 mai 2025 à 12:38 (CEST) et 29 mai 2025 à 00:21 (CEST)
- Oui --Antoine.b (discuter) 25 mai 2025 à 13:03 (CEST)
- Oui --Fabius Lector (discuter) 25 mai 2025 à 13:27 (CEST)
- Oui. Romuald 2 (d) le 25 mai 2025 à 13:56 (CEST)
- Oui -- Rainbow~ (discuter) 25 mai 2025 à 13:58 (CEST)
- Oui, car j'ai lu la question... C08R4 8U88L35Dire et médire 25 mai 2025 à 14:09 (CEST)
- Oui. --d—n—f (discuter) 25 mai 2025 à 14:20 (CEST)
- Oui. — 🦊 jilucorg 📬, le 25 mai 2025 à 14:34 (CEST)
- Oui — CaféBuzz (d) 25 mai 2025 à 14:56 (CEST)
- Oui. Il est temps. HistoVG (discuter) 25 mai 2025 à 16:37 (CEST)
- Oui. Essai de bonne qualité et presque suffisamment restrictif. Askywhale (discuter) 25 mai 2025 à 17:53 (CEST)
- Michel421 (discuter) 25 mai 2025 à 17:57 (CEST)
- Oui. Hadrianus (d) 25 mai 2025 à 18:00 (CEST)
- Oui Aelxen Équipe EBRC 25 mai 2025 à 18:17 (CEST)
- Oui : L'IA générative doit venir, le cas échéant, en appui d'un travail minutieux préalable de l'utilisateur, avec la plus grande prudence et en toute transparence. --JzK (discuter) 25 mai 2025 à 18:51 (CEST)
- Oui.--Pa2chant.bis (discuter) 25 mai 2025 à 20:30 (CEST)
- Oui, merci— Mwarf (d) 25 mai 2025 à 21:28 (CEST)
- Oui. Il est immpératif de restreindre les applications génératives. En revanche, cela sera difficile de restreindre les "outils IA" contrôlés, gérés et dosés manuellement à l'intérieur d'une application. Les correcteurs orthographiques et syntaxiques AI sont désormais inclus dans les traitements de texte, notamment. Tisourcier (discuter) 25 mai 2025 à 22:18 (CEST)
- Oui D'accord avec la recommandation telle qu'elle est formulée Belysarius (discuter) 25 mai 2025 à 22:23 (CEST)
- Oui. Le besoin d'un cadre clair en la matière se fait sentir depuis longtemps. Merci aux rédacteurs de la proposition. Ménestor (discuter) 25 mai 2025 à 23:15 (CEST)
- Oui. Déjà croisé plusieurs articles très vraisemblablement générés par l’IA. Une recommandation claire me semble donc nécessaire pour limiter les abus, tout en reconnaissant qu’un usage réfléchi, transparent et secondaire de l’IA peut parfois être utile — à condition d’un contrôle rigoureux. MarieVirtuElle (discuter) 26 mai 2025 à 02:41 (CEST)
- Oui à l'exception du lien poids (en) : soit traduire l'article anglais, soit supprimer le lien (à mon sens = hors-sujet — est-il bien nécessaire d'envoyer le lecteur en quête d'info sur l'IA lire un article sur le poids des synapses ? —) Pierrette13 (discuter) 26 mai 2025 à 06:52 (CEST)
- Faute d'inattention collective corrigée, on parlait bien bien de poids indu, merci du signalement. --Pa2chant.bis (discuter) 26 mai 2025 à 07:17 (CEST)
- Merci Pa2chant.bis Pierrette13 (discuter) 26 mai 2025 à 07:44 (CEST)
- Pas vraiment une « faute », au contraire, le « poids » d'une source dans l'apprentissage du réseau de neurones artificiels entraîne le poids indû. Les deux sens sont ici valables. Peu importe, tant que le lecteur comprend l'idée LD (d) 28 mai 2025 à 19:01 (CEST)
- Merci Pa2chant.bis Pierrette13 (discuter) 26 mai 2025 à 07:44 (CEST)
- Faute d'inattention collective corrigée, on parlait bien bien de poids indu, merci du signalement. --Pa2chant.bis (discuter) 26 mai 2025 à 07:17 (CEST)
- Oui--Harrieta171 (discussion) 26 mai 2025 à 08:23 (CEST)
- Oui --Croquemort Nestor (discuter) 26 mai 2025 à 09:07 (CEST)
- Oui Mieux que rien et acceptable en gros. Félicitations à LD et autres contributeurs-trices qui s'y sont collés.--Pat VH (discuter) 26 mai 2025 à 10:38 (CEST)
- Oui, texte très juste dont l'adoption est nécessaire. — Aquilons ↗ M'écrire 26 mai 2025 à 12:32 (CEST)
- Oui. Il manque dans l'essai une phrase sur le référencement circulaire (une des sources de choix des IA est WP) ce qui représente un problème majeur et insoluble des IA. --Desman31 (discuter) 26 mai 2025 à 12:45 (CEST)
- Oui — Bloc186 (discuter) 26 mai 2025 à 12:53 (CEST)
- Oui --Myloufa Discuter ou faire Appel? 26 mai 2025 à 15:00 (CEST)
- Oui l'IA générative est un problème. Cdlt, Lyon-St-Clair [Hon hon hon] 26 mai 2025 à 18:34 (CEST)
- Oui --Cosmophilus (discuter) 26 mai 2025 à 18:39 (CEST)
- Oui. Ca permet de réglementer l'usage de l'IA génératif, tout en conservant certains usages tolérés quand ils ne causent pas de problèmes. La proposition me semble juste --Cosmiaou (discuter) 26 mai 2025 à 20:04 (CEST)
- Oui Cdt, Manacore (discuter) 26 mai 2025 à 20:44 (CEST)
- Oui surtout lorsque l'IA en question reconnait elle-même que sa réponse peut-être erronée ou dépassée.--Jorune (discuter) 26 mai 2025 à 20:59 (CEST)
- Oui "...si ces articles se développent, les lecteurs n'ont pas de raison de préférer WP à une interrogation directe des IA." --Der-Wir-Ing (discuter) 27 mai 2025 à 07:07 (CEST)
- Oui --Milena (Parle avec moi) 27 mai 2025 à 09:46 (CEST)
- Oui --ManuRoquette 🌍 (Discutons !) 27 mai 2025 à 11:35 (CEST)
- Oui Merci pour ce travail. Je dirais cependant que sur la transparence, on ne doit pas être obligé de préciser l'usage d'IA générative pour des choses mineures. Par exemple, corriger un wikicode qui bug. 3(MG)² (discuter) 27 mai 2025 à 11:40 (CEST)
- Oui — Notamment pour les traductions d'articles. Pélagie (discuter) 27 mai 2025 à 12:29 (CEST)
- Oui — texte nécessaire qui semble répondre à la merdification que l'IA générative nous promet. Personnellement, je suis absolument contraire à l'utilisation de cette mécanique sans âme ni conscience (il est d'ailleurs fort probable qu'un fossé générationnel se creuse à cet endroit)... La toute première phrase de l'encyclopédie de Diderot « L'encyclopédie [...] est l'ouvrage d'une socièté de gens de lettres. » Et, comme chacun le sait, WP:1er PF « Wikipédia est une encyclopédie » et non pas le champ d'une expérimentation
futuristedystopique ! Zzzoomorph (discuter) 27 mai 2025 à 13:32 (CEST) - Oui : Le texte me semble complet et nécessaire.--Simonk (discuter) 27 mai 2025 à 19:05 (CEST)
- Oui. Nicolas22g (discuter) 27 mai 2025 à 21:08 (CEST)
- Oui. Merci pour cette proposition qui permet de clarifier les choses.--Pronoia (discuter) 27 mai 2025 à 22:35 (CEST)
- Oui. Bien que je n'ai pas eu l'occasion de rencontrer de cas, il me semblait inévitable que Wikipédia soit victime de l'usage de ces techniques. --Dom (discuter) 28 mai 2025 à 02:08 (CEST)
- Oui et merci pour ce travail. Cette recommandation me semble être un bon début. Incognito668 (discuter) 28 mai 2025 à 08:22 (CEST)
- Oui, totalement en phase avec ce texte et qu'il devienne recommandation. WP, par transparence, doit évoluer avec ce récent contexte induit par la multiplication des opérations faites par IA générative. — ✍ Ruyblas13 [causerie💬] 28 mai 2025 à 08:35 (CEST)
- Oui L'IA gen sera utilisée de toute façon, mieux vaut accompagner et encadrer que d'interdire. La chasse aux textes générés par IA sera beaucoup trop chronophage autrement. --Chaj (discuter) 28 mai 2025 à 14:27 (CEST)
- Oui mais nécessite de préciser qu'il s'agit d'IA générative de textes. --Triton (discuter) 28 mai 2025 à 18:31 (CEST)
- Oui, mais j'aurais été Plutôt pour aller encore plus loin et supprimer des "usages tolérés" le résumé et la reformulation. --Lodewijk van den Broucke (discuter) 28 mai 2025 à 18:54 (CEST)
- Oui -- DCh50 (discuter) 28 mai 2025 à 20:00 (CEST)
- Oui Indispensable. --Bertrand Labévue (discuter) 28 mai 2025 à 20:09 (CEST)
- Oui Comme levieuxtoby il serait préférable de l'interdire mais mieux vaut ça que rien. --Olivier Tanguy (discuter) 28 mai 2025 à 20:19 (CEST)
- Oui --Tylwyth Eldar (discuter) 28 mai 2025 à 20:45 (CEST)
- Oui Mieux vaut ça que rien en effet ! IBG2018 (discuter) 28 mai 2025 à 22:51 (CEST)
- Oui mais je trouve que le texte est trop souple. Donc oui pour avoir une base "officielle", mais j'espère que la communauté restera vigilante et prête à durcir les choses si l'on continue de constater que l'IA n'apporte pas de réelle plus-value dans la rédaction des articles. Apollinaire93 (discuter) 29 mai 2025 à 08:13 (CEST)
- Oui et je suggère de mentionner également dans la recommandation le poids environnemental (tout du moins actuel) de ces IA. — Ornithorynque liminaire (laisser un message)(pronom : iel, mode d'emploi) le 29 mai 2025 à 10:54 (CEST)
- Oui --GPZ Anonymous (discuter) 29 mai 2025 à 13:54 (CEST)
- Oui, une recommandation devient nécessaire. Le contenu me semble clair et nuancé, merci. Frenouille (discuter) 29 mai 2025 à 16:53 (CEST)
- Oui --Hyméros --}-≽ ♥ 29 mai 2025 à 17:50 (CEST)
- Oui Laugriville (discuter
- Oui le projet de recommandation me semble bien balancé.-Kimdime (discuter) 30 mai 2025 à 10:25 (CEST)
- Oui à l'exception de la phrase "Si l'on peut déterminer qu'un contenu est généré par une IAg, il doit alors être réécrit ou supprimé", qui me parait beaucoup trop générale: si l'article est par ailleurs bon et respecte les principes de WP, pourquoi le supprimer? Olinone (discuter)
- Oui - La génération automatique de texte par IA me fait penser à la traduction automatique utilisée sur WP, qui incite le traducteur à toujours vérifier le texte traduit en affichant le pourcentage de texte non modifié par rapport à la traduction automatique initiale. Bien évidemment, un tel outil ne serait pas transposable pour la génération de texte par des outils externes à Mediawiki. D'où l'interêt de ces recommandations. Djiboun (discuter) 31 mai 2025 à 18:10 (CEST)
- Oui Ces recommandations me semblent aller dans le bon sens et sont assez bien faites pour commencer une lutte qui sera croissante. Bien que je pense qu'à l'avenir, quand l'IA va s'améliorer, on devra finir par interdire totalement l'IA pour la génération de contenu encyclopédique, pour éviter la mort de Wikipédia et lui conserver une plus-value humaine discernable face à l'IA. Robur15 (discuter) 1 juin 2025 à 06:05 (CEST)
- Oui Même si je suis contre l'usage de l'IA générative pour la rédaction sur Wikipédia, dans la pratique, cette recommandation permet de l'encadrer fortement. C'est l'humain qui doit garder la maitrise. --JmH2O(discuter) 1 juin 2025 à 10:49 (CEST)
- Sans équivoque 'toff [discut.] 1 juin 2025 à 21:45 (CEST)
- Oui. C'est un très bon début. Prochainement, il faudra mieux documenter les usages tolérables de l'IA et ce qui peut être fait tout en considérant les évolutions rapides qu'il y aura dans ce domaine. — Baidax 💬 1 juin 2025 à 22:25 (CEST)
- Oui, dans l'idée qu'il faudra aller plus loin : autant il peut y avoir d'évidents bénéfices en gain de temps pour certaines opérations fastidieuses et que l'on peut espérer que nous ne sommes qu'à l'aube des compétences de l'IA, autant je redoute que les aberrations et hallucinations aient un effet potentiellement létal pour wp, en matière de WP:Vérifiabilité.
- Je dépose ce petit partage d'expérience/de craintes ici, à défaut de savoir où le déposer précisément là où des réponses se structurent... :
- Travaillant parfois sur des sujets dont je ne connais pas trop mal les contours, j'ai très régulièrement été confronté (avec des IA pro) à des « résumés » d'articles/chapitres aux éléments totalement inventés mais aussi à l'élaboration d'éléments bibliographiques complètement imaginaires — jusqu'aux noms des auteurs, titres, éditeurs... — déroulés par l'IA avec une parfaite assurance (ce qui semble la marque de fabrique des programmateurs de ce genre de dispositifs).
Cet aplomb des réponses peut laisser accroire à une fiabilité... pourtant totalement factice
Enfin, entre autres problèmes, certaines (?) IA escamotent des éléments factuels de textes soumis au résumé en fonction de la politique auxquelles elles sont contraintes/qu'elles appliquent (idéologique, politique, légale...) donc expurgent d'éléments parfois cruciaux un article/chapitre/ouvrage qui lui est soumis, ce qui en biaise/dénature complètement le compte-rendu (ex. concrets : DeepSeek sur l'histoire de Chine, ChatGPT sur des techniques policières...). - J'en profite pour remercier ceux de nos collègues qui se sont préoccupés de ces enjeux et attelés à cette tâche.
- Cordialement, Mogador (✉) 2 juin 2025 à 05:28 (CEST)
- Même expérience même constats, je n'aurais su mieux le dire, malgré mon vote "neutre" que je maintiens. Le vrai danger de l'IA c'est quand on ne la détectera plus, et aucune recommandation ne nous protègera de cela ! -- Gnrc (discuter) 2 juin 2025 à 22:31 (CEST)
- Oui. Absolument d'accord pour transformer l'essai « Intelligence artificielle générative » en recommandation.
Merci LD pour ce fastidieux rédactionnel —— DePlusJean (Discuter) 2 juin 2025 à 06:23 (CEST) - Oui — Henry de Chambernac (discuter) 2 juin 2025 à 13:38 (CEST)
- Oui. — Omnilaika02 (d) 3 juin 2025 à 13:25 (CEST)
- Oui — luciemrt ✉️ ? 3 juin 2025 à 13:59 (CEST)
- Oui et comme @Ornithorynque liminaire je pense utile d'expliquer dans la recommandation le poids environnemental de ces IA. De même @Desman31 a raison sur le référencement circulaire, Wikipédia ne peut pas être une source pour Wikipédia. —
- Oui, au vu des multiples abus qui ne font que se décupler, une recommandation sur cet usage qui est à cadrer (sans tout interdire, même si sur le plan éthique et environnemental l'IA reste la pire des solutions àmha) est plus que nécessaire. Il me paraîtrait également utile d'y ajouter l'interdiction d'utiliser l'IA pour converser avec des contributeurices, une dérive qui semble également prendre de l'ampleur. Géodigital (Ici la Terre digitale) 3 juin 2025 à 18:01 (CEST).
- Oui. --Claude villetaneuse (discuter) 3 juin 2025 à 19:07 (CEST)
- Oui Ο Κολυμβητής (You know my name) 3 juin 2025 à 19:23 (CEST)
- Oui--CoffeeEngineer (discuter) 3 juin 2025 à 19:34 (CEST)
- Oui : Je trouve l'essai bien écrit et me servant de l'IA pour l'écriture, je me retrouve complètement dans la partie "Usages tolérés" (reformulation, ortho, ...). En 2025, plutôt contre le reste des utilisations. // Agonatrix (discuter) 3 juin 2025 à 21:22 (CEST)
- Oui Résumé relativement clair. Culex (discuter) 3 juin 2025 à 22:32 (CEST)
- Oui Sijysuis (discuter) 5 juin 2025 à 08:48 (CEST)
- Oui, notamment Usages tolérés ‒ NClV[Message·✉] 5 juin 2025 à 12:19 (CEST)
- Oui Arn (discuter) 5 juin 2025 à 14:50 (CEST)
- Oui, parce que l'interdiction totale est illusoire, même si elle me semblerait souhaitable si elle était faisable ; il faut encadrer au mieux cet usage qui ne peut que se multiplier. El Comandante (discuter) 5 juin 2025 à 16:38 (CEST)
- Oui — Laszlo 5 juin 2025 à 19:55 (CEST)
- Oui - Use85430 (discuter) 6 juin 2025 à 02:54 (CEST)
- Oui - Je suis favorable pour l'adoption du texte en tant que recommendation. Anatole-berthe (discuter) 6 juin 2025 à 04:05 (CEST)
- Oui Freezie33 06 juin 2025 à 14:34 (CEST)
- Oui --Huguespotter (discuter) 6 juin 2025 à 17:04 (CEST)
- Cela rejoint le sondage sur les droits des IPs, comme aujourd'hui n'importe qui peut demander quelque chose à une IA (je passe sur ma compréhension personnelle de l'abréviation) puis mettre le résultat sur Wikipédia, n'importe qui peut ajouter un article qui semble fiable et intelligent. Je veux bien que certains souhaitent écrire intelligemment des articles pertinents en s'aidant de l'IA, mais qu'alors ces articles soient intégralement tapés par leurs doigts et non copiés depuis des algorithmes. --Matt&Matique 6 juin 2025 à 20:52 (CEST)
- Oui Bonne base. Je suis un peu plus optimiste que la majorité des sondés ici sur le potentiel d'un usage raisonné des LLM ; cependant il est clair que les dérives existent donc une recommandation de mise en garde est nécessaire. D'accord avec Baidax #89. --l'Escogriffe (✉) 6 juin 2025 à 22:46 (CEST)
- Oui et merci pour le boulot. --Fanfwah (discuter) 6 juin 2025 à 23:43 (CEST)
- Oui Je pense que nous devrions continuer à nous consacrer à la rédaction d'articles, à la main pour ce qui concerne purement le texte. Cette semaine j'ai fait quelques essais au travail de Gemini. Ça fonctionne très bien, mais comme une partie du contenu vient indubitablement de Wikipédia, nous devrions continuer à travailler par nous-mêmes. Jérémy-Günther-Heinz Jähnick (discuter) 7 juin 2025 à 00:10 (CEST)
- Oui --GF38storic (discuter) 7 juin 2025 à 01:28 (CEST)
- Oui -Guallendra (discuter) 7 juin 2025 à 06:24 (CEST)
- Oui (mais, AMHA, il faudrait l'interdire pour les IP). — Vincent Lefèvre (discuter) 7 juin 2025 à 14:23 (CEST)
- Oui mais il faut d'une part prévoir je pense des sanctions plus strictes de blocage pour tout utilisateur qui récidive dans un usage d'IA flagrant. Et inversement, il faut inviter les gens à la prudence quant à la suspicion d'IA : accuser quelqu'un d'en utiliser sans preuve significative peut vite être un obstacle au savoir-vivre wikipédien. -- [blabla] 8 juin 2025 à 01:55 (CEST)
- Oui mais il faudra bien encadrer l'usage de l'IA. — Le message qui précède, non signé, a été déposé par Dadrik (d · c · b), le 8 juin 2025 à 21:30 (CEST)
Non
modifier- Non fort : pour bannir définitivement et sans aucune exception l'IA de Wikipedia. Il n'y a aucun avantage à utiliser, donc à renforcer et à légitimer, cette technologie prédatrice, destructive par nature, incompatible avec l'esprit humain, désastre absolu social et environnemental. — Le message qui précède, non signé, a été déposé par Schoffer (d · c · b), le 25 mai 2025 à 13:34.
- Bonjour @Arn6338. Je suis philosophiquement d'accord avec vous. Mais en pratique, nous n'avons aucun moyen de vérifier cela : nous ne pouvons détecter un usage de l'IA que lorsqu'il pose problème (c'est-à-dire dans la plupart des cas !) : informations ou sources fausses et inventées, style promotionnel, non-respect de WP:POV et WP:P, travaux inédits, etc. Et le texte proposé interdit clairement ces usages, dont il indique qu'ils sont passibles de blocage en écriture.
- Si quelqu'un utilise une IA générative de manière intelligente (ce qui est sans doute très rare), par exemple pour synthétiser une source et revérifie tout, de sorte que les PF sont parfaitement respectés, je trouve ça à titre personnel sans intérêt (le temps gagné est aussitôt perdu puisqu'il faut tout vérifier, et au passage c'est utiliser un outil nocif socialement et pour notre environnement), mais concrètement on ne saura jamais qu'une IA générative a été utilisée. — Jules* 💬 25 mai 2025 à 14:42 (CEST)
- Hello @Jules*, tu t'es trompé de ping, bien à toi Arn6338 (discuter) 25 mai 2025 à 14:47 (CEST)
- Hello @Arn6338, autant pour moi, désolé du ping : l'utilisateur signe « Schoffer » mais le lien renvoie vers ta PU ! Code :
[[Utilisateur:Arn6338|Schoffer]]
. @Schoffer, corrigez votre signature dans vos préférences, svp. — Jules* 💬 25 mai 2025 à 14:49 (CEST)- @Jules*, c'est Dedeunnnn qui avait mal ajouté la signature de l'avis non signé par Schoffer 🐾 tiloudeux (on papote ?) 25 mai 2025 à 14:55 (CEST)
- Ah, on tient le coupable ^^. — Jules* 💬 25 mai 2025 à 14:57 (CEST)
- Oups ! J'ai fait une erreur ? Milles excuses ! (J'avais pourtant fait gaffe, mais pas encore suffisamment !) Je présente mes excuses à Arn6338 (d · c · b). Cordialement. — Dedeun [discuter] 25 mai 2025 à 16:06 (CEST)
- Ah, on tient le coupable ^^. — Jules* 💬 25 mai 2025 à 14:57 (CEST)
- @Jules*, c'est Dedeunnnn qui avait mal ajouté la signature de l'avis non signé par Schoffer 🐾 tiloudeux (on papote ?) 25 mai 2025 à 14:55 (CEST)
- Hello @Arn6338, autant pour moi, désolé du ping : l'utilisateur signe « Schoffer » mais le lien renvoie vers ta PU ! Code :
- on a quand même un exemple d'utilisation adéquate faite par Dirac. Il serait dommage de s'enfermer dans une vision en noir et blanc de la chose. - Simon Villeneuve 25 mai 2025 à 16:06 (CEST)
- Si l'usage décrit ici semble raisonnable et réfléchi, et que la transparence est salutaire, ça n'empêche pas de trouver dans les contributions de Dirac avec genAI des problèmes typiques d'un tel usage (je n'ai pas fouillé, j'ai juste suivi un LI présent dans sa page personnelle) : Recherche approfondie (intelligence artificielle)#Limites et critiques, présentation sous forme de liste peu encyclopédique, typique des genAI ; passages non sourcés voire TI. — Jules* 💬 25 mai 2025 à 16:24 (CEST)
- Et dans la section Domaine d'utilisation, on a « L'agent excelle à trouver des informations pointues ou non intuitives etc. » sourcé par la FAQ de OpenAI, ton pas neutre voire publicitaire, les évaluations en source semblent limitée à des tests individuels et au final, ça me fait me demander quel crédit on peut donner à la section Limites et critiques. Fabius Lector (discuter) 25 mai 2025 à 17:12 (CEST)
- La transparence et la volonté d'améliorer l'encyclopédie sont méritoires et très louables, mais il faudra en reparler avec lui (pas le lieu ici) car je ne suis pas persuadée que par exemple cette version d'un article soit un résultat auquel il faille souhaiter aboutir. --Pa2chant.bis (discuter) 25 mai 2025 à 20:13 (CEST)
- Et dans la section Domaine d'utilisation, on a « L'agent excelle à trouver des informations pointues ou non intuitives etc. » sourcé par la FAQ de OpenAI, ton pas neutre voire publicitaire, les évaluations en source semblent limitée à des tests individuels et au final, ça me fait me demander quel crédit on peut donner à la section Limites et critiques. Fabius Lector (discuter) 25 mai 2025 à 17:12 (CEST)
- Si l'usage décrit ici semble raisonnable et réfléchi, et que la transparence est salutaire, ça n'empêche pas de trouver dans les contributions de Dirac avec genAI des problèmes typiques d'un tel usage (je n'ai pas fouillé, j'ai juste suivi un LI présent dans sa page personnelle) : Recherche approfondie (intelligence artificielle)#Limites et critiques, présentation sous forme de liste peu encyclopédique, typique des genAI ; passages non sourcés voire TI. — Jules* 💬 25 mai 2025 à 16:24 (CEST)
- Hello @Jules*, tu t'es trompé de ping, bien à toi Arn6338 (discuter) 25 mai 2025 à 14:47 (CEST)
- @Jules*Je trouve votre argument étrange : je suis philosophiquement d'accord avec vous, torturer c'est faire le mal. Mais puisque certains torturent habilement et ne se font pas prendre, pourquoi ne pas faire de même ? Certes la comparaison peut sembler un peu outrée, mais l'est-elle vraiment ?
- PS. La signature ne se place donc pas automatiquement ? Schoffer (discuter) 25 mai 2025 à 17:09 (CEST)
- Non, cf. Aide:Signature. Elle ne se place automatiquement que quand vous utilisez le bouton [répondre] dans une discussion. Cdlt, — Jules* 💬 25 mai 2025 à 17:11 (CEST)
- @Schoffer comme toi, je suis furieusement contre « cette technologie prédatrice » : l'IA est absolument « inutile et incertaine » (pour reprendre un mot de Pascal). Tu la crois « incompatible avec l'esprit humain » : elle est malheureusement trop compatible pour ne pas s'imposer partout ! Ceci dit, et @Jules* en a très bien explicité les raisons, je vais me contenter ici d'une utilisation « vivement déconseillée. » Zzzoomorph (discuter) 27 mai 2025 à 20:32 (CEST)
- Non, cette phrase me pose toujours problème : "Si l'on peut déterminer qu'un contenu est généré par une IAg, il doit alors être réécrit ou supprimé.". Elle risque de faire dégénérer en une chasse au contenu genAI *à cause de la façon doit il a été produit* et non parce qu'il est éventuellement problématique. Si un texte genAI est reconnaissable à cause de "tics de langage" de l'IA, ce n'est pas grave, tant que c'est naturel, exact, vérifiable, et respecte les conventions de style. JeanCASPAR (discuter) 25 mai 2025 à 23:33 (CEST)
- Le truc, c'est que vu qu'une bonne partie des IA génératives utilisent du texte issu de Wikipédia, donc si les articles commencent à être eux-mêmes massivement rédigés par IA génératives, avec une telle boucle de rétroaction, ce "tic de langage" risque se renforcer et de s'uniformiser avec le temps et de donner à terme des résultats pas forcément très souhaitables (un peu comme l'auto-complétion sur les smartphones qui finit par boucler sur les 4-5 mêmes mots au bout de plusieurs phrases). Eskivor (discuter) 29 mai 2025 à 07:59 (CEST)
- Non, Je contribue avec l'assistance de l'intelligence artificielle générative depuis un moment déjà de manière transparente, notamment pour la rédaction de biographies de femmes ayant reçu un Prix du Québec. Cette méthode m'a permis de créer ou d'enrichir 21 articles à ce jour, en prenant soin de vérifier chaque information, d'ajouter les références admissibles, et de m'améliorer en cours de route.
Comme toute nouvelle pratique, cela a impliqué une courbe d'apprentissage. J'ai fait des erreurs, par exemple en utilisant des sources primaires sans savoir qu'une page universitaire pouvait poser problème, mais j'ai corrigé en fonction des retours. Ces erreurs sont de ma responsabilité, pas celle de l'outil utilisé.
Il me semble injuste d'attribuer systématiquement à l'IA les problèmes liés à un manque de vigilance humaine. Un exemple : dans l'article Recherche approfondie (intelligence artificielle) le problème de liste identifé par Jules est un parfait exemple: j'ignorairais que les listes de ce type n'était pas permise parce que, on va se le dire, des listes sur Wikipédia, y en a beaucoup. Reprocher cela à l'IAg n'a pas de sens, c'est mon erreur, j'aurais dû la corriger et on aurait du le noter pour que je fasse le travail. Avec cette recommandation, la section ou même l'article aurait été effacé manu militari. Est-ce que chacune des phrases est sourcées directement? Non. Mais en ayant lu les 16 références, ça flotte pas dans le vide cet article-là, au moment de la relecture ces phrases me paraissaient justes. Si j'avais rédiger le texte à partir de ma synthèse mentale personnelle, ça aurait donné un résultat comparable: certaines phrases auraient résultés de ma compréhension et synthèse personnelle des sources.
Je relis chaque article avec soin, j'ajoute les sources, je wikifie, je documente ma démarche de façon transparente (Utilisateur:Dirac/IA générative : outil d'assistance dans mon travail éditorial), et j'inclus une note explicative sur les pages de discussion concernées.
La recommandation, telle que formulée, laisse entendre qu'un article pourrait être supprimé uniquement parce qu'il a été généré avec l'aide d'une IA, même s'il est sourcé, conforme aux critères d'admissibilité, et relu. Cela me semble dangereux. Que fera-t-on des 21 articles que j'ai créés ? Va-t-on les supprimer sur simple soupçon ? Va-t-on surveiller mes contributions pour les "fliquer" une à une ? Et si je précise que d'autres sont à venir, car j'ai pour objectif de documenter toutes les lauréates du Prix du Québec d'ici la fin de l'été, puis d'autres femmes québécoises dans les domaines scientifiques, est-ce que cela signifie qu'à cause de la méthode, tout mon travail sera présumé fautif, peu importe sa qualité ?
Je suis conscient des dérives possibles de l'usage de l'IA, mais je plaide pour une approche nuancée, centrée sur le contenu produit et non sur l'outil utilisé. On ne devrait pas condamner par principe, ni supprimer des contenus valables sur simple soupçon quant à la méthode. Dirac (discuter) 26 mai 2025 à 14:00 (CEST)- Pour info, il y a une page de discussion du projet Observatoire des IA où des sujets ont déjà été abordé (plus adapté qu'ici pour parler du fond ?) et il y a la page de signalement d'usages qui donne un aperçu de problèmes relevés. Fabius Lector (discuter) 26 mai 2025 à 14:30 (CEST)
- Hello Dirac , est-ce qu'il y a un usage de l'IA qui permet de mettre en forme un texte dans un vote ? Pierrette13 (discuter) 26 mai 2025 à 18:25 (CEST)
- Mais @Dirac, quand tu plaides pour une approche nuancée, centrée sur le contenu produit et non sur l'outil utilisé le problème est bien que les analyses, conduites sur les contenus produits, ne sont pas satisfaisantes. Par exemple j'ai cité ci-dessus le cas du RI de Madeleine Careau : je suis persuadée que si tu n'avais pas été transparent sur ton usage de l'IAgen, le RI aurait été assez immédiatement dépouillé de son style chatGPT hagiographique et non sourcé. En réalité, ce travail de neutralisation reste à faire. --Pa2chant.bis (discuter) 26 mai 2025 à 20:44 (CEST)
- Hello Dirac , est-ce qu'il y a un usage de l'IA qui permet de mettre en forme un texte dans un vote ? Pierrette13 (discuter) 26 mai 2025 à 18:25 (CEST)
- Hello @Dirac. « Il me semble injuste d'attribuer systématiquement à l'IA les problèmes liés à un manque de vigilance humaine. » Je pense tout l'inverse : les sources discutables ou primaires que tu utilises, la forme en listes à puces typique des genAI, le ton promotionnel du RI de Madeleine Careau ou Ginette Noiseux, ne sont pas causés par ton manque de vigilance, ils sont causés par l'usage de la genAI et en sont même des marqueurs. Ton manque de vigilance permet seulement au problème de perdurer et tu es responsables de ce que tu publies, mais la cause des problèmes recensés est bien l'usage de genAI.
Bien sûr, des humains peuvent aussi rédiger avec un style promotionnel ou utiliser des sources primaires là où il en faudrait des secondaires, mais c'est de leur fait uniquement ; ici, c'est l'usage d'un outil qui conditionne ce que publie l'humain.
Une recherche manuelle de sources par un cerveau humain qui connaît les règles (WP:QS, WP:SPS), une rédaction par un humain qui connaît les règles (WP:RI, WP:Style encyclopédique, WP:NPOV…) n'auraient pas donné ce que tu as publié. Je suis certain que tes articles seraient meilleures sans usage de la genAI. - In fine, si je conçois qu'il puisse y avoir des usages de la genAI respectueux des règles, il me semble clair que l'usage que tu as, aussi transparent soit-il, un exemple des problèmes causés par le mésusage des genAI. (Même si tu évites les pires écueils grâce à ta relecture : fausses références, informations fausses.) — Jules* 💬 28 mai 2025 à 14:09 (CEST)
- Pour info, il y a une page de discussion du projet Observatoire des IA où des sujets ont déjà été abordé (plus adapté qu'ici pour parler du fond ?) et il y a la page de signalement d'usages qui donne un aperçu de problèmes relevés. Fabius Lector (discuter) 26 mai 2025 à 14:30 (CEST)
- Non je suis contre tous les usages tolérés cités par l'essai. Résumer une source : c'est justement le taf de wikipédiens ; aide à reformulation : idem ; corrections : meilleurs outils dispos, y compris bots et wikignomes ; sens d'un mot étranger : on a des projets pour ça. Léna (discuter) 26 mai 2025 à 15:30 (CEST)
- Non, tant qu'une limite claire n'est pas écrite dans cet essai, stipulant que seuls les articles (ou projets d'articles, ou travaux rédactionnels concernant le contenu encyclopédique) sont concernés. Par ailleurs, la présence d'une section « Usages tolérés », plutôt que d'uniquement prendre les Principes en compte, va créer un effet d'interdiction (« si c'est pas listé c'est pas bon » au lieu de garder les idées ouvertes. Trizek bla 26 mai 2025 à 19:11 (CEST)
- @Trizek Les échanges en PDD ou sur Méta à base de ChatGPT sont considérées dans cet essai comme une forme de tromperie : Tromperie et manque de transparence : les lecteurs et bénévoles s'attendent à ce que Wikipédia soit écrite par des humains ; l'utilisation d'une IAg peut compromettre ce principe collaboratif et atteindre à la bonne foi attendue notamment dans les échanges.. Cela fait même partie des points qui hérissent le poil de beaucoup de contributeurs, entamer une discussion de bonne foi, pour se rendre compte ensuite qu'on a perdu son temps à conversser vec une IA. --Pa2chant.bis (discuter) 26 mai 2025 à 20:44 (CEST)
- Ce que tu décris va bien à l'encontre des principes, que je ne remets aucunement en cause. Ce que je remets en cause, c'est l'interdiction par défaut de l'usage de l'IA à tous les espaces de noms, ainsi que la création d'une liste limités d'usages possibles.
- Si quelqu'un me soumet un résumé d'une discussion, en indiquant bien que cela a été généré par une IA, cela ne me choque pas dans le principe, car la transparence est maintenue. Et cela n'empêchera personne de questionner le fond du résumé. En l'état, l'essai ne permet pas cela.
- Bref, les principes listés sont très bien, et devraient suffire : la liste me semble être abusive, car elle va rapidement devenir la doxa. Trizek bla 27 mai 2025 à 12:41 (CEST)
- La liste n'est pas limitée, il est bien indiqué "Parmi". L'existence d'exemples de ce qui est accepté/toléré ne peut qu'aider à la compréhension, et figure d'ailleurs noir sur blanc parce que des utilisateurs, en lisant les seuls principes, avaient besoin d'être rassurés que les usages qu'ils avaient restaient possibles. --Pa2chant.bis (discuter) 27 mai 2025 à 13:09 (CEST)
- Les exemples seront très bien sur une page d'aide, qui fournira une indication, une présentation par l'exemple des principes. Mettre les exemples présents ou futurs sur une page de recommandation les grave dans le marbre. On sait comment ça va finir : les exemples seront la règle, et citer les principes (de la page ou fondateurs) ne sera pas nécessairement accepté comme réponse.
- Et reste la question des espaces de noms.
- Bref, il ne fallait pas louper la discussion préalable, qui se fait depuis mai. À présent, on vote. Trizek bla 27 mai 2025 à 14:42 (CEST)
- Depuis le 1er mars (voir Bistro mentionné en en-tête), la discussion étant ensuite restée affichée pendant plus d'un mois dans les pages communautaires. Et rien n'est grave dans le marbre : s'il faut durcir ou assouplir les conditions, les élargir ou les restreindre, on le fera, en en discutant. --Pa2chant.bis (discuter) 27 mai 2025 à 17:45 (CEST)
- Hé oui, j'ai loupé les discussions, et c'est de ma faute de ne pas avoir pris le temps d'y regarder de plus près. Et ne soyons pas dupes : j'ai rarement vu des assouplissement se faire. Trizek bla 27 mai 2025 à 18:00 (CEST)
- Depuis le 1er mars (voir Bistro mentionné en en-tête), la discussion étant ensuite restée affichée pendant plus d'un mois dans les pages communautaires. Et rien n'est grave dans le marbre : s'il faut durcir ou assouplir les conditions, les élargir ou les restreindre, on le fera, en en discutant. --Pa2chant.bis (discuter) 27 mai 2025 à 17:45 (CEST)
- La liste n'est pas limitée, il est bien indiqué "Parmi". L'existence d'exemples de ce qui est accepté/toléré ne peut qu'aider à la compréhension, et figure d'ailleurs noir sur blanc parce que des utilisateurs, en lisant les seuls principes, avaient besoin d'être rassurés que les usages qu'ils avaient restaient possibles. --Pa2chant.bis (discuter) 27 mai 2025 à 13:09 (CEST)
- @Trizek Les échanges en PDD ou sur Méta à base de ChatGPT sont considérées dans cet essai comme une forme de tromperie : Tromperie et manque de transparence : les lecteurs et bénévoles s'attendent à ce que Wikipédia soit écrite par des humains ; l'utilisation d'une IAg peut compromettre ce principe collaboratif et atteindre à la bonne foi attendue notamment dans les échanges.. Cela fait même partie des points qui hérissent le poil de beaucoup de contributeurs, entamer une discussion de bonne foi, pour se rendre compte ensuite qu'on a perdu son temps à conversser vec une IA. --Pa2chant.bis (discuter) 26 mai 2025 à 20:44 (CEST)
- Non, d'accord avec Jules et Léna. Laisser la porte ouverte à l'utilisation de l'IA dans certains cas va inévitablement dégénérer, et les usages proposés par l'essai ne me paraissent pas corrects de toute façon : résumer une source c'est précisément tout le travail du Wikipédien, ce qui est également le cas dans une moindre mesure de la reformulation, et la correction orthographique peut être réalisée sans IA générative tout comme vérifier le sens d'un mot. Je ne vois pas vraiment de monde où autoriser l'IA partiellement engendrerait un bénéfice net pour l'encyclopédie. Je préfèrerais une interdiction totale qui permettrait de lutter plus efficacement contre l'utilisation abusive de l'IA générative sans entraîner d'interminables débats sur le fait que l'utilisation soit justifiée ou non dans tel cas précis. Thuiop (discuter) 28 mai 2025 à 22:22 (CEST)
Non J'aurais voté Neutre si le choix avait été proposé, mais en son absence je vote Non. Bien que je trouve que cet essai contient de bonnes choses, mon problème c'est qu'on identifie clairement de bons usages, et beaucoup moins clairement les mésusages (on parle seulement de risques, et ces risques sont peut-être exacerbés par l'utilisation de l'IA, mais ils ne lui sont pas propres, nos règles existantes sont donc tout à fait suffisantes). Je suis contre la multiplication de règles ou recommandations là où l'existant couvre déjà parfaitement le sujet. En fait en l'état actuel de ma réflexion, le seul argument que j'aie trouvé pertinent pour un traitement différent des textes générés par IA par rapport à ceux générés par des humains est le risque que, vu la vitesse à laquelle ces textes peuvent être créés et le volume de contributions en résultant, notre système de patrouille ne s'écroule car reposant sur des humains qui ne suffiront plus à la tache (même si les bots peuvent aider, on ne pourra jamais se reposer entièrement sur eux). Cet argument n'est même pas évoqué dans l'essai en question. -- HMa [discutez sans frapper] 29 mai 2025 à 09:21 (CEST)- Hello @HMa. Tu peux créer la section « Neutre » si tu veux, ou même une section encore différente : c'est un sondage, pas une prise de décision, donc c'est assez libre et souple. Sur le fond, je suis d'accord que les règles existantes suffisent. Il s'agit ici plutôt d'un texte de résumé d'application des règles aux contributions par IA, car beaucoup de personnes qui utilisent les IA génératives n'ont pas conscience des risques inhérents. La recommandation ne change rien à nos règles, elle se veut juste didactique, et avertit : les ajouts par IA générative sont vivement déconseillés et vous êtes responsable de ce que vous publiez, donc si vous publiez n'importe quoi avec des IA génératives, vous serez bloqué.
- Je te rejoins par ailleurs quant à l'aspect vitesse. Il est tout de même évoqué en creux dans la dernière phrase de Wikipédia:Intelligence artificielle générative#Risques, relative au volume de maintenance que cela peut exiger.
En tout cas je pense que la recommandation n'est qu'un début et qu'elle devra évoluer. Bien à toi, — Jules* 💬 29 mai 2025 à 12:48 (CEST)(déplacé vers section « Neutre »).
- Non. Il faut bannir définitivement et sans aucune exception l'IA sur la Wikipédia. 📕📙📒📗📘PÑēüḾôňïę1357📕📙📒📗📘 29 mai 2025 à 18:00 (CEST)
- Non, mais oui en modifiant un peu le travail de LD pour lui donner le sens, sinon d'une pure interdiction, d'une "dé-conseill-ation" (mince j'ai pas le mot ^^ ! je vais demander à chat-GPT comment reformuler ça au prix d'une belle empreinte carbone !) encore plus ferme et plus stricte. D'un point de vue pratique, soit le LLM aura été si finement utilisé que ce sera indécelable et que, par définition, personne ne le décèlera, soit c'est décelable, et on doit pouvoir s'appuyer sur une recommandation ferme pour réagir sans chichis. Contre le principe de demander à ce que soit signalé l'usage du LLM et pour préciser des usages tolérés qui valent un encouragement. C'est peut-être un peu Tartuffe, et un peu "ce n'est pas pécher que pécher en silence", mais c'est finalement vers ça qu'on est obligés de se tourner. Yelti (discuter) 30 mai 2025 à 15:23 (CEST)
- Non. En accord total avec l'avis de Léna au dessus. Je ne peux pas, d'un point de vue philosophique, cautionner le moindre usage d'un outil aussi inutile que dangereux pour notre encyclopédie. Je suis toutefois bien conscient que mon avis ne va pas dans le sens de l'histoire, et n'est qu'un coup d'épée dans l'eau. Ginkgobiloquad (discuter) 2 juin 2025 à 11:44 (CEST)
- Oh, pas sûr, pour le sens de l'histoire. Tout dépend de l'échelle de temps àmha . — Jules* 💬 2 juin 2025 à 13:00 (CEST)
- Non Il faut une interdiction de principe de l'IA, pour ne jamais lui laisser le bénéfice du doute tellement elle risque d'être manipulée et biaisée par les GAFA et Grands de ce monde. Cela dit, il est évident que certains brouillonneront des articles avec ces IA, mais la dépose sur WP restera sous leur responsabilité humaine, et tout un chacun pourra vérifier la crédibilité au vu des sources fournies et remettre en cause si d'autres sources ou mettre un bandeau "IA soupçonnée" avec les éléments de doute. Le risque majeur, sur lequel aucune recommandation ne pourra agir (donc pourquoi écrire une autorisation même très controlée), c'est lorsque les IA deviendront indétectables (c'est imminent !). Les règles actuelles suffisent, au mieux prescrire un interdit de l'IA. -- Gnrc (discuter) 5 juin 2025 à 17:47 (CEST)
- Non Je fait mien l'avis de Léna : je suis contre tous les usages tolérés cités par l'essai. Résumer une source : c'est justement le taf de wikipédiens ; aide à reformulation : idem ; corrections : meilleurs outils dispos, y compris bots et wikignomes. Matpib (discuter) 7 juin 2025 à 10:37 (CEST)
- Non. Je pense la même chose. Et que si on trouve cela trop fatiguant, rien ne nous oblige à contribuer. --Lewisiscrazy (discuter) 7 juin 2025 à 11:00 (CEST)
- Non car je suis, d'une façon générale, contre l'IA. --Smiley („“) 7 juin 2025 à 16:10 (CEST)
- Non : Aucun des « Usages tolérés » sont tolérables à mon avis.
- Résumer une source : Non car LLMs basés sur du travail volé sans licence valide, de l’exploitation humaine et une surconsommation de ressources. Aucun besoin de cet outil pour faire un résumé.
- Aider à la reformulation : Non car LLMs basés sur du travail volé sans licence valide, de l’exploitation humaine et une surconsommation de ressources. Aucun besoin de cet outil pour reformuler.
- Corrections orthographiques, typographiques et syntaxiques : Non car LLMs basés sur du travail volé sans licence valide, de l’exploitation humaine et une surconsommation de ressources. Il y a des correcteurs automatiques très non basés sur cette technologie.
- Vérifier les sens d'un mot étranger : Non car LLMs basés sur du travail volé sans licence valide, de l’exploitation humaine et une surconsommation de ressources. Il y a beaucoup doutils bien meilleurs pour chercher le sens de mots.
- De tout façon, rien que le fait que les LLMs sont entrainés sur du contenu avec des licences incompatibles avec Wikipédia devrait être suffisant pour n’accepter aucun contenu généré. ~ nicolas (discuter) 8 juin 2025 à 22:32 (CEST)
Neutre
modifier- Neutre. Bien que je trouve que cet essai contient de bonnes choses, mon problème c'est qu'on identifie clairement de bons usages, et beaucoup moins clairement les mésusages (on parle seulement de risques, et ces risques sont peut-être exacerbés par l'utilisation de l'IA, mais ils ne lui sont pas propres, nos règles existantes sont donc tout à fait suffisantes). Je suis contre la multiplication de règles ou recommandations là où l'existant couvre déjà parfaitement le sujet. En fait en l'état actuel de ma réflexion, le seul argument que j'aie trouvé pertinent pour un traitement différent des textes générés par IA par rapport à ceux générés par des humains est le risque que, vu la vitesse à laquelle ces textes peuvent être créés et le volume de contributions en résultant, notre système de patrouille ne s'écroule car reposant sur des humains qui ne suffiront plus à la tache (même si les bots peuvent aider, on ne pourra jamais se reposer entièrement sur eux). Cet argument n'est même pas évoqué dans l'essai en question. -- HMa [discutez sans frapper] 29 mai 2025 à 09:21 (CEST)
- Hello @HMa. Tu peux créer la section « Neutre » si tu veux, ou même une section encore différente : c'est un sondage, pas une prise de décision, donc c'est assez libre et souple. Sur le fond, je suis d'accord que les règles existantes suffisent. Il s'agit ici plutôt d'un texte de résumé d'application des règles aux contributions par IA, car beaucoup de personnes qui utilisent les IA génératives n'ont pas conscience des risques inhérents. La recommandation ne change rien à nos règles, elle se veut juste didactique, et avertit : les ajouts par IA générative sont vivement déconseillés et vous êtes responsable de ce que vous publiez, donc si vous publiez n'importe quoi avec des IA génératives, vous serez bloqué.
- Je te rejoins par ailleurs quant à l'aspect vitesse. Il est tout de même évoqué en creux dans la dernière phrase de Wikipédia:Intelligence artificielle générative#Risques, relative au volume de maintenance que cela peut exiger.
- En tout cas je pense que la recommandation n'est qu'un début et qu'elle devra évoluer. Bien à toi, — Jules* 💬 29 mai 2025 à 12:48 (CEST)
- Merci Jules*
- J'ai suivi ton conseil et créé une section « Neutre ». Je comprends mieux ce texte dans la perspective d'une synthèse des problématiques liées à l'IAgen. Dans ce cas pourquoi ne pas en faire une page Aide:AI ? Ca me semblerait plus clair. J'essaie de m'impliquer (via le tutorat) dans l'aide aux débutants, et je tente de me mettre à leur place: la multiplication des règles/recos sur WP peut en dérouter plus d'un. Quand il s'agit juste de rappeler les règles existantes ou de dire comment elles s'appliquent dans un cas précis, une recommandation supplémentaire ne me semble pas la forme appropriée.
« Il est parfois nécessaire de changer certaines lois mais le cas est rare, et lorsqu'il arrive, il ne faut y toucher que d'une main tremblante. »
— Montesquieu, Les Lettres Persanes
-- HMa [discutez sans frapper] 29 mai 2025 à 14:54 (CEST)- Parce qu'une page appelée "Aide:AI" serait beaucoup trop incitative, alors que l'idée générale est bien , à défaut d'interdiction, d'en dissuader l'usage. Il nous (les personnes ayant réfléchi à ce texte, principalement sur Projet:Observatoire des IA) a semblé nécessaire d'avoir un texte spécifique pour ne pas avoir à argumenter à chaque hallucination, chaque texte non relu, chaque ton hagiographique, chaque écart aux sources, justement en raison d'une puissance de production changeant notablement d'échelle face à des moyens de "patrouille/relecture" limités. Cette idée est reprise dans "l'exposé des motifs". A côté de cela, des utilisateurs avertis ont manifesté leur souhait de ne pas voir jeter le bébé avec l'eau du bain, et de ne pas interdire, par principe, des usages qu'ils avaient testé et qui pouvaient s'avérer utiles sous réserves des précautions édictées. --Pa2chant.bis (discuter) 29 mai 2025 à 15:41 (CEST)
- Le nom de la page était juste un exemple, il peut (doit) bien sûr être discuté. Ce que je voulais dire c'est que dans le principe, je préfère une page d'aide qui synthétise les choses plutôt qu'une nième reco qui ne fait que répéter des consignes déjà existantes. -- HMa [discutez sans frapper] 30 mai 2025 à 05:02 (CEST)
- Parce qu'une page appelée "Aide:AI" serait beaucoup trop incitative, alors que l'idée générale est bien , à défaut d'interdiction, d'en dissuader l'usage. Il nous (les personnes ayant réfléchi à ce texte, principalement sur Projet:Observatoire des IA) a semblé nécessaire d'avoir un texte spécifique pour ne pas avoir à argumenter à chaque hallucination, chaque texte non relu, chaque ton hagiographique, chaque écart aux sources, justement en raison d'une puissance de production changeant notablement d'échelle face à des moyens de "patrouille/relecture" limités. Cette idée est reprise dans "l'exposé des motifs". A côté de cela, des utilisateurs avertis ont manifesté leur souhait de ne pas voir jeter le bébé avec l'eau du bain, et de ne pas interdire, par principe, des usages qu'ils avaient testé et qui pouvaient s'avérer utiles sous réserves des précautions édictées. --Pa2chant.bis (discuter) 29 mai 2025 à 15:41 (CEST)
Neutre. On ne pourra pas bannir indéfiniment l'IA, il faudra donc bien un jour une « recommandation » ferme et précise pour cadrer l'usage sans se faire abuser par les biais qu'elle pourrait produire, surtout si elle est alimentée par les « Grands (gafa) » de ce monde. Dans l'état actuel l'IA fait s'importe quoi : faites une requête en précisant "citer les sources et ne pas utiliser Wikipédia" et vous constaterez les aberrations produites ! Je suis donc contre l'IA pour l'instant mais probablement pour à terme.vote transféré vers NON --Gnrc (discuter) 30 mai 2025 à 13:16 (CEST)
- Neutre Oui, il faut réglementer l'utilisation de l'IA sur Wikipédia. Mais je trouve, à titre personnel, que l'essai présenté n'est pas finalisé pour passer en recommandation : il y a des répétitions, des éléments qui auraient plus de sens sur Wikipédia:Intelligence artificielle. À mon avis, cette dernière page devrait être retravaillée pour inclure nos règles en matière d'IA (générative ou non) et mettre sur une page d'aide (ou ailleurs) des explications détaillées sur comment bien l'utiliser. — Antimuonium discuter 1 juin 2025 à 10:50 (CEST)
- Neutre Je pense qu'il faudrait encadrer bien plus strictement l'usage d'IAg, comme par exemple en imposant une balise invisible dans le wikicode lors de chaque contribution. - Bzh99(discuter) 2 juin 2025 à 20:41 (CEST)
- Neutre Je pense que le problème n'est pas la création d'articles par des IAG, mais la vitesse à laquelle ils sont créés. J'anticipe que, devant le torrent d'informations à la fois douteuses et correctes, que la Wikipédia en français n'applique le système de la Wikipédia en allemand à une certaine époque (j'ignore si c'est toujours le cas) : les modifications qui ne sont pas issues de contributeurs dotés d'un certain statut sont mises dans une file d'attente pour être analysées par des patrouilleurs humains avant d'être publiées. — Cantons-de-l'Est p|d|d 🧹 3 juin 2025 à 06:13 (CEST)
- Bonjour @Cantons-de-l'Est, oui sur la WKP allemande c'est toujours le cas ! Mais le seuil est assez faible... Dès lors une I.A. aurait rapidement le statut pour écrire ses propres articles. Jorune (discuter) 4 juin 2025 à 18:18 (CEST)
- Neutre J'ai souvent ouvert des sources indiquées par l'IA qui ne contiennent pas les informations annoncées... donc IA est un intermédiaire douteux... je pense donc, comme conseillé par la recommandation, qu'il ne faut pas se servir de l'IA pour des raisons de vérifiabilité. Mais en ce qui concerne les usages tolérés indiqués dans la recommandation, je ne sais pas si c'est une bonne idée : parfois les IA ont, par exemple, des comportements étranges lorsqu'on leur demande de lire dans une source. Donc, même pour faire un résumer de source, cela peut être risqué. Ou alors, il faut vraiment contrôler le résultat. --RGauguin (discuter) 8 juin 2025 à 19:30 (CEST)
Avis non pris en compte
modifier- Oui, cela devient nécessaire, à voir si avec le temps, l’IA peur s’améliorer ?? / Que fait-on pour les images d’IA ? — CVD_Scpo (d) 25 mai 2025 à 21:33 (CEST) Déplacé, n'est pas autopatrolled. — Jules* 💬 2 juin 2025 à 16:36 (CEST)