
Après 17 ans comme éditeur de courts métrages de science-fiction et de fantasy chez Clarkesworld, un magazine en ligne et imprimé qu’il a fondé en 2006Neil Clarke est devenu habile à repérer les cas occasionnels de plagiat parmi les centaines de soumissions qu’il reçoit chaque mois.
Le problème est devenu apparent pendant la phase de confinement de la pandémie, lorsque les travailleurs coincés à la maison cherchaient des moyens d’augmenter leurs revenus. Mais il a explosé en décembre après que OpenAI, basé à San Francisco, a rendu public son programme ChatGPT, une prose générée par des machines particulièrement sophistiquée.
Clarke estime que sur les 1 200 soumissions qu’il a reçues ce mois-ci, 500 ont été dactylographiées. Il a fermé les contributions jusqu’à au moins la fin du mois, mais il est convaincu que s’il ne le faisait pas, la pile artificielle aurait atteint la parité avec les contributions légitimes d’ici là – “et il est plus que probable que ça passera”, dit-il. .
Toute cette folie a conquis le monde et tout le monde est dans une frénésie.
— H. Holden Thorp, rédacteur en chef de Science
“Nous n’avons vu aucune raison de croire que cela le ralentissait”, déclare Clarke, 56 ans. En plus des plagiaires, il a rejeté le contenu généré par la machine et interdit définitivement les expéditeurs.
Clarke, un vétéran de l’industrie du logiciel, a développé des règles empiriques qui lui permettent d’identifier la prose dactylographiée ; il ne les partage pas car il craint que de simples modifications ne permettent aux utilisateurs de contourner ses standards. «Ce seraient toujours de mauvaises histoires et elles seraient toujours rejetées, mais ce serait dix fois plus difficile pour nous.
Les systèmes de réglementation ont à peine commencé à prendre en compte les ramifications juridiques des programmes capables de rechercher des matières premières sur le Web, y compris la perspective d’une violation généralisée du droit d’auteur et de la falsification en prose et en art.
L’apparence d’authenticité “rendra l’IA générative attrayante pour une utilisation malveillante où la vérité est moins importante que le message qu’elle diffuse, comme les campagnes de désinformation et le harcèlement en ligne”. écrit Alex Engler de la Brookings Institution.
L’assaut du matériel dactylographié est devenu un sujet incontournable dans l’industrie des périodiques, car ChatGPT et des programmes similaires connus sous le nom de chatbots se sont avérés capables de produire une prose qui imite l’écriture humaine à un degré surprenant.
“Tout le monde en parle, et beaucoup de gens se concentrent sur ce que cela va signifier pour l’édition scientifique”, déclare H. Holden Thorp, rédacteur en chef de Science. « Toute cette folie a conquis le monde et tout le monde est dans une frénésie.
La science a mis en place la politique la plus stricte sur les contenus générés par des outils d’intelligence artificielle tels que les chatbots parmi les éditeurs technologiques : C’est interdit, point.
L’interdiction de publication comprend “le texte généré à l’aide de l’IA, de l’apprentissage automatique ou d’outils algorithmiques similaires” ainsi que “les images, images ou graphiques d’accompagnement”. Les programmes d’IA ne peuvent pas être crédités. La science avertit qu’elle traitera les violations de cette politique comme une “faute scientifique”.
Thorp a poursuivi en expliquant dans l’éditorial que l’utilisation de programmes comme ChatGPT violerait un principe fondamental de la science selon lequel ses auteurs doivent certifier que leur travail soumis est “original”. C’est “suffisant pour signaler que le texte écrit par ChatGPT n’est pas acceptable”, a-t-il écrit : “Il est, après tout, plagié de ChatGPT”.
Cela va plus loin que les règles édictées par la nature, qui trône au sommet de prestigieuses revues scientifiques avec Science. Les magazines nature le précisent les programmes générateurs de langage ne peuvent pas être attribués en tant qu’auteur dans un document de recherche, comme essayé dans certains travaux publiés : “Toute attribution de paternité implique la responsabilité du travail”, explique Nature, “et les outils d’IA ne peuvent assumer une telle responsabilité”.
Cependant, Nature permet aux chercheurs d’utiliser de tels outils dans la préparation de leurs articles tant qu’ils “documentent cette utilisation dans les sections méthodes ou remerciements” ou ailleurs dans le texte.
Thorp m’a dit que Science avait décidé de prendre une position plus ferme pour éviter de répéter les problèmes posés par l’avènement de Photoshop, qui permet la manipulation d’images, dans les années 1990.

Le plagiat ou le chatbot a créé des soumissions de science-fiction et de fantasy reçues par le magazine Clarkesworld de Neil Clarke après des mois. L’énorme augmentation de ces derniers mois concerne principalement les messages écrits par des chatbots, représentant près de 40 % du total des messages en février.
(Neil Clarke)
“Au début, les gens faisaient beaucoup de choses sur leurs images avec Photoshop, ce que nous trouvons maintenant inacceptable”, dit-il. “Lorsqu’il est sorti pour la première fois, nous n’avions pas beaucoup de règles pour cela, mais maintenant, les gens aiment revenir aux vieux papiers et dire : “Regardez ce qu’ils ont fait avec Photoshop”. Nous ne voulons pas le répéter. “
Les revues scientifiques attendront que la communauté scientifique s’accorde sur des normes d’utilisation acceptable des programmes d’IA avant de réviser leurs règles, déclare Thorp : « Nous commençons avec un ensemble de règles assez strictes. Il est beaucoup plus facile d’assouplir vos directives plus tard que de les resserrer.
Cependant, à l’origine des inquiétudes concernant ChatGPT et ses cousins IA, il peut y avoir des impressions exagérées sur leur capacité à reproduire la pensée humaine.
Ce qui a été systématiquement négligé, en partie à cause de la puissance du battage médiatique, c’est à quel point ils sont mauvais dans les processus intellectuels que les humains exécutent naturellement et généralement presque parfaitement.
Récit médiatique crédible sur Le “génial” de ChatGPT se concentrer sur ces succès “sans regarder sérieusement l’étendue des erreurs”, observent informaticiens Gary Marcus et Ernest Davis.
Utiles, ils ont compilé une base de données de centaines de perdants parfois risqués de ChatGPT, de Bing de Microsoft et d’autres programmes générateurs de langage : par exemple, leur incapacité à faire de l’arithmétique simple, à compter jusqu’à cinq, à comprendre l’ordre des événements dans un récit ou à comprendre qu’une personne peut avoir deux parents, sans parler de leur tendance à combler les lacunes dans les connaissances par la fiction.
Les hérauts de l’IA disent que ces lacunes finiront par être corrigées, mais quand ou même quand cela se produira est incertain, étant donné que les processus de raisonnement humain eux-mêmes ne sont pas bien compris.
La célébration par ChatGPT des compétences supposées néglige le fait que le programme et les autres chatbots recherchent essentiellement sur Internet le contenu existant – blogs, médias sociaux, vieux livres numérisés, les commérages personnels des ignorants et les leçons apprises des sages – et utilisent des algorithmes pour regrouper ce qu’ils trouver. une manière qui imite, mais n’est pas, cit.
Le contenu créé par l’homme est leur matière première, les concepteurs humains les « forment » où trouver du contenu pour répondre à une requête, les algorithmes écrits par l’homme sont leur jeu d’instructions.
Le résultat ressemble à un tour de magie. Les chatbots ont l’air humain parce que chaque ligne de sortie est le reflet de l’entrée humaine.
L’étonnement que les gens ressentent devant l’apparente sensibilité des chatbots n’est pas un phénomène nouveau. Il évoque ce que Joseph Weizenbaum, inventeur d’Eliza, un programme de langage naturel des années 1960 capable de reproduire les réponses d’un psychothérapeute aux plaintes d’un “patient”, a observé dans les réponses émotionnelles des utilisateurs interagissant avec le programme.
“Ce que je n’avais pas compris” il a écrit plus tard“C’est qu’une exposition extrêmement brève à un programme informatique relativement simple pourrait induire une forte pensée délirante chez des personnes assez normales.”
Il est vrai que ChatGPT est si doué pour le mimétisme qu’il peut tromper même les professionnels instruits à première vue. Selon une équipe de chercheurs de l’Université de Chicago et Northwestern, quatre examinateurs médicaux professionnels ont sélectionner correctement 68 % des résumés générés par ChatGPT d’articles scientifiques publiés à partir d’un pool de 25 résumés authentiques générés par le chat. (Ils ont également mal étiqueté 14 % des résumés réels comme étant dactylographiés.)
La nature déclare que «ChatGPT peut rédiger des essais représentatifs des étudiantsrésumer les articles de recherche, répondre suffisamment bien aux questions pour réussir les examens médicaux et générer un code informatique utile.
Mais ce sont toutes des catégories d’écriture assez générales qui sont généralement liées à un langage corrompu. “L’IA n’est pas créative, mais itérative”, déclare John Scalzi, l’auteur de dizaines de livres de science-fiction et de nouvelles, qui s’est opposé à ce que son éditeur Tor Books utilise de l’art généré par la machine sur la couverture du dernier ouvrage de son collègue. roman.
(Tor a dit déclaration publiée qu’il ne savait pas que la couverture “pourrait être créée par AI”, mais a déclaré qu’en raison des calendriers de production, il n’avait d’autre choix que de continuer avec la couverture une fois qu’il aurait appris la source. L’éditeur a déclaré qu’il “soutenait les créateurs de la communauté SFF (c’est-à-dire la science-fiction et la fantasy) depuis notre création et qu’il continuera à le faire.)
Quant aux perspectives d’amélioration continue du contenu généré par la machine, “je pense qu’il est inévitable qu’il atteigne le niveau de” suffisamment bon “”, déclare Scalzi. “Je ne pense pas que l’IA créera une œuvre d’art durable comme” Blood Meridian “ou” How Stella Got Her Groove Back “”, a-t-il déclaré, faisant référence aux romans de Cormac McCarthy et Terry McMillan.
À l’heure actuelle, l’utilisation non détectée ou mal détectée des chatbots est considérée comme un crime professionnel presque comparable au plagiat. Deux doyens du Peabody College of Education and Human Development de l’Université Vanderbilt ont été suspendus après que l’école a publié un e-mail en réponse à la fusillade du 13 février à l’Université d’État du Michigan exhortant la communauté Vanderbilt à “s’unir” dans “Créer un environnement sûr et inclusif” sur le campus.
L’e-mail contenait un avis en petits caractères indiquant qu’il s’agissait d’une “paraphrase” de ChatGPT. Un tireur du Michigan tue trois étudiants et en blesse cinq.
Pour être juste, l’e-mail ChatGPT de Vanderbilt ne se distinguait pas du tout de ce que le personnel universitaire aurait pu produire lui-même, un exemple de condoléances “pensées et prières” après une tragédie publique qui semble vide et robotique même lorsqu’elle est produite par des créatures de chair et de sang.
Les produits Chatbot n’ont pas encore pénétré les rangs d’élite de l’écriture créative ou de l’art. Clarke dit que ce qui motive la soumission d’histoires dactylographiées à son magazine ne semble pas être un désir de succès créatif, mais une recherche d’un profit rapide.
“Il y en a beaucoup site “side hustle” sur Internet », dit-il. “Ils sont induits en erreur par les personnes qui gèrent ces programmes lucratifs.”
D’autres craignent que la facilité de générer une prose et des images d’apparence authentique mais générées par des machines fasse de la technologie un outil d’iniquité, tout comme les crypto-monnaies ont trouvé leurs cas d’utilisation les plus fiables dans les attaques de fraude et de ransomware.
En effet, ces programmes ne sont pas des entités morales, mais des outils sensibles aux stimuli de leurs utilisateurs et dépendants du matériel source vers lequel ils sont dirigés. Microsoft devait peaufinez votre nouveau moteur de recherche Bing basé sur ChatGPTpar exemple quand il a répondu étrangement, troublantmême insultant aux questions de certains utilisateurs.
La sortie de ChatGPT est théoriquement limitée par des “barrières” éthiques conçues par ses développeurs, mais facilement contournées – “pas plus que du rouge à lèvres sur un cochon amoral”, a noté Marcus.
“Nous avons maintenant le chatbot le plus utilisé au monde, … glorifié par les médias, mais avec des garde-fous éthiques qui ne fonctionnent qu’en quelque sorte”, ajoute-t-il. « Il y a peu ou pas de réglementation gouvernementale qui ferait grand-chose à ce sujet. Les possibilités de propagande, de fermes de trolls et de réseaux de faux sites qui érodent la confiance sur Internet sont désormais infinies. Une catastrophe en devenir. »