Stratégies pour intégrer l’IA dans les opérations d’édition
![]() |
Il y a peu de choses que les entreprises d’édition aiment moins faire qu’intégrer des technologies numériques complexes dans leurs opérations quotidiennes. C’est compréhensible. L’IA, en particulier, suscite de l’anxiété chez tout le monde, et pas seulement dans l’édition. C’est nouveau, c’est mystérieux, c’est personnalisé, c’est puissant. Les gens se sentent menacés par l’IA pour de nombreuses raisons. Changer les attitudes prend du temps. |
Mais ce n’est pas le moment d’être timide avec la technologie.
Il existe des approches calmes et rationnelles pour intégrer l’IA dans votre opération d’édition, quelle que soit la taille de votre organisation.
L’impulsion doit venir du sommet. Du très haut sommet. Les cadres supérieurs doivent adopter une vision de l’impact potentiellement transformateur de l’IA et communiquer un programme au personnel de toute l’organisation. Le programme peut être peu plus que “expérimentez, documentez vos expériences, et partagez.” C’est un bon début.
The Economist a récemment référencé une tactique organisationnelle pour l’adoption de nouvelles technologies appelée “l’approche du phare.” Vous créez une balise en sélectionnant une preuve de concept à haut profil qui peut être mise en œuvre rapidement, à laquelle tout le monde peut se rapporter.
Les entreprises d’édition sont handicapées par le brouhaha entourant le droit d’auteur : les auteurs sont en colère. Une enquête de la Authors Guild de mai 2023 a révélé que “90 % des écrivains pensent que les auteurs devraient être compensés si leur travail est utilisé pour former des technologies d’IA générative,” et 67 % ont déclaré “ne pas savoir si leurs contrats d’édition ou les conditions de service des plateformes incluent des permissions ou des droits pour utiliser leur travail à des fins liées à l’IA.” Ces auteurs incertains demandent maintenant à leurs éditeurs si l’IA est utilisée dans l’édition ou la production de leur travail, et certains auteurs influents insistent pour qu’elle ne le soit pas. Ils recherchent l’équivalent IA d’une boulangerie sans arachides.
C’est un problème épineux pour les éditeurs–si vous ne pouvez pas utiliser l’IA sur les livres que vous prévoyez de publier, à quoi pouvez-vous l’utiliser ?
Développer et communiquer des politiques IA
Malgré son utilisation généralisée, peu d’éditeurs ont défini publiquement leurs politiques IA et communiqué leurs approches de l’IA au public. Le terme ‘le public’ a une signification glissante ici, lorsqu’on considère les différents publics adressés par les éditeurs commerciaux, universitaires et éducatifs.
Pour les éditeurs commerciaux, le public le plus important est constitué des auteurs et de leurs agents. Les éditeurs académiques sont confrontés à des obstacles différents lorsqu’ils considèrent l’impact prometteur de l’IA sur la recherche, puis l’impact plus problématique de l’IA sur la conversion de la recherche en récit (Avi Staiman a écrit un article réfléchi sur ce sujet). Pour les éditeurs éducatifs, établir des politiques est délicat, car l’empiétement de l’IA sur la pratique de l’enseignement, de l’éducation, est multiforme et complexe.
Je pense que les éditeurs sont confrontés à deux grands défis à mesure qu’ils avancent avec les technologies de l’IA. Le premier est de développer une position de l’entreprise sur la manière d’aborder l’IA en général, sur la manière d’incorporer l’IA dans leurs flux de travail. Le deuxième défi est de communiquer cette position, clairement et sans ambiguïté, à leurs parties prenantes.
Les politiques des éditeurs que j’ai vues sont pour la plupart imparfaites. Certaines d’entre elles sont en fait des politiques dirigées vers l’extérieur, à l’adresse des auteurs, avec une série d’avertissements sur ce qui est une pratique acceptable (pas grand-chose) et ce qui ne l’est pas (beaucoup). La politique de O’Reilly “Politique d’utilisation de l’IA pour les talents développant du contenu pour O’Reilly” s’étend sur des pages et des pages, avec des directives ésotériques, telles que “NE PAS utiliser de modèles IA OSS qui produisent des logiciels soumis aux termes d’une licence open source de type copyleft ou virale de réseau.”
D’autre part, l’éditeur académique Elsevier, dans la section “Politiques Elsevier” de son site web, comprend des déclarations sur les “Principes de l’IA responsable,” le “Text and Data Mining,” et “L’utilisation de l’IA générative et des technologies assistées par l’IA dans la rédaction pour Elsevier.”
Les quelques politiques internes, non publiées, des éditeurs que j’ai vues sont conservatrices, excessivement. Ces éditeurs ont réagi trop rapidement à la gamme de menaces perçues et possibles, et aux inquiétudes de leurs auteurs, et ont entravé leur propre capacité à s’engager de manière robuste avec cette technologie en rapide développement et changement.
Il est évident qu’ils utiliseront l’IA de manière “responsable,” quoi que cela signifie. Il est évident qu’ils ont la plus grande préoccupation pour la propriété intellectuelle des auteurs et pour la protection agressive du travail sous copyright de l’auteur. (Bien sûr, ces grands principes doivent être déclarés publiquement et souvent réitérés.)
Mais quoi d’autre?
Permettront-ils à l’IA de jouer un rôle dans les acquisitions éditoriales ? L’IA peut-elle jeter un œil au tas de manuscrits non sollicités ?
Permettront-ils à l’IA de jouer un rôle dans l’édition développementale, l’édition de ligne et la révision ?
Permettront-ils à l’IA de jouer un rôle dans la détermination des tirages et des allocations ?
Dans la création de fichiers ebook accessibles, y compris les textes alternatifs ?
Dans l’aide à la création de livres audio dans les cas où il n’est pas économiquement réaliste d’engager des narrateurs humains talentueux ?
Dans l’aide à la traduction en langues étrangères dans des marchés où les droits ne seraient jamais vendus ?
Dans le développement de matériel de marketing à grande échelle ?
Dans la communication avec les revendeurs ?
Si c’est le cas, ils doivent le préciser clairement et expliquer clairement la réflexion derrière ces politiques. Les éditeurs doivent être courageux pour contrer les nombreuses objections de la plupart des auteurs en cette période de peur et de doute.
Considérations professionnelles
![]() |
Seuls les plus grands éditeurs pourront embaucher du personnel dédié au travail avec des logiciels et systèmes d’IA. L’éditeur moyen voudra exposer tout son personnel aux outils d’IA, s’attendant à ce que chacun puisse explorer l’utilisation de l’IA pour trouver des gains d’efficacité dans leur travail. |
Lors de la conférence PubWest de février 2024 en Arizona, une intervenante extérieure au secteur de l’édition a suggéré que l’un des usages de l’IA serait de remplacer les stagiaires. La salle a explosé. Elle voulait bien faire—en effet, un rapport du 10 avril 2024 dans le New York Times décrit comment les banques d’investissement de Wall Street cherchent à remplacer de nombreux stagiaires par l’IA. Similaire au cas dans l’édition, une préoccupation évidente est : comment trouver des analystes seniors s’ils ne peuvent pas commencer comme analystes juniors ?
Le secteur de l’édition a toujours compté sur les stages. Une étude de 2019 a révélé que 80 % des personnes ayant travaillé dans l’édition depuis moins de quinze ans avaient auparavant fait un stage.
En partie, c’est un moyen de faire le travail ingrat à un coût raisonnable. Mais cela pâlit face à la réalité plus grande qu’aucune école d’édition ne peut équiper quelqu’un pour rejoindre une maison d’édition au niveau de cadre intermédiaire. La seule façon de développer le personnel qualifié de demain est de former des stagiaires et des apprentis aujourd’hui.
L’objectif ici n’est pas de chercher à remplacer les stagiaires par l’IA, mais plutôt de rendre leur travail plus productif et gratifiant en utilisant des outils d’IA, au bénéfice à la fois du stagiaire et de la maison d’édition.
