Les géants du web font les yeux doux aux producteurs de contenu, médias en tête. Des sirènes pas tout à fait nouvelles, à l’échelle du web, mais auxquelles les éditeurs ne savent pas toujours si ils doivent céder ou non. Histoire et perspectives (comme on dit).
Concrètement, on copie une adresse web, celle du flux, et on la colle dans son agrégateur, là où on lira les mises à jour apportées par l’ensemble des flux auxquels on est abonné. Plus besoin de parcourir les sites, ou d’attendre les newsletters pour connaître les dernières nouvelles.
Côté presse, L’Humanité semble être le premier à s’y être mis, puis Le Monde diplomatique. Libération propose un flux RSS en 2003. On commence à s’abonner aux blogs, aux sites de presse.
Les utilisateurs passent alors à Feedly, reviennent à Netvibes, se tournent depuis peu vers Inoreader.
Le succès des flux RSS tient à la normalisation du format, et au fait qu’on peut les afficher n’importe où. Je peux mixer des flux, les filtrer, afficher le résultat sur un site. C’est une vraie ouverture sur un travail automatisé de publication d’un site sur l’autre. Et, c’est réellement simple, même sans connaissances informatiques, avec une foultitudes d’outils qui permet de multiples applications.
Lorsque j’arrive en octobre 2008 à Paris-Normandie, avec pour mission de faire ce qu’il fallait pour amener le journal à une présence digne de ce nom sur le web, j’ai demandé qu’un flux RSS des articles soit disponible le plus rapidement. J’ai dû le faire dès ma première réunion avec les responsables informatiques du site. C’était alors une condition indispensable à la visibilité de l’information produite en ligne.
Déjà, cependant, deux écoles s’affrontaient. Pour la première, il convenait que les articles contiennent la version intégrales des articles, que cette version complète soit lisible directement dans les agrégateurs. Le plus important étant que l’information circule, et cela facilitait la vie des internautes qui n’avaient pas à cliquer pour aller lire la version complète sur le site d’origine de l’information. Pour la seconde, un extrait, généralement le début de l’article, suffisait : les internautes qui étaient intéressés n’avaient qu’à cliquer pour se rendre sur la version complète, sur le site initial. Pour les uns, le flux RSS servait à diffuser l’information, pour les autres, il avait pour mission de recruter des lecteurs. Internet oblige, on allait déjà jusqu’à insulter celui qui tronquait son flux et refusait de ce fait la libre circulation de l’information. Mais ?, répondait-il déjà… Je vis en vendant de la publicité sur mon site, il faut bien que les internautes y viennent, sinon, je n’ai qu’à mettre la clef sous la porte. Le dilemme n’est pas tout à fait d’hier.
Les relations entretenues depuis entre Google actu et les médias sont plutôt tendues.
En mars 2005, l’Agence France-Presse décide d’attaquer Google en justice au sujet de Google Actualités. L’agence de presse accusait Google d’avoir enfreint le copyright sur ses dépêches et ses photos, en les diffusant sans son autorisation. L’AFP lui réclame 17,5 millions de dollars de dommages et d’intérêts. Avant le terme de cette affaire, Google a pris la décision de retirer de son site tout le contenu AFP et de ne plus l’indexer dorénavant. Un accord est trouvé en 2007.
Je me souviens d’une réunion un peu tendue à Paris-Normandie en 2009 ou 2010. Le PDG avait dans l’idée de demander à Google de retirer le journal de Google Actualité. Pour lui, comme pour beaucoup d’autres, les internautes se satisfaisant des quelques lignes proposées par Google, ne venaient plus sur le site. Et le bénéfice d’audience qu’on retirait de Google Actualités n’était pas compensé par ces pertes. J’avais du batailler pour démontrer que l’on était en phase de conquête d’audience et que si l’on sortait de Google Actu, on perdrait alors 15% de nos visiteurs. Une hypothèse qui me permit alors de convaincre de rester indexé.
En Belgique, en 2011, le choix n’est pas le même. Après plusieurs années de procès contre Google, la société de gestion de droits des éditeurs de presse quotidienne francophone et germanophone Copiepresse voit l’ensemble des contenus en ligne des sites qu’elle représente (LeSoir, La Libre Belgique, La Dernière Heure, Sudpresse, l’Avenir) retirés de l’index de Google Actualités. Cet événement intervient suite à un premier jugement de la cour de Bruxelles en 2006, qui ordonnait le retrait de nombreux titres de la presse belge du site car publiés sans autorisation sous peine d’une amende d’un million d’euros par jour de retard en cas d’inexécution, ainsi que l’affichage sur la page d’accueil de Google.be et News.google.be de la décision de référé durant cinq jours (avec astreinte de 500 000 euros par jour de retard). Après une réduction de l’astreinte à 25 000 € par jour de retard en février 2007 et un appel de Google en juillet de la même année, le groupe a décidé, « compte tenu de la récente décision d’appel (…) [de retirer] les contenus de Copiepresse » de son index et déclare : « Nous regrettons d’avoir à prendre une telle mesure et nous restons ouverts à travailler en collaboration avec les membres de Copiepresse à l’avenir ».
En octobre 2012, 154 quotidiens de la presse brésilienne prennent la décision de se désindexer de Google Actualités. Ces quotidiens jugent qu’il n’est pas rentable d’être présent sur Google Actualités et que les quelques lignes affichées sur le service de Google n’incitent pas l’internaute à ensuite visiter leurs sites.
En 2013 en France, Google a trouvé un accord avec l’État qui a conduit à la création d’un fond de 60 millions d’euros pour aider la presse française à innover dans le numérique.
En 2014, Google actualités disparait d’Espagne suite à une loi obligeant les agrégateurs de contenu à payer une contribution aux éditeurs de presse pour la diffusion de leur production. En Allemagne suite à une une loi similaire Google a retiré les images et description des article sur Google Actualité. Pour que ces contenus soient diffusés, les éditeurs doivent accepter de ne pas réclamer les compensations fixées par la loi.
En 2015, le fonds Google pour la presse initié en France deux ans plus tôt devient européen. Google finance l’innovation, et les relations, on s’en doute, devraient se pacifier entre la multinationale et les éditeurs.
Entre temps, les choses ont bien changé. La période de la suprématie des blogs a laissé place à celles des réseaux sociaux. Et l’ordinateur cède le pas, petit à petit, au mobile et à la tablette.
Les contenus sont partagés sur les réseaux sociaux. Facebook et Twitter en tête. On retrouve sur Facebook les mêmes éléments que sur Google Actualités, les possibilités de commentaire en plus. C’est la conversation qui sort des sites pour se diffuser ailleurs. Et, petit à petit, la stratégie sociale laisse imaginer qu’on va pouvoir échapper à l’hégémonie de Google. En 2014, 20% des internautes qui visitent des sites d’informations proviennent de Facebook.
La bataille pour héberger les vidéos n’est pas nouvelle. Sur ce contenu particulier, chacun a cherché sa voie. La presse a expérimenté des solutions propriétaires, signé des accords avec Dailymotion ou avec Youtube. Ce contenu particulier, qui demande des ressources conséquentes en matière d’hébergement et de bande passante, a poussé à trouver des solutions techniques spécifiques. C’est Youtube, propriété de Google, qui a largement emporté la mise. 300 heures de vidéo sont mises en ligne chaque minute sur YouTube. Le nombre d’heures de visionnage mensuelles sur YouTube augmente de 50 % chaque année. Une mise d’autant plus intéressante que la publicité vendue en amont des vidéos est plus rémunératrice que les autres formats proposés en display sur le web.
En hébergeant leurs vidéos sur Youtube ou Dailymotion, et maintenant Facebook, ou Twitter, les médias ont fait de premiers pas, parfois assez tôt, dans l’externalisation de leur contenu. Ces vidéos que l’on pouvait voir ailleurs que chez eux, et qui, d’ailleurs, touchent souvent plus de monde à l’extérieur de leurs pages web que sur elles-mêmes.
Bref, la question devient pour les médias : où faut-il donner l’information ? Jusqu’où un site est-il indispensable ? Peut-on faire autrement ? Doit-on céder aux sirènes des réseaux sociaux qui proposent d’héberger chez eux les contenus que nous produisions jusque là chez nous même si d’aucun les lisaient ailleurs.
De quoi conforter encore plus ceux qui n’imaginent même plus qu’ils sont sur Internet lorsqu’ils utilisent Facebook. Et il y en a.
Twitter n’est pas en reste, avec le projet « Twitter Lightning » qui devrait consister à embaucher des journalistes pour trier et organiser son contenu afin d’offrir un meilleur accès à l’information autour des thématiques du moment. Et pendant ce temps, Instagram change les modalités de recherche pour concurrencer Twitter sur le temps réel…
Facebook laisserait jusqu’à 100% de la publicité générée par ces articles aux éditeurs, à condition qu’ils vendent eux-mêmes l’espace. 60% si la publicité est vendue par le réseau social. De quoi appâter le chaland. Au début tout du moins. Car les observateurs ne manquent pas de relever qu’une fois en position de force, ces distributeurs d’un nouveau genre auront toute latitude pour modifier la visibilité des contenu, ou les tarifs proposés. Facebook a déjà joué à ce jeu là, baissant petit à petit la visibilité organique des publications sur les pages, et proposant parallèlement de payer pour être plus vu. Ce ne serait donc pas une première.
L’inquiétude économique n’est pas la seule qui mine les éditeurs confrontés à la question d’y aller ou pas. S’y ajoute une interrogation éditoriale. Le choix des canaux de diffusion n’est pas sans incidence sur le choix des sujets traités, ni sur la façon de les traiter. L’algorithme de Google a modifié l’écriture de ceux qui visent les premières places dans les résultats du moteur de recherche. L’algorithme de Facebook, le edgerank, a jusque là privilégié les sujets à forte charge émotionnelle, au détriment des traitements plus sérieux. Facebook a annoncé en juin 2015 que son algorithme prendrait dorénavant en compte non seulement le nombre de “J’aime”, de partage ou de commentaires, mais aussi le temps passé par l’internaute sur chaque publication pour choisir ce qu’il lui présentera à l’avenir. Une nouvelle qui laisse espérer plus de place aux sujets “sérieux”, qu’on lit sans nécessairement ressentir le besoin d’en faire étalage ou de les commenter.
S’opposeront encore longtemps, on peut le parier ceux qui laissaient filer leurs articles entier dans les flux RSS parce qu’ils faisaient le pari qu’en allant là où le lecteur allait ils ne perdraient pas le contact avec lui, et ceux qui feront toujours tout pour le retenir chez eux, espérant leur lien assez fort pour qu’il reste solide. Et bien malin qui pourra prédire lesquels auront raison et lesquels auront tort. Les plus pragmatiques essaieront, au risque de se tromper, les solutions qui se présentent, sans prendre le risque de brûler leurs vaisseaux. Encore, et encore, puisque c’est ainsi qu’on avance depuis vingt ans sur le web.
Pour autant, il convient de mettre en place les moyens de mesurer l’impact des tests, de quantifier le succès ou l’échec. Facebook offre aujourd’hui des outils de ciblage et de mesures inouïs sur d’autres supports, et l’on a avec les statistiques de différents services en lignes des outils qui permettent des retours d’expérience objectivés, rapides, et précis. Autant d’éléments dont il convient d’apprendre à se servir pour aider à la diffusion, et faire les bons choix.
Ce texte correspond au contenu d’une masterclass donnée dans le cadre de la Medialabsession de Rouen, le 27 juin 2015.
Quelques sources :
- Ariane et le Web : qu’est-ce que le RSS ou la syndication de contenu ? Véronique Ginouvès https://aldebaran.revues.org/70
- Article Google Actualités de Wikipedia https://fr.wikipedia.org/wiki/Google_Actualit%C3%A9s
- Les Youtubeuses pèsent plus lourd sur Internet que la presse féminine http://www.mediacademie.org/1649/les-youtubeuses-pesent-plus-lourd-sur-internet-que-la-presse-feminine
- News, quand Apple joue l’information à guichet fermé http://www.mediacademie.org/2173/news-quand-apple-joue-linfo-a-guichet-ferme
- L’externalisation des articles, une solution viable ? http://www.mediacademie.org/2127/lexternalisation-des-articles-une-solution-viable