Les logiques de ré-intermédiation de l’information journalistique en ligne : les exemples de Yahoo! et Google.

Marc-Olivier Goyette-Côté

Présentation de l’auteur

Marc-Olivier Goyette-Côté est étudiant à la maîtrise en Communication à l’Université du Québec à Montréal et adjoint de recherche au GRICIS.                                                                  goyette-cote.marc-olivier@courrier.uqam.ca

***

Les mécanismes de circulation de l’information sur Internet ont permis l’éclosion d’acteurs dont la principale fonction n’est ni la production, ni l’édition, ni la diffusion, mais bien la ré-intermédiation d’informations produites par des tiers, les infomédiaires. Ces acteurs deviennent de plus en plus la porte d’accès aux contenus journalistiques tout en reposant sur des contenus produits par les acteurs traditionnels du journalisme. En assumant un nouveau rôle de ré-intermédiation, les infomédiaires se positionnent avantageusement dans les habitudes de navigation des internautes et jouent désormais un rôle central dans la chaîne de valorisation de l’information journalistique sur Internet, drainant une part importante des ressources publicitaires des producteurs vers les rediffuseurs en plus de contribuer à la circulation circulaire de l’information sur Internet.

Cette présentation d’ordre conceptuel se base sur des recherches menées dans le cadre de mon mémoire de maîtrise qui aborde la question du retraitement automatisé de l’information journalistique sur Internet et celles effectuées dans le cadre d’un projet de recherche conjoint entre la France et le Québec, financé par le FQRSC et l’ANR, et qui porte sur le pluralisme des sources sur Internet.

Ces travaux nous ont amené à se pencher sur les stratégies suivies par les acteurs de l’information journalistique dans l’implantation de leurs activités en ligne et plus particulièrement sur les nouveaux modèles socio-économiques de l’information journalistique qui sont en train de se constituer sur Internet sous l’impulsion des infomédiaires.

Il apparaît que les mécanismes de circulation de l’information sur Internet ont permis l’éclosion d’acteurs dont la principale fonction n’est ni la production, ni l’édition, ni la diffusion, mais bien la ré-intermédiation d’informations produites par des tiers. Ces acteurs, les infomédiaires, deviennent de plus en plus la porte d’accès aux contenus journalistiques tout en reposant sur des contenus produits par les acteurs traditionnels du journalisme (Rebillard, 2007; PEW, 2009). En mettant en relation une offre agrégée et très variée acquise à peu de frais, les infomédiaires se positionnent avantageusement dans les habitudes de navigation des internautes et par le fait même jouent désormais un rôle central dans la chaîne de valorisation de l’information journalistique sur Internet. Cela a pour conséquence de drainer une part importante des ressources publicitaires des producteurs vers les rediffuseurs en plus de contribuer à la circulation circulaire de l’information (Bourdieu, 1996) sur Internet.

L’infomédiation de l’information journalistique

Dans une étude sur les salles de rédaction des médias en ligne, Bourre et Smyrnaios identifient deux compétences différentes nécessaires à la production/diffusion de l’information journalistique en ligne, « une compétence éditoriale renvoyant largement aux médias et une compétence « technique », liée au support, qui renvoie à l’informatique » (Bourre et Smyrnaios, 2006, p. 1). Ce deuxième aspect fait en sorte que des acteurs fortement présents dans l’industrie d’internet et déjà imprégnés des savoirs techniques ont décidé de diversifier leurs activités en utilisant leur capital technique pour se lancer dans la redistribution de l’information journalistique. Aujourd’hui à l’heure dite du web 2.0, il apparaît que des acteurs comme Yahoo! Ou Google, que nous regroupons dans la catégorie des infomédiaires, sont devenus les premiers lieux de consultation d’informations journalistiques sur Internet aux États-Unis (PEW, 2010).

Les infomédiaires

Pour Rebillard et Smyrnaios, les infomédiaires comme Yahoo! ou Google « organisent la sélection, l’organisation, la hiérarchisation et la distribution de l’information éditée par des tiers, sur la base de critères thématiques, linguistiques ou géographiques » (Rebillard et Smyrnaios, 2007, p. 2). Nous pouvons donc dire que les infomédiaires ont structuré leurs activités autour de l’organisation et de la mise en circulation de documents numériques ayant trait à l’actualité, « triés et structurés par des algorithmes simulant une maîtrise de la sémantique » (Ibid.). Dans ce sens, nous pouvons les considérer comme des méta-éditeurs, puisqu’ils travaillent dans l’édition de matériel déjà édité. Les infomédiaires se poseraient ainsi en tant que spécialistes du « courtage informationnel » (Moeglin : 2003) en mettant en relation un nombre grandissant de demandes sur des domaines et sujets variés tout en offrant une information tout aussi complexe.

L’objectif des infomédiaires

L’objectif pour les acteurs de l’intermédiation est de se positionner favorablement dans la relation entre le producteur et le consommateur. « Il s’agit pour eux de maîtriser «le point nodal au cœur de l’architecture multi-réseaux, multi-services » afin de devenir le « guichet unique pour l’utilisateur » (Combès, 2004, p. 110). Selon Kocergin, ces acteurs tentent, « en offrant pour la plupart des services gratuits, de capter l’attention des usagers, d’avoir un accès direct au client, et de devenir ainsi l’intermédiaire privilégié et un passage obligé des usagers vers l’offre ou une partie spécifique d’offre sur Internet » (Kocergin, 2002, p. 3). Ce rôle de médiation pourrait s’apparenter à la fonction centrale de cette logique socio-économique intermédiaire. Nous distinguons deux catégories principales d’infomédiaires, soit les portails et les agrégateurs.

Le marché des infomédiaires

Google, Yahoo et les grands portails généralistes des fournisseurs de service Internet (FSI) se sont positionnés en tant que courtiers d’information, mettant en relation une production agrégée produite majoritairement par les acteurs traditionnels de la presse, à un public déjà constitué d’utilisateurs réguliers de leurs services. Ne produisant pas eux-mêmes de nouvelles, les infomédiaires ont dû développer un modèle d’affaire leur permettant d’obtenir la « matière informationnelle » à bas prix (voire gratuitement dans le cas des agrégateurs) et de la diffuser sur leur plateforme afin de compléter leur offre de service (Rebillard et Smyrnaios, 2007). En reprenant les contenus entiers ou simplement les flux de syndication ou RSS des acteurs institutionnalisés, les infomédiaires procèdent à une nouvelle mise en relation des contenus journalistiques et des consommateurs dans une logique de ré-intermédiation.

Les portails

Les portails sont souvent la vitrine de fournisseurs de services Internet (FSI), comme c’est le cas pour Yahoo (messagerie, moteur de recherche et annuaire de sites), Sympatico (messagerie et fournisseur d’accès Internet (FAI)) et MSN (FSI, messagerie, dépannage, etc). Un portail généraliste est un site marchand qui dispense une série de services directement auprès des internautes-consommateurs; ces services sont très variés, mais les principaux sont liés à l’utilisation d’Internet. Parmi ces services, l’on retrouve la messagerie Internet, la fourniture d’accès au réseau, la mise à disposition d’annuaires de sites, des moteurs de recherche, des horoscopes, la météo, des services de rencontre, des horaires de cinéma, des annonces classées, des cartes géographiques ou routières, des boutiques virtuelles, etc. Le grand avantage du portail est qu’il constitue un point nodal où se rejoint une pléthore de communautés d’usagers. Ces caractéristiques attirent vers les pages Web une clientèle nombreuse qui se reflète à travers les statistiques d’utilisation d’Internet.

Pour ce qui est de l’aspect de l’information journalistique, dans la majorité des cas les portails « se fournissent en informations d’actualité auprès des agences de presse, achetant des dépêches sous des formats tels que XML permettant l’adaptation à l’interface ergonomique de chaque site » (Rebillard : 2006, p. 4).  Au Québec, les principaux portails n’appartenant pas à des groupes de presse sont ceux de Sympatico, de MSN et de Yahoo! Pour ce qui est des sources mobilisées pour les sections « une », actualité, international, national et régional, elle sont sensiblement les mêmes pour Yahoo! (SRC, AFP et PC), MSN (PC, SRC, LCN, AFP) et Sympatico (SRC, AFP, PC et Métro).

Les agrégateurs

L’agrégateur le plus connu est certainement Google News. La compagnie utilise les capacités de son moteur de recherche, fonctionnant à l’aide de robots (crawlers) parcourant la toile, d’hyperlien en hyperlien, archivant les contenus parcourus. L’idée est de rendre disponible en un endroit, des résumés de nouvelles (titre, sous-titre, premier paragraphe (et parfois des photos)) menant vers des contenus hébergés par les acteurs éditoriaux. Son rôle est clairement méta-éditorial, dans le sens où il sélectionne et hiérarchise les informations publiées sur d’autres sites et classées en fonction de thématiques liées à des mots clefs préétablis.

L’agrégation fonctionne en deux temps. Premièrement, il s’agit de mettre en place des robots qui parcourent « en permanence l’ensemble de sources présélectionnées et recensent en temps réel les nouvelles publications » (Julia et Smyrnaios, 2007, p. 6). Deuxièmement, le service « restitue sur ses propres pages les titres et les premières lignes des articles ainsi qu’un lien vers l’emplacement où se trouve l’intégralité des documents, sur le site de l’éditeur » (Ibid.). L’agrégation peut également être volontaire, si le site met à la disposition des autres sites web un « fil de syndication » auxquels les sites de diffusion peuvent s’abonner.

La relation ambiguë entre les fournisseurs de contenus et les fournisseurs de clientèles que sont devenus les infomédiaires.

Dans leur étude sur les filiales françaises de Google et de Yahoo, Bourre et Smyrnaios (2006) identifient trois caractéristiques communes aux infomédiaires : « 1) la fonction d’infomédiation est largement financée par la publicité; 2) ils se placent en position d’intermédiaires valorisant leur maîtrise des outils de recherche afin de proposer des pages web rassemblant des liens vers des informations situées sur d’autres sites […]; 3) contrairement aux fournisseurs d’accès, leur activité ne nécessite pas, du moins au départ, d’importants et coûteux investissements matériels » (Bourre et Smyrnaios, 2006, p. 2). Ce dernier point est important puisqu’apparemment, la modification des modalités de production/diffusion sur Internet devait permettre une désintermédiation de l’information. En effet, puisque l’internaute peut entrer l’URL du site de presse dans son fureteur et y accéder directement sans intermédiaires.

Or, Bustamante souligne que parallèlement à cette désintermédiation, il y aurait un mouvement de ré-intermediation impulsé par le nouvel environnement numérique dans lequel « [o]n the Internet, portals, search engines, content providers and services providers (ISPs) concentrate and orientate the mass trafic, but also assume new functions of packaging and commercialization » (Bustamante, 2004, 807). Selon lui, « cette fonction apporte une valeur ajoutée, mais en même temps, absorbe une partie des profits, ce qui génère des tensions entre créateurs, producteurs et fournisseurs de contenus » (Ibid.).

Les différences entre les portails et les agrégateurs

Bien que les deux catégories d’infomédiaires, les agrégateurs et les portails, partagent une activité similaire au niveau de l’intermédiation de l’information journalistique, les deux adoptent des manières de faire qui les distinguent l’un de l’autre et sur lesquels reposent des modalités de valorisation différentes. Pour étudier ces différences, nous avons décidé d’étudier les cas de Yahoo! et de Google, puisqu’ils représentent deux acteurs dominants de l’infomédiation au Québec, qu’ils ont des activités dans plusieurs pays et qu’ils ont déjà fait l’objet d’analyses de la part de chercheurs avant nous. Parmi les différences importantes, l’on remarque 1) l’histoire de la compagnie, 2) le mode d’organisation de la salle de presse, 3) les sources privilégiées et ; 4) le type d’accord mis en place pour l’utilisation des contenus.

L’historique des deux entreprises

Au niveau de l’historique des compagnies, l’on retrouve deux acteurs qui ont débuté leurs activités commerciales sur Internet, bref, des pure players. Dans le cas de Google, il s’agit d’un moteur de recherche puissant qui s’est établi au fil des années comme le moteur le plus utilisé sur le web. Il fonctionne à l’aide de robots (crawlers) qui prennent en compte les liens hypertextes liant les pages entre elles. Un algorithme (nommé PageRank) calcule le nombre de liens entrant sur les sites (chaque lien entrant est vu comme un vote pour le site) et établie la crédibilité et le poids d’un site par rapport aux autres. Le site prend également en compte les mots-clefs, fournis par les webmestres via leurs sitemaps[CB1] , pour établir la pertinence d’une page par rapport à la recherche effectuée. D’autres caractéristiques entrent en compte, notamment la langue du texte, l’historicité du site (les sites déjà établis sont avantagés) et la crédibilité de l’entreprise (en fonction des « votes »). Google fonctionne également avec un système de vente de mots clefs permettant un meilleur référencement dans les résultats de recherche. De plus, Google s’est imposé ces dernières années comme un géant de la publicité sur Internet grâce à son logiciel AdSense qui est le leader de la publicité en ligne.

Pour ce qui est de Yahoo, le site a commencé d’abord comme un annuaire de sites Internet sous la forme d’un portail. Historiquement, la compagnie engageait des documentalistes chargés de répertorier les pages Internet à l’aide de mots-clefs puis de les ordonner dans des annuaires consultables depuis son portail. En 2002, suite au constat que ce mode d’indexation était insuffisamment puissant pour trouver et répertorier la pléthore de sites Internet voyant le jour quotidiennement, Yahoo a racheté le fournisseur de technologies de recherche Inktomi en 2002 (Bourre et Smyrnaios, 2006, p. 3). Aujourd’hui, Yahoo fonctionne de manière mixte, en utilisant une partie d’automatisation et une équipe éditoriale pour organiser la hiérarchisation des contenus et également pour produire des contenus. Nous pouvons donc dire que Google a opté pour un positionnement « moteur de recherche », alors que Yahoo aurait adopté un modèle tendant vers le positionnement « média » (Bourre et Smyrnaios, 2006. Ce constat est encore plus frappant lorsque nous nous penchons sur la composition des équipes de travail des deux groupes.

Les salles de rédaction

Bien que les deux acteurs favorisent l’automatisation pour plusieurs tâches, Yahoo et Google se distinguent par le nombre d’employés. Yahoo se distingue de Google par le fait qu’il produit lui-même de l’information. Bien que la grande majorité des informations journalistiques présentes sur son site proviennent de sources externes (notamment d’agences de presse), Yahoo engage également des journalistes pour sa production d’informations. « Par ailleurs, à sa direction américaine, mais aussi à la tête de ses filiales nationales, Yahoo emploie des salariés dont le parcours professionnel s’est essentiellement déroulé dans le secteur des industries de la culture et de la communication » (Bourre et Smyrnaios, 2006, p. 3). Dans cette optique, l’entreprise offre des articles, des vidéos, des images fixes et des clips audio originaux à ses visiteurs.

Par contre, comme souligné précédemment, Yahoo utilise un modèle mixte au niveau de l’approvisionnement des contenus. Ainsi, l’entreprise fait affaire avec des agences spécialisées pour la fourniture de contenus, à des journalistes indépendants et même à des intervenants ponctuels à qui Yahoo offre un espace pour traiter de sujets ponctuels. Ainsi, dans le cas de Yahoo France, l’entreprise employait plus de 70 salariés en 2005 (Ibid.) Nous n’avons pas les chiffres pour le Québec actuellement, mais nous les estimons à moins d’une quinzaine comme MSN.ca. De plus, comme nous l’avons souligné précédemment, l’équipe de Yahoo est chargée de hiérarchiser les articles en fonction de critères préétablis par la maison mère et par la filière nationale. Ce faisant, l’équipe nationale adapte une banque de sources internationales à une nouvelle sélection propre au pays d’accueil en plus d’organiser les sections et d’aménager des espaces plus ludiques, comme la section caricature pour la version québécoise de Yahoo actualités et des dessins pour la formule française. Cette « nationalisation » des contenus et des espaces est intéressante à souligner, car les pages Yahoo varient sensiblement d’un pays à l’autre, mais la formule reste la même et compte peu de production originale.

Dans le cas de Google, la majeure partie du travail est effectuée par un algorithme du nom de PageRank qui prend en compte le nombre de visites, le nombre de liens entrants et plusieurs autres facteurs. En fait, le système de Google, bien que se voulant un gage d’objectivité étant donné la supposée absence de traitement éditorial qu’auraient pu effectuer des agents humains, prend en compte certains facteurs déterminés par des employés. Une équipe réduite de personnes travaillant pour la société élabore des listes de sites web présélectionnés que les robots visiteront plus souvent. Ce fait est possible par le fonctionnement « matriciel » du moteur de recherche. En effet, le fonctionnement par algorithme constitue la base du système de Google actualité qui est par la suite modifiable par l’équipe nationale pour prendre en compte les particularités régionales (langue, adresse ip des diffuseurs, etc.). Parmi les autres critères retenus par le géant californien, l’on retrouve le critère de « crédibilité » qui prend en compte « l’histoire du site » et du média auquel il est rattaché (si c’est le cas) favorisant ainsi l’utilisation d’articles émanant de sites-médias disposant historiquement d’autres supports de diffusion (par exemple, Le Monde). Toutefois, la plus grande partie du personnel de Google travaille dans le secteur de la commercialisation. Comment le soulignent Bourre et Smyrnaios, « ainsi, Google Actualités a été lancé directement depuis les États-Unis et est toujours géré depuis ce pays, sans que la filiale française puisse exercer un réel contrôle sur son fonctionnement. En 2005, l’équipe française compte moins de 30 salariés, pour l’essentiel des commerciaux » (Bourre et Smyrnaios, 2006, p. 4).

Les sources privilégiées

Les modèles mis en place par Google et par Yahoo ont des conséquences différentes sur l’organisation des contenus et des sources. Alors que Yahoo favorise des sources fixes ou présélectionnées en nombre relativement restreint, Google fait appel à un nombre beaucoup plus vaste de sources d’information.

Yahoo favorise l’hébergement de contenus produits par des tiers sur les pages de son site. Dans la version québécoise, les rubriques sont classées par thèmes eux-mêmes subdivisés par sources. L’internaute a donc le choix des sources qu’il veut consulter par rubrique thématique. L’entreprise signe des ententes à courte ou moyenne durée avec des fournisseurs de contenus (AFP, PC et Radio-Canada), des journalistes pigistes ou des blogueurs pour maintenir une production quotidienne. Nous pouvons donc dire que Yahoo ne favorise pas la diversité de l’information, mais qu’il permet à un certain nombre de ressources éditoriales d’avoir plus de visibilité.

Dans le cas de Google, la stratégie est tout autre. En effet, bien qu’il existe un certain flou quant au fonctionnement de l’algorithme derrière Google Actualités (Ulken, 2005), le moteur de recherche sort un nombre impressionnant de sources différentes lors de son actualisation (500 pour la version québécoise francophone). Toutefois, l’algorithme ne semble pas différencier les différents traitements de l’actualité et diffuse des nouvelles provenant de sources non mainstream, notamment de weblogs collectifs. Par ailleurs, Google prend isolément les domaines et les sous-domaines, entraînant une sur-représentation (induite par la logique du PageRank) des portails qui sont organisés en sous-domaines. Ainsi, nous retrouvons des articles provenant des différentes filières d’un média (lcn.canoë, tva.canoë, 24heures.canoë, etc), comme étant de sources différentes, alors que parfois les contenus sont identiques.

Selon Bourre et Smyrnaios (2006), «  Les créateurs de Google News ont toujours valorisé l’aspect automatique et algorithmique du traitement, de la sélection et de la hiérarchisation de l’information. De leur point de vue, cette caractéristique confère au service un caractère « objectif » et « neutre » car elle permet d’éviter les biais médiatiques habituels ([…]) De plus, Google News serait un service apportant une certaine exhaustivité quant à la couverture de l’actualité, ce qu’aucun autre média ne peut faire (Ulken, 2005) » (Bourre et Smyrnaios, 2006, p.  5).

Le type d’accord mis en place pour l’utilisation des contenus

Comme le souligne Bouquillion, les plates-formes des industriels du web présentent au moins trois avantages par rapport aux plates-formes des producteurs de contenus : « – elle peuvent offrir plus aisément des produits issus de différents fournisseurs de contenus; – les industriels du web disposent de sites qui bénéficient déjà d’une forte notoriété; – ceux-ci maîtrisent différentes techniques qui sont centrales dans l’économie du web, notamment les techniques de guidage de l’internaute, mais aussi les logiciels de ciblage de la publicité, qui permettent de valoriser les produits à la fois par des financements directs (en provenance des consommateurs finaux) et par des financements publicitaires » (Bouquillion, 2008, p. 219)

Coopétition

De ce fait, les industriels du web, qui incluent Yahoo et Google (Ibid.) se retrouvent dans une position avantageuse pour mettre en place un service d’infomédiation puisqu’ils possèdent un vaste public, un capital technique important et une connaissance des mécanismes de publicité en ligne. Rebillard et Smyrnaios (2007) utilisent le terme de « coopétion » (contraction des termes compétition et coopération) lorsqu’ils décrivent la relation qu’entretiennent les acteurs éditoriaux et méta-éditoriaux. Ces deux catégories d’acteurs sont d’un côté producteur et de l’autre, diffuseurs. Cette relation ambiguë se fonde sur une nécessitée structurelle qui consiste à profiter des avantages que l’autre type d’acteur possède dans le but de complémentariser son offre de service. Bien que les deux retirent des avantages indéniables, il n’est pas certain que les éditeurs de presse et les agences de presse retirent des bénéfices comparables à ceux que les infomédiaires reçoivent dans la relation. Ignacio Muro Benayas (2006), ancien dirigeant de l’espagnole EFE souligne d’ailleurs que la relation avec les nouveaux acteurs de l’information journalistique en ligne est un des principaux défis pour la rentabilité des agences de presse.

Les infomédiaires utilisent les fonctions d’agrégation de leurs plateformes Internet pour aller chercher des contenus produits par des tiers et les diffuser sur leur propre page d’accueil à leur clientèle, puisqu’eux-mêmes ne produisent pas un volume suffisant de contenus pour maintenir un site actif. De leur côté, les diffuseurs de contenus se retrouvent plongés dans le cyberespace et tentent de s’y faire une place (l’Internet Content Syndication Council, estime qu’il y a plus de 46 milliards de pages web rattachées à plus de 146 millions sites Internet. (ICSC : 2008)). Selon les discours des infomédiaires (Bourre et Smyrnaios, 2006), les acteurs traditionnels de l’information journalistique tirent profit de cette relation, car ils tentent de trouver une manière d’augmenter leur visibilité, dans le but d’augmenter leur lectorat et donc, attirer davantage de ressources publicitaires. En mettant de l’avant des informations produites par un tiers sur leurs sites web et en mettant par la suite des hyperliens menant aux contenus originaux, les sites-médias bénéficieraient d’un flot important d’internautes en provenance des infomédiaires. Selon une étude menée en 2007 par Médiamétrie/NetRatings, la version française de Google Actualité accueille chaque mois entre 1,5 et 2 millions de visiteurs uniques par mois (Rebillard et Smyrnaios, 2007). Selon Rebillard et Smyrnaios « cela fait entre 50 000 et 75 000 lecteurs potentiels par jour que se disputent les éditeurs, ce qui constitue un enjeu économique non négligeable » (Ibid., 2007, p. 4).

Or, si l’on regarde la course à la rentabilité et le marché des publicités qui est le principal gagne-pain des sites d’information en ligne dans la double logique marchande — vente d’un produit à une audience, puis vente de cette audience aux annonceurs — qui structure l’économie du journalisme (Miège, 2007), l’on se rend compte que les sites sont effectivement en concurrence les uns avec les autres. En effet, après la crise des « point.com » de 2001, les investissements publicitaires se sont faits plus rares et se sont concentrés dans les mains d’un petit nombre d´acteurs Internet. Toutefois, le secteur de la publicité sur Internet est de nouveau en croissance tout comme les revenus, « le marché est toujours dominé par les FAI et les portails généralistes qui concentrent 62 % des dépenses globales » (Smyrnaios, 2004, p. 8). De plus, en utilisant les contenus possédés par les entreprises de presse et en les réutilisant sur leurs pages sans accords préalables (c’est le cas de la majorité des sources utilisées par Google Actualité), la fonction d’agrégation vient nuire aux éditeurs de presse dont la principale source de valeurs est constituée par la propriété intellectuelle des contenus (Tessier, 2007).

Full content syndication versus flux RSS

Il y a deux méthodes de syndication dominantes qui fonctionnent avec des logiques économiques différentes. Ces deux modèles sont ceux de « contenu entier » (full content syndication) et le modèle de « flux RSS » (ICSC : 2008). Le modèle « contenu entier » fonctionne dans une logique proche de celle mise en place entre les agences de presse et les entreprises de presse traditionnelles. C’est-à-dire que les sites Internet achètent un abonnement à un service qui les fournit en contenu pour remplir leurs espaces de publication. Les agences fournissent les nouvelles en format XML préformaté pour pouvoir intégrer les différents sites auxquels la nouvelle peut être vendue (Benayas, 2006). Les portails font généralement appel à ce service qui, bien que plus coûteux, est plus facile à gérer légalement. De l’autre côté, la version par flux RSS a l’avantage d’être complètement automatisée et de s’effectuer automatiquement selon un délai choisi par les programmateurs. En effet, le système RSS de Google, par exemple, fonctionne en parcourant systématiquement les différents sites Internet inscrits dans son répertoire et en agrégeant les contenus publiés sur sa propre page. Souvent, il s’agit d’une version abrégée de la nouvelle, ne contenant que certaines parties de l’article (titre, sous-titres, images (ou non) et premier paragraphe) qui est envoyé aux sites qui s’y abonnent ou aux sites diffusant les contenus trouvés par des robots. Le flux RSS est lui aussi sous format XML et peut être intégré automatiquement dans une section prédéfinie pour l’agrégation dans les pages web des infomédiaires. Il est à noter que dans le cas des flux RSS, la nouvelle n’est pas hébergée sur le site de l’infomédiaire, mais plutôt présentée comme un aperçu avec un lien menant au site qui l’a produit, déplaçant les frais d’hébergement et de serveurs vers le producteur.

La stratégie de Google est souvent interprétée dans la logique de la gratuité des débuts du Net. Pour Google la culture de syndication s’inspire de « l’idéologie « originelle » de l’Internet d’un accès libre aux données disponibles, sans prendre spécialement en compte les particularités de l’information journalistique (Rebillard, 2007). Ce faisant, les agrégateurs ont tendance à utiliser a priori les contenus avant de s’ajuster au cas par cas. Ainsi, l’AFP et la PC ont tous deux poursuivi le géant de l’Internet pour qu’ils paient des redevances eux aussi pour l’utilisation de leurs contenus. Ce faisant, lorsque Google actualité utilise des nouvelles en provenance de ces deux agences, elle utilise le modèle de « contenus entiers » et rémunère les producteurs ».

Conclusion

Il apparaît que les nouveaux mécanismes de circulation des contenus mis en place sur Internet contribuent à la redondance de l’actualité en reprenant sur plusieurs espaces de diffusion des contenus produits par des tiers généralement issus des médias traditionnels. Cette ré-intermédiation place les infomédiaires au centre d’une logique socio-économique favorisant la concentration des audiences et des ressources publicitaires et donc, par extension, les sources de revenus possibles dans les mains d’un groupe d’acteurs ne produisant pas d’information journalistique novatrice. Bien que les acteurs traditionnels de la presse bénéficient d’une augmentation de leur visibilité via le trafic généré par les infomédiaires, il n’en demeure pas moins que les entreprises médiatiques peinent à rentabiliser leurs services Internet dans un contexte où les grand noms d’internet s’approprient leurs contenus et draine leurs sources de revenus, la publicité et son corollaire, l’audience.

Reste à voir quels seront les impacts de cette nouvelle relation sur la qualité des contenus produits dans un contexte économique où les entreprises de presse peinent déjà à rentabiliser leurs services en ligne. En effet, ce glissement des ressources vers les re-diffuseurs pourrait-il avoir tendance à créer plus de pression sur les producteurs d’information journalistique et les pousser à réduire davantage la taille de leurs effectifs? Assisterons-nous à une reconfiguration des circuits de diffusion de la nouvelle dans laquelle la porte d’accès à l’information passera par des acteurs n’ayant pas une connaissance historique du métier de journalisme? Dans ce contexte, les gatekeeper de demain seront-ils des algorithmes ou des techniciens web? Il va sans dire que le secteur du journalisme est en profonde mutation et, qu’avec l’émergence des infomédiaires, nous assistons à une technicisation du métier de journaliste où l’accent est dorénavant mis sur la circulation d’informations déjà publiées aux dépens de la collecte, de l’édition et de la production de nouvelles originales.

Références

Benayas, Ignacio Muro. (2006). Globalizacíon de la información y agencias de noticias: Entre el negocio y el interés général. Barcelona : Ediciones Paidós Ibérica, 228.

Bourdieu. Pierre, (1996). Sur la télévision (suivi de L’emprise du journalisme). Paris : Liber.

Bourre, Robert et Smyrnaios, Nikos. (2006). L’infomédiation de l’information en ligne : Le cas des filiales françaises de Google et Yahoo!, communication pour la conférence Document numérique et société, Fribourg, Suisse, 20-21 Septembre 2006.

Bouquillion, Philippe. (2008). Les industries de la culture et de la communication : les stratégies du capitalisme, Grenoble : Presses universitaires de Grenoble.

Bustamante, Enrique. (2004). Cultural industries in the Digital Age : some provisional conclusions.  Media, Culture & Society, 26(6),  803-820.

Combès, Yolande. (2004). Penser les mutations des télé-services info communicationnels : Approches et perspectives. Lille, Habilitation à diriger des recherches, Sous la direction d’Élisabeth Fichez, Professeur à l’UFR de Lille 3, Déposé le 1er décembre 2004.

Internet Content Syndication Council (ICSC). (2008).  Content creation and distribution in an expanding internet universe : A white paper . URL : http://www.internetcontentsyndication.org/downloads/whitepapers/content_creation.pdf [20 janvier 2010].

Julia, Jean-Thierry et Smyrnaios, Nikos. (2007). L’émergence d’un nouveau canal de diffusion de l’information journalistique sur l’internet : Le cas de Wikio, disponible en ligne. URL : http://nikos.smyrnaios.free.fr/Wikio.html

Kocergin, Sofia. (2002). Le « guichet unique » : son rôle dans la structuration du média Internet. Dans Lacroix J.G. et Tremblay G. (dir.), 2001 Bogues. Globalisme et pluralisme, tome 2 :  Usages des TIC. Québec : Les Presses de l’Université Laval, 2-11.

Miège, Bernard. (2007). La société conquise par la communication: Tome 3: Les TICs entre innovation technique et ancrage social, Grenoble : PUG.

Mœglin, Pierre. (2003). Repenser l’usager, pour un universalisme concret. Dans Lacroix J.G. et Tremblay G. (dir.). 2001 Bogues Globalisme et pluralisme, tome 2 : Usages des TIC. Québec : Les Presses de l’Université Laval, 27-30.

Project for Excellence in Journalism (PEW). (2009). The state of the news media 2009 (SNM09). URL : http://www.stateofthemedia.org/2009/ [20 novembre 2009].

Project for Excellence in Journalism (PEW). (2010). The state of the news media 2010 (SNM10). URL : http://www.stateofthemedia.org/2010 [13 mars 2010]

Rebillard, Franck. (2007). Le Web 2.0 en perspectivec: une analyse socio-économique de l’internet. Paris : L’Harmattan, coll. Questions contemporaines.

Rebillard, Franck. (2006). Du traitement de l’information à son retraitement. La publication de l’information journalistique sur l’internet. Réseaux, 137, 29-68.

Rebillard, Franck et Smyrnaios, Nikos. (2007). L’information via Google, Les relations entre éditeurs de presse et infomédiaires sur l’internet. Présentation lors du Colloque Online Services, 13-14 décembre 2007, Université Paris XI.

Smyrnaios, Nikos. (2004). L’émergence des modèles diversifiés de production et de diffusion de l’information sur l’Internet : enjeux et stratégies dans le cas des portails. Paris : communication pour Doctorales du GDR TIC & Société, 28-29 janvier 2004.

Tessier, Marc. (2007). La presse au défi du numérique. Paris : Rapport pour le Ministre de la culture et de la communication.

Ulken, Eric. (2005). A question of balance: Are Google News search results politically biased?, USC Annenberg School for Communication, May 5, 1-25

This entry was posted in 2010 proceedings. Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *