Don et coopération dans Internet : une nouvelle organisation économique ?
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Don et coopération dans Internet : une nouvelle organisation économique ? G Dang-Nguyen et T Pénard1 ENST Bretagne, ICI Octobre 1999 Résumé : L’objet de cet article est d’étudier la place du don et de la coopération dans l’organisation économique d’Internet. Nous définissons Internet comme un réseau universel de co-production, de co-consommation et d’échanges de services sous forme électronique. Nous montrons que le contexte institutionnel dans lequel est né Internet ne suffit pas à expliquer le poids actuel des services non marchands et la vitalité des comportements coopératifs sur ce réseau. Selon nous, ces éléments sont consubstantiels de l’économie d’Internet, appelé aussi Net Economie. L’explication tient en grande partie à l’absence de séparation claire entre ceux qui sont producteurs de services et ceux qui sont clients. Cette réversibilité des rôles rend difficile l’émergence d’une logique classique de marché et favorise le don et la coopération sur une échelle mondiale. 1 godefroy.dangnguyen@enst-bretagne.fr, thierry.penard@enst-bretagne.fr 1
1. Introduction Internet a longtemps été un réseau public de communication sans but lucratif, à l’usage de la recherche et de l’enseignement2. L’accès à ce réseau se faisait de manière restrictive selon les conditions définies par l’AUP (Acceptable Use Policy) : seuls les sites ayant des activités culturelles, éducatives et de recherche pouvaient se raccorder à un point d’accès régional du réseau Internet et échanger des données avec les autres sites connectés. L’arrivée des entreprises privées, à partir des années 90 et le développement d’activités commerciales de services en ligne ont quelque peu transformé la nature du « réseau des réseaux ». A l’heure actuelle, la communauté scientifique ne représente plus la majorité des utilisateurs. Cependant, son influence reste très prégnante dans l’organisation des relations entre les différents acteurs et utilisateurs. Les modes d’échange sont encore largement caractérisés par la gratuité et la coopération. Ce sont des dizaines de milliers d’utilisateurs qui consacrent bénévolement du temps à animer des forums de discussion, à créer des sites d’information gratuits ou à développer des logiciels pour Internet, en renonçant à leurs droits d’auteur. Dans cet article, nous souhaitons montrer que l’économie d’Internet, que l’on peut désigner par Net Economie, est largement fondée sur la coopération et le don. Internet est en effet un réseau universel de co-production, de co-consommation et d’échanges de services sous forme électronique. La co-production est caractéristique de la Net Economie car il est impossible sur Internet de fournir de manière non coopérative des services aux utilisateurs : chaque service sur Internet est en fait une combinaison de prestations et d’efforts de multiples acteurs. Par exemple, le courrier électronique est un service qui nécessite, pour un utilisateur, un logiciel de messagerie, un accès au réseau Internet depuis son ordinateur, et le transport du message vers le destinataire à travers différents réseaux interconnectés. La co-consommation est aussi un élément clé, car la caractéristique d’un service électronique (par exemple de l’information) est de pouvoir être partagée et consommée sans rivalité entre les utilisateurs, c’est à dire que ce service ne disparaît pas ou n’est pas altéré dans la consommation. Au contraire, il va pouvoir être réutilisé dans la production de nouveaux services. Chaque utilisateur participe donc directement à la production des services présents et futurs3. Finalement, dans la Net Economie, il n’existe pas de séparation claire entre ceux qui sont producteurs et ceux qui sont clients (Braman, 1997). Cette réversibilité des rôles rend difficile l’émergence d’une logique classique de marché. Ainsi, le contexte institutionnel dans lequel est né Internet ne suffit pas à expliquer le poids actuel des services non marchands4 et la vitalité des comportements de don et de 2 On peut consulter Huitema [1995] sur les origines de l’Internet. 3 La coproduction avec l’utilisateur n’est pas propre aux services en ligne. Elle est présente dans la plupart des prestations de service, par exemple entre le médecin et de son malade pour la détermination d’un diagnostic. Voir Gadrey [1990]. 4 Il est important de préciser que le signe distinctif d’un service non marchand n’est pas forcément la gratuité mais l’absence de but lucratif. Un service non marchand peut très bien être payant, le prix devant alors permettre de couvrir les coûts. Ainsi, Renater, le réseau de recherche français fait 2
coopération sur ce réseau. Selon nous, ces éléments sont consubstantiels de la Net Economie. Pour illustrer l’importance des phénomènes de coopération sur Internet, nous proposons de distinguer deux grandes catégories de services dans la Net Economie d’un côté, les services d’usage (communication, information et transaction) et de l’autre les services de support (transport, accès et logiciel). Ce découpage se justifie par des considérations techniques. Internet est, en effet, constitué d’une multitude de réseaux hétérogènes, interconnectés les uns avec les autres, dans un enchevêtrement dense (Kavassalis et Solomon, 1997). Tous ces réseaux peuvent communiquer et échanger des données grâce à un langage commun défini par les protocoles TCP-IP. Ces protocoles permettent d’établir une séparation nette entre le transport des données d’un côté (services supports) , et la fourniture de services d’usage de l’autre, les seconds pouvant se développer indépendamment des premiers (Kavassalis et Lehr, 1998). Les services d’usage se décomposent en trois grandes fonctions : 1. les services de communication qui comprennent le courrier électronique, les forums de discussion, les « news groups », les transferts de fichiers et la téléphonie sur Internet. 2. les services d’information qui correspondent essentiellement à la consultation des sites Web. 3. les services de transaction qui englobent le commerce électronique et les échanges de données informatisées entre clients et fournisseurs. Pour permettre aux utilisateurs de bénéficier de ces différents usages, trois services-support sont nécessaires : 1. les services d’accès au réseau. 2. Les services de transport des données électroniques à travers le réseau. 3. Les services et logiciels d’application qui rendent possibles ou facilitent les usages de l’Internet, transport et accès compris : moteurs de recherche, navigateurs, logiciels d’exploitation de serveurs d’information, logiciels de messagerie électronique ou de paiement électronique, création et maintenance de sites Web,... Si on adopte une représentation d’Internet en couches, les services de transport correspondent aux couches basses, les services d’accès aux couches intermédiaires et les usage aux couches supérieures. Quant aux services d’application, ils interviennent dans toutes les couches. payer le service non marchand de transport et d’interconnexion qu’il fournit aux Universités et centres de recherche. Les services marchands, eux, sont fournis par des entreprises qui ont pour objectif de faire des profits : les services sont généralement payants, mais ils peuvent aussi être gratuits. Dans ce dernier cas, l’entreprise opte pour un financement indirect (publicité) ou propose des services complémentaires qui sont, eux, payants (assistance, conseils ...). 3
La section suivante est consacrée à l’analyse des formes de coopération et de don dans les services d’usage. Les services de support sont analysés dans la section 3. Il ressort de cette étude que la Net Economie se caractérise par une diversité de formes relationnelles et transactionnelles dans lesquelles la coopération et le don occupent une place essentielle : c’est le cas dans les accords d’interconnexion entre opérateurs de réseaux Internet ou dans le développement de logiciels et applications à l’usage d’Internet. Cette diversité tient au poids des acteurs non marchands et aux caractéristiques techniques d’Internet combinant des « effets de réseau » propres aux industries de télécommunications et une dynamique d’innovations propres à l’industrie de l’informatique. 2 Les services d’usage 2.1) Les services de communication Les services de communication sont par essence la pierre angulaire de tous les phénomènes de coopération sur Internet. En effet, comment imaginer une relation coopérative sans communication ? Internet a d’ailleurs été conçu à l’origine pour permettre à des chercheurs dispersés géographiquement de collaborer sur des projets scientifiques : il devait faciliter le travail à distance et les échanges de documents5. La communauté scientifique a été rapidement séduite par la rapidité et la gratuité de cet outil de communication. La propension des chercheurs à partager leurs idées et à participer à des projets collectifs n’a fait qu’accélérer sa diffusion (effet de réseau classique). Avec l’essor mondial d’Internet, les services de communication ont pris une nouvelle dimension. Un des phénomènes les plus remarquables a été la constitution d’innombrables communautés virtuelles et groupes de discussion autour de thèmes divers, entre des individus ne se connaissant pas a priori. Ces communautés fonctionnent toutes sur des principes coopératifs de partage d’information et d’entraide. Tous les services rendus à l’intérieur d’une communauté sont gratuits. Par exemple, une communauté d’utilisateurs d’un logiciel donné permet de soumettre des questions auxquelles s’efforceront de répondre les membres les plus compétents. Dans d’autres communautés, il s’agit de partager des expériences personnelles ou d’apporter des conseils pratiques. Au sein de ses groupes, il est souvent de règle de recourir à l’auto-contrôle ou à l’auto- discipline. Chaque nouveau membre doit préalablement consulter et accepter la NetEtiquette du groupe, c’est à dire les règles de bonne conduite et les objectifs définis lors de la création. Le nouveau membre doit aussi prendre connaissance des questions fréquemment posées (FAQ) avant d’intervenir dans les discussions. Il doit absolument éviter les attaques personnelles et les messages publicitaires, ou envoyer un article en dehors du sujet du groupe. Celui qui ne respecte pas ces règles ou cette éthique, s’expose aux foudres de l’ensemble de la communauté et peut être sanctionné par une flame war qui consiste à inonder sa boite aux lettres de messages agressifs (Dufour, 1995). On peut imaginer les conséquences lorsque le groupe est composé de plusieurs milliers d’individus. Il s’est donc créé, sur le « Net », un principe de coordination par les règles (Livet et Thévenot, 1994), dont 5 Sur la communauté initiale des chercheurs et leurs rapports avec Arpanet et NSFNet, voir par exemple Hauben et Hauben [1998]. 4
le caractère auto-organisé est patent6, et qui est fortement marqué par les principes de sa communauté d’origine, celle des chercheurs. L’irruption de considération marchandes n’a pas remis en cause ces principes. Au contraire, ces communautés bénéficient des faveurs et attentions des acteurs marchands conscients que le moyen le plus rapide d’entrer sur le Net est de recevoir l’adhésion de ces communautés. L’esprit coopératif qui règne dans les services de communication pourrait être menacé par la croissance exponentielle des utilisateurs d’Internet. L’arrivée en masse de nouveaux participants, ignorant les règles de comportements et de bonne conduite ne peut que perturber le fonctionnement de ces communautés virtuelles. Leurs membres les plus actifs pourraient délaisser ces lieux d’échanges gratuits et de coopération dans lesquels se glisseraient trop de passagers clandestins7. De plus, la possibilité de changer facilement d’identité sur Internet pourrait limiter les mécanismes de réputation, essentiels dans toute coopération8. Internet est donc un réseau de coopération qui présente quelque signe de fragilité et qui n’est pas à l’abri d’individus mal intentionnés, même si les règles édictées dans chaque communauté visent à réduire les risques d’opportunisme. 2.2) les services d’information Pendant longtemps, les informations de nature scientifique et académique ont représenté l’essentiel des contenus sur Internet. Ces informations sont par essence libres d’accès et gratuites, chaque chercheur ayant intérêt à ce que ses travaux soient diffusés le plus largement possible pour recueillir des commentaires d’autres chercheurs et obtenir la reconnaissance de ses pairs. Cette gratuité s’inscrit dans le modèle de concurrence universitaire basée sur le nombre de publications9 « publish 6 Il existe des mécanismes de contrôle plus formels. Certains groupes peuvent disposer de modérateurs qui filtrent les discussions et les messages. Ils sont désignés par cooptation : bénévoles, ils consacrent de nombreuses heures par semaine à cette tâche. Un autre exemple est la procédure de vote pour la création d’un nouveau groupe de discussion dans la communauté des groupes Usenet. Dans un premier temps, le créateur du nouveau groupe indique la motivation de son projet, le positionnement du groupe par rapport aux groupes existants et les sujet qui y seront discutés. Puis, les membres de la communauté Usenet expriment leur opinion par courrier électronique (approbation ou refus). Si la création recueille 80 oui de plus que les non et si les oui représentent plus des trois quarts des suffrages exprimés, la création du groupe est entérinée après une semaine de délai pour permettre les contestations. 7 Le concept de passager clandestin renvoie au comportement opportuniste d’un individu qui chercherait à bénéficier d’un service ou d’un bien collectif sans fournir d’efforts ou de contribution. En effet, un bien collectif bénéficie autant à ceux qui ont contribué, qu’à ceux qui n’ont pas contribué : si tout le monde devient passager clandestin, alors le bien collectif ne sera pas produit. Voir Olson [1978] sur cette question. 8 Dans une communauté non virtuelle (une entreprise, un village, ...), le souci de réputation dissuade les individus d’adopter des comportements opportunistes ou de violer les règles du groupe. Dans une communauté virtuelle, ce même individu peut échapper aux sanctions en se présentant sous une autre identité comme le souligne Friedman [1998]. 9 En cas de publication, les auteurs ont aussi intérêt à mettre en libre accès sur Internet toutes les informations et sources relatives à leur article (annexes non publiés, détails d’une démonstration ou d’une expérience, programme utilisé pour les simulations ou les estimations économétriques) afin que le lecteur puisse vérifier la validité ou le sérieux des résultats. 5
or perish ». Elle s’inscrit en outre dans une démarche plus large décrite par Callon [1989], où l’activité de recherche consiste, en particulier, à diffuser toute nouvelle information technique ou scientifique aux pairs, indépendamment du contexte marchand ou non marchand dans lequel ceux-ci travaillent. Avec le développement d’Internet, l’offre d’information est devenue abondante et beaucoup plus diversifiée qu’auparavant. Les informations de nature commerciale (site d’entreprise,...) ou ludique (pages personnelles, site de divertissement, ... ) ont pris une place significative. Toutefois, la plupart de ces informations sont libres d’accès et gratuites, même sur les sites marchands. Plusieurs raisons peuvent être avancées à cela. La volonté de reconnaissance et de notoriété ne se limite pas à la communauté scientifique et se retrouve chez la plupart des personnes privées et des entreprises. Internet constitue une vitrine et un moyen de promotion10. L’information sur Internet est ainsi parée de toutes les caractéristiques d’un bien public : non seulement c’est un bien non rival par essence11, mais dans la majorité des cas c’est aussi un bien non exclusif (gratuit et libre d’accès). Paradoxalement, cela ne semble pas poser de problème majeur de « passager clandestin »12. La plupart des utilisateurs trouvent un intérêt à fournir de l’information publique et à supporter une partie des efforts pour la produire, même si ils savent que tous les autres en bénéficieront gratuitement. De plus, les progrès technologiques, au niveau de la numérisation et de la mise en forme des informations, rendent de plus en plus facile et peu coûteuse la production d’informations numérisées. Internet contribue donc à abolir la frontière entre celui qui produit et celui qui consomme et permet de faire coïncider l’intérêt privé (se faire connaître), avec l’intérêt collectif (contribuer à la production d’informations publiquement disponibles). Dans ce contexte, il est difficile pour un site commercial de prendre l’initiative de faire payer ses informations, le risque étant de perdre ses visiteurs qui peuvent migrer vers des sites gratuits proposant des services équivalents. Slate, un journal d’informations politiques et culturelles en ligne (www.slate.com) appartenant à Microsoft, en a fait l’expérience. Fort de ses 140 000 lecteurs, le journal est devenu payant en février 1998 avec un abonnement modique de 19.95 dollar par an. Un an plus tard, il ne comptait plus que 30 000 lecteurs abonnés, alors que dans le même temps son grand concurrent Salon Magazine connaissait une forte hausse d’audience, revendiquant 150 000 lecteurs. Ce phénomène s’analyse très simplement, en partant de la structure de coût d’un producteur d’information. Les services d’information relèvent principalement d’une économie de coûts fixes, les coûts variables étant négligeables. Les premiers comprennent l’achat du matériel (hardware et software), la configuration et la maintenance du serveur et sa connexion à Internet (abonnement auprès d’un fournisseur d’accès), la conception du site lui-même et la mise en ligne des informations. Les coûts variables liés aux nombres de visiteurs sont négligeables13. Le coût marginal de distribuer une 10 Les administrations et organismes publics, voient aussi dans Internet un moyen de prolonger et de démultiplier leur action institutionnelle, souvent à un coût marginal relativement faible. Avec les nombreuses sources d’informations publiques (rapport, étude, statistiques), Internet est devenu une véritable mine de connaissances. 11 Du fait que l’information est un bien reproductible, chaque utilisateur peut consommer la plupart des informations sur Internet sans diminuer la consommation d’informations des autres utilisateurs. 12 Ici, le passager clandestin est celui qui obtient des informations sur le Net, mais n’en fournit jamais, même pas sur qui il est. 13 En pratique, si le site connaît un grand succès, il faudra sans doute redimensionner le serveur et augmenter les débits d’accès. Cela engendre des coûts fixes par palier de visiteurs. 6
information à un utilisateur est donc quasiment nul (Srinagesh, 1997) : une fois que l’information est disponible sur un site, la consultation de cette dernière par un visiteur supplémentaire ne coûte quasiment rien. L’absence de coût et de contrainte de capacité sur la reproduction de l’information incite donc les sites commerciaux à pratiquer la gratuité, dans leur course à l’audience. Si l’un de ces sites décidait de tarifer ses informations, il encourrait le risque de voir les utilisateurs aller sur un site concurrent gratuit. D’autant que les sites non marchands sont très nombreux sur Internet et limite le pouvoir de marché des sites commerciaux. Seul un site en situation de monopole sur certaines informations pourrait se permettre de faire payer ses services. Les difficultés de tarifer l’information tiennent aussi au paradoxe énoncé par Arrow en 1962 : lorsque le client ne connaît pas l’information, il ne peut pas estimer sa valeur et donc le prix qu’il est prêt à payer pour l’acquérir. Mais lorsqu’il connaît l’information, il n’a plus envie de la payer, puisqu’il l’a déjà. Ceci constitue un réel obstacle à l’émergence d’un marché de l’information14. La gratuité de l’information pose le problème de sa qualité et de sa fiabilité15. Même si certains intermédiaires comme les moteurs de recherche, peuvent jouer un rôle de sélection et de certification, il n’en reste pas moins que des formes extrêmes de basse qualité peuvent exister (thèses révisionnistes, ou rumeurs infondées mettant en cause les personnes physiques ou morales...). Au delà de ces cas limites, la régulation de la qualité est en fait assurée par les utilisateurs eux- mêmes. Dans les sites d’information, dès lors qu’un objectif de notoriété est poursuivi, un mécanisme d’« auto-sélection » de la qualité se met en place. L’entreprise ou l’individu cherche à donner la meilleure image de soi même, de peur que l’effet accélérateur de diffusion dans Internet, ne conduise à un résultat contraire à l’objectif recherché. Au total, l’information, gratuite sur Internet, n’engendre pas trop de mécanismes opportunistes conduisant à l’effondrement de ce bien collectif. Assurément, les effets de notoriété que peuvent trouver les acteurs économiques à faire diffuser rapidement et à très faible coût cette information, et la tradition de coopération sans contrepartie financière suffisent à stabiliser la production de ce bien « public ». 2.3) les services de transaction Internet est aussi devenu un instrument de transaction entre les agents économiques. Mais les services de transactions peinent à se développer et à bénéficier de l’effet réseau, faute de standards au niveau des paiements électroniques et des échanges de données informatisées. Là encore, les marchés ne semblent pas (encore ?) au rendez vous. Bien que la gratuité soit a priori antinomique des services de transaction, on voit apparaître dans certains modèles de transaction expérimentés sur le Web, des 14 Sauf quand on est en situation d’utilisation répétée d’informations qui doivent être mises à jour régulièrement ou qui ne peuvent être « consommés » en une seule fois (par exemple, les base de données). 15 Lorsque les mécanismes de marché fonctionnent efficacement, les prix sont un bon indicateur de qualité. 7
logiques de don et contre-don. De nombreux biens et services sont proposés gratuitement (informations, messagerie, assistance, animation de communautés,...) en contrepartie d’informations fournies par les utilisateurs, soit volontairement en remplissant des formulaires d’identification, soit à leur insu (systèmes de traçage des utilisateurs sur le Web avec les cookies16). Le modèle de transaction dominant sur Internet se ramènerait donc à des échanges d’informations sans contrepartie financière : celles fournies gratuitement par les sites commerciaux, contre celles fournies par les utilisateurs sur leur profil17. La société Mypoints.com a d’ailleurs mis en place un système de bons d’achat pour stimuler ces échanges d’information : les internautes se voient proposer des bons sur le site de Mypoints.com à chaque fois qu’ils cliquent sur un des bandeaux publicitaires et qu’ils visitent attentivement les sites des annonceurs. Tout le monde est gagnant : les annonceurs qui ont l’assurance d’être visités par de nombreux internautes (Mypoints.com revendique près d’un million d’adhérents), les internautes qui obtiennent des bons à valoir sur des voyages ou des livres, et la société Mypoints.com qui peut faire payer plus cher ses bandeaux d’annonce ou réclamer une commission sur les transactions effectuées par ses adhérents sur les sites des annonceurs18. De manière plus générale, les bandeaux publicitaires donnent lieu à des accords de partenariats entre sites consistant à s’échanger leurs propres bandeaux. Le moteur de recherche Yahoo revendique ainsi plus de 300 accords de promotions croisées avec des sites d’informations. Ce référencement mutuel renvoie à l’une des innovations clé du Web, les liens hypertexte qui permettent de passer d’un site à l’autre très facilement. On constate combien le principe de liens et référencements croisés qui répondait à l’esprit coopératif des premiers utilisateurs de l’Internet, a été récupéré par les sites commerciaux et sert désormais à créer de l’audience et accroître ainsi les revenus publicitaires. En résumé, les services d’usage (communication, information ou transaction) semblent être caractérisés par des éléments qui inhibent quelque peu la formation de marchés ou qui leur donnent une structure particulière, celle du financement indirect. Ces éléments sont l’absence de standardisation dans les services de transaction, les caractéristiques de bien public des services d’information, ainsi que la forte présence de coûts fixes par rapport aux coûts marginaux d’usage. En outre, l’environnement institutionnel ayant présidé à l’émergence d’Internet continue à faire sentir ses effets : les caractéristiques de la communauté scientifique (utilisateurs actifs et compétents) ont pu se transposer dans une certaine mesure à l’utilisateur moyen. Chacun est tour à tour offreur et demandeur. Cette réversibilité est certainement une nouveauté à une telle échelle. Internet démultiplie les relations de dépendance et de réciprocité entre les différents acteurs : chaque service, chaque information sur Internet est en lien (on pourrait même dire en hyperlien) avec une multitude d’autres services et d’autres informations. 16 Les cookies sont des programmes qui s’introduisent dans la mémoire vive, puis le disque dur de l’ordinateur de l’Internaute lors de la consultation d’un site et qui permettent ensuite de suivre ce dernier et de recueillir des informations sur son profil (sites visités, fréquence, ...). 17 Les sites commerciaux peuvent ensuite exploiter cette information pour offrir à l’utilisateur des informations et des services sur-mesure (Gensollen, 1998). 18 La société Cybergold a choisi elle de stimuler les échanges d’informations en rémunérant l’attention de ses membres par de l’argent. Chaque membre peut obtenir des dollars sur un compte ou sur une carte visa en allant visiter les sites des annonceurs et en remplissant des questionnaires pour ces sites. 8
3 Les services de support Les services de support comprennent les services d’accès et de transport et les services et logiciels d’application. Bien que les fonctions de support soient offertes en priorité par des entreprises commerciales, il est surprenant de constater qu’ici aussi, les éléments de coopération jouent un rôle non négligeable. 3.1) les services et logiciels d’application C’est sans aucun doute le développement de logiciels qui a suscité les phénomènes de coopération les plus intéressants. Sans Internet, les « logiciels libres » n’auraient jamais connu un tel succès au point d’ébranler Microsoft. Linux, un système d’exploitation libre concurrent de Windows NT, détenait plus de 17% du marché des serveurs en février 1999 et plus de la moitié des sites sur le Web sont gérés par le logiciel libre Apache. Avant d’analyser ce phénomène, il est important de définir ce qu’est un logiciel libre. Un logiciel libre se caractérise avant tout par la libre disponibilité des codes sources (c’est à dire les lignes de programme) et donc la possibilité pour chaque utilisateur de le modifier et de l’améliorer. En revanche, il est faux d’associer libre avec gratuit, parce que d’une part, il existe des logiciels gratuits qui ne sont pas libres (l’utilisateur n’a pas accès aux codes sources) et d’autre part, un logiciel libre peut être payant ou commercialisé19. La disponibilité des codes sources des logiciels libres est protégée par différentes licences (Berkeley, BSD, GNU Public License, ...). La GNU Public License (GPL) étend même cette libre disponibilité à toutes les versions dérivées, modifiées ou adaptées. Ces licences sont en définitif des contrats collectifs réglementant les relations entre les développeurs, les distributeurs et les utilisateurs. Au delà de ces questions de licence, les logiciels libres sont d’abord le fruit d’un travail coopératif entre de nombreux développeurs qui ne se connaissent parfois que de manière virtuelle. Les projets ont généralement un fonctionnement décentralisé, avec ou sans coordinateur. C’est le cas de Linux dont le coordinateur est Linus Thorval. Raymond [1998] dans « The cathedral and the Bazaar » analyse le succès des projets de développement décentralisé sur Internet qui relèvent d’un modèle bazar, par opposition au modèle centralisé, en cathédrale, des logiciels propriétaires commerciaux. Le principe du développement bazar est de diffuser rapidement des versions préliminaires et imparfaites pour bénéficier de l’avis des utilisateurs qui sont souvent eux-mêmes des développeurs. Lorsqu’un problème est signalé, plusieurs solutions-programmes sont proposées par les développeurs de la communauté. Chaque programme fait l’objet d’une évaluation et de commentaires de la part des autres développeurs. Finalement, la meilleure solution est retenue sur un principe consensuel. Si ce mode de développement n’est pas très économique en temps et en efforts puisque des dizaines de programmes, représentant des centaines d’heures de travail peuvent être proposés pour un problème mineur, il 19 c’est le cas de Linux qui est commercialisé par des sociétés comme RedHat. Le langage de programmation Java est un cas limite de logiciel libre, dont la licence est vendue par son créateur, la société Sun Microsystems, mais dont le code source est fourni. 9
permet d’obtenir un logiciel de qualité, très fiable. Chaque développeur qui contribue à un logiciel libre oeuvre bénévolement et renonce à ses droits d’auteur : il se contente de voir figurer son nom sur la licence du logiciel. Selon Linus Thorval, le coordinateur du projet Linux, ce n’est pas la recherche des honneurs qui fait travailler bénévolement autant de développeurs sur des projets coopératifs : c’est le plaisir de programmer et surtout le souci de disposer de logiciels performants et adaptés à leur besoin. Le succès de cette démarche tient aussi à des raisons techniques. Les programmes informatiques sont de l’information codifiée par nature (codage binaire), beaucoup plus aisée à transmettre et à partager que l’information tacite (Winter, 1987). La programmation en commun et le partage « des codes sources » ont toujours existé en informatique. Mais Internet a donné une nouvelle dimension à ce phénomène, en permettant à des milliers de programmeurs dans le monde entier de s’auto-organiser (abolition des distances) et de travailler ensemble sur des projets ambitieux. Les logiciels libres sont donc indissociables d’Internet. C’est ainsi que sont nés le Web ou les moteurs de recherche dont l’ancêtre était le navigateur Mosaic. Java, mis au point par Sun et dont le code source est livré aux utilisateurs qui détiennent une licence, participe aussi de cette démarche coopérative, quoique dans un contexte « marchand ». Ce phénomène illustre la concrétisation de ce que M. Callon [1994] appelle des réseaux technico- économiques : « ces réseaux mélangent humains et non humains, inscription de toutes sortes et monnaie sous toute ses formes ». Stallmann, fondateur de la FSF, Free Software Foundation qui a pour but de promouvoir les logiciels libres, souligne d’ailleurs que la philosophie du libre n’est pas tant la copie systématique des logiciels, que l’appropriation collective des éléments de créativité contenus dans ces logiciels (le code source du programme), afin qu’ils fassent l’objet d’une amélioration ultérieure. L’abandon des droits de propriété intellectuelle, pour surprenant qu’il soit par rapport au système traditionnel des brevets et droits d’auteur, peut également s’expliquer. Dans un système classique, les brevets ont en général une durée finie, et les droits d’auteurs finissent par disparaître, pour permettre à la communauté de s’approprier l’information au bout d’un certain temps. Or dans les technologies de l’information les progrès sont si rapides et la capacité à créer de nouvelles informations si aisée que les brevets ont peu de sens, car ils protègeraient trop longtemps quelque chose qui s’avèrerait rapidement obsolète . Dans ces conditions, les seules formes de protection que pratiquent les producteurs de logiciels, sont la compilation des programmes (qui rend le contenu hermétique car codé en langage machine), et leur protection par des méthodes de cryptage, et/ou des contrats de cession locative très restrictifs, donnant lieu à des clauses répressives censées discipliner le comportement des acquéreurs de licence20. Les partisans des logiciels libres sont de l’avis que ces méthodes sont antiéconomiques, dans le contexte de progrès rapide des technologies de l’information, et qu’elles interviennent au détriment des consommateurs. Ils proposent donc une production collective, sans droit de propriété explicite sur le fruit codifié de l’effort (c’est à dire le code source). Une 20 Encore qu’il est possible de breveter des logiciels aux Etats-Unis, ce qui n’est pas sans poser de problèmes, car les grandes sociétés commerciales de logiciels en profitent pour breveter tout ce qui peut être brevetable, même des programmes qui font partie du « patrimoine commun » des développeurs. Le risque est d’annihiler la créativité, l’innovation et l’essor des petites sociétés. Car pratiquement, tout nouveau logiciel aux Etats-Unis est susceptible de violer au moins un ou deux brevets. Voir Zimmermann [1999] pour une comparaison de la protection juridique des logiciels en Europe et aux Etats-Unis. 10
vision pragmatique invite à penser que l’approche des partisans du logiciel libre n’est pas utopique, et peut être réconciliée avec le fonctionnement d’un marché : la marchandisation peut intervenir en aval ou en complément de la phase de création de l’information codifiée. Si véritablement cette méthode de production est plus efficace, elle finira par s’imposer, compte tenu des possibilités récurrentes que fournissent les technologies de l’information pour remettre à plat les positions et les équilibres de marché. La véritable menace vient en réalité des dissensions internes à la communauté des logiciels libres. Il existe une ligne de fracture entre les tenants d’une organisation plus centralisée des projets, autour notamment de la FSF (Free Software Foundation) qui pourrait collecter des fonds et orienter les projets, et les tenants du modèle bazar d’auto-organisation (Browne, 1998). Des dissensions existent aussi sur le choix des licences (GPL ou BSD licence) et sur la place des acteurs marchands dans le développement de ses logiciels. Le résultat pourrait être une fragmentation des projets qui nuirait à la crédibilité et la lisibilité des logiciels libres (notamment auprès des entreprises) 3.2) Les services d’accès Les services d’accès à Internet proposés aux entreprises et au grand public, sont des services marchands à part entière. Seul l’accès dans les réseaux public de recherche et d’enseignement demeure encore un service non marchand21. Mais pour les autres utilisateurs, l’accès passe nécessairement par un contrat d’abonnement auprès d’une société. Il n’existe pratiquement plus aucun service d’accès associatif, à but non lucratif. Les nombreuses expériences qui se sont développées dans les débuts de l’Internet n’ont pas résisté aux phénomènes de passager clandestin et à la technicité croissante. En effet, la fourniture d’accès est une activité connaissant des économies d’échelle22 qui exige une taille critique. Or plus une communauté croît, plus il est difficile d’entretenir un esprit de coopération volontaire. Les adhérents sont alors de plus en plus incités à être simples consommateurs. Ce désengagement s’accompagne d’une rivalité sur les usages. En effet, l’accès est une ressource limitée à partager entre les abonnés ou adhérents. Si quelques uns utilisent intensivement leur accès à Internet, les capacités et la qualité d’accès pour les autres utilisateurs peuvent diminuer dramatiquement. Dans les services d’accès, on rencontre clairement les limites de la coopération entre utilisateurs d’Internet. Dans l’espace marchand, les services d’accès donnent lieu actuellement à une concurrence intense entre fournisseurs. Cette course à l’abonné se traduit par une guerre des prix, de faibles marges23 et par des mouvements de concentration. Certains fournisseurs d’accès vont même jusqu'à proposer un accès gratuit à Internet. Leur raisonnement est le suivant : avec une offre d’accès gratuite, ils peuvent espérer augmenter le nombre de leurs abonnés, et donc leur audience qu’ils peuvent vendre plus cher auprès des annonceurs. Les pertes de revenus liés à 21 Concrètement, pour les étudiants et les chercheurs, l’accès à Internet se fait gratuitement, même si les institutions de recherche et les universités financent en partie les coûts d’accès. 22 On parle d’économies d’échelle lorsque les coûts moyens par abonnés diminuent avec le nombre d’abonnés. 23 AOL perdait 500 millions de dollars en 1997, sur un chiffre d’affaires de 1700 millions de dollars, et dégageait un résultat à peine positif de 92 millions de dollars sur un CA de 2,6 milliards en 1998, et ce malgré ses 11 à 12 millions d’abonnés. 11
l’abonnement gratuit seraient alors plus que compensées par la hausse des recettes publicitaires24. On peut aussi retrouver, comme dans la fourniture d’informations gratuites, des motifs de notoriété et de promotion. C’est par exemple le cas de la chaîne de distribution Dixons en Grande-Bretagne, qui considère son service d’accès gratuit, non comme une source de perte, mais comme un investissement citoyen de démocratisation de l’Internet ; ce qui n’est pas sans arrière pensée. En résumé on peut dire que l’accès ne relève que de façon très limitée d’une logique de don. Nous avons au contraire un marché assez bien établi où la concurrence sur les abonnés tire les prix vers le bas, sans que les fournisseurs d’accès soit assurés de conserver ces abonnés dans leur club, dans une relation marchande exclusive (un abonné peut en effet aller librement sur n’importe quel site une fois connecté sur Internet). 3.3) Les services de transport Le service de transport est de tous les services, le plus invisible ou le plus transparent pour l’utilisateur, bien qu’il soit indissociable des services d’usage25. Les opérateurs de réseaux Internet qui assurent le transport et le routage des données s’appellent des ISP (Internet Service Provider). Leur principale caractéristique est d’être tous dépendants les uns des autres dans leur activité. En effet, aucun ISP ne peut garantir à ses clients une connectivité universelle : son réseau doit être interconnecté directement ou indirectement avec les autres réseaux composant l’Internet26. Les opérateurs de réseaux sont donc dans l’obligation de coopérer, tout en étant généralement concurrents dans les services d’accès (Huston, 1999). Une des formes les plus intéressantes de coopération entre ISPs concerne les accords de peering. Il s’agit d’accords d'échange de trafic sans compensation financière : chaque ISP prend en charge gratuitement l’ensemble du trafic qui lui est adressé par les autres ISP, et tire ses recettes des abonnements que lui versent ses clients27. Cette forme de troc tranche avec les pratiques d’interconnexion dans les télécommunications. Les opérateurs de téléphonie ont recours, en effet, à des accords de compensation avec une comptabilité des durées des appels entrants et sortants de leurs réseaux et des reversements en faveur du réseau déficitaire. Plusieurs arguments permettent de comprendre pourquoi le peering s’est imposé dans les accords d’interconnexion entre ISP. La première raison tient au fait que c’est un accord techniquement et économiquement efficace. En effet, de par ses principes de fonctionnement28, Internet ne peut garantir un délai ou une 24 Une autre source de revenus pour les fournisseurs d’accès gratuit peut provenir de reversement par l’opérateur local d’une partie des recettes liés aux communications locales de ses abonnés à chaque connexion. Voir Le Nagard-Assyag et Sommer [1998] sur ces questions de financement indirect de l’accès à Internet. 25 Un e-mail, la consultation d’un site ou une transaction impliquent nécessairement du transport de données entre les utilisateurs. 26 Internet se définit d’ailleurs comme un réseau de réseaux interconnectés. 27 Il s’agit d’un mode de rétribution du type « Sender Keeps All » : le réseau à l’origine du trafic garde pour lui tout l’argent que lui versent ses clients pour accéder aux autres réseaux. Voir Bailey [1997]. 28 Les données sur Internet sont transportées sous forme de paquets qui peuvent emprunter des routes différentes. Ces paquets passent par des routeurs qui les aiguillent vers d’autres routeurs jusqu'à la destination finale selon un principe de best effort. En cas de congestion, ces paquets 12
qualité de livraison, ce qui rend difficile la mise en place d’un système de rémunération de l’acheminement, quoiqu’en disent certains économistes29. En particulier une comptabilisation des paquets entrants et sortants des réseaux serait coûteuse à mettre en place et aurait pour effet de ralentir le débit de transmission. Le peering présente donc l’avantage d’être un accord coopératif souple et largement informel qui améliore la fluidité des réseaux IP à moindre coût30. Dans Dang Nguyen et Pénard [1998], nous montrons que ce type d’accord peut être stable et durable. Nous l’analysons comme un phénomène dynamique de coopération tacite qui repose sur des menaces de sanction ou d’exclusion de tout partenaire ISP qui adopterait une attitude opportuniste (stratégie de type donnant- donnant, Axelrod, 1984). Ici, un comportement opportuniste consisterait à sous- investir dans son réseau et à utiliser le réseau de ses partenaires pour acheminer une partie de son trafic vers des réseaux tiers, en réalisant des économies substantielles. Mais une telle attitude serait vite détectée et « punie », par rupture de l’accord de peering. On assiste cependant à une nette évolution dans les services de transport, depuis l’annonce en mai 1997 d’UUNet, propriétaire d’un des plus grands réseaux Internet, de ne plus faire de peering avec les petits ISP. Si ces derniers veulent échanger du trafic, ils devront payer des droits d'accès comme n'importe quel client (accord de transit). La position d’UUNet a été reprise par la plupart des grands ISP. Doit-on l'interpréter comme une volonté de domination ou de cartellisation d'Internet par les grands ISP31 ? Ou au contraire faut-il n’y voir qu’une exigence légitime de rentabiliser les investissements consentis ? En fait ce que l’on observe c’est une asymétrie croissante entre les réseaux, avec d’un côté une poignée de réseaux transcontinentaux, pour la plupart américains, et de l’autre, de nombreux petits ISP dont le réseau se limite à quelques liaisons louées vers le noeud d’interconnexion le plus proche. Ces ISP se contentent d'acheter des accès aux grands réseaux et de les revendre à leurs clients, d’où le nom d’ISP revendeurs (Srinagesh, 1997). Les grands ISP dénoncent l’utilisation abusive de leurs réseaux par ces ISP et pointent le peering comme responsable de cette situation. Les grands ISP refusent de financer des réseaux qui servent à acheminer du trafic pour lesquels ils ne touchent aucun revenu. Ils estiment à juste titre que les petits ISP ne respectent pas la règle de réciprocité implicite dans les accords de peering et doivent payer un droit d’accès. Les accords de peering ne cèdent pas seulement du terrain dans les relations entre petits et grands ISP, mais aussi dans les relations entre ISP de taille identique lorsque ces derniers sont concurrents directs. Les sources de conflit sont nombreuses et la lutte est souvent acharnée pour conquérir de nouveaux clients : il arrive que certains ISP démarchent les clients d’autres ISP ou bradent les tarifs d’accès. Cette rivalité peut conduire deux ISP à refuser toute interconnexion directe. Les échanges de trafic transitent alors par des réseaux tiers, avec une peuvent être détruits par un des routeurs. 29 Voir à ce propos le livre de Bailey et Mc Knight « Internet Economics », MIT Press, 1997, qui fait le point des différentes doctrines de tarification de l’usage sur Internet. 30 Un accord de peering se fait généralement par échanges de mail ou par téléphone, sans signer de contrats. 31 La fourniture de transport comme d’accès exhibe des coûts fixes, ou tout au moins de fortes indivisibilités. Dans ces conditions, les services d’accès et de transport sont soumis à une concurrence en rendements croissants qui favorise la survie d’un petit nombre de fournisseurs intégrés d’accès et de transport, différenciés géographiquement. Voir Dang-Nguyen et Pénard [1999] pour une analyse de l’évolution du marché des ISP en France. 13
qualité de transmission moindre (Baake et Wichmann, 1998, Dang-Nguyen et Pénard, 1999). Dans les services support au total, les éléments qui poussent à l’intégration sont particulièrement forts en ce qui concerne les services d’accès et de transport, tandis que les services applicatifs sont sujets à des phénomènes de développement coopératif par l’usage. 4 Conclusion : Pour résumer notre propos, nous proposons le tableau suivant qui met en évidence les différentes formes de relations que l’on peut rencontrer sur Internet. Nous établissons une distinction entre d’une part les relations à dominante marchande et celle à dominante non marchande d’une part et les relations fortement contractuelles et celle faiblement contractuelles. Une relation faiblement contractuelle est définie comme une relation à dominante informelle. Le plus souvent, elle prend la forme d’une relation de don, c’est à dire d’un échange sans contrepartie financière. Nous avons vu qu’initialement, Internet était un réseau d’acteurs non marchands, dominé par des échanges faiblement contractuels (case du haut à droite). Avec l’arrivée des entreprises dans les années 90, nombreux sont ceux qui ont pensé qu’Internet allait basculer vers un réseau marchand organisé autour de relations contractuelles fortes, dont l’expression la plus emblématique est le commerce électronique (case du bas à gauche). Or nous avons montré dans cet article que l’essor d’Internet s’est accompagné d’une diversité de formes relationnelles et transactionnelles. On a vu apparaître en particulier des formes hybrides de relations dans lesquelles la coopération et le don occupent une place essentielle : c’est le cas du peering qui est un accord d’interconnexion non contractuel entre opérateurs de réseaux (case du haut à gauche) ou du développement de logiciels libres qui impliquent des acteurs non marchands liés par des relations contractuelles32 de licences (case du bas à droite). 32 Même si on retrouve aussi des acteurs marchands dans le logiciel libre, le non marchand reste dominant. 14
Vous pouvez aussi lire