ACTION
PUBLIQUE
Réguler l’après crise La bataille des « communs » aura bien lieu, par Christian Paul Penser le capitalisme au 21ème siècle, par Thomas Piketty Faut-il nationaliser Total ?, par Fabien Hassan Le cinéma à l’heure du numérique : de l’industrie vers l’artisanat ?, par Alexis Bétemps
JR eune
épublique Numéro 3 - Juin 2010
Nous remercions nos parrains Stanley Hoffman, politologue, Professeur à Harvard University Jacques Attali, économiste, ancien Président de la BERD Dominique de Villepin, avocat, ancien Premier Ministre Souleymane Bachir Diagne, philosophe, Professeur à Columbia University Salomé Zourabichvili, ex-ambassadeur de France et Ministre des Affaires Etrangères de Géorgie Alain Lipietz, économiste, ancien député européen Bertrand Badie, politologue et professeur des universités à SciencesPo Christian Paul, député, président du Laboratoire des Idées
Nos antennes SciencesPo Paris : A.-L Imbert annelorraine.imbert@gmail.com
IEP Lyon et Grenoble : Clément Noël noel.clement7@orange.fr ENS Ulm : Juan P. Branco brc@jeunerepublique.fr
IEP Bordeaux : Martin Samson tinmar.samson@gmail.com
ESSEC : Idama Al Saad idama. al.saad@gmail.com
Cambridge : Margaux Salmon ms98@cam.ac.uk
Oxford : Mikael Hveem mikaelhv@yahoo.no 2_ Jeune République
Berkeley : Florian Dautil f.dautil@yahoo.fr
Harvard : Jean-Marie Wecker jmwecker@fas.harvard.edu
UCSD : Felix Blossier fblossie@ucsd.edu
SOMMAIRE Jeune République - Numéro 3 - Juin 2010
Edito - p. 5
I_ L’ETAT FACE À L’ÉCHEC DU MARCHÉ - p.6 - La bataille des « communs » aura bien lieu. - p.8 - Penser le capitalisme au 21ème siècle - p.11 - Fiscalité et redistribution sociale dans la France du XXe siècle - p.14 - Limitation des inégalités - Egalité des armes et régulation fiscale - p.18 - Faut-il nationaliser Total ? - p.22 - Le marché carbone : échec définitif ou étape nécessaire ? - p.28 - L’Etat et les territoires : l’Etat peut-il jouer encore un rôle de pilote ? - p.31 - Le système éducatif au service de l’entreprise : un modèle économiquement pérenne ? - p.37 - Le recrutement des préfets par des entreprises privées - p. 41 - Le nouveau choc colonial - Nouvelles pratiques d’une tradition ancienne - p. 46
2_ INNOVATION ET RÉGULATION À L’HEURE DU NUMÉRIQUE - p.58 - Edito - Création & Numérique - p.60 - Le cinéma à l’heure du numérique : de l’industrie vers l’artisanat ? - p.61 - Entre droit à la culture, protection des artistes et puissance des majors : les pouvoirs publics à l’heure de la régulation numérique - p.66 - L’Hadopi et le cinéma français : petits meurtres entre amis - p.71 - Réflexion comparée sur la protection juridique de la propriété intellectuelle en France et aux Etats-Unis - p.76 - L’exception culturelle française : un simple protectionnisme industriel ou une véritable politique au service d’une certaine idée de l’art et de sa diffusion ? - p.80 - Vers de nouveaux paradigmes de la diffusion et de la création des oeuvres - p.83
Jeune République _3
4_ Jeune République
ÉDITO D
ifficile sortie de crise. Alors qu’il y avait de bonnes raisons d’espérer que le terrassement de l’économie mondiale ouvrirait le champ des possibles et donnerait une nouvelle impulsion à la pensée économique et politique, une sorte d’atrophie généralisée semble avoir touché nos dirigeants, reléguant à plus tard toute remise en cause de notre modèle sociétal. Après une légère réaction sous forme de relance économique néokeynesienne qui appelait des réformes structurelles de plus grande ampleur, les plans de rigueur se sont enchainés dans le plus pur esprit monétariste. Sans ne prendre en compte une quelconque leçon du passé, un certain leader socialiste ne trouvait pas meilleure idée que d’appliquer une thérapie de choc à la Grèce en privatisant à tour de bras ses services publics tandis que le Président de la République confiait à Frédéric Lefebvre la mission de refonder le capitalisme. Un enterrement de grande classe qui finissait de montrer l’incapacité de la classe politique à renouveler sa pensée en dehors du carcan néolibéral. Le même paradigme qui avait précipité le monde dans la crise et étouffé toute pensée critique vingt années durant devenait par on ne sait quelle magie le seul moyen « efficace » d’affronter la crise. Les discours emplis de grands mots ne furent suivis que d’arrangements cosmétiques. Pis, les initiatives pionnières qui avaient été prises avant la crise, tel le Grenelle de l’environnement, se sont trouvées parmi les premières sacrifiées. Les penseurs qui appellent à une redéfinition de nos rapports au marché, à la culture et à la nature se retrouvent marginalisés comme hier, et seuls leurs avatars les plus extrêmes trouvent l’espace médiatique suffisant pour faire valoir leur pensée prémâchée. Fi du projet civilisationnel d’Edgar Morin, de la radicalité nourricière de Bouveresse ou de Rancière. Dans un climat d’incertitude et de peur, la caricature prime sur l’analyse et l’argumentaire politicien balaie tout. Le grand chambardement attendu, espéré, n’a pas lieu, et tout redevient trop vite comme avant. Pourtant les urgences s’accumulent. De la crise environnementale à celle des banlieues, toutes les échelles sont concernées. La frustration s’accumule, et certains n’hésitent plus à prédire la fin d’une ère, semblable à celle que connurent les Mayas, provoquée par une accumulation de désastres sociaux et environnementaux auxquels la rigidité de nos structures sociétales n’aurait su répondre. Pourtant nul besoin d’espérer une révolution idéologique ou de refaire ses classes avec Marx pour tenter d’affronter les défis qui nous submergent. Non, l’impuissance qui semble accabler collectivement nos sociétés n’est pas une fatalité. Oui, de nombreuses solutions, mettant en avant un Etat régulateur, sont possibles en dehors d’une dichotomie idéologisée, et pourraient faire l’objet d’un consensus pour peu que nos dirigeants retirent leurs œillères. C’est en portant simplement notre regard autour de nous, sur les sujets qui faisaient l’actualité, que nous avons décidé d’approfondir des pistes trop souvent balayées par le mainstream et nos responsables politiques sans prendre le temps de l’approfondir. De la licence globale à la nationalisation des groupes pétroliers en passant par une remise à plat de notre stratégie fiscale, nous avons tenté d’explorer des pistes trop souvent considérées comme utopiques et à la réalité étonnement riche et versatile. Si certaines, comme la nationalisation de Total, nécessiteraient un mouvement de fond radical pour être un jour menées à bien, d’autres pourraient s’appliquer dans un futur très proche. Toutes permettent d’interroger des à priori qui, nés de clivages politiques souvent artificiels, nous privent de ressources formidables pour affronter les défis présents et à venir. Sans céder aux facilités du jugement de valeur, nous avons tenté de les présenter d’un point de vue pragmatique, pesant le pour et le contre et mesurant leurs implications sociales, économiques mais aussi juridiques et culturelles. Ces pistes dessinent un XXIe siècle porté par un état régulateur et protecteur, laissant une large place à l’autonomie de ses composants et à la société civile, et ouvrant des espaces non-marchands pour l’échange des biens communs, notamment culturels. Un siècle auquel nous aspirons, et qui ne pourra naître sans une rénovation profonde de notre pratique démocratique.
Juan Paulo Branco Lopez Président de Jeune République
Jeune République _5 < Flickr - Creative Commons licence photo credit nicksarebi
Chapitre I
L’ETAT FACE À
L’ÉCHEC DU
MARCHÉ 6_ Jeune République
Flickr - Creative Commons licence photo credit wwwes
- La bataille des « communs » aura bien lieu. - p.8 - Penser le capitalisme au 21ème siècle - p.11 - Fiscalité et redistribution sociale dans la France du XXe siècle - p.14 - Limitation des inégalités - Egalité des armes et régulation fiscale - p.18 - Faut-il nationaliser Total ? - p.22 - Le marché carbone : échec définitif ou étape nécessaire ? - p.28 - L’Etat et les territoires : l’Etat peut-il jouer encore un rôle de pilote ? - p.31 - Le système éducatif au service de l’entreprise : un modèle économiquement pérenne ? - p.37 - Le recrutement des préfets par des entreprises privées - p. 41 - Le nouveau choc colonial - Nouvelles pratiques d’une tradition ancienne - p. 46
Jeune République _7
> A la une
LA BATAILLE DES « COMMUNS » AURA BIEN LIEU. par Christian Paul
Avant, et tout au long du XXème siècle, c’était chose simple. L’opposition s’incarnait dans la séparation entre le politique et l’économie, entre l’Etat et la production, entre la Cité et les individus. Le périmètre respectif du public et du privé, la nature des circulations entre l’un et l’autre, ont nourri d’épiques batailles sociales et politiques. Le progrès s’indexait sur la progression du public, incarnant l’intérêt général. La nature même de l’intervention publique dans l’espace économique, dans le champ du marché et de la propriété, devint même l’un des traits distinctifs séparant gauche et droite. L’appropriation collective – publique – des moyens de production a nourri des générations de programmes.
Puis, trop vite, on a cru que la fin du siècle racontait la fin de l’Histoire. La chute du Mur, mythe postmoderne, sonnait le glas des grands desseins et des utopies broyées. L’extension de la marchandisation, selon des règles infaillibles, s’apparentait à la « nouvelle raison du Monde ». La régulation s’illustrait comme le sabre de bois de la puissance publique, et encore, quand l’auto-régulation ne devenait pas une illusion quasirégalienne. La gouvernance remplaçait les gouvernements. L’Etat ne pouvait pas tout ; le marché, lui, si.
1_ Cette grande controverse politique est abordée en détail dans le numéro 50 de la revue Vacarme, hiver 2010, Défendre la gratuité, en particulier par des pionniers Philippe Aigrain, Hervé Le Crosnier. Lire aussi Yann Moulier Boutang, Le capitalisme cognitif, éditions Amsterdam, 2007.
Ce récit a sa part de vérité historique. Mais cette vérité me parait terriblement provisoire. D’abord, la demande d’un espace public géré hors marché reste heureusement vivante. Ensuite, avec le XXIème siècle et ses révolutions inachevées, numérique, écologique, émergent de nouveaux enjeux émergent qui bousculent vigoureusement les idées reçues. La frontière entre public et privé connait de nouveaux rebondissements. C’est une ligne de front qui se déplace, au gré d’offensives successives1. Je donnerai, sans être exhaustif, quelques directions contemporaines, pour en fixer le sens.
L’extension de la marchandisation est ininterrompue. Les privatisations ne se limitent pas à des «dénationalisations ». Dans les années 2000, s’enchainent externalisations, partenariats publics-privés, substitution de l’acteur privé à
8_ "L’Etat face à l’échec du marché"_ Jeune République
l’acteur public. De l’hôpital au soutien scolaire, de la sous-traitance des métiers régaliens – police, défense - à l’abandon progressif de l’ingénierie publique, une politique assumée et sans complexe, dépourvue d’études d’impact préalables, fait triompher la réduction de la sphère publique. Le moins d’Etat est assimilé au mieux d’Etat. Le public a perdu ses parts de marché… En cela, le XXIème siècle prolonge le XXème. Ce mouvement est absurde quand il relève d’un esprit de système. Le recours au privé n’est pas mécaniquement un progrès. Il n’est pas pour autant à diaboliser. Mais surtout, la délibération collective fait tragiquement défaut pour apprécier les choix. Pour empêcher la prédation, la « dette cachée » que masque parfois le recours à l’investissement privé ou au co-investissement (autoroutes, réseaux stratégiques…). Ou pour garantir que les nouveaux modes de gestion ne s’apparentent pas à une régression, rendant par exemple l’accès à la santé ou à l’éducation impossible aux populations les plus vulnérables. L’affaiblissement des outils publics va de pair avec l’affaiblissement de l’intérêt général. La « reconstruction générale des politiques publiques », l’anti-RGPP, se fera seulement si l’intérêt général redevient le guide de l’action commune.
Des services publics gérés autrement. Si la sphère publique a battu en retraite, sous la pression des idées néolibérales, la crise et ses dégâts lui redonnent une évidente et nécessaire actualité. La France en 2012 ne sera pas sans ressembler à la Grande-Bretagne d’après Margaret Thatcher. Nous devons en faire un moment de débat collectif et d’innovations dans le domaine de l’action publique. C’est le moment de repartir des besoins des citoyens, de leur souhait de participation à la conception des dispositifs dont ils sont les usagers. Reconstruire les services publics devra passer par une meilleure personnalisation, la recherche de la meilleure adaptation aux besoins réels de leurs destinataires. Ainsi la révolution de l’âge appelle mieux que des réponses anonymes, uniformes et standardisées. L’Allocation personnalisée pour l’autonomie inaugurait une telle recherche. La prise en charge de la dépendance devra s’inspirer d’une recherche de solutions souples, refusant les solutions toutes faites, et laissant la place à l’écoute, à la négociation. Mais la petite enfance, l’école, l’hôpital réclament de la prévoyance, et une semblable compréhension des parcours et des différences.
La demande d’espaces publics est à la hausse. Dans les villes du XXIème siècle, la demande d’espaces publics ne se relâche pas. C’est l’un des remèdes à l’isolement urbain, pour retrouver l’envie de ville 2. La ville a besoin d’espaces ouverts, gratuits, dépassant les intérêts individuels. La continuité, la « couture » disent les urbanistes, s’imposent entre espaces publics et espaces privés. A l’inverse, la privatisation d’espaces à priori utiles au bien-être collectif s’installe, empruntant des formes plus ou moins avouées de fermeture et de clôture.
2_ Les villes : un projet global pour la société de demain, Laboratoire des idées du PS, avril 2010 (sur le site www.laboratoire-desidees.fr)
Les « nouveaux communs » émergent et deviennent une exigence fondamentale pour tous ceux qui ne croit pas en l’infaillibilité du marché. Ils sont contemporains du capitalisme cognitif, informationnel. Les biens communs de notre temps résument l’importance qu’il y a à soustraire de la pression du marché les savoirs, les soins et les médicaments, des services essentiels comme l’eau, des biens culturels. Mais aussi, de plus en plus, notre patrimoine écologique, qu’incarnent la biodiversité, les paysages remarquables, de nombreux espaces ruraux de qualité ou des forêts, qui ne sauraient être assimilés à leur statut juridique privé, tant ils offrent de services partageables. Jeune République _"L’Etat face à l’échec du marché"_9
Dans une société créative, les « communs » informationnels, dont Wikipédia ou les logiciels libres sont les totems, conjuguent inventivité personnelle et intérêt collectif. Ces nouvelles coopératives, conçues et accessibles à l’échelle planétaire, incarnent un modèle de partage et d’économie collaborative dont nous défrichons les premières étapes.
L’irruption de la gratuité étend les espaces « hors marché ».
3_ Serge Guérin, De l’Etat Providence à l’Etat accompagnant, Michalon, 2010.
La gratuité, c’est le vol, a-t-on écrit trop vite. D’abord, la gratuité des musées, des bibliothèques ou de l’école n’a jamais affadit la qualité de ce qu’on y découvre. Mais surtout, l’un des traits majeurs de la révolution numérique, « notre » troisième révolution industrielle, réside bien dans cette irruption du gratuit, qui bouscule les conditions de l’accès aux œuvres culturelles, et les modèles économiques des industries créatives, la presse qui l’a largement adopté, la musique et le cinéma, qui mènent une interminable croisade, aujourd’hui le livre qui attend l’Ipad – ange ou démon ? Le free décrit à la fois l’accès libre et la gratuité. Certes, bien souvent la gratuité n’est qu’apparente. La question qui s’impose devient « comment c’est financé ? », et plus seulement « est-ce que c’est gratuit ? ». La publicité, les liens marchands prennent leur place sur les sites gratuits. Mais un espace hors marché se dégage. La bataille d’Hadopi l’a abondamment montré. La défense pure et dure de la propriété intellectuelle n’a pas permis en droit cette avancée déjà présente dans la vie de millions de gens. La politique reste en retard sur la société. Cette première grande bataille de l’ère numérique aurait pu se conclure, et se conclura un jour proche, par la reconnaissance et la légalisation d’échanges d’œuvres à des fins non lucratives, compensées par les contributions des internautes, équitablement réparties. Contribution créative, licence globale ou collective, permettront de réconcilier droits d’auteur, financement de la création et accès ouvert et plus égal à la culture. Ainsi, l’essentiel ne se joue donc plus seulement dans l’opposition entre le marché et l’intervention publique. Des formes de mutualisation de la propriété3 s’imposent fermement comme possibles dans les fractures d’un monde qui abolit les routines, et ne se satisfait pas des rentes. Au-delà, la sphère privée elle-même ne se résume ni à l’économie, ni à l’intimité.
« Le privé est politique ». 4_ Joan Tronto, Un monde vulnérable - Pour une politique du care, éditions la découverte, 2009
Ce mot d’ordre des mouvements féministes se retrouve dans le care comme idéal politique4. Cette pratique est aussi un concept politique qui résiste aux idées néolibérales. « Le care, dit Joan Tronto, ne peut s’épanouir que dans une société juste, pluraliste et démocratique ». L’interdépendance, la sollicitude ou l’altruisme ne sont pas des réflexes compassionnels, mais bien au contraire une manière de revendiquer le vivre ensemble, dans une société enfin humaine. Pour la gauche française et européenne en résilience, ces questions relèvent de la quête identitaire. Entre le public et le privé, se joue une nouvelle fois une part de cette offensive de civilisation qui est aujourd’hui la bonne hauteur de la politique.
Christian Paul est député de la Nièvre et Président du Laboratoire des idées du Parti socialiste
10_ "L’Etat face à l’échec du marché"_ Jeune République
> A la une
PENSERÈMELE CAPITALISME AU 21 SIÈCLE par Thomas Piketty
Le capitalisme du 21ème siècle sera-t-il aussi inégalitaire que celui du 19ème siècle ? Se conclura-til par le même déchainement de guerres, de nationalismes et de violences, à l’échelle réellement mondiale cette fois ? Une chose est certaine : il faudra bien plus que la crise financière actuelle pour que la démocratie prenne le dessus et apprenne à dompter le capitalisme.
La crise peut certes jouer un rôle salutaire pour corriger certains des excès les plus criants apparus depuis les années 1980. Par quelle folie idéologique les autorités publiques ontelles permis à des pans entiers de l’industrie financière de se développer sans contrôle, sans régulation prudentielle, sans rendu des comptes digne de ce nom ? Par quel aveuglement a-ton laissé certains cadres dirigeants et autres traders se servir des rémunérations individuelles de plusieurs dizaines de millions d’euros, sans réagir, voire en les glorifiant ? La chute du Mur et la victoire définitive du capitalisme contre le système soviétique ont probablement contribué à l’émergence de cet étrange moment des années 1990-2000, marqué par une foi démesurée dans le marché auto-régulé et un sentiment d’impunité absolue parmi les élites économiques et financières. Dans sa forme la plus extrême, ce temps est terminé. Encore faudra-t-il de nombreuses années avant que les discours publics se transforment en actes. La transparence financière et comptable est un chantier titanesque concernant aussi bien les paradis fiscaux que les grands pays, les sociétés non financières que le secteur bancaire, et nous ne sommes qu’au début du chemin menant à une régulation et à une prévention efficace des crises financières. Concernant les rémunérations insensées exprimées en millions d’euros, seuls des taux d’imposition dissuasifs au sommet de l’échelle des salaires permettront de revenir à des écarts moins extrêmes. On en prend la direction, mais la route sera longue, tant les résistances idéologiques sont fortes. Supposons néanmoins que ces deux combats soient menés à leur terme. Le capitalisme du 21ème siècle n’en deviendra pas pour autant un monde juste et paisible. On dit souvent que le capitalisme de ce début de siècle est « patrimonial «. On entend par là que les patrimoines financiers et immobiliers, les mouvements de leurs prix et de leurs rendements, jouent un rôle essentiel. C’est vrai. Mais il faut maintenant prendre conscience du fait qu’il ne peut exister de capitalisme autre que « patrimonial «, et qu’il s’agit là d’un élément structurant du paysage social et des inégalités. Au cours du 20ème siècle, en particulier pendant les Trente Glorieuses, on a cru à tort que nous étions passés à une nouvelle étape du capitalisme, un capitalisme sans capital en quelque sorte, ou tout du moins sans capitalistes. A une vision du monde opposant travailleurs et capitalistes, en vogue jusqu’en 1914 et encore dans l’entre-deux-guerres, nous avons progressivement substitué à partir de 1945 une vision toute aussi dichotomique, mais plus apaisante, opposant d’une part les « ménages Jeune République _"L’Etat face à l’échec du marché"_11
«, supposés vivre uniquement de leurs salaires, et d’autre part les « entreprises «, univers certes dominé par une implacable logique de productivité et d’efficacité, mais surtout lieu où sont distribués les salaires, toujours croissants. En oubliant au passage que les détenteurs ultimes des entreprises et de leur capital sont toujours des personnes physiques, des ménages en chair et en os. Et que l’inégale répartition de la propriété des patrimoines et de leurs revenus (dividendes, intérêts, loyers, plus-values) demeure l’inégalité fondamentale du système capitaliste : Marx avait au moins raison sur ce point. Sans le formuler explicitement, on a même cru un moment que les revenus du capital avaient tout bonnement disparu au bénéfice des revenus du travail. On s’est pris à imaginer que la rationalité technologique avait permis le triomphe du capital humain sur le capital financier et immobilier, des cadres méritants sur les actionnaires bedonnants, de la compétence sur la filiation. On s’est mis à penser les inégalités uniquement à travers le prisme apaisant des inégalités salariales. Un monde salarial certes traversé par de légers clivages entre ouvriers, employés, cadres. Mais un monde fondamentalement uni, communiant dans le même culte du travail, fondé sur le même idéal méritocratique. Nous ne reviendrons jamais à ce monde enchanté des Trente Glorieuses, qui était pour partie un rêve pieux, et pour partie une période exceptionnelle et transitoire, correspondant à un capitalisme de reconstruction. D’abord pour une raison bien connue : les taux de croissance de la production de l’ordre de 4% ou 5% par an observés pendant cette période, qui permettaient d’alimenter une hausse soutenue du pouvoir d’achat et un sentiment de progrès perpétuel, s’expliquaient avant tout par un phénomène de rattrapage, après les décennies perdues du premier 20ème siècle (1914-1945). Mais également pour une raison moins connue, et plus profonde encore dans ses conséquences à long terme. A l’issue de la seconde guerre mondiale, après trois décennies de chocs extrêmement violents (destructions physiques d’immeubles et d’usines, faillites d’entreprises, hyper inflation), les patrimoines privés avaient de fait quasiment disparu. Au début des années 1950, le total des patrimoines financiers et immobiliers des ménages ne représentait qu’à peine plus d’une année de revenu national, contre plus de six à la veille de première guerre mondiale. Il fallut plus d’un demi-siècle pour que le rapport entre patrimoines et revenus, paramètre central du développement capitaliste, retrouve au cours des années 2000 des niveaux de l’ordre de six-sept, comparables à ceux de la Belle Epoque. Le creux de la courbe a été particulièrement marqué en France, à la fois du fait de l’importance prise par l’Etat comme propriétaire du capital des entreprises à l’issue des nationalisations de 1945, et d’une politique vigoureuse de blocage des loyers, qui explique pour une large part les prix immobiliers historiquement bas observés des années 1950 aux années 1970. On retrouve toutefois cette même évolution générale dans tous les pays développés. Au niveau mondial, l’accumulation du capital privé a vu s’ouvrir de nouveaux secteurs et de nouveaux territoires, autrefois propriétés des Etats. Bien sûr, les très hautes valorisations des patrimoines observées ces dernières années sont en partie la conséquence des bulles boursières et immobilières, et les ratios patrimoine/ revenu sont appelés à baisser dans les années qui viennent. Mais ils ne reviendront jamais aux faibles étiages des Trente Glorieuses. Tout laisse à penser que les patrimoines et leurs revenus vont se situer au 21ème siècle à des niveaux au moins équivalents à ceux du 19ème siècle et du début du 20ème. Les effets produits sur les structures sociales et les inégalités nationales et internationales mettront du temps à se faire pleinement sentir, mais ils seront à terme considérables. D’autant
12_ "L’Etat face à l’échec du marché"_ Jeune République
plus que le dumping fiscal généralisé, qui a déjà largement mis à mal les impôts progressifs patiemment construits au 20ème siècle, n’a sans doute pas encore atteint son paroxysme, et menace de conduire à la suppression pure et simple de toute forme d’imposition du capital et de ses revenus. Plus rien n’empêchera alors le capitalisme de retrouver les sommets inégalitaires du 19ème siècle. C’est-à-dire un monde où Vautrin pouvait benoîtement expliquer à Rastignac que la réussite par les études et le travail était une voie sans issue, et que la seule bonne stratégie d’ascension sociale consistait à mettre la main sur un patrimoine. Car c’est bien de cela qu’il s’agit. L’économie de marché et la propriété privée du capital méritent certes d’être enfin pensées dans leurs dimensions positives. Non pas comme un système fondé sur l’acceptation pragmatique de l’égoïsme individuel et de nos imperfections humaines, mais comme le seul système s’appuyant véritablement sur la liberté des personnes et l’infinie diversité des aspirations individuelles. Mais pour cela il faut reconnaître sans détour que le capitalisme, de façon indissociablement liée à sa dimension émancipatrice, produit inévitablement une inégalité d’une brutalité inouïe, insoutenable, injustifiable, menaçant nos valeurs démocratiques essentielles, au premier rang desquelles l’idéal méritocratique. Pendant les Trente Glorieuses, après que les guerres eurent fait table rase des patrimoines du passé, seul un pourcentage insignifiant de la population était susceptible de recevoir en héritage l’équivalent d’une vie de travail au salaire minimum (environ 500 000€ actuellement). Ce pourcentage a décuplé en vingt ans, devrait dépasser les 10% dans les années 2010, et plus encore si l’on prend en compte les rendements des capitaux correspondants. Et même si cela mettra plus de temps à se faire sentir, la part des capitaux reçus de la génération précédente dans ceux transmis à la génération suivante ne cessera d’augmenter. L’idéal d’une accumulation du capital fondée sur l’épargne méritante issue des revenus du travail, valable pendant les Trente Glorieuses et dans les périodes de très forte croissance économique ou démographique, disparaît mécaniquement dès lors que les séquelles des guerres s’éloignent et que les rendements du capital dépassent durablement les taux de croissance. Et l’arbitraire des enrichissements patrimoniaux dépasse largement le cas de l’héritage. Le capital a par nature des rendements volatiles et imprévisibles, et peut aisément générer pour tout un chacun des plus-values (ou des moins-values) immobilières et boursières équivalentes à plusieurs dizaines d’années de salaire. Et même si la concentration des patrimoines est forte, et peut encore croître, rien ne serait plus illusoire que de s’imaginer que le capital est l’apanage de quelques centaines de familles : un capitaliste sommeille en chacun d’entre nous, et chaque personne disposant de 100 000€ en assurance-vie possède indirectement des morceaux d’usines, qui parfois licencient et délocalisent pour rémunérer ledit capital. Au niveau international, l’instabilité des fortunes engendrée par les mouvements des prix et des rendements du capital est encore plus élevée, augmentant d’autant les sentiments d’arbitraire et de frustration. Sans une vigoureuse reprise en main par le pouvoir démocratique, un tel système mène naturellement à des catastrophes. Au 20ème siècle, ce sont les guerres qui ont fait table rase du passé, et qui ont temporairement donné l’illusion d’un dépassement structurel du capitalisme. Pour que le 21ème siècle invente un dépassement à la fois plus pacifique et plus durable, il est urgent de repenser le capitalisme dans ses fondements, sereinement et radicalement. Thomas Piketty est directeur d’études à l’EHESS et professeur à l’Ecole d’économie de Paris.
Cet article est reproduit avec l’autorisation de son auteur et a déjà fait l’objet d’une publication.
Jeune République _"L’Etat face à l’échec du marché"_13
FISCALITÉ ET REDISTRIBUTION SOCIALE DANS LA FRANCE E DU XX SIÈCLE par Thomas Piketty (à paraître dans L’impôt en France aux XIXe et XXe siècles, Comité pour l’histoire économique et financière de la France, Imprimerie Nationale)
Comment les inégalités de revenus et de patrimoines ont-elles évoluées en France au cours du XXe siècle, et comment rendre compte de ces évolutions ? Les impôts progressifs mis en place au début du XXe siècle ont-ils permis une réduction importante des inégalités sur longue période ? Telles sont les questions auxquelles nous avons tenté de répondre dans un ouvrage récent,1 et dont nous reprenons ici les principales conclusions.
1_ Thomas Piketty, Les hauts revenus en France au XXe siècle – Inégalités et redistributions 1901-1998, Grasset, 2001, 812 p.
Pour répondre à ces interrogations, il était indispensable de se situer à un niveau microéconomique. Il est en effet impossible d’appréhender correctement les inégalités et leur évolution en s’en tenant à des indicateurs globaux. Par exemple, ainsi que nous le verrons plus loin, la stabilité du partage global entre revenus du travail et revenus du capital au niveau macroéconomique peut masquer de profondes transformations dans la répartition de ces deux grandes masses de revenus au niveau individuel. De même, la contemplation d’indicateurs agrégés du poids de la fiscalité (part des recettes de l’impôt sur le revenu dans le PIB, décomposition des recettes en impôts « directs » et « indirects », etc.) peut conduire à de graves erreurs d’appréciation. Pour apprécier correctement le rôle redistributif joué par l’impôt, il faut commencer par étudier l’évolution de la répartition du prélèvement fiscal au niveau individuel, c’est-à-dire l’évolution des taux effectifs imposés aux différents fractiles de la hiérarchie individuelle des revenus et des patrimoines. Notre recherche repose donc sur un travail relativement important de construction de séries microéconomiques homogènes portant sur les inégalités de revenus et de patrimoines, ainsi que sur les taux effectifs d’imposition. Nous avons tout d’abord exploité de façon systématique les statistiques issues du dépouillement des déclarations de revenus. Chaque année depuis la mise en place de l’impôt progressif sur le revenu par la loi du 15 juillet 1914, sans aucune exception, l’administration fiscale française a en effet dépouillé l’intégralité des déclarations de revenus déposées par les foyers imposables et a établi un certain nombre de tableaux statistiques. Ces tableaux indiquent, pour un grand nombre de tranches de revenus, le nombre de foyers concernés, le montant total des revenus déclarés, le montant correspondant à chacune des différentes catégories de revenus (salaires, bénéfices industriels et commerciaux, revenus de valeurs mobilières, revenus fonciers, etc.), le montant de l’impôt émis, etc. Compte tenu de l’inflation, de la croissance des revenus réels, de la croissance démographique, de l’irrégularité des changements de tranches, etc., les chiffres portés sur ces tableaux ne
14_ "L’Etat face à l’échec du marché"_ Jeune République
sont cependant guère intelligibles de prime abord. Un travail statistique relativement long et fastidieux a été nécessaire Afin de convertir cette source fiscale brute en séries homogènes et économiquement intelligibles, il nous a fallu estimer pour chacune des années de la période 1915-1998 la forme de la courbe de répartition des revenus (c’est-à-dire les paramètres de la loi de Pareto correspondante), utiliser ces paramètres pour calculer les niveaux de revenus déclarés par les différents fractiles de la hiérarchie des revenus, corriger ces niveaux de revenus de façon à ce que nos séries se fondent sur un concept homogène de revenu (avant tout abattement et déduction), etc. Le pourcentage de foyers imposables se situant aux alentours de 10-20% dans l’entredeux- guerres (cf. graphique 1), nous nous sommes limités au décile supérieur de la hiérarchie des revenus : nos séries portent sur les 10% des foyers ayant les revenus les plus élevés, les 5% des foyers ayant les revenus les plus élevés, etc., et jusqu’aux 0,01% des foyers ayant les revenus les plus élevés. Afin de calculer la part de ces différents fractiles de hauts revenus dans le revenu total, nous avons établi des séries homogènes portant sur le revenu total et le revenu moyen (foyers imposables et nonimposables réunis), en nous fondant sur les estimations issues de la comptabilité nationale.2
Nous avons également exploité d’une façon similaire les statistiques issues du dépouillement des déclarations de successions, que l’administration fiscale a établi presque chaque année depuis la création d’un impôt progressif sur les successions par la loi du 25 février 1901.3 Nous avons fait de même avec les statistiques issues du dépouillement des déclarations de salaires des employeurs, que l’administration fiscale a établi presque chaque année depuis la création d’un impôt cédulaire sur les salaires par la loi du 31 juillet 1917.4 De cette façon, nous avons pu distinguer précisément les évolutions de l’inégalité des revenus dues à des mouvements de compression ou d’élargissement de la hiérarchie des salaires et les évolutions de l’inégalité des revenus dues à des mouvements de compression ou d’élargissement de la hiérarchie des patrimoines et de leurs revenus. De fait, un des principaux enseignements de nos séries est précisément que ces deux dimensions salariales et patrimoniales des inégalités de revenus ont connu des évolutions fort différentes en France au cours du 20ème siècle. Au delà des multiples fluctuations et retournements observés dans le court terme et le moyen terme (compression des écarts de 1914 à 1920, élargissement de 1920 à 1936, compression de 1936 à 1945, élargissement de 1945 à 1968, compression de 1968 à 1983, léger élargissement depuis 1983), la hiérarchie des salaires est restée extrêmement stable sur longue période. Par exemple, la part des 10% des salariés les mieux payés dans la masse salariale totale a toujours oscillé autour de 2526%, la part des 1% des salariés les mieux payés autour de 6-7%, etc. On observe pourtant une forte compression séculaire des inégalités de revenus : la part dans le revenu total des 10% des foyers ayant les revenus les plus élevés est ainsi passée d’environ 45% à la veille de
2_ Pour plus de précision, nous renvoyons le lecteur à notre ouvrage Les hauts revenus en France au XXe siècle (les sources exploitées et les méthodes utilisées sont décrites de façon détaillée dans une série d’annexes techniques).
3_ Les statistiques successorales annuelles ont malheureusement été abandonnés par l’administration en 1964, et on ne dispose plus depuis cette date que de dépouillements des déclarations de successions réalisées pour quelques années isolées (1984 et 1994 sont les deux dernières années dépouillées), ce qui est suffisant pour identifier les tendances longues. 4_ L’impôt cédulaire sur les salaires a > > définitivement disparu en 1948, mais les déclarations de salaires des employeurs (dans lesquels ces derniers indiquent les salaires versés à chacun de leurs employés au cours de l’année précédente) ont été maintenues à des fins de contrôle fiscale, et leur exploitation statistique a été transférée à l’INSEE.
Jeune République _"L’Etat face à l’échec du marché"_15
la première guerre mondiale à 32-33% dans les années 1990 (cf. graphique 2). Mais le fait est que cette baisse s’explique uniquement par l’effondrement de la part des 1% des foyers ayant les revenus les plus élevés (c’est-à-dire les foyers dont les revenus se composent pour une part prépondérante de revenus du capital), alors que la part des foyers intermédiaires (dont les revenus se composent pour l’essentiel de salaires) est restée extrêmement stable, à l’image de la hiérarchie des salaires (cf. graphique 3). Sur longue période, la réduction des inégalités de revenus est uniquement due au fait que les très hauts revenus du capital se sont littéralement effondrés lors des crises des années 1914-1945, et ne se sont jamais totalement reconstitués depuis.
16_ "L’Etat face à l’échec du marché"_ Jeune République
L’explication la plus convaincante pour cette non-reconstitution des rentiers du début du siècle est liée au développement de la fiscalité progressive (impôt sur le revenu et impôt sur les successions) et à son impact dynamique sur l’accumulation de patrimoines importants. Les très hauts revenus du patrimoine observés au début du 20ème siècle sont en effet le produit d’un siècle d’accumulation sans impôt (ou presque). Les taux d’imposition applicables aux revenus et patrimoines les plus importants furent relevés de façon considérable à l’issue de la première guerre mondiale (le taux marginal supérieur de l’IGR passa de 2% lors de l’imposition des revenus de 1915 à 90% lors de l’imposition des revenus de 1924 !), et ils se stabilisèrent à des niveaux élevés à l’issue de la seconde guerre mondiale. Il devint dès lors virtuellement impossible de reconstituer des patrimoines d’un niveau comparable à ceux du début du siècle. On ne peut certes pas exclure que d’autres facteurs aient également joué un rôle important. Il faut toutefois noter que des simulations dynamiques permettent de constater que cet impact dynamique de l’impôt progressif est quantitativement suffisamment massif pour expliquer à lui seul l’ampleur des évolutions observées. On remarquera également qu’il n’est pas si facile de trouver d’autres explications permettant de rendre compte de façon plausible des faits observés. En particulier, il est important d’insister sur le fait que ce ne sont pas les revenus du capital en tant que tels qui ont disparu, mais bien plutôt leur concentration qui s’est fortement réduite : le partage global du revenu national entre revenus du travail et revenus du capital a été globalement stable au cours du XXe siècle, et ce sont les répartitions qui ont évolué de façon totalement différente (la répartition des revenus du travail n’a pratiquement pas changé, alors que celle des revenus du capital s’est fortement comprimée). De la même façon, les déclarations de successions permettent de constater que seuls les très hauts patrimoines ne se sont jamais totalement remis des chocs des années 1914-1945 : les patrimoines légèrement moins importants ont rattrapé depuis la seconde guerre mondiale le retard pris au cours des décennies précédentes, si bien que le ratio patrimoine/revenu calculé au niveau macroéconomique a retrouvé à la fin du siècle le niveau qui était le sien à la veille de la première guerre mondiale. Autrement dit, seule une explication permettant de comprendre pourquoi l’accumulation est devenue moins aisée pour les très gros patrimoines (mais pas pour les autres) peut rendre compte des faits observés. L’irruption de la fiscalité progressive (dont les taux effectifs n’ont atteint des niveaux substantiels que pour les revenus et les patrimoines très élevés) constitue une telle explication, par opposition aux explications fondées sur l’inflation ou l’évolution des taux de rendement, qui devraient en principe concerner tous les patrimoines. Concluons en notant que nos séries nous permettent également de revisiter un certain nombre de périodes historiques particulièrement chaotiques du point de vue de la répartition des revenus (à commencer par l’entre-deux-guerres), ainsi que de réaliser des comparaisons internationales avec les séries disponibles dans les pays étrangers (séries qui sont malheureusement fort incomplètes, y compris aux Etats-Unis).5 Par exemple, il est frappant de constater que la concentration des revenus et des fortunes était à la veille de la première guerre mondiale presque aussi forte en France qu’au Royaume-Uni. Cette réalité va à l’encontre de perceptions très répandues (mais jamais étayées) dans la France du début du XXe siècle, souvent décrite par les hommes politiques républicains comme un « pays de petits propriétaires », par opposition aux grandes fortunes de l’Angleterre monarchique (cet argument était souvent utilisé pour expliquer que l’impôt progressif n’était pas nécessaire en France). Cet épisode montre tout l’intérêt qu’il y a à conjuguer une histoire économique et sociale des inégalités avec une histoire politique et culturelle des perceptions des inégalités.
5_ Cf. Les hauts revenus en France au XXe siècle, chapitre 7. Cf. également Thomas Piketty et Emmanuel Saez, « Income Inequality in the United States, 19131998 », NBER Working Paper n°8467, septembre 2001.
Thomas Piketty est directeur d’études à l’EHESS et professeur à l’Ecole d’économie de Paris.
Jeune République _"L’Etat face à l’échec du marché"_17
LIMITATION - EGALITÉ
DES INÉGALITÉS DES ARMES ET RÉGULATION FISCALE par Felix Blossier
A deux ans des prochaines élections présidentielles et en parallèle du débat sur la réforme des retraites (ravivé par la publication, le 14 avril 2010, du 8ème rapport du Conseil d’orientation des retraites), les projets de réforme fiscale reviennent massivement sur le devant de la scène politique. Près d’un siècle après la promulgation des lois établissant les bases de la fiscalité progressive en France (loi du 25 février 1901 établissant l’impôt progressif sur les successions, « loi Caillaux » du 15 juillet 1914 et loi du 31 juillet 1917 sur l’impôt cédulaire), il est intéressant de se pencher sur les liens entre la politique fiscale et la dynamique des inégalités en France afin de poser un regard critique sur les réformes menées ces dernières années, et d’étudier les propositions de réforme fiscale qui semblent permettre de combiner justice sociale et efficience économique. Comme tout sujet lié aux politiques de redistribution, il s’agit là d’un thème à très forte dimension politique. Nous tenterons néanmoins d’adopter, dans la mesure du possible, un point de vue neutre.
Politique fiscale et justice sociale : la dynamique des inégalités en France, de la création de l’impôt progressif à nos jours Afin de bien analyser le débat sur la réforme fiscale, il est important de connaître le rapport de causalité entre la politique fiscale et l’évolution des inégalités et d’avoir une idée de l’arme considérable que représente la fiscalité dans le combat contre les inégalités. Les travaux de l’économiste Thomas Piketty sont édifiants à cet égard. Son étude empirique, livrée entre autres dans Les hauts revenus en France au XXème siècle, nous montre que la réduction considérable des inégalités au cours de ces cent dernières années est principalement liée à la mise en place de politiques redistributives limitant l’accumulation du patrimoine. Certes, la réduction des inégalités s’explique par de nombreux facteurs, mais la politique fiscale joue bien un rôle fondamental. En observant les variations du coefficient de Gini (indice mesurant le degré des inégalités dans la répartition des revenus) en France à moyen terme, ce rôle devient indéniable. Ainsi l’introduction de « l’impôt Caillaux » (la première forme d’impôt progressif sur le revenu) ou encore l’arrivée au pouvoir du Front Populaire sont à l’origine des principales phases de contraction des inégalités en France. Sources : A. B. Atkinson et T. Piketty, Towards a Unified Data Set on Top Incomes
Le dernier mouvement de réduction des inégalités observé s’est ralenti au milieu des années quatre-vingt et on observe depuis la fin des années quatre-vingt dix un renversement de la tendance. Pour la première fois depuis le début du XXème siècle les inégalités augmentent de manière constante plusieurs années de suite. Depuis 2002, les revenus des 90% des salariés les moins bien payés n’ont pas évolués alors que les très hauts revenus se sont accrus. Le rapport entre la rémunération la plus basse et celle du patron au sein d’une très grosse entreprise est passé d’un sur trente dans les années soixante à un sur trois cent. L’augmentation de ces écarts est amputable à des facteurs externes comme l’effet discriminant des hautes technologies ou la concurrence des travailleurs des pays émergents que rencontrent les salariés les moins qualifiés. Elle résulte cependant principalement de la très forte augmentation des rémunérations des dirigeants d’entreprise et de l’immobilité de la politique fiscale face à de telles évolutions.
18_ "L’Etat face à l’échec du marché"_ Jeune République
La politique fiscale menée en France depuis les années 2000 D’après une étude publiée par Daniel Vasseur et Thomas Chalumeau pour Terra Nova, les baisses d’impôt décidées ces dix dernières années font perdre près de 30 milliards d’euros par an au Trésor public. Pourtant, la pression fiscale n’a pas pour autant diminuée puisque son taux n’est passé que de 43,1% du PIB en 2002 à 42,8% en 2008. Une recomposition de l’impôt favorable aux foyers les plus aisés s’est en fait substituée à la réduction de l’impôt annoncée par les derniers gouvernements en place. En effet, sur les 30 milliards d’euros de pertes annuelles causées par ces dernières réformes, on estime que près de 20 milliards proviennent de réformes favorisant les plus riches. Alors que la fiscalité locale connait une forte hausse, la réforme de l’impôt sur le revenu, la baisse de l’impôt sur la fortune et de la fiscalité sur les successions ; et surtout la loi TEPA, ce fameux « paquet fiscal » (disposant principalement de la défiscalisation des heures supplémentaires et de l’abaissement du bouclier fiscal) ont été mises en place, favorisant ainsi les hauts revenus et l’accumulation du patrimoine. En contrepartie, on estime à seulement 3 milliards d’euros le montant des mesures fiscales au profit des plus démunis (principalement la taxation du capital pour financer le RSA et l’augmentation progressive de la prime pour l’emploi) adoptées sur la même période. Autrement dit, ces mesures visent à remplacer la progressivité fiscale par un modèle proportionnel. L’impôt sur le revenu, modèle progressif par excellence, est passé de 3,2% du PIB en 2002 à 2,6% cinq ans plus tard alors que c’était déjà l’un des plus faibles de l’OCDE (la moyenne européenne se situant entre 8 et 10%). Cette politique a été complétée par l’allégement des taxes sur le capital, en totale contradiction avec le discours de Nicolas Sarkozy sur la valorisation du travail. Or, comme l’affirment Daniel Vasseur et Thomas Chalumeau, « la rente est l’ennemi du risque, donc de l’activité économique », le taux d’épargne particulièrement élevé en France, a ainsi atteint la valeur record de 17,1% au dernier trimestre 2009. A l’augmentation des inégalités, s’ajoute donc le très mauvais bilan économique de ces réformes. Si la croissance quasi inexistante et le taux de chômage catastrophique sont en grande partie liés à la conjoncture économique actuelle, l’impact négatif de cette politique fiscale demeure indéniable avec un déficit proche de 7% du PIB et une dette se rapprochant dangereusement de la barre des 80% du PIB (rappelons que l’objectif de campagne de Nicolas Sarkozy était de ramener la dette publique de 66% à 60% du PIB), reportant ainsi les charges fiscales sur les générations à venir.
Jeune République _"L’Etat face à l’échec du marché"_19
Une politique fiscale reaganienne ? et sa justification théorique Il semblerait donc que l’on assiste à ce qu’il c’est passé au Royaume-Uni, et surtout aux Etats-Unis au début des années quatre-vingt. Une politique d’allègement fiscal au profit des classes les plus riches qui a abouti au retour aux niveaux d’inégalités pré-1929 (avant la création de l’Etat providence, donc) sans impact positif concret sur l’économie. Comme le note Thomas Piketty, dans une tribune pour Libération : « En 1932, quand Roosevelt arrive au pouvoir, le taux de l’impôt fédéral sur le revenu applicable aux plus riches était de 25 % aux Etats-Unis. Le nouveau président décide de le porter immédiatement à 63 %, puis 79 % en 1936, 91 % en 1941, niveau qui s’appliqua jusqu’en 1964, avant d’être réduit à 77 %, puis 70 % en 1970. Pendant près de cinquante ans, des années 30 jusqu’en 1980, jamais le taux supérieur ne descendit au-dessous de 70 %, et il fut en moyenne de plus de 80 %. Cela n’a pas tué le capitalisme et n’a pas empêché l’économie américaine de fonctionner ». Comment expliquer le succès de l’impôt progressif « confiscatoire » sur les hauts revenus créé par Roosevelt et l’échec des mesures prises par Reagan ? Quelles sont les justifications théoriques de telles réformes ? Lorsque Reagan a considérablement réduit l’impôt sur le revenu 1981, il s’attendait à voir les caisses de l’Etat renflouées. Il s’appuyait sur le modèle de Laffer (Cf. graphique ci-contre), un modèle économique extrêmement simple, hérité de la théorie des incitations ; cette courbe est censée représenter le niveau d’emploi (et donc le revenu du gouvernement) en fonction du taux d’impôt. Le revenu du gouvernement est maximisé avec un certain niveau d’impôt, t*, en dessous de ce niveau, il y a un manque à gagner pour l’Etat et au-dessus, le taux est trop haut et décourage la production et l’innovation. Ce modèle a beau paraître intuitif, il demeure critiquable et il n’y a pas de consensus autour de la valeur du taux d’imposition optimal. L’administration Reagan le voyait aux alentours de 20% mais le fait que sa politique fiscale ait menée au plus gros déficit depuis 1945 aux Etats-Unis nous pousse à croire que cette approximation était erronée. D’autres éléments empiriques sont en faveur d’un taux d’imposition très élevé, comme par exemple la quantité presque négligeable d’évasions fiscales qui ont suivi la mise en place de l’ISF. Par ailleurs les travaux de Thomas Piketty et de Tony Atkinson nous montrent que l’emploi est très faiblement corrélé au taux d’imposition sur les plus hauts revenus. Tant d’éléments qui nous poussent à croire qu’un taux de Laffer optimal pour les très hauts revenus pourrait être très élevé ; comme l’affirme Emmanuel Saez « Il n’y a pas de justification économique solide à limiter l’impôt à 50% des revenus » alors que les travaux de Bruno Théret et Didier Uri arrivent à un taux d’imposition optimal de 85% pour les ménages les plus aisés. De tels taux peuvent sembler justifiés à l’heure où les très hauts revenus n’ont plus aucun rapport avec la productivité économique réelle et dans un pays où l’épargne est très élevée. Notons là qu’il ne s’agirait d’une part que d’augmenter les impôts sur les très hauts revenus (non pas ceux des cadres supérieurs) et que le caractère confiscatoire de l’impôt ne s’appliquerait qu’à la marge ; ce n’est pas l’ensemble du revenu qui sera taxé à 80% mais le revenu au-delà d’une certaine tranche.
« Efficiente économiquement, la progressivité est aussi socialement juste » (Thomas Piketty) Il semble évident que le niveau de pression fiscale (43%) ne pourra être ni réduit tant que les dépenses publiques ne seront pas maitrisées, ni augmenté tant que la croissance sera si faible. On peut néanmoins suggérer une recomposition du financement de la dette publique réinstaurant la progressivité fiscale. Ainsi, il paraît indispensable de restaurer l’impôt sur le revenu d’alléger les charges sociales qui pénalisent le travail. C’est aussi une priorité de supprimer la majorité des niches fiscales. Il y a en près de 500 en France, elles permettent 20_ "L’Etat face à l’échec du marché"_ Jeune République
l’évasion de 73 milliards d’euros par an d’après le rapport de la Commission des finances de l’Assemblée nationale. A elle seule, l’exonération des investissements dans les DOM TOM fait perdre 800 millions d’euros par an au Trésor et de nombreuses niches sont tout simplement aberrantes comme l’exonération des bénéfices issus de la culture de la Truffe pendant 15 ans ou celle sur les plus-values lors de la vente d’un cheval de course. Comme le résume Thomas Piketty dans un entretien accordé au journal Le Monde : « Il faut améliorer les incitations au travail dans le bas de la distribution. Il faut supprimer l’ensemble des niches fiscales pour restaurer un impôt progressif sur l’ensemble des revenus ». Concernant la taxation des plus hauts salaires, nous pouvons citer la proposition de Pierre Méhaignerie sur l’augmentation du taux d’imposition pour les contribuables gagnant plus de 300.000 euros annuels comme forme de contribution temporaire pendant la crise à l’instar des mesures temporaires prises par Gordon Brown sur les très hauts revenus. Thomas Piketty va évidemment dans le même sens en affirmant : « La seule solution serait de revenir à des taux marginaux d’opposition quasi confiscatoires pour les très très hauts revenus . Imposer des taux marginaux de 80% voire 90% sur les rémunérations annuelles de plusieurs millions d’euros me semble inévitable, incontournable. » Ainsi, les patrons ne seront plus tentés par des rémunérations sans aucun rapport avec leur productivité. Notons aussi qu’une taxation est préférable à un système de plafonnement, plus libérale, la taxation est aussi plus efficace puisque plus difficile à contourner. Autres sujets mais néanmoins nécessaires à prendre en compte lors d’une réforme fiscale de grande ampleur, la correction des externalités négatives, via la création d’une véritable fiscalité écologique et la simplification du système (permettant de distinguer le financement des dépenses de l’Etat, des revenus différés et des assurances obligatoires) paraissent inévitables. Si l’état calamiteux des finances publiques (le dernier rapport annuel de la Cour des Comptes envisage une dette atteignant les 100% du PIB en 2013) nous pousse à envisager très rapidement une réforme massive de la politique fiscale fondée sur la réaffirmation de la progressivité, il est nécessaire d’avoir en tête les risques d’une politique fiscale autonome. Si les mesures prises au Royaume-Uni et au Portugal vont dans notre sens, le risque de dumping fiscal au niveau européen subsiste encore. Des avancées timides ont eu lieu en matière de coopération fiscale communautaire (directives TVA, mesures adoptées par le Conseil européen le 1er décembre 1997, projet ACCIS…) mais une réelle harmonisation fiscale reste illusoire, surtout celle sur l’impôt sur le revenu. En effet, à l’heure où la politique monétaire est décidée à Frankfort et où la politique budgétaire est fortement encadrée par le Pacte de stabilité et de croissance, la fiscalité reste le dernier outil de politique économique dans les mains des Etats et la résistance nationale contre un alignement des politiques fiscales est très fortes. Un modèle de coordination limitant autant que possible la concurrence déloyale est cependant envisageable et serait d’une grande aide pour la réhabilitation d’un impôt très progressif en France. Felix Blossier est étudiant à SciencesPo, Polytechnique et à l’ENSAE
Flickr - Creative Commons licence photo credit MiMundo.org
Jeune République _"L’Etat face à l’échec du marché"_21
TOTAL ? 1_ Libération, « Les bénéfices de total sont réalisés sur une rente », 12 février 2009
2_ L’Humanité, « Nouveau record de profit chez Total », 15 février 2007
> A la une
FAUT-IL NATIONALISER
Par Fabien Hassan
Depuis 2007, de nombreuses personnalités issues de la gauche, des écologistes, ainsi que des associations, suggèrent de mettre en place des mesures spécifiques aux groupes pétroliers, et à Total en particulier. La polémique a pris de l’importance au fur et à mesure que Total annonçait des profits record. Reprenons les principaux arguments. Selon l’association de consommateurs UFC-Que Choisir, Total gagne « tellement d’argent que même s’ils voulaient le réinvestir, ils ne pourraient pas. Donc, cela atterrit en trésorerie. » Et comment de tels profits sont-ils atteints ? « A baril à prix record, 1 profit record » . Il serait peut-être plus opportun d’utiliser cet argent pour investir dans les énergies vertes. « Et une source de financement parmi d’autres pourrait venir de Total. » L’UFC proposait alors des taxes sur les profits exceptionnels, s’inspirait des mesures prises dans les pays anglosaxons à la suite de privatisation dont on se rendait compte qu’elles avaient été faites à des prix trop bas.
Mais lorsque la gauche s’est élevée pour réclamer une taxe exceptionnelle, la présidence de Total a dénoncé un discours « à cheval entre le dogmatisme et le populisme », et suggéré « que l’UFC inspirait la politique de nationalisation de Hugo Chavez »2. Comment se situer dans ce débat ? Avant toutes choses, une remarque nous semble importante. Il est difficile de mentionner Total dans le contexte actuel sans faire allusion aux accusations dont l’entreprise est l’objet. De la politique sociale à l’impact environnemental, en passant par un soutien indirect à quelquesuns des pires régimes de la planète (notamment en Birmanie), Total est la cible favorite de nombreuses ONG. Bien qu’essentielles, nous tenterons dans cet article de faire abstraction de ces dimensions, afin de répondre à la question dans une perspective plus pragmatique : la nationalisation de Total est-elle envisageable ? Serait-elle une bonne affaire pour le contribuable français ? Pour ceux qui souhaiteraient en savoir plus sur les accusations visant Total, la lecture de Total(e) Impunité, de Jean-Philippe Demont-Pierot, peut être intéressante, ainsi que les réponses apportées par voie de presse par le groupe pétrolier.
Nationaliser Total, à quel coût ? Combien coûterait le groupe Total ? Le calcul est en fait assez simple. Au 27 mars 2010, Total, c’est 2 348 422 844 actions, d’une valeur unitaire de 42,76 euros. Soit une valorisation totale de 100 418 562 520 euros exactement. Une prise de contrôle n’implique qu’une participation à 51%, soit la modique somme de… 50 milliards d’euros. 22_ "L’Etat face à l’échec du marché"_ Jeune République
Et même plus. Lorsque la gauche est arrivée au pouvoir en 1981, l’Etat a tenté de racheter de nombreuses entreprises. Mais le Conseil Constitutionnel a cassé la première version de la loi de nationalisation,3 notamment parce qu’elle prévoyait des indemnisations non satisfaisantes. Le Conseil se justifia à l’époque par l’article XVII de la déclaration des droits de l’homme et du citoyen. Résultat : la seconde loi, validée par le Conseil Constitutionnel, a prévu une indemnisation plus importante. L’article 5 de la Loi n°82-155 du 11 février 1982 fixe la méthode suivante : On calcule une sorte de moyenne ajustée du cours de bourse sur les derniers mois On ajoute le dividende par action versé l’année précédente (en l’occurrence 1980) On ajoute 14% au nombre obtenu. Nous avons fait le calcul pour 2010, avec le cours actuel et le dividende 2008. Cela donne la somme astronomique de 120,581 milliards d’euros, pour acquérir la totalité du Groupe Total, et la moitié pour devenir actionnaire majoritaire. Or dans une nationalisation, il faut proposer le rachat d’actions à tous les actionnaires.
3_ Samedi 16 janvier 1982 - Décision N° 81-132 DC du Conseil Constitutionnel
« La propriété étant un droit inviolable et sacré, nul ne peut en être privé, si ce n’est lorsque la nécessité publique, légalement constatée, l’exige évidemment, et sous la condition d’une juste et préalable indemnité. »
Déclaration des droits de l’homme et du citoyen du 26 août 1789, article XVIII4
4_ De même, ce texte a valeur constitutionnelle.
En 2008, l’année où Total a fait la une des médias pour avoir réalisé le plus gros profit jamais enregistré par une entreprise française, les dividendes distribués ont été de 5 354 404 176 euros. Donc si l’Etat payait les 120 milliards nécessaires, il pourrait espérer toucher environ 4 milliards de dividende par an. Soit un investissement rentable au bout d’une trentaine d’années environ ! Et c’est logique, puisque sur le marché financier, les acteurs évaluent une action à partir des dividendes qui devraient être versés dans le futur. Simplement, à la différence d’un Etat, leur horizon est en général compris entre trente et cinquante ans. Autrement dit, ils ne tiennent compte que des dividendes des trente prochaines années, parce que plus tard… Alors que l’Etat, qui a une durée de vie infinie, peut espérer des profits sur plusieurs générations. Jeune République _"L’Etat face à l’échec du marché"_23
5_ Le chiffre se trouve par exemple dans Les Echos, « Christine Lagarde : pas question de plomber les banques françaises » 18 octobre 2009
Cela veut dire que l’Etat ne pourrait pas se permettre d’utiliser la totalité du profit de Total pour investir, par exemple, dans les énergies vertes, comme cela a pu être dit. Et il faut savoir que l’Etat se comporte comme un actionnaire normal. Autrement dit, il réclame autant de dividendes que les actionnaires privés, soit environ 60% du profit en 2009 (un pourcentage supérieur à la moyenne des années précédentes)5. Donc l’Etat disposerait finalement du même montant que Total pour investir, et même sans tomber dans le cliché de la mauvaise gestion publique, on peut difficilement admettre que l’Etat ferait un meilleur usage de cet argent. En 2008, Total a d’ailleurs investi 13 milliards d’euros, soit autant que ses profits. Le reproche consistant à dénoncer des investissements trop centrés sur le pétrole a peu de sens tant que l’essence à bas prix reste un élément fondamental du pouvoir d’achat des consommateurs. Par ailleurs, Total sait qu’il faudra investir dans les énergies vertes et préparer l’après-pétrole, pour des raisons de rentabilité. Si l’on souhaite inciter Total à investir plus dans les énergies vertes, des mécanismes plus généraux comme des déductions fiscales sur les investissements « verts », ou une politique de développement des transports publics, sont a priori suffisants.
Un profit acceptable ? De fait, dans le débat public, l’idée de nationaliser Total est essentiellement née en réaction aux profits incroyables réalisés par l’entreprise. Presque 14 milliards de profit en 2008 (année exceptionnelle, le profit est retombé à 8 milliards environ en 2009)… Pour ne pas perdre tout repère, il faut tenter de contextualiser. Le profit représente 7,76% du chiffre d’affaires du groupe, qui emploie presque 100 000 personnes dans le monde. En fait, Total est une entreprise très rentable, en particulier dans les périodes où le pétrole est cher. Mais c’est surtout sa taille qui lui donne de la visibilité. Rapporté au chiffre d’affaires, le profit n’est pas si impressionnant que cela.
6_ On note que le profit 2009, de « seulement » 7,78 milliards, n’est pas digne de figurer sur le site en avril 2010…
Les résultats du groupe Total Pourtant, ce profit semble scandaleux. Il suggère, et une partie de la gauche n’a pas manqué source : www.total.fr6
24_ "L’Etat face à l’échec du marché"_ Jeune République
de le souligner, l’image d’un groupe assis sur un tas d’or et qui compte son argent pendant que l’économie française est en difficulté. Et dès lors, toute décision d’économie prise par Total sur le sol français devient insupportable, parce que systématiquement rapportée à ce chiffre d’une dizaine de milliards. Fermer une raffinerie pour économiser quelques millions ? Ne pas baisser les prix à la pompe ? Ne pas indemniser les plages touchées par l’Erika… Sur ce point, une remarque s’impose. Il est permis de penser qu’un groupe Total nationalisé ne pourrait pas atteindre un tel profit, parce qu’il serait soumis à des pressions trop importantes. L’Etat propriétaire ne pourrait probablement pas supporter le fardeau moral que représente un profit de dix milliards. Il devrait certainement « adoucir» sa stratégie en Afrique et ailleurs, proposer de l’essence à prix réduit, s’imposer de maintenir l’emploi en France. Ces objectifs sont légitimes, et peuvent faire regretter la privatisation des grands groupes, voir s’interroger sur la nécessité de les soumettre à ce processus. Mais ils ne peuvent être exigés aux groupes privés, ceux-ci étant valorisés sur les marchés financiers en fonction du profit qu’ils réalisent et non en fonction de leur utilité sociale.
« Un groupe Total nationalisé ne pourrait pas atteindre un tel profit. »
Cela dit, il y a tout de même du vrai dans l’idée que le profit réalisé par Total n’est pas « normal ». En économie, un profit anormal, c’est une rente. Contrairement aux profits, qui rémunèrent les actionnaires parce qu’ils ont apporté du capital, une rente ne rémunère pas une contribution à la production. C’est une récompense due à une situation favorable et rare (comme celle d’un monopole). C’est donc une récompense injustifiée économiquement. Elle est la principale justification du combat des libéraux en faveur de la concurrence. Le droit français prévoit cette situation, et ce au moins depuis la constitution de 1946 :
« Tout bien, toute entreprise, dont l’exploitation a ou acquiert les caractères d’un service public national ou d’un monopole de fait, doit devenir la propriété de la collectivité. » Préambule de la constitution de 19467, article IX Total n’est pas en situation de monopole pur. Il a des concurrents. Mais il dispose bel et bien d’une rente, qui peut être interprétée comme une sorte de dette envers l’Etat français. En effet, Total est l’héritier de la vieille Compagnie Française des Pétroles, fondée en 1924. Et encore aujourd’hui, le groupe bénéficie de la politique de puissance menée dans les années 1920. La France, alors première puissance militaire du monde, décide du partage du pétrole mondial avec les autres puissances, la Grande-Bretagne notamment. La puissance de groupes comme BP (British Petroleum) ou Total est incompréhensible sans cette référence. L’Allemagne a perdu la Première Guerre Mondiale, c’est pour cette raison qu’elle ne dispose pas de grand groupe pétrolier. Total a hérité d’accords d’exploitation décennaux, souvent signés sous pression militaire, puis renégociés au fur et à mesure de la décolonisation. L’entreprise dispose donc d’une part de la rente pétrolière mondiale, qui fait vivre la plupart des pays du Golfe, le Venezuela, et en partie la Norvège.
7_ Le préambule de la constitution de 1946 fait partie de la constitution de 1958, l’article IX a donc encore aujourd’hui valeur constitutionnelle, bien qu’il ne soit pas souvent rappelé, au contraire d’articles d’inspiration plus libérale.
Source : graphique réalisé avec des données Euronext, Total.com, Lefigaro.fr Jeune République _"L’Etat face à l’échec du marché"_25
En ce sens, Total est un monopole parce que personne d’autre ne peut exploiter le pétrole obtenu par le biais d’une distorsion de la concurrence déterminante au moment de sa création. Plus précisément, le groupe français fait partie d’un oligopole mondial, aux côtés d’autres grands groupes pétroliers. Comme il y a un nombre limité de champs pétrolifères, quand le cours du brut monte, les exploitants récupèrent la différence entre leurs coûts et le prix du baril. Evidemment, la faiblesse de la concurrence empêche une répercussion à la baisse sur les prix. Les contrats d’exploitation engagent les parties pour des décennies, et l’industrie pétrochimique exige des capitaux astronomiques. Pas question donc pour un « petit » de venir perturber les « grands ». En 2008, quand le pétrole était au plus haut, ExxonMobil a donc logiquement enregistré un profit de 35 milliards d’euros, et BP un profit de 20 milliards…8
« Le groupe français fait partie d’un oligopole mondial. »
8_ Alternatives Economiques n°278, mars 2009, « Profits : faut-il taxer Total ? »
A l’intérieur du profit de Total, il faut donc distinguer deux éléments. Une partie du profit relève de la réussite économique incontestable de l’entreprise. Une autre partie, que l’on pourrait estimer en regardant l’impact du cours du pétrole sur les profits, est due à une rente de situation. C’est sur cette partie, et cette partie « seulement », qu’il pourrait être légitime d’envisager une taxe exceptionnelle reversée à l’Etat français qui en est à l’origine. Pour le reste, tenter de mettre la main sur le profit de Total – simplement parce que ce profit est impressionnant – ne peut être défendu sans une remise à plat intégrale de la notion de profit et des interactions entre sphères politiques et économiques. Il serait en effet injuste de faire payer à Total sa visibilité, sans s’attaquer dans le même temps à tous ceux qui se trouvent dans une situation similaire mais qui, par la confidentialité de leur marché ou de leurs activités, ne sont pas soumis à la même pression sociale.
Le problème de la rente Supposons donc que le gouvernement décide d’imposer une taxe sur la partie « rentière » du profit de l’entreprise. Le « problème Total » devient alors très classique, académiquement parlant. Qu’est-ce qui relève de la rente, et comment le séparer exactement du profit normal ? Ne vaut-il pas mieux laisser Total disposer de sa rente, afin de permettre au groupe d’investir massivement ? En effet, ces investissements en font un producteur efficace, ce qui permet à l’entreprise de renouveler ses contrats, et donc de maintenir sa rente. D’autre part, une petite partie de ces investissements est consacrée aux énergies renouvelables, et la France pourrait bénéficier de l’existence d’un grand groupe national dans ce domaine, ayant à sa disposition une grande force de frappe financière et commerciale. Pour résumer, il y a des usages efficaces d’une rente. Une entreprise intelligente ne peut maintenir sa position qu’en utilisant sa rente dans une perspective de long terme, et certainement pas en la dilapidant inefficacement. A l’intérieur de la rente, il faut donc encore distinguer ce qui est un usage illégitime, et ce qui est un usage légitime. Les Anglo-Saxons désignent le premier par le terme de « rent-seeking ». Cela désigne une rente qui ne sert qu’à s’entretenir. C’est le cas par exemple de dépenses de corruption ou d’influence, qui viseraient à éliminer la concurrence. C’est aussi le cas de dividendes aberrants par rapport au marché. Or sur ce dernier point, Total est une entreprise « normale », au sens où la part des profits redistribués aux actionnaires correspond à peu près à la part moyenne du Cac 40. Donc finalement, comment mettre à la disposition du citoyen français les sommes relevant de la rente, comme le réclame le préambule à la Constitution de 1946 ? L’exercice est très difficile dans la mesure où comme beaucoup de « champions » du Cac 40, Total réalise une grande partie de ses profits à l’étranger. C’est même l’une des entreprises les plus globalisées au monde. Malgré cela, Total est un groupe français, et l’on est en droit d’estimer que la politique industrielle de la France, qui consiste à soutenir quelques leaders mondiaux (Total, Areva, EDF…), doit avoir des contreparties. On pourrait donc imaginer un système de taxation centré sur les prix du pétrole brut. Entre 2000 et 2002, l’Etat, autre grand bénéficiaire du tout-pétrole à travers la TIPP9, avait mis en place un mécanisme flottant. Le montant de la taxe variait en fonction du prix du pétrole, afin que le prix à la pompe ne décolle pas en période de hausse du cours des matières premières. Pour taxer le groupe Total, le mécanisme serait inversé : les taxes sur les profits du groupe augmenteraient à mesure que le cour du pétrole monte. Ainsi, les profits ne pourraient plus être fondés que sur une véritable efficacité économique, et non sur des mécanismes spéculatifs faisant fluctuer le cours des matières premières.
« On pourrait donc imaginer un système de taxation centré sur les prix du pétrole brut » 9_ Taxe Intérieure sur les Produits Pétroliers
26_ "L’Etat face à l’échec du marché"_ Jeune République
Sur le plan juridique, il faut signaler que le « principe d’égalité » impose évidemment qu’un tel mécanisme s’applique à toutes les entreprises du secteur. Or elles ne sont pas toutes basées en France, ce qui risque de créer une inévitable distorsion. Taxer Total sur des profits réalisés à l’étranger, et les groupes étrangers uniquement sur l’assiette de leurs activités en France (Total n’a que 34% de ses activités en France), est en effet difficile. Bref, il y a un risque que le principe d’égalité et le respect de la concurrence rendent de tels mécanismes inapplicables. A moins que le projet ne soit entériné à l’échelle européenne, ce qui affaiblirait les groupes pétroliers dans la bataille juridique, en détruisant l’argument de la compétitivité nationale. Pourtant, l’appropriation des rentes par la collectivité est un enjeu important. Dans un monde où la consommation des pays émergents explose, la demande de matières premières risque de provoquer des tensions qui pourraient amener les prix à augmenter, et surtout à devenir plus volatiles. Eviter que cela ne bénéficie qu’à quelques-uns est un objectif louable. Sur le plan international, on ne peut pas empêcher les pays les mieux dotés en ressources naturelles de bénéficier de rentes. Mais la distribution de ces rentes à l’intérieur de chaque pays doit encore être régulée. Nationaliser Total n’est pas, dans le contexte actuel, la bonne méthode, surtout alors que les besoins en trésorerie de l’Etat et les taux d’intérêt creusent le déficit de façon abyssale. Une nationalisation est une décision fondamentale, obéissant à une conception précise du rôle de l’Etat. Elle n’aurait de sens que dans le cadre d’une politique globale réfléchie, qui viserait à inscrire l’Etat comme régulateur et maître d’un ou plusieurs secteurs économiques. On pourrait le déplorer, mais la crise ne semble pas avoir provoqué une remise en cause des rapports entre Etat et marché. Dès lors, une nationalisation sanction, isolée et symbolique, qui punirait Total de ses profits excessifs, serait une double erreur : comme toute décision prise de façon réactive, sans plan global, elle ne changerait probablement rien à la situation économique des Français. Et elle serait comprise par le marché comme une sanction contre les entreprises rentables, et donc comme une incitation à ne pas investir dans les entreprises françaises les plus rentables. De plus, les financiers étant ce qu’ils sont, leur perception de la France ferait un bond en arrière, vers l’époque où les grèves à répétition étaient considérées comme un risque politique comparable à celui de l’Egypte socialiste, vers l’époque où les plus riches tentaient de faire passer leurs économies à l’étranger quand la gauche montait dans les sondages.
« Nationaliser Total n’est pas, dans le contexte actuel, la bonne méthode. »
Dans l’attente d’une remise en cause fondamentale du système, qui ne pourrait s’effectuer au simple niveau national, il faut donc trouver d’autres formes si l’on souhaite s’attaquer au profit du groupe Total. Trois chantiers sont à envisager. La première piste de réflexion est nationale, c’est la question de la rente et de la capacité des collectivités à obtenir une part des bénéfices dues à ces situations profitables – comme autres exemples, on cite souvent les autoroutes, ou encore l’eau et le gaz. La seconde piste est mondiale, elle concerne le comportement des multinationales dans les pays les plus pauvres, souvent dénoncées par les ONG mais sans grand effet à l’heure actuelle. La troisième est à la fois interne à l’entreprise et nationale. Il s’agit de réfléchir à la violence des rapports de domination économiques et sociaux, qui fait que les actionnaires et les plus hauts dirigeants d’une entreprise présentant 10 milliards de profit ne se sentent pas obligés de préserver l’emploi en France, d’élever le salaire des petits employés et des cadres moyens et d’adopter ne serait-ce qu’un discours plus compréhensif et mesuré en faveur d’une certaine équité, ne serait-ce qu’au niveau interne. Fabien Hassan est étudiant à l’Ecole normale supérieure-Ulm.
Jeune République _"L’Etat face à l’échec du marché"_27
Le marché carbone : échec définitif ou étape nécessaire ? par Lucas Chancel Le marché carbone est désormais une réalité mais continue de susciter les critiques. Certains mettent en avant son inefficacité (allocations initiales trop élevées, prix du carbone trop faible), d’autres refusent sa logique même (marchandisation de l’environnement sous la pression d’intérêt privés). Le piratage informatique dont ont été victimes les opérateurs en février dernier a remis de l’huile sur le feu. Si le marché du carbone est critiqué, faut-il pour autant souhaiter son abandon ?
Cet article présente les principaux points de la controverse et donne des clefs de compréhension pour comprendre la vraie nature de ce marché atypique. Il est suggéré que la gauche et l’écologie politique gagneraient à une lecture différente de ce système, qui amorce en réalité une transformation radicale des rapports entre économie, politique et environnement. D’importants ajustements sont toutefois nécessaires. Le système communautaire d’échange de quotas d’émission de CO2 (SCEQE) nait de la directive européenne 2003/87/CE. Les industries du secteur de l’énergie, des métaux ferreux, des minerais et des fabriquant de ciment, verre, briques et papier sont initialement soumises au système. L’élargissement du système à d’autres secteurs (l’aviation par exemple) est prévu pour la troisième période, démarrant en 2012. Sur sa première période (2005-2007), le marché carbone a permis d’éviter entre 120 et 300 millions de tonnes de CO2.
La taxe ou le marché ? En théorie économique, les avantages et inconvénients de la taxe carbone face au système d’échange de quotas sont bien établis. Alors que la taxe permet d’avoir une certitude sur le prix du carbone, ne donnant aucune certitude sur la quantité effectivement émise par les pollueurs, le marché permet de fixer la quantité de pollution tolérée, en laissant toutefois la fixation du prix au jeu des acteurs du marché. 28_ "L’Etat face à l’échec du marché"_ Jeune République
Du point de vue du coût pour l’ensemble des pollueurs, la théorie économique nous dit qu’il n’y a strictement aucune différence entre les deux systèmes. Dans les deux cas, l’entreprise polluante réduira sa pollution tant que cela lui coutera moins cher que de payer la taxe ou d’acheter un quota. Initialement, il est relativement peu cher de réduire ses émissions. Au fur et à mesure que de nouvelles machines moins polluantes sont installées, que le pollueur devient plus efficace, réduire la pollution est de plus en plus coûteux. Quand le coût marginal de réduction de la pollution se rapproche et finit par devenir équivalent au coût de la taxe ou du quota, l’entreprise préférera payer la taxe ou acheter un quota que d’investir pour réduire ses émissions. Le problème de la taxe est qu’elle ne s’adapte pas (sauf si elle est revue en permanence) aux innovations technologiques et à la conjoncture économique. Dans les périodes d’expansion ou de croissance, les pollueurs auront tendance à polluer beaucoup plus. En période de conjoncture défavorable, la taxe peut plomber certaines industries. A l’heure actuelle (les quotas étant distribués gratuitement), le SCEQE garantit la compétitivité de l’industrie.
Quels arguments contre le marché ? Les critiques du marché carbone prennent deux formes : celles qui s’attaquent à la logique intrinsèque du marché, celles qui critiquent l’incapacité su système à atteindre ses objectifs. En présence d’externalité, et dans le cas général dans tout marché du monde réel, la loi de l’offre et de la demande aboutit à la formation d’un prix qui ne reflète que de manière incomplète la valeur que la société attribue a tel ou tel bien. De plus, le marché est le lieu des intérêts privés, dont la somme ne correspond pas à l’intérêt général. Cette critique s’inscrit dans un critique plus large de l’économie capitaliste. Une deuxième critique est liée à l’application de la logique marchande à l’environnement. Le marché du carbone, en monétarisant la pollution, la rendrait « acceptable » (mais qu’en est-il dans la situation actuelle ?). De plus, il permettrait à certains pollueurs de profiter de la pollution, en spéculant sur une baisse ou une hausse des prix, en développant des outils financiers permettant de créer de la valeur sur l’anticipation du mouvement des cours du prix du carbone. Les arguments pratiques contre le marché carbone tombent dans deux catégories. Le niveau global d’émission aurait été mal fixé. Le prix résultant du carbone est trop faible. On a ainsi vu au cours de la première période un prix ridiculement bas (la tonne est passée sous le seuil des un euros). Acceptable ou inacceptable sur le plan éthique, le marché ne parviendrait pas à ses objectifs : une réduction substantielle des émissions.
Flickr - Creative Commons licence photo credit Michael P. Whelan
Jeune République _"L’Etat face à l’échec du marché"_29
Un marché atypique. Il semble que les arguments « éthiques » oublient un point fondamental, le marché carbone n’est pas un marché comme les autres, en ce qu’il est régulé par le haut. Il n’existe presque pas d’autres exemples de systèmes économiques où la quantité du bien a échanger est limité par la puissance publique. Une lecture inverse du système semble alors possible: le marché carbone fait rentrer l’économie dans la sphère environnementale en lui imposant des limites choisies par le politique. Le régulateur peut contrôler les acteurs du marché. Il peut aussi prélever de l’argent en vendant les quotas, pour financer des politiques de redistribution.
Supprimer ou approfondir le marché carbone ? Le régulateur (la commission européenne) a pris la mesure de l’échec des Programmes Nationaux d’Allocation des Quotas (PNAQ). Ainsi, pour les prochaines périodes, le niveau global sera définit par la commission et l’allocation par sur la base de formules mathématiques. Par ailleurs, alors que le nombre de quota sera réduit linéairement après 2012, une partie grandissante des quotas sera mise aux enchères. Toutefois, le niveau global d’émissions devrait être publicisé, et faire l’objet d’un débat et d’un vote devant une assemblée élue démocratiquement. Le parlement européen pourrait se saisir de la définition du montant global à émettre. De plus, la quantité de quotas émis aux enchères est trop faible : pour générer des fonds conséquents capables de financer des investissements pour lutter contre le changement climatique, il faudrait que la plus grande partie des quotas soient vendus. Une procédure de fixation du montant global transparente et démocratique limitant l’effet des lobbyistes industriels et la vente de la majorité des quotas amorcerait un changement radical des relations entre économie et environnement. L’environnement dicte la voie au politique, qui contrôle les règles dans lesquelles le marché (à comprendre ici comme un outil de réduction d’émission) peut exister. En conclusion, il est nécessaire de rappeler que le marché n’est qu’un outil, insuffisant face à l’ampleur de la transformation sociale et économique requise. Des investissements publics colossaux sont nécessaires pour permettre une baisse de la consommation d’énergie (et d’autres biens), des investissements dans les transports, le renouvelable, l’efficacité énergétique. Mais ceci n’empêche en rien l’établissement d’un marché carbone, qui pourrait, à condition que les quotas soient vendus, générer des revenus capables de financer de tels investissements. Lucas Chancel est étudiant à SciencesPo et à la London School of Economics
Flickr - Creative Commons licence photo credit Ben Heine
30_ "L’Etat face à l’échec du marché"_ Jeune République
L’ACTION PUBLIQUE ET LES TERRITOIRES: l’Etat peut-il jouer encore un rôle de pilote? par Jonathan Martins Flins, Saint-Chamond… deux villes qui au cours des mois passés se sont retrouvées sous les lumières médiatiques. Ces deux noms ont pour point commun de symboliser la crise sociale que nous traversons actuellement et qui frappe plus sévèrement les territoires ayant un socle industriel ancien (très sensible à la concurrence internationale qui plus est). Ces noms incarnent aussi l’action de l’Etat - notamment de l’Elysée - qui leur offrit un traitement spécifique (on se souvient tous de la ‘’convocation’’ de Carlos Ghosn avenue Marigny…). En ces temps de crises économique et sociale, il semble que l’Etat endosse avec plus de vigueur son rôle traditionnel de pilote que l’ère néolibérale des années 90 et 00 avait mis à mal. Son rôle d’investisseur keynésien contra cyclique a été ressorti des tiroirs sous la forme d’un plan de relance, doté d’un ministère du même nom. On pourra toutefois rétorquer que dans le fond, cet Etat ‘’retrouvé’’ n’a joué qu’un rôle d’intermédiaire dans les conflits sociaux, notamment à travers l’envoi de médiateurs. Cette action n’a pas empêché la tournure violente de certaines situations (séquestration de patrons, menaces de faire exploser les usines…). A la lumière de ces divers exemples et de l’histoire de l’action économique de l’Etat, on est nécessairement conduit à se demander si celui-ci peut encore jouer véritablement un rôle de pilote pour nos territoires qui, il faut le souligner, ne démontrent pas tous la même réactivité face aux crises économiques et sociales.
Remarque liminaire : dans l’appellation Etat, il faut comprendre l’Etat central et ses services déconcentrés. Quand il s’agira de l’Etat décentralisé, il y sera fait spécifiquement référence. Tout d’abord, il convient de rappeler que la mondialisation, notamment par l’intermédiaire de ses têtes de pont que sont les firmes multinationales (FMN) a profondément reconfiguré au cours des 40 dernières années le rôle des Etats et de l’action publique dans l’économie. Plus précisément, les années 70 ont marqué une rupture avec la montée en puissance des Etats post-fordistes néolibéraux. Le stress fiscal (la France n’a plus voté un budget en équilibre depuis 1974), les privatisations, la libéralisation progressive de certains marchés, la concurrence internationale… sont autant de facteurs explicatifs et de signes de cette transformation de l’Etat. L’ampleur de l’action publique dans l’économie, symboliquement représentée par le Commissariat Général au Plan1 en France, depuis supprimé, en a été grandement réduite. Institutionnellement parlant, le rôle du Plan est plus ou moins assuré aujourd’hui par le CAS – Centre d’Analyse Stratégique – qui ne remplit toutefois qu’une fonction d’information et de conseil auprès du Premier Ministre, alors que le Plan préparait les plans quinquennaux, ces outils que le Général de Gaulle considérait comme « une ardente obligation ».
1_ Le Commissariat Général au Plan avait été créé par décret du 3 janvier 1946, signé par le Général de Gaulle.
Jeune République _"L’Etat face à l’échec du marché"_31
Au cours des vingt dernières années, la confirmation et l’expansion exponentielle d’un capitalisme quasi a-géographique, concentré dans quelques lieux symboliques comme le Square Mile à Londres, la pointe Sud de Manhattan ou encore les paradis fiscaux, plus apparentés à des non-lieux entre les mains d’une élite transnationale, a pu nous faire croire à un possible divorce entre l’économie et le territoire. Ce vieux rêve, notamment repris par les plus fervents et utopiques supporters de la dématérialisation de l’économie, avait trouvé une certaine forme d’expression dans l’économie moderne, basée sur les NTIC et les flux internationaux de capitaux. Que l’on se rassure toutefois, la sphère économique ne pourra jamais s’affranchir complètement de son ancrage territorial et de la matérialité géographique. Le territoire est en effet source de contraintes mais aussi, et surtout, de valeur ajoutée pour l’ensemble des processus économiques.
« Le territoire est en effet source de contraintes mais aussi, et surtout, de valeur ajoutée pour l’ensemble des processus économiques. »
Incontestablement, l’époque des grandes politiques industrielles marquée par des grands noms comme Charbonnages de France, Péchiney, Lyonnaise des Eaux… est révolue. Les privatisations successives, la libéralisation des marchés, notamment dans les industries de réseaux, l’internationalisation de ces groupes - dont les effets se renforcent mutuellement avec la logique de l’actionnariat -, les grandes manœuvres de restructuration dans certains secteurs (énergie, transports)… ont contribué à tourner la page de l’Etat industriel, au sens le plus classique du terme. Parallèlement, l’Etat a conduit les territoires, notamment les régions, à travers les vagues de décentralisation, à se retrouver un peu seuls face à ces nouvelles réalités. J’appellerais ce phénomène « le divorce des échelles ». Au cours d’une période où l’économie transcendait de plus en plus les limites géographiques, la gestion du développement économique a été progressivement translatée vers une échelle institutionnelle plus petite. Je ne rappellerai pas non plus la position de l’Etat vis-à-vis des principales métropoles régionales qui, bénéficiant du régime de communauté urbaine, se sont retrouvées aussi, et ce avec plus de vigueur encore, à tenter de tutoyer les forces économiques, et notamment les décisions de délocalisation/relocalisation et de restructuration des firmes multinationales. Je reviendrai sur les effets de la décentralisation plus tard. L’Etat ne serait-il alors plus qu’un copilote avec pour simple outil « une carte avec quelques indications » ?
2_ Rapport au Premier Ministre, intitulé « Pour un écosystème de la croissance », Mai 2004 3_ Les pôles de compétitivité ont été lancés en 2005 par la DIACT – Délégation Interministérielle à l’Aménagement et à la Compétitivité des Territoires, redevenue DATAR par décret du 14 décembre 2009. La DIACT était née sur les restes de l’ancienne DATAR – Délégation à l’aménagement du territoire et à l’action régionale.
Les affirmations ci-dessus peuvent sembler un peu fortes en effet. La situation est beaucoup plus complexe que cela. Il semble qu’une tendance inverse s’amorce depuis quelques années, notamment en réponse (en opposition ?) à la vague dérégulatrice des années 90. Cette nouvelle politique industrielle, que l’on pourrait qualifier de seconde génération, revêt un caractère particulièrement crucial pour les territoires puisqu’elle s’appuie principalement sur les 67 pôles de compétitivité créés en 2005. L’idée de base, bien connue, s’articule autour de théories développées par l’économiste anglais Alfred Marshall. La réunion dans un espace géographique restreint de différents acteurs d’un même champ économique doit stimuler l’innovation et soutenir la croissance. En d’autres termes, les externalités produites par le simple fait de la présence de ces acteurs sont une source de croissance. Assez classiquement, le rôle de l’Etat consiste à favoriser le rapprochement des entreprises, des centres de recherche, des universités, des centres de formation… autour d’une thématique commune. Christian Blanc, actuellement le Monsieur Grand Paris, avait dénommé cela « l’écosystème de croissance », basé sur son rapport2 éponyme de 2004. Cette démarche a la double faculté de renforcer la capacité d’innovation de l’économie française et d’augmenter la productivité et la compétitivité de nos territoires. Développement territorial et aménagement du territoire se retrouvent et se complètent au cœur de cette politique. De façon intéressante, ce processus est piloté par la DATAR3 – Délégation Interministérielle à l’Aménagement et à la Compétitivité des Territoires. Le nom de cette institution porte en soi l’intéressante mais intrigante double nature cette nouvelle politique industrielle. Il marque en effet une rupture fondamentale et profonde du mode discursif de l’action étatique sur les territoires. Cette rupture prend forme aussi dans la restructuration de l’action de l’Etat en matière d’accompagnement des entreprises. L’année 2005, outre les pôles de compétitivité déjà abordés, a vu la création de plusieurs structures importantes. Tout d’abord, la SA Oséo-Anvar a été créée afin de soutenir le développement des PME qui, comme chacun le sait, sont fondamentales pour les territoires et pour leur cohésion. Elles constituent très souvent un tissu d’industries et de services dense et diversifié qui offre de très nombreuses perspectives pour le capital humain qui est relativement peu flexible, en raison des coûts de transaction considérables associés à une plus grande flexibilité. De plus, l’ANR – Agence Nationale de la Recherche – a été créée afin de soutenir et d’accompagner les efforts de recherche et développement (R&D) des entreprises. Enfin, l’AII – Agence d’Innovation Industrielle – a elle
32_ "L’Etat face à l’échec du marché"_ Jeune République
aussi été créée avec pour objectif principal de guider les efforts de R&D des entreprises. En d’autres termes, l’idée est de faire en sorte que l’investissement lié à la R&D s’oriente de plus en plus vers des secteurs de marché peu soumis à la forte concurrence internationale afin de protéger les entreprises françaises, d’une part, et de générer un certain nombre d’éléments différenciateurs de l’économie française, d’autre part. Cela doit notamment favoriser l’expansion des PME innovantes, souvent confrontées à des problèmes structurels quand il s’agit d’atteindre une taille critique et une capacité d’exportation. Cette restructuration, comme je l’évoque plus haut, apparaît comme le symbole d’un changement du mode discursif. En effet, on sent bien à travers ces diverses créations que l’Etat souhaite jouer de nouveau un rôle leader pour le secteur industriel. Il utilise pour cela un instrument de politique publique très puissant qui n’est autre que le bras financier. Mais cette façon de procéder ressemble en certains points à ce que Renaud Epstein appelle le « gouvernement à distance »4 (il développe cette notion dans le cadre de la politique de la ville). Bien que cette restructuration signifie aussi reprise en main par l’Etat, en réalité, cette notion de distance apparaît dans l’idée que le lien entre local et central, dont les rouages sont les élus locaux et l’huile, le cumul des mandats, est distendu, pour ne pas dire rompu, par la création d’agences publiques, bureaucratiques, dont les mécanismes de distribution des fonds publics sont basés sur ce que les anglo-saxons nomme le competitive bidding. Cette dernière notion fait référence au fait que les territoires – collectivités locales – sont en compétition entre elles et doivent présenter des projets répondant à un cahier des charges défini par l’agence en
4_ Renaud Epstein, ‘Gouverner à distance. Quand l’Etat se retire des territoires’, Revue Esprit, Novembre 2005.
Flickr - Creative Commons licence photo credit Jakob Montrasio
Jeune République _"L’Etat face à l’échec du marché"_33
question. C’est en fonction de cela que sont ensuite répartis les deniers publics. Cette prise de distance dans la gouvernance incarne aussi l’évolution discursive en cela qu’elle consacre un changement paradigmatique pour les territoires. En effet, d’un mode discursif où la compétitivité était le maitre-mot, représentant à elle seule le tournant néolibéral des années 90, on est passé à une omniprésence de la notion d’attractivité. On ne parle plus que du pouvoir attractif d’un territoire. A titre d’exemple, les théories de l’économie résidentielle défendues par un économiste comme Laurent Davezies trouvent parfaitement leur résonance dans le mode discursif fondé sur la notion d’attractivité. C’est comme s’il ne s’agissait plus vraiment d’être compétitif mais uniquement d’être attractif, la main invisible de l’économie faisant le reste… Cela témoigne aussi de la faiblesse de l’Etat face aux forces économiques, et a fortiori de l’Etat décentralisé. Pourquoi ? Améliorer la compétitivité d’un territoire implique d’être un acteur transversal, pour pouvoir éventuellement mettre en œuvre des moyens humains et financiers aidant les entreprises à être plus compétitives. On peut penser pêle-mêle à la mise en place de politiques de formation ambitieuses, de plate-forme de prospection commerciale à l’international, d’accompagnement de l’investissement… A contrario, l’attractivité fait penser à un jeu de séduction entre le territoire et ses institutions publiques d’une part, et les entreprises et investisseurs d’autre part. Elle suggère aussi que l’action publique est orientée de façon à créer les conditions de la croissance, et pas vraiment la croissance en elle-même. Cela suffit-il, l’Etat doit-il voir circonscrit son rôle à cette mission ?
« D’un mode discursif où la compétitivité était le maitremot, représentant à elle seule le tournant néolibéral des années 90, on est passé à une omniprésence de la notion d’attractivité. »
Il faut revenir un peu plus longuement sur l’action publique en faveur des PME, ce que les Allemands nomment le Mittelstand. Au delà des évolutions précédemment analysées, le tournant de 2005 traduit aussi une évolution profonde de l’échelle d’action. L’ère des grandes entreprises nationales consacrait l’action publique « mastodonte », partant du haut de l’appareil productif. Désormais, l’Etat s’attaque à ce qui constitue une opportunité d’avenir : les PME. C’est aussi ce qui est communément considéré comme un des principaux clivages entre les économies allemande et française. Les faiblesses structurelles du Mittelstand français (difficultés de croissance, niveaux d’investissement en Recherche et Développement plus bas, difficultés à exporter et à conquérir les marchés internationaux,…) ont poussé l’Etat à diversifier et à intensifier son accompagnement au cours des différentes phases de croissance de ces entreprises. De façon indirecte, cette action a un rôle important pour les territoires car ces entreprises fixent les populations sur les territoires et constituent un moteur puissant, démontrant un pouvoir d’entraînement significatif, pour l’économie locale. De plus, si l’on raisonne en termes de convergence territoriale, certains territoires bénéficient de niveaux bien plus bas en matière d’investissement de la part des grands groupes et peuvent donc ainsi gagner en dynamisme par l’intermédiaire de leurs PME. L’Etat se doit par conséquent d’accompagner avec encore plus de force les acteurs économiques de ces territoires, car il en va très certainement de la survie de ceux-ci. 5_ Sans vouloir être exhaustif sur les modalités d’intervention de l’Etat central, on peut juste faire référence à l’existence de l’EPASE (Etablissement public d’aménagement de Saint-Etienne) et de l’EPORA (Etablissement public foncier de l’Ouest Rhônalpin).
A titre d’exemple, on peut penser à la ville de Saint-Etienne qui perdait de la population à la fin du siècle dernier mais qui depuis connaît une situation meilleure en raison de l’action conjointe des collectivités locales et de l’Etat qui intervient massivement, notamment par l’intermédiaire de plusieurs établissements publics5. La région métropolitaine stéphanoise propose un tissu industriel dense, essentiellement composé de PME. Ces dernières bénéficiaient auparavant de l’effet d’entraînement des grands groupes présents sur ce bassin minier. Aujourd’hui, ces entreprises doivent se diversifier, innover, se réorienter afin de faire face à la compétition internationale et à la désindustrialisation de la région (cette dernière a toutefois commencé il y a déjà quelques années). Ainsi, l’accompagnement précédemment évoqué prend réellement tout son sens. De plus, ces entreprises démontrent très souvent un attachement territorial très fort, un ancrage géographique qui, en partie, fonde leur identité. L’histoire de l’entreprise très souvent constitue les racines de cet attachement affectif. Le conserver et le cultiver doivent constituer deux des objectifs prioritaires de l’action publique. En outre, le territoire, en tant que vecteur identitaire, peut assurément être considéré comme une valeur ajoutée pour les entreprises. Les hommes, au sens noble du terme, cette force de travail, sont aussi une valeur ajoutée et une raison d’exister pour l’entreprise. Agir sur les hommes apparaît d’ailleurs comme une sortie du mode traditionnel de l’action publique qui tend d’abord à privilégier le territoire aux dépens de l’humain. Les entreprises ont besoin de trouver et d’avoir accès aux ressources humaines dont dépend leur
« Les logiques locales, naissant pour grande part de l’architecture institutionnelle et administrative de notre pays, l’emportent bien trop souvent sur la raison. L’Etat doit être le pilote qui doit démontrer l’absurdité des logiques de clocher. »
34_ "L’Etat face à l’échec du marché"_ Jeune République
croissance. C’est là un champ d’action où l’Etat pourrait jouer un rôle de pilote bien plus efficace qu’il ne le fait actuellement… Les territoires, notamment les régions, tentent de répondre à ce défi à travers la compétence en matière de formation professionnelle. Le travail fin effectué au niveau local, au plus près des entreprises, semblent porter ses fruits. Mais les régions manquent de façon criante de moyens afin de répondre aux besoins. A contrario, l’enseignement supérieur reste dans le giron de l’Etat. Assurément, les territoires ont des besoins en main d’œuvre qui sont très diversifiés, ce qui constitue un appel formidable à la réponse publique. Une meilleure articulation entre action nationale et action locale en la matière, le tout piloté par l’Etat, constituerait une plusvalue extraordinaire pour l’avenir économique et social de la France. De plus, cela aurait pour effet bénéfique de rapprocher encore un peu plus les notions d’attractivité et de compétitivité, mariant ainsi conditions de la croissance et croissance. Mais, nous restons encore trop dans l’opposition entre ces deux termes, ce qui conduit naturellement à une opposition entre les territoires. Une des plus symboliques reste la bataille entre l’Ile-de-France et Rhônes-Alpes pour l’attraction des sièges sociaux. La compétitivité territoriale n’est-elle pas un jeu à somme nulle ? Il ne faut pas opposer les territoires. Il faut plutôt les rapprocher pour qu’ils jouent de leurs complémentarités, de leurs synergies, pour qu’ils ne tentent pas d’attirer tout, de façon non différenciée. Or, les logiques locales, naissant pour grande part de l’architecture institutionnelle et administrative de notre pays, l’emportent bien trop souvent sur la raison. L’Etat doit être le pilote qui doit démontrer l’absurdité des logiques de clocher. Enfin, il faut regarder dans l’avenir comment ce rôle de pilote va évoluer. Nous sommes actuellement dans la préparation d’une réforme institutionnelle qui va bouleverser le fonctionnement quotidien des collectivités territoriales. Disons le tout net, parce que cela se démontre dans un certain nombre de domaines politiques, le procédé s’inscrit dans une démarche de recentralisation. Cette réforme est dans les cartons gouvernementaux depuis quelques temps déjà, ayant toujours fait l’objet d’un report sine die en raison de son caractère explosif. On peut supposer que les élections régionales de mars dernier, voyant le Parti Socialiste emporter quasiment toutes les régions, serviront d’allumage et accélèreront le processus. Sans trop s’avancer sur les répercussions d’une réforme dont les contours sont encore très flous, on imagine a priori que cela va modifier la répartition des compétences territoriales en remettant en cause l’architecture actuelle des collectivités locales. La région qui a toujours peiné à s’imposer, faute de moyens assurément, semble être sur la sellette, la suppression de la taxe professionnelle ayant déjà allumé la première mèche. Dès lors, on doit se demander si l’Etat central viendra suppléer les institutions locales là où elles ne pourront plus agir ? Ce mouvement re-centralisateur sera bien entendu freiné, en tout cas dans ses effets, par l’apoplexie financière à laquelle Bercy peine à trouver des solutions. De plus, la voie semble tracée pour la mise en place du fameux « Conseiller Territorial » travaillant à la fois au niveau régional et au niveau départemental. L’injection d’une dose de proportionnel et la mise en place du scrutin à un tour ne peuvent cacher les fins politiques qu’elles servent. La gauche se verrait affaiblie par la présence d’un certain nombre de partis sur sa gauche et la droite se verrait renforcée puisqu’étant arrivée en tête du premier tour des régionales dans un nombre assez important de régions. Les fins électoralistes vont assez naturellement prendre le pas sur les véritables enjeux, notamment ceux de la décentralisation. Interrogeons aussi le principe de la décentralisation. On peut discuter sur la date initiale. Retenons les années 1982-83 avec le vote des lois Defferre comme l’étape initiale majeure. Cela fait donc bientôt 30 ans que nos territoires, considérés dans leur échelle régionale, disposent d’une autonomie institutionnelle, leur permettant de développer ainsi un arsenal de politiques publiques pour assurer croissance et qualité de vie. Naturellement, toutes les régions ne sont pas de taille égale et ne bénéficient pas des mêmes atouts en la matière. Toutefois, penser la décentralisation de cette façon, c’est décider que pour un certain nombre de problématiques, pour beaucoup de raisons politiques d’ailleurs, certains niveaux institutionnels seront les pilotes et d’autres seront les copilotes. De plus, la région est progressivement devenue le pilote de son territoire alors qu’auparavant, l’Etat décidait des politiques territoriales (on peut citer l’exemple de la politique sur les métropoles d’équilibres, de la politique sur les grandes infrastructures routières et ferroviaires). D’ailleurs, et c’est sûrement le chiffre qui pour moi montre bien que le vrai pilote dans les territoires n’est plus vraiment l’Etat, 70% environ de l’investissement public est réalisé par les collectivités territoriales. Ce chiffre montre à quel point ces dernières jouent un rôle plus que prépondérant pour le destin des territoires. Ainsi, il faut rappeler que décentraliser ne consiste pas uniquement en un simple transfert de compétences (et l’obligation constitutionnelle de transfert d’argent qui lui est associée… élément que Claude Bartolone n’a pas manqué de
« 70% environ de l’investissement public est réalisé par les collectivités territoriales. »
Jeune République _"L’Etat face à l’échec du marché"_35
« Il s’agit de générer une nouvelle échelle de l’action publique et de constituer une nouvelle architecture de la gouvernance territoriale. »
remémorer en faisant voter un budget non équilibré par le Conseil Général de la Seine-Saint-Denis). Il s’agit aussi, et même surtout, de générer une nouvelle échelle de l’action publique et de constituer une nouvelle architecture de la gouvernance territoriale. Une nouvelle spatio-temporalité est ainsi donnée aux politiques publiques qui se retrouvent influencées par d’autres contraintes et par d’autres intérêts. On change ainsi le pilote mais on change aussi la façon dont le pilote a appris son métier et l’exerce aujourd’hui. Cette seconde façon de faire, bien qu’assurément perfectible, me semble plus proche du territoire et de la réalité de ses habitants.
Afin de conclure, je souhaiterais poser une question qui émane directement du sujet de cet article et du développement précédent : l’Etat a-t-il tout simplement les moyens de jouer un rôle de pilote dans nos territoires ? Cette question se posera avec bien plus de vigueur dans les années à venir quand le déficit devra être ramené en deçà des 3%, et qui sait, à l’équilibre. Posséder les moyens de sa politique revient à trouver les solutions pour dégager des marges de manœuvre ou comme le dit l’expression consacrée, « les moyens de son ambition ». Ce dont l’on peut être absolument sûr pour le moment, c’est que trouver la gouvernance idéale pour nos territoires revient à résoudre une équation avec un nombre infini d’inconnues. L’alchimie de cette gouvernance comporte une capacité à travailler dans la proximité, toujours en prise avec la réalité des disparités territoriales, mais aussi une nécessaire force d’entraînement à une échelle plus grande parce que le monde aujourd’hui fonctionne au-delà des simples frontières. Il faut pour cela atteindre une taille critique pour mener des politiques de développement économique, cohérentes et durables. Cependant, piloter ne veut pas nécessairement dire re-centraliser, comme cela peut être la tentation en ce moment. Il faut trouver les solutions institutionnelles et organiques pour que les territoires soient maîtres de leur destin sans pour autant se voir abandonnés. Et il faut surtout qu’ils soient en mesure – financière ! – de mener à bien leurs politiques. A cela ajoutons qu’il faut aussi que les territoires sortent d’une logique de clocher consistant à « monter à Paris pour décrocher des subventions et défendre des intérêts particuliers », une logique qui ne pourra être modifiée sans s’attaquer… au cumul des mandats. Enfin, les formes, insidieuses ou déclarées, de re-centralisation qui se font actuellement jour, semblent naître d’une erreur d’analyse et constituent un recul démocratique considérable, d’autant plus flagrante qu’elle est faite au moment même où les collectivités territoriales expriment de plus en plus leurs souhait de coordonner leur action et de se voir attribuer les moyens qui leur fonts toujours autant défaut. Jonathan Martins est étudiant à Sciences Po et à la London School of Economics
36_ "L’Etat face à l’échec du marché"_ Jeune République
LE SYSTÈME ÉDUCATIF AU SERVICE DE L’ENTREPRISE : Un modèle économiquement pérenne ? par Bobelle Lukanga Katshio Évaluation, classement, résultat, compétence : ces termes issus du vocabulaire managérial sont de plus en plus employés dans le système éducatif. En effet, si école et entreprise se sont passablement ignorées jusque dans les années 1980, différentes initiatives ont depuis été mises en œuvre pour les rapprocher. Ainsi, les classes industries, calquées sur le modèle des classes de neige et autres classes vertes, ont notamment permis le rapprochement de ces deux mondes. Si favoriser les relations entre le système éducatif et l’entreprise relève d’une absolue nécessité pour les formations professionnelles et techniques, les liens entre écoles et entreprises sont tissés de plus en plus tôt et de façon toujours plus généralisée. Ce rapprochement est, pour ses défenseurs, la solution à l’inadéquation de la formation scolaire actuelle avec le marché de l’emploi, synonyme de chômage. L’intervention de l’entreprise dans l’école doit donc permettre de déboucher, dès la fin des études, sur des opportunités professionnelles, synonyme d’insertion sociale. A l’heure de la sacro-sainte économie de marché dans laquelle évoluent nos sociétés, l’orientation et l’insertion professionnelle sont devenues des préoccupations fortes en France. Il est cependant permis de s’interroger sur la réelle nécessité, aussi bien pour l’école que pour l’entreprise, de ce rapprochement.
Un système éducatif en mutation D’après Bernard Charlot, professeur en sciences de l’éducation à l’Université Paris VIII, si au XIXè siècle l’État est éducateur, son action évolue avec l’introduction de préoccupations économiques. La montée en puissance de l’économie de marché et de la culture d’entreprise entraîne une perte du pouvoir de décision de l’État en matière d’éducation. Celui-ci devient alors régulateur et son rôle passe de la gestion d’un service public à celui d’un service marchand. Ainsi, si l’État conserve un pouvoir régalien sur la définition des politiques éducatives, de nouveaux acteurs entrent en jeu. Dans une logique de rationalisation des coûts, les collectivités locales se voient notamment déléguer la formation professionnelle. Ceux-ci, suivant le même impératif économique, introduisent l’entreprise dans l’école, qui devient alors fournisseur de main-d’œuvre qualifiée. De nombreuses initiatives, aussi bien dans le système éducatif qu’au sein des entreprises tendent à le démontrer. Luc Ferry, ancien Ministre de l’éducation nationale, explique en effet dans sa Lettre ouverte à tous ceux qui aiment l’école, qu’il faut agir dès le collège pour « permettre à tous les élèves d’entrer dans un parcours de réussite réelle » grâce à une revalorisation de la voie professionnelle. Ceci passerait par la mise en place dans les collèges de dispositifs d’alternance permettant aux collégiens de suivre un enseignement général tout en se professionnalisant. Il s’agirait alors, non pas de déscolariser ces élèves, mais de les orienter vers des lycées professionnels pouvant eux-mêmes conduire par la suite vers des études supérieures. Sauf que ce dispositif s’adresse en priorité aux collégiens issus d’établissements jugés sensibles, dont on sait toute la peine à mener à leur terme des programmes scolaires surchargés, mais cependant essentiels. Comment dès lors, assurer à ces élèves un socle de formation indispensable s’ils doivent sacrifier une partie du temps normalement consacré aux études Jeune République _"L’Etat face à l’échec du marché"_37
à une formation professionnelle ? De plus, n’est-il pas prématuré de vouloir orienter dès le collège les élèves vers le milieu professionnel, alors que l’orientation vers l’enseignement supérieur ne se fait qu’à partir du lycée ? L’ouverture à l’entreprise compte également parmi les objectifs de Gilles de Robien qui, en 2007, alors qu’il est Ministre de l’Éducation nationale, souhaite que les « échanges entre l’école et l’entreprise s’amplifient […] pour assurer une meilleure insertion professionnelle pour tous les jeunes ». Son souhait de voir école et entreprise collaborer l’amène à mettre en place des dispositifs de professionnalisation des collégiens, de tutorats et autres parrainages des élèves « les plus méritants » par les entreprises. Mais comment juger du mérite de tel élève par rapport à un autre ? Se développe le principe de concurrence entre les élèves, qui peut faire craindre la mise à mal du principe d’égalité instauré dans l’école républicaine. Laurent Wauquiez, Secrétaire d’État à l’emploi, poursuit la réforme du système éducatif avec le même objectif de rapprochement de l’école et de l’entreprise. Chargé de la réforme de la formation professionnelle, il préconise le développement de l’alternance dans l’enseignement supérieur pour permettre une meilleure adéquation de l’offre de formation avec la demande. On peut comme lui s’attrister de voir de jeunes diplômés quitter les bancs des universités avec de solides formations qui ne déboucheront sur aucun emploi, faute d’adéquation de l’enseignement avec les besoins du marché. Mais on peut également s’attrister du nombre de jeunes diplômés qui, ayant suivant la formation qui devait leur permettre d’accéder aux métiers alors en vogue, se retrouvent, une fois la mode passée, avec un diplôme périmé, ne répondant plus aux besoins de ce même marché. Il est certes nécessaire d’articuler davantage les formations existantes avec les besoins économiques pour faire face à la problématique de l’emploi. Mais il faut également trouver un équilibre avec la toute aussi nécessaire formation intellectuelle et morale des jeunes. Or, on peut s’interroger sur la place de cette formation dans le modèle éducatif de l’entreprise.
« Se développe le principe de concurrence entre les élèves, qui peut faire craindre la mise à mal du principe d’égalité instauré dans l’école républicaine. »
Lors de son élection à la tête du Medef, Laurence Parisot déclarait que, si sous la IIIè République « l’école était chargée de former le citoyen, c’est à l’entreprise aujourd’hui de lui apprendre le nouveau monde ». Ce monde serait donc celui où l’entreprise, apôtre d’un nouveau modèle de pédagogie, apporterait la bonne nouvelle de la culture économique à l’école ? Il est évident que l’hostilité parfois caricaturale d’une partie du monde éducatif vis-à-vis du privé est contre-productive. Mais, si la méfiance dont est victime l’entreprise ne peut qu’être néfaste à un grand pays industrialisé comme la France, ne peut-on pas craindre, si l’entreprise pesait de tout son poids dans les politiques éducatives, de voir certaines valeurs comme l’égalité et la solidarité, relayées au second plan, au profit de valeurs telles que la compétitivité ou la rentabilité ? De plus, à l’heure de la remise en cause d’un modèle économique accusé d’avoir plongé le monde dans une crise majeure, est-il à propos de soumettre davantage aux aléas auxquels est si fortement soumise l’entreprise un système éducatif déjà en proie à une crise profonde d’identité ? En somme, affaiblie par la crise économique, l’entreprise est-elle réellement l’entité la plus à même de répondre à la crise identitaire du système éducatif ?
« Est-il à propos de soumettre davantage aux aléas auxquels est si fortement soumise l’entreprise un système éducatif déjà en proie à une crise profonde d’identité ? »
Éducation et mondialisation Les réformes se succèdent en effet depuis les années 1980 pour donner un nouvel élan au système éducatif français. Une refonte de ce système est jugée nécessaire et se traduit le plus souvent par une tentative d’harmonisation des politiques éducatives au niveau des états et donc, par l’introduction de logiques de marché dans le système éducatif. Cette évolution s’observe avec le développement dans les pays anglophones du principe de selfmanagement school (école auto-gérée). On retrouve dans ce courant néolibéral, la logique de rationalisation des coûts, par la mise en concurrence des écoles, pour attirer le plus grand nombre d’élèves et ainsi capter les financements les plus importants. Le libre choix des écoles par les parents d’élèves amplifie cette situation d’inégalité entre les établissements, situation crainte en France par les détracteurs de la réforme sur la carte scolaire, et confirmée par une récente étude syndicale sur les évolutions des publics scolaires depuis sa mise en place. L’école devient un marché, la formation scolaire un produit éducatif et les élèves et parents d’élèves des usagers-clients, créant entre les établissements une situation de compétition néfaste, à la fois au bon fonctionnement de ces derniers et, par conséquent, à la réussite scolaire. 38_ "L’Etat face à l’échec du marché"_ Jeune République
La réforme de la carte scolaire, conjuguée à l’autonomisation des établissements scolaires a en effet provoqué une marchandisation de l’éducation avec une mise en compétition des élèves au sein des établissements, mais également entre les établissements de formation, aux niveaux national et international. La notion de marché scolaire s’inscrit dans une logique de globalisation de l’économie. Cette globalisation conduit à une influence grandissante d’institutions internationales telles que l’Organisation Mondiale du Commerce (OMC), l’Organisation de Coopération et de Développement Économiques (OCDE), ou encore la Commission européenne, qui par leurs préconisations, lient les politiques éducatives aux impératifs économiques. L’influence croissante de ces institutions renforce l’idée de la nécessaire diminution du rôle de l’État dans la sphère éducative. Des mesures telles que le système LMD, mis en place pour harmoniser les formations dans l’enseignement supérieur au sein de l’Union européenne, ont ainsi conduit à une multinationalisation des systèmes éducatifs, à priori positive, mais aux effets mitigés.
L’économie de la connaissance La montée en puissance des logiques de marché dans le système éducatif contribue à faire de l’éducation un bien marchand dont la seule utilité serait de répondre aux besoins économiques immédiats en l’adaptant à un marché de l’emploi en perpétuelle évolution. Or, le marché a montré ses limites dès lors qu’il s’agissait de prédire ces évolutions constantes. Comment dès lors lui laisser, par le biais de l’entreprise, la main sur un secteur dont l’objectif devrait plutôt être de donner des bases permettant d’accompagner les étudiants tout au long de leur vie et de leurs reconversions potentielles ? Économie et emploi n’ont jamais été plus soumis que de nos jours aux variables d’un marché mondialisé. On tend à orienter toujours plus les étudiants en fonction des estimations de recrutement des différents secteurs, sans se préoccuper des évolutions à venir sur un temps plus long, qui rendraient caduques des formations trop spécialisées et ciblées. Les travers d’un système trop soumis aux exigences court-termistes du marché ont récemment été mis en exergue. La crise a provoqué le gel des recrutements dans le privé et le non renouvellement des postes laissés vacants par les départs en retraites des baby-boomers dans le secteur public. Malgré les perspectives de relance, les perspectives de création d’emploi restent peu encourageantes, et une reconversion générale de l’économie semble se profiler, avec des bouleversements certains à l’échelle mondiale. Une spécialisation précoce des nouvelles générations, formées à des métiers dont rien ne nous dit qu’ils existeront dans une décennie, nous aurait-elle donné les armes suffisantes pour affronter cette transformation que personne n’avait anticipé ? Affaiblies par la crise, les entreprises tendent davantage à recruter de futurs collaborateurs bénéficiant d’un capital d’expérience, gage de leur aptitude à être rapidement opérationnels et restent frileuses dans le recrutement de jeunes diplômés. L’Association pour l’emploi des cadres (APEC) constate en effet une hausse de six points des recrutements des cadres confirmés au premier trimestre 2010, par rapport à la même période en 2009, tandis que le recrutement des cadres juniors est encore en stagnation. Le diplôme, même le plus prestigieux tend donc à n’être plus synonyme d’embauche pour de jeunes diplômés, diplômés de plus en plus nombreux à s’interroger sur le bien fondé de poursuivre d’études qui n’assurent plus d’insertion professionnelle rapide. Et la mondialisation de la connaissance ne fait qu’accentuer cet état de fait. Le phénomène de circulation des
Flickr - Creative Commons licence photo credit Ben Heine
Jeune République _"L’Etat face à l’échec du marché"_39
cerveaux induit par la globalisation oblige à s’adapter à la conjoncture économique mondiale et à faire preuve de compétitivité dans un monde toujours plus mobile, où la mondialisation met en concurrence des populations qui ne l’étaient pas auparavant. Le jeune diplôme français est en effet aujourd’hui en concurrence avec les hauts potentiels du monde entier. Le caractère libéral de la mondialisation provoque un véritable bouleversement du système éducatif. L’uniformisation des politiques éducatives a pour conséquence la transformation de leur rôle, de levier de la connaissance à celui de levier de l’économie.
« L’uniformisation des politiques éducatives a pour conséquence la transformation de leur rôle, de levier de la connaissance à celui de levier de l’économie. »
Il devient primordial, dans nos économies contemporaines, de faire face aux changements structurels majeurs que sont l’accélération de la mondialisation et la montée du rôle du savoir et de la connaissance dans les activités productives. Il est pour cela primordial de pouvoir compter sur des pôles d’enseignement d’excellence. Le Traité de Maastricht insiste sur le fait que la mise en œuvre des politiques éducatives relève de la responsabilité des États, mais les réformes actuelles ne tendent, dans ce souci continuel de compétitivité, à affaiblir cette dimension, non seulement par l’accroissement de l’utilitarisme éducatif, mais aussi par l’incitation au développement d’institutions en dehors de la sphère étatique, sensées combler les lacunes du service public . Ce «capitalisme cognitif» qui nous incite à penser l’éducation en terme d’utilité économique, ne risque-t-il pas de nous contraindre à renoncer aux valeurs de l’école républicaine à la française ? Bien qu’il ne faille pas fermer les yeux sur les lacunes du système éducatif français (faiblesse du financement, massification scolaire provoquant un taux d’échec élevé, etc.), il n’est pas non plus question de renoncer à ce qui fait sa réputation (gratuité, égal accès à tous à l’enseignement, etc.). Si la construction d’un nouveau modèle éducatif concurrentiel au niveau mondial passe par une amélioration de la formation professionnelle, cela ne doit pas remettre en cause le rôle de l’école dans la formation intellectuelle et morale.
C’est donc le rapport au savoir que l’on risque de remettre en cause si la refonte du système éducatif ne s’éloigne pas des dogmatismes actuels, et n’engage pas une réflexion qui, réaffirmant l’impératif de formation citoyenne, encore mal assurée dans une partie du territoire, clarifierait enfin le rôle que souhaitent donner les politiques au système scolaire en tant qu’intégrateur professionnel. Il n’est pas question de refuser de façon unilatérale les impératifs économiques d’une modernité mondialisée ou de s’engager à son encontre. Cela acquis, une réflexion, voir une remise en cause, de certains de ses dogmes fondateurs qui voudraient que le marché puisse tout à la place de l’Etat, même lorsqu’il s’agit des fonctions régaliennes, est plus que jamais nécessaire. Il est pour cela permis de s’interroger. Après l’Eglise et l’État, souhaitons-nous véritablement confier à l’Entreprise le rôle de former, non plus les croyants ou les citoyens, mais les simples entrepreneurs de demain ? Bobelle Lukanga Katshio
Références Choukri Ben Ayed, « Carte scolaire et Marché scolaire », Institut de recherche de la FSU, éd. Du Temps, 2009
En partenariat avec :
Ferry Luc, « Lettre à tous ceux qui aiment l’école. Pour expliquer les réformes en cours », Odile Jacob, 2003 Sous la direction de Derouet J.L. et Normand R., « L’Europe de l’éducation : entre management et politique », Institut national de recherche pédagogique, 2007 De Rosnay Joël, « Le Macroscope », éd. Du Seuil, 1975 Auduc Jean-Louis, « Le Système éducatif : école, collège, lycée », Hachette éducation, 2005 Deubel P., Huart, J.M. Montoussé M., Vin-Datiche D., « 100 fiches pour comprendre le système éducatif, 2è édition, Bréal, 2007 http://www.journaldumauss.net/spip.php?article289
40_ "L’Etat face à l’échec du marché"_ Jeune République
Le recrutement des préfets par des entreprises privées par Pierre Marie Baudry Une révolution au sein de la haute fonction publique française ? Début décembre 2009, un article en ligne de Slate.fr intitulé « Les préfets privatisés »1 a révélé que dorénavant, une partie du recrutement du corps préfectoral serait confiée à des cabinets de consulting spécialisés en management et en ressources humaines, chargés d’en favoriser la diversité. En parallèle, certains de ces cabinets accompagneraient les préfets et sous-préfets désireux de se reconvertir dans le parapublic ou le privé, à l’aide de « prestations individualisées »2 faites de rendez-vous et de séances de coaching personnalisées. Le ministère de l’Intérieur a ainsi lancé en juillet 2009 un appel d’offres pour une mission dite « d’assistance à la gestion du corps préfectoral », d’un coût évalué à deux millions d’euros. Après examen, cinq cabinets furent choisis parmi les 55 candidats. L’ensemble des mesures fut présenté aux préfets et sous-préfets par Henri-Michel Comet, Secrétaire Général du ministère de l’Intérieur, lors de séminaires regroupant une bonne partie des fonctionnaires en poste.
Cette volonté affichée de vouloir recourir aux méthodes du privé pour ouvrir et moderniser la haute fonction publique n’est pas inédite en soi. Elle ne fait qu’intervenir dans le contexte de la révision générale des politiques publiques (RGGP) et de la réforme du corps préfectoral, dévoilée par Brice Hortefeux en décembre dernier. Selon le document diffusé aux préfets, le ministère de l’intérieur souhaite donner « une nouvelle impulsion à sa politique de modernisation de la gestion du corps préfectoral » avec en toile de fond, « le départ en retraite désormais imminent des générations issues du «baby boom» » ainsi que « la nécessité de répondre aux défis de modernisation de l’administration territoriale de l’Etat engagés notamment au titre de la révision générale des politiques publiques (RGPP)»3. En revanche, la méthode employée, à savoir recourir directement au privé pour désigner des hauts fonctionnaires, est beaucoup plus surprenante. Charles Pouvreau, directeur du Pôle Public de Mercuri Urval, l’un des cabinets de conseil en management retenus par le ministère de l’Intérieur, déclare «c’est une première européenne qu’un Etat confie à un cabinet privé le recrutement des plus hauts fonctionnaires de l’Etat ».4 Si l’on ne pourrait que se féliciter d’initiatives modernisatrices du gouvernement, il n’en demeure pas moins que les nouvelles dispositions soulèvent un certain nombre de questions dépassant de loin l’aspect procédural. En premier lieu, faire de la diversité du corps préfectoral un critère en soi au point d’écarter des fonctionnaires issues des parcours « traditionnels », n’est-ce pas consacrer un désaveu profond de l’institution républicaine et de sa capacité à résorber les inégalités sociales et culturelles par l’éducation ? Mais surtout, un recours à des cabinets privés était il réellement la meilleure solution? Certes, la primauté traditionnelle du concours dans l’accès à la haute fonction publique est contestable, mais fallait-il pour autant confier à des cabinets de consulting, habitués à auditionner des cadres de grandes entreprises, la mission de recruter les représentants de l’Etat et d’accompagner leur carrière ? Enfin, cette mesure se cantonnera-t-elle au recrutement de quelques fonctionnaires par an, ou at-elle vocation à s’élargir sur le long terme et a devenir la norme ? Autant d’inquiétudes qui appellent un examen approfondi des logiques à l’œuvre de cette disposition pour le moins inattendue.
1_ Quentin Girard, “Les préfets privatisés”, Slate. fr, 4 décembre 2009, disponible sur http://www. slate.fr/story/13991/préfetscabinet-prive-recrutementprivatisation-fonctionnaires 2_ Xavier Sidaner, “Management des préfets, l’Intérieur recourt au privé”, Acteurspublics. com, 14 décembre 2009, disponible sur http:// www.acteurspublics. com/article/14-12-09/ management-des-prefetsl’interieur-recourt-au-prive 3_ Ibid 1. 4_ Ibid 1.
Jeune République _"L’Etat face à l’échec du marché"_41
L’ouverture de la fonction publique : une tendance déjà bien ancrée
5_ Jean-Michel Bezat, “Sarkozy, le préfet musulman et le philosophe “, Lemonde. fr, 17 décembre 2003, disponible sur http:// www.lemonde.fr/societe/ article/2003/12/17/sarkozyle-prefet-musulman-et-lephilosophe_346311_3224. html 6_ Portail du gouvernement, Fonction Publique, « Favoriser la diversité au sein du corps préfectoral », 16 février 2009, disponible sur http://www.gouvernement. fr/gouvernement/favoriser-ladiversite-au-sein-du-corpsprefectoral 7_ Jean-Marc Leclerc, « Les préfets prennent un coup de jeune», Lefigaro. fr, 22 décembre 2009, disponible sur http:// www.lefigaro.fr/actualite france/2010/12/31/0101620101231ARTFIG00002-lesprefets-prennent-un-coup-dejeune-.php 8_ Jean-Marc Leclerc, « Des méthodes du privé pour mieux recruter et former », Lefigaro.fr, 22 décembre 2009, disponible sur http:// www.lefigaro.fr/actualitefrance/2010/12/31/0101620101231ARTFIG00003-desmethodes-du-prive-pourmieux-recruter-et-former.php 9_ Jean-Marc Leclerc, « Les préfets prennent un coup de jeune», Lefigaro. fr, 22 décembre 2009, disponible sur http://www. lefigaro.fr/actualitefrance/2010/12/31/0101620101231ARTFIG00002-lesprefets-prennent-un-coup-dejeune-.php 10_ Gérald Andrieu, Marianne2.fr, Vendredi 11 décembre 2009, « C’est la chasse aux préfets, à tous les sens du terme », http://www. marianne2.fr/C-est-la-chasseaux-prefets,-a-tous-les-sensdu-terme_a183100.html
A l’origine des efforts de modernisation et d’ouverture du corps préfectoral, le constat suivant : la haute fonction publique est loin d’être représentative de la diversité sociale, ethnique et culturelle des Français. Cette préoccupation est loin d’être nouvelle pour le gouvernement. En 2003, Nicolas Sarkozy, alors ministre de l’Intérieur, avait nommé dans le Jura un préfet d’origine immigrée, Aïssa Dermouche, présenté alors comme le « préfet musulman »5. L’affaire avait alors suscité un vif remous à l’UMP comme à gauche. Jacques Chirac, alors président de la République, avait déclaré que «nommer des gens en fonction de leur origine, ce n’est pas convenable». Depuis, une quinzaine de hauts fonctionnaires d’origine maghrébine ou afro-antillaise et aux parcours professionnels s’éloignant de celui du « préfettype » énarque, ont été nommés en France métropolitaine. Au-delà des débats portant sur l’hypothèse de coups médiatiques à destination de l’électorat d’origine immigrée ou sur la compatibilité de la discrimination positive et du modèle républicain français, ces mesures ont néanmoins le mérite de refléter un désir de l’Etat de favoriser la diversité au sein du corps préfectoral. Des dispositions ultérieures confirment cette volonté. En février 2009, un décret présenté par Michèle Alliot-Marie en Conseil des ministres modifiait deux décrets antérieurs (l’un de 1964, l’autre de 2004) relatifs aux statuts et dispositions réglementaires applicables aux préfets, dans le but de « diversifier les origines et l’expérience professionnelle des membres du corps préfectoral »6. Enfin, à l’occasion de sa présentation de la réforme du corps préfectoral à l’ACPHFMI (Association du corps préfectoral et des hauts fonctionnaires du ministère de l’Intérieur), Brice Hortefeux déclarait en décembre dernier que « les hauts fonctionnaires doivent ressembler à la société française »7 et qu’il n’était pas possible de « se satisfaire d’un taux de féminisation égal à 20 % pour les sous-préfets et 12 % pour les préfets, même si celui-ci a doublé en moins de dix ans»8, annonçant ainsi un accroissement de la nomination de femmes aux postes de la haute fonction publique, sans pour autant s’engager sur la parité. C’est également une diversification professionnelle du corps préfectoral que recherche l’Etat. Le temps où l’ENA constituait l’antichambre classique pour accéder aux métiers de la haute fonction publique semble révolu. Aujourd’hui, les énarques ne représentent plus que 30% de l’ensemble des sous-préfets9. Si la majorité des préfets sont quant à eux passés par Strasbourg, on compte un grand nombre de titulaires de formations universitaires juridiques ou des diplômés d’IEP ou d’IRA ayant évolués par la suite à des postes de chefs de cabinet ou de chargés de mission au sein de cabinets ministériels ou d’administrations territoriales. Mais parmi les nouveaux profils, on trouve de plus en plus des commissaires de police, des magistrats de l’ordre judiciaire, des anciens militaires, des directeurs de l’équipement ou de l’agriculture, des enseignants… Plus rares sont en revanche les parcours issus du secteur privé. Le ministère de l’Intérieur estime que d’ici 2016, 50% des préfets seront partis en retraite, d’ou un renouvellement massif de la haute fonction publique à venir, qui devrait voir l’arrivée massive de cadres du secteur parapublic ou privé. D’ou l’intérêt de mettre en place des moyens permettant de débusquer les « perles rares ».
Un désaveu de l’institution républicaine ? Mais s’il est tout a fait légitime de s’efforcer d’ouvrir la haute fonction publique à d’autres franges de la population ou à d’autres parcours, la mesure annoncée par la place Beauvau n’est pas sans susciter des interrogations et des inquiétudes. Au delà des appréhensions liées à une mise sous tutelle de la fonction publique10 qui se dessinerait, c’est d’abord sur le pur principe que cette mesure dérange. Remettre ainsi en cause la primauté du concours à l’échelle de la plus haute fonction publique, et substituer de nouveaux critères (origine, sexe) à la compétence des serviteurs de l’intérêt général et de l’Etat, c’est initier un virage radical dans la philosophie républicaine. Rappelons que la Déclaration des droits de l’homme et du citoyen de 1789, substituant la méritocratie à l’aristocratie, disposait que « tous les citoyens sont admissibles à toutes dignités, toutes places ou emplois publics, selon leurs capacités, et sans autre distinction que celle de leurs vertus et de leurs talents ». En outre, opérer à l’échelle même de la haute fonction publique, n’est ce pas en quelque sorte admettre l’incapacité totale de l’Education nationale comme de l’Enseignement supérieur à résorber les inégalités sociales et culturelles inhérentes au corps social ? Certes, on peut rétorquer à cela que la chute libre de la proportion d’enfants d’origine modeste au sein des grandes écoles depuis des décennies a déjà démontrée la faillite de l’école de la République à mettre en route l’ascenseur social. Pour autant, agir de la sorte au niveau du processus de sélection des fonctionnaires revient à institutionnaliser une espèce de réplique de discrimination positive au sommet de la fonction publique. Mettre en place des procédures de sélection parallèles ou des quotas à l’entrée de certaines universités peut certainement se révéler propice à la réduction des inégalités et au changement des mentalités sur le moyen terme. Mais déroger aux principes républicains pour assurer la nomination de ceux qui sont justement censés en être les garants mêmes sur l’ensemble du territoire pose un réel problème de légitimité pour l’Etat.
42_ "L’Etat face à l’échec du marché"_ Jeune République
Faire de la diversité du corps préfectoral un objectif et une fin en soi, c’est également souscrire à une logique qui verrait la haute fonction publique comme un nécessaire reflet de la société française, au point de faire des compétences acquises par les serviteurs de l’Etat issus de parcours « traditionnels » un critère secondaire au cours du processus de désignation. Or, rappelons que le préfet n’a pas vocation à être représentant de la population française et de sa diversité, mais de l’Etat et du gouvernement. Contrairement aux députés et sénateurs, il n’est pas dépositaire de la souveraineté nationale, ne procède pas du suffrage universel, et n’est donc pas en charge de représenter une circonscription ou les collectivités locales. La loi de décentralisation du 2 mars 1982 relative aux droits et libertés des communes réaffirme clairement que le préfet « représente chacun des ministres » et qu’il « est seul habilité à s’exprimer au nom de l’État devant le conseil général ». C’est en vertu de sa qualité de « dépositaire de l’autorité de l’État » qu’il dispose « en toute circonstance [...] la prééminence dans les cérémonies publiques sauf lorsqu’un membre du gouvernement est personnellement présent »11. Enfin, il faut se garder d’oublier que le métier de préfet est bien loin de n’être qu’une fonction décorative ou symbolique. Se trouver à la tête d’un département fait effectivement appel à un savoir doublé d’un grand nombre de compétences dont le concours, suivi par une carrière dans l’administration avant de revêtir les galons préfectoraux, constitue le meilleur moyen d’évaluation. Interrogé par Jeune République sur les nouvelles mesures, un sous-préfet déclare que « ce n’est pas parce qu’il y a un uniforme avec des dorures et une place dans les inaugurations ou cérémonies patriotiques que l’on doit renoncer à la qualité technique du métier », avant d’affirmer que « la représentation de la société (…) est recherchée à l’intérieur de la compétence et non à la place de la compétence et du savoir-faire ».
11_ Détail de la loi n°82-213 du 2 mars 1982, Legifrance. fr, disponible sur http:// www.legifrance.gouv.fr/ affichTexte.do?cidTexte=LEGI TEXT000006068736&dateTex te=20100420
Une irruption inopportune du privé au sein du public L’idée de diversifier et de moderniser la haute fonction publique en soi ne semble toutefois pas heurter particulièrement la majorité des hauts fonctionnaires. Au contraire, la majorité y semble favorable. Un directeur de cabinet contacté par Jeune République déclare qu’il n’est pas « opposé à une diversification des profils au sein du corps [préfectoral] », cette dernière ne faisant d’ailleurs « que poursuivre une tendance déjà fortement ancrée, le corps accueillant volontiers des profils différents depuis de nombreuses années ». L’idée qu’il existe des voies différentes pour acquérir les compétences nécessaires, et que le passage par l’ENA soit désormais loin d’être obligatoire pour revêtir un jour l’uniforme aux feuilles de chênes et d’olivier, a fait son chemin. L’introduction de cabinets de management pour encadrer la carrière des préfets et sous-préfets désireux de valoriser leur expérience en vue d’une reconversion dans le parapublic ou le secteur privé, est également vue d’un bon œil. Dans son communiqué du mois dernier, l’Association du Corps Préfectoral et des Hauts Fonctionnaires admet que « Etre corseté dans des postures de refus au motif que l’univers public n’a pas à emprunter aux méthodes du secteur privé n’a pas de sens »12. Elle reconnaît également que fournir un accompagnement et des séances de coachings aux hauts fonctionnaires réponds à « une attente réelle » au sein de la fonction publique. En revanche, recourir à ces mêmes cabinets et à des chasseurs de têtes pour prospecter le privé, et recruter des hauts fonctionnaires en dehors de la haute fonction publique, apparaît beaucoup plus contestable. Introduire brutalement les dynamiques du marché au sein même du processus de désignation des serviteurs de l’intérêt général, traditionnellement conçu comme l’apanage du pouvoir régalien, n’est-ce pas initier un retour en arrière de nature à faciliter les nominations de complaisance et la cooptation ? Mais aussi, n’est-ce pas en effet une façon de sous-entendre que les hauts fonctionnaires actuels ne disposent pas des qualités nécessaires pour mener à bien la tâche pour laquelle ils sont pourtant formés durant de longues années, et ce en dépit des efforts de modernisations engagés depuis des années et la diversification croissante des parcours observées ? Dans un sens, n’est-ce pas un autre acte d’abdication de la part de l’Etat, qui en plus de reconnaître son manquement à assurer l’égalité des chances, va jusqu’à mettre en doute les capacités de ses serviteurs ? En outre, rappelons que l’Etat dispose déjà de moyens en interne placés sous l’autorité directe du Ministre de l’Intérieur pour encadrer et évaluer la carrière du corps préfectoral, tel le service de la direction de la modernisation et de l’action territoriale (DMAT), ou le Conseil supérieur de l’administration territoriale (CSATE), chargé de réaliser des missions de conseil et d’audits auprès des hauts fonctionnaires. Ne fallait-il pas mieux clarifier et revaloriser les fonctions de ces deux organes, plutôt que d’abandonner à des cabinets privés une partie de leur tâche ? En plus d’être fort coûteuses (la mission se chiffre à deux millions d’euros), ces mesures risquent de poser des problèmes en termes de procédure et de partage des compétences dans les mois à venir. Mais surtout, sur le plan purement pratique, peut-on espérer de cabinets de consulting accoutumés à auditionner des cadres d’entreprises ou des DRH qu’ils se prononcent sur l’aptitude à assurer la représentation de l’Etat ou non ? Il semblerait que non. On voit mal comment un entretien classique pourrait discerner et évaluer le sens de l’intérêt général ou le gout du service public chez un prétendant au service de l’Etat. En outre, un préfet n’est pas
12_ « Le Chêne et l’Olivier », lettre de l’ Association du corps préfectoral et des hauts fonctionnaires du ministère de l’Intérieur (ACPHFMI), Mars 2010, disponible sur http://www. ecritures-et-societe.over-blog. com/article-coup-de-jeuneou-coup-de-sang-dans-lecorps-prefectoral-47415631comments.html
Jeune République _"L’Etat face à l’échec du marché"_43
13_ Ibid 12
un simple professionnel : n’oublions pas que l’exercice du métier implique des contraintes exceptionnelles en terme de disponibilité et de mobilité géographique (un préfet territorial change de poste en moyenne tout les 18 mois), d’ou des répercussions psychologiques observées très fréquemment. Le communiqué de l’Association du Corps préfectoral relate la façon dont certains consultants d’Eurogroup Consulting (l’un des cabinets de conseil en management retenus) ont sondés des sous-préfets pour avoir une idée de la fonction en vue des missions à venir : « Les questions posées par ces spécialistes du recrutement étaient proches du niveau de la mer : « en quoi consiste votre métier, quelle est une journée type, quelles sont les qualités nécessaire, faites-vous du management… ». » La description du quotidien du métier de préfet et de sous-préfet aurait quant à elle provoquée des réactions telles que « ah, mais c’est qu’on travaille beaucoup chez vous alors »13 ! La méthode employée laisse également beaucoup à redire. Par l’intermédiaire de courriers sur lesquels figuraient le double timbre du Ministère de l’Intérieur et du cabinet, Eurogroup Consulting (l’un des cabinets de conseil en management retenus) aurait proposé à des directeurs des conseils régionaux et généraux de rejoindre les rangs du corps préfectoral, dépeint comme un métier de passion et de conviction. A l’heure où les relations entre les sous-préfets et les directeurs des services des exécutifs locaux sont particulièrement tendues, une telle façon d’opérer ne semble pas appelée à être couronnée de succès.
(c) Rémy Cattelain
Conclusion : vers une privatisation de la haute fonction publique ?
14_ Xavier Sidaner, “Management des préfets, l’Intérieur recourt au privé”, Acteurspublics. com, 14 décembre 2009, disponible sur http:// www.acteurspublics. com/article/14-12-09/ management-des-prefetsl’interieur-recourt-au-prive
Ainsi, si le recours au privé pour encadrer la carrière des préfets et des sous-préfets peut constituer une excellente idée, confier une partie de leur recrutement à des cabinets de conseil n’est pas sans soulever de nombreux points délicats, sur le principe comme dans les faits. En plus de consacrer un désaveu de l’Etat, cette mesure n’est pas sans raviver le spectre d’une « managerialisation » de la haute fonction publique qui se profilerait. Le ministère de l’Intérieur se veut néanmoins rassurant : selon Henri-Michel Comet, « en aucun cas, le privé n’est là pour se substituer au service de recrutement du ministère, encore moins pour chercher à pousser vers la porte les préfets ou sous-préfets au gré des restructurations »14. Néanmoins, la place Beauvau aurait précisé qu’il s’agissait d’un « marché à bons de commandes », et donc potentiellement reconductible. On n’en sait guère sur l’impact de la mesure. Si, a l’heure actuelle, des grandes entreprises (SNCF, Areva ou France Télécom) ont déjà été démarchées par des cabinets désireux de faire de la publicité pour les hauts fonctionnaires en quête de
44_ "L’Etat face à l’échec du marché"_ Jeune République
reconversion, aucun haut fonctionnaire n’aurait été recruté sur ces nouvelles bases. Cette disposition restera t-elle une « assistance de gestion », comme le site du ministère l’indique, et se cantonnera-t-elle à un « quota » de quelques fonctionnaires par an, ou est-elle destinée à devenir la norme à l’aune du renouvellement du corps préfectoral dans les prochaines années ? Avant toute chose, il serait bon que soit pris en compte le décalage profond entre l’esprit animant les cabinets de conseils en management et les hauts fonctionnaires en devenir. Si les passerelles entre le public et le privé doivent être encouragées, le choix et la nomination des hauts fonctionnaires doit demeurer l’apanage de l’Etat. Cela passe par une revalorisation des instruments dont le ministère de l’Intérieur dispose, tels les entretiens avec les membres du corps réalisés au sein de la direction de la modernisation. Pierre Marie Baudry est étudiant à SciencesPo et à la George Washington University
Articles cités : - Gérald ANDRIEU, Marianne2.fr, Vendredi 11 décembre 2009, « C’est la chasse aux préfets, à tous les sens du terme », http://www.marianne2.fr/C-est-la-chasse-aux-prefets,-a-tous-les-sens-du-terme_a183100.html - Jean-Michel BEZAT, “Sarkozy, le préfet musulman et le philosophe “, Lemonde.fr, 17 décembre 2003, disponible sur http://www.lemonde.fr/societe/article/2003/12/17/sarkozy-le-prefet-musulman-et-le-philosophe_346311_3224. html - Jean-Marc LERCLERC, « Les préfets prennent un coup de jeune», Lefigaro.fr, 22 décembre 2009, disponible sur http://www.lefigaro.fr/actualite-france/2010/12/31/01016-20101231ARTFIG00002-les-prefets-prennent-un-coupde-jeune-.php & « Des méthodes du privé pour mieux recruter et former », Lefigaro.fr, 22 décembre 2009, disponible sur http:// www.lefigaro.fr/actualite-france/2010/12/31/01016-20101231ARTFIG00003-des-methodes-du-prive-pour-mieuxrecruter-et-former-.php - Xavier SIDANER, “Management des préfets, l’Intérieur recourt au privé”, Acteurspublics.com, 14 décembre 2009, disponible sur http://www.acteurspublics.com/article/14-12-09/management-des-prefets-l’interieur-recourtau-prive
Autres sources : - Portail du gouvernement, Fonction Publique, « Favoriser la diversité au sein du corps préfectoral », 16 février 2009, disponible sur http://www.gouvernement.fr/gouvernement/favoriser-la-diversite-au-sein-du-corps-prefectoral - « Le Chêne et l’Olivier », lettre de l’ Association du corps préfectoral et des hauts fonctionnaires du ministère de l’Intérieur (ACPHFMI), Mars 2010, disponible sur http://www.ecritures-et-societe.over-blog.com/article-coup-dejeune-ou-coup-de-sang-dans-le-corps-prefectoral-47415631-comments.html - Entretiens téléphoniques et échanges de mails avec un sous-préfet et un directeur de cabinet, qui ont préférés ne pas être cités.
Jeune République _"L’Etat face à l’échec du marché"_45
> Tribune libre
LE NOUVEAU CHOC COLONIAL Nouvelles pratiques d’une tradition ancienne par Alexandre Barrière « Finis les enthousiasmes du début, la colonisation romantique, les risques recherchés, la case dans la brousse, la conquête de l’âme nègre, la petite mousso ! On s’embarque maintenant avec sa femme, ses enfants et sa belle-mère. C’est la colonie en bigoudis ! » Albert Londres, Terre d’ébène, 19271
Aujourd’hui, le colonialisme est devenu, au-delà d’une simple référence historique, quelque chose approchant le gros mot, un vague remords national que l’on n’ose pas regarder en face et le nom que l’on donne à des pratiques expansionnistes tardivement condamnées. Travailler pour une entreprise délocalisée dans un pays offrant une main-d’œuvre moins onéreuse, estce être colonialiste ? Et payer une agence de voyage française pour un hôtel avec piscine et pour une balade en chameau dans un pays du Maghreb ? Et, plus subtil, faire partie d’une ONG œuvrant pour la reconstruction d’un pays en guerre en en tirant des bénéfices matériels directs, et indirects de par la solidification du partenariat commercial entre le pays en question et le sien ? À celui qui répondrait ici par l’affirmative, on aurait tôt fait de reprocher un abus de langage, une malheureuse approximation. Juridiquement, la colonisation n’est pas autre chose qu’une « politique d’expansion politique et économique pratiquée à partir du XVIe siècle par certains États à l’égard de peuples moins développés obligés d’accepter des liens plus ou moins étroits de dépendance »2. Le consensus international a jeté une condamnation sans appel sur ces pratiques, notamment dans le cadre de la 4e Convention de Genève en 1949, qui interdit l’occupation d’un territoire par des colons civils, c’est-à-dire les colonies de peuplement (article 49). De fait, les grands empires coloniaux européens construits au tournant du XXe siècle ont été pour la plupart démantelés dans les années 50 et 60, dans le cas de la France, du Royaume-Uni et du Portugal notamment. La colonisation est par ailleurs souvent associée à un phénomène appartenant aujourd’hui au cabinet des horreurs de l’histoire universelle, je veux dire à la catégorie des crimes contre l’humanité : l’esclavage. Or s’il est habituel de qualifier le monde dans lequel nous vivons de « décolonisé », on estime que le nombre de personnes actuellement réduites en esclavage, de l’ordre d’une sur dix dans le monde, n’a jamais été aussi grand. Faut-il s’empresser de considérer qu’au colonialisme s’est presque immédiatement substitué un équivalent plus discret que l’on appellera « néocolonialisme » ? L’expression apparaît en 1965 sous la plume de Kwame Nkrumah, acteur de l’indépendance du Ghana et premier président du pays. Dans un pamphlet consacré à cette notion, il la définit en ces termes : « l’État qui y est assujetti est théoriquement indépendant, possède tous les insignes de la souveraineté sur le plan international. Mais en réalité, son économie, et par conséquent sa politique, sont manipulés de l’extérieur. […] Le résultat du néocolonialisme est que le capital étranger est utilisé à l’exploitation, plutôt qu’au développement, des parties du globe les moins évoluées »3. La première partie de cette définition suggère un colonialisme d’un genre nouveau en ce qu’il est silencieux et qu’il repose en grande partie sur des flux plutôt que sur l’occupation effective d’un territoire et le contrôle direct de ses institutions ; la seconde anticipe l’argument habituel du « rôle positif de la colonisation », de son apport aux pays visés, en dénonçant le néocolonialisme comme un jeu d’investissements de type essentiellement capitaliste. Il est nécessaire aujourd’hui, en partant de cette source, de réexaminer la pertinence et le champ d’existence du concept, surtout appliqué au monde contemporain, d’abord parce que cette analyse teintée de marxisme se rend suspecte de partialité partisane (le titre du pamphlet étant un hommage explicite à Lénine), ensuite parce qu’il repose sur l’observation d’un monde en voie de décolonisation, qui a subi des évolutions significatives depuis (le néocolonialisme étant pour Nkrumah le champ de bataille effectif de la Guerre froide). L’idée d’une continuité directe de pratiques unilatéralement condamnées pose un certain nombre de
46_ "L’Etat face à l’échec du marché"_ Jeune République
questions. Peut-on envisager l’hypothèse d’un néocolonialisme contemporain sous son aspect impérialiste et géopolitique, voire comme avatar du capitalisme mondialisé ? La définition de ce nouveau colonialisme silencieux aux multiples facettes, allant de la marchandisation du vivant à l’aliénation des identités tant collectives qu’individuelles, est aujourd’hui un véritable enjeu, alors que le terme, désactualisé, perd de sa force conceptuelle en ne faisant que désigner un agrégat de pratiques et d’attitudes d’un autre temps. Le néocolonialisme : un impérialisme militarisé ? Aux côtés du terme « néo-colonialisme », insuffisamment défini dans l’usage courant, est fait souvent appel pour décrire ces réalités contemporaines au terme d’impérialisme, qui littéralement désigne une politique se donnant pour but l’expansion du territoire national et la constitution d’un empire. Hannah Arendt étudie cette notion dans une acception plus subtile et restreinte, sous sa forme colonialiste notamment, non seulement comme caractérisant principalement une période historiquement délimitée (entre 1884 et 1914) mais aussi en tant qu’ « étape préparatoire » aux totalitarismes du XXe siècle; à ce titre, elle y consacre un volume entier de sa trilogie sur Les Origines du totalitarisme (1951). Pour Arendt, l’impérialisme est certes un expansionnisme, mais il est surtout de nature économique, car il est dû à l’initiative des bourgeois qui ont graduellement accédé au pouvoir, et vise à libérer celui-ci des frontières trop contraignantes de l’État-nation. De fait, l’impérialisme n’impose pas à de nouveaux territoires les lois de la nation mère, mais d’autres lois qui ne sont pas les siennes et, dans certains cas, que ses citoyens ne toléreraient pas si elles étaient appliquées à eux-mêmes. Le Code de l’Indigénat, imposé par la France à l’ensemble de ses colonies en 1887 et distinguant citoyens français et sujets français, en est un exemple éloquent. À première vue, appliquer cette notion en 2010 n’a rien d’évident, car aucune pratique contemporaine n’a la transparence d’un tel Code. Pourtant, Arendt incite elle-même, dans une préface écrite seize ans après son ouvrage, à établir un parallèle entre l’impérialisme historique et les « événements contemporains »4 (en 1967, la guerre du Vietnam), n’excluant donc pas une extension analytique du concept tel qu’elle le définit. La piste américaine, suggérée par Arendt elle-même, est aujourd’hui la plus associée au terme d’impérialisme. Celui-ci est utilisé pour désigner une suprématie américaine s’imposant au monde, fondée sur sa puissance militaire mais doublée par la globalisation économique et culturelle impulsée par le pays. L’assimilation de la domination actuelle américaine à un impérialisme est si largement acceptée que l’on peut en voir l’exposé, cartes légendées à l’appui, dans les manuels d’Histoire/Géographie des collégiens français5 ; elle nous semble un truisme. De fait, l’occupation militaire de l’Irak et de l’Afghanistan, à des fins sécuritaires et stratégiques revendiquées, s’était donnée des ambitions « civilisatrices » qui venaient justifier quelque peu l’utilisation du terme : éradiquer la barbarie fondamentaliste, la dictature de la terreur, ce que l’administration Bush a nommé l’Axe du Mal est une rhétorique proche de l’impérialisme colonial, à laquelle s’ajoute une ambition partagée : l’accès privilégié aux ressources de matières premières de ces pays – cette région traversée par l’Axe du Mal recoupant en partie un certain Croissant fertile. Par ailleurs, le poids des États-Unis dans les décisions géostratégiques d’organismes comme l’OTAN et l’ONU influe bien sûr considérablement sur l’extension de leur présence militaire, leur interventionnisme et leur tendance à se présenter comme le bras armé d’un ordre moral dont la priorité absolue serait le maintien de la paix, entendue comme une situation diplomatique stable où les flux économiques ne sont pas perturbés, l’objectivité apparente des intentions masquant le jeu d’intérêts qui les habite : les États-Unis refusent d’ailleurs la juridiction de la Cour pénale internationale, supposée incarner une justice internationale moins intéressée, comme limitation de leur propre souveraineté (un reflet en est le The Hague Invasion Act de 2002, limitant les pouvoirs de la CPI vis-à-vis des citoyens américains, symbolique de cette politique). L’assimilation du comportement américain à une sorte de nouveau colonialisme ne semble donc pas fantaisiste. On opposera certes à l’étiquetage de ces occupations militaires intéressées comme « colonialistes » l’absence de colons civils ; mais on souligne trop rarement le rôle des occidentaux expatriés dans l’entreprise de « reconstruction » des pays désarmés par l’ONU : celle-ci dispose en 2009, selon son propre site internet un.org, de plus d’un millier d’entre eux à son service en Afghanistan, sans compter les employés locaux. Il faut aussi compter avec la Croix Rouge et les 1300 ONG enregistrées, dont beaucoup seraient en fait des prestataires de services à but lucratif, voire simplement des entreprises privées, selon des données révélées par l’ancien ministre du Plan Ramazan Bachardoust qui a démontré la corruption du milieu de ces organisations, dont les membres jouissent sur place de conditions de vie luxueuses et ostentatoires qui tranchent avec le quotidien de ceux pour qui elles sont sensées s’employer. Leur rôle, tout comme celui d’entreprises comme Altai Consulting chargées de placer les investissements étrangers en Afghanistan, est très peu traité par les médias occidentaux6. Regroupant et légitimant sous une même bannière des structures aux réalités radicalement différentes, le monde des Organisations non-gouvernementales fait
Jeune République _"L’Etat face à l’échec du marché"_47
ponctuellement l’objet de scandales variés qui rappellent les dérives qui peuvent découler de la présence civile structurelle d’occidentaux dans des pays tiers : ainsi, récemment, l’Arche de Zoé inculpée en 2007 pour enlèvement de mineurs par la justice tchadienne, occasion de surcroît d’une intervention controversée du Président français dans celle-ci ; et pointée du doigt par Noël Mamère comme un symbole d’un « colonialisme compassionnel » aussi déplacé que dangereux. On peut rechercher une autre manifestation impérialiste de la politique des États-Unis dans son ingérence en Amérique latine. Régulièrement des révélations nouvelles se font jour concernant le rôle actif de la CIA dans l’arrivée au pouvoir d’un certain nombre d’autocrates, au premier chef desquels le dictateur chilien Augusto Pinochet, de son coup d’État de 1973 à ses exactions génocidaires sur lesquelles la communauté internationale a longtemps généreusement fermé les yeux, satisfaite de ce bon élève de l’orthodoxie néolibérale. Le soutien apporté par les États-Unis à des régimes comme celui du Salvador et son intervention dans les conflits civils sont connus et dénoncés depuis plusieurs décennies par des reporters, par exemple Richard Boyd, corédacteur du scénario du controversé Salvador d’Oliver Stone (1986), et de nombreuses organisations de défense des droits de l’homme. Ici encore, la France n’est pas en reste dans ses rapports avec ses anciennes colonies ; ce qu’on appelle parfois la Françafrique désigne ce réseau d’influences tissé sans discontinuité depuis la décolonisation. Ainsi, à l’indépendance du Cameroun en 1960, la France impose Ahmadou Ahidjo à la présidence du pays, lui fournissant une aide militaire active dans la répression des rébellions orchestrées principalement par l’Union des Populations du Cameroun, parti indépendantiste fondé douze ans plus tôt. Les différents leaders de l’opposition – Ruben Um Nyobé, Félix Moumié – sont assassinés, le premier à l’instigation de Pierre Messmer (grande figure des violences colonialistes gaullistes s’il en fut), alors Haut commissaire de la République au Cameroun, le second sous l’impulsion des services secrets français. Ahidjo instaure un pouvoir autoritaire et centralisé, les opposants au parti unique étant réduits au silence dans les prisons et les camps de concentration. En 1982, son premier ministre Paul Biya lui succède – il est toujours au pouvoir aujourd’hui grâce à plusieurs élections notoirement truquées et accusé par Amnesty International de contrôler la presse et de museler toute opposition. Son intention de modifier l’article de la Constitution du Cameroun limitant le nombre de mandats présidentiels a provoqué des émeutes durement réprimées en 2008. La réalité économique de la Françafrique fait l’objet de scandales plus ou moins médiatisés dans les années 90, dont « l’Angolagate » concernant d’importantes ventes d’armes à un pays en guerre civile, ou l’affaire Elf qui a montré l’implication de l’exécutif français dans la protection des intérêts d’Elf dans différents pays d’Afrique. Pour revenir à l’exemple du Cameroun, il est notable que Total opère près de 65 % de la production pétrolière du pays (environ 60 000 barils par jour en 2008). La présence de Vincent Bolloré dans les affaires camerounaises est également spectaculaire : à sa mainmise sur les infrastructures ferroviaires et le port de Douala s’ajoute le fait qu’il détienne 40 % de Socfinal, groupe belge dont la filiale Socapalm exploite les employés d’une gigantesque plantation de palmiers à huile dans le sud-ouest du pays (à l’origine des quatre cinquièmes du marché national de l’huile de palme). Le tout, selon un reportage de Benoît Collombat pour France Inter, dans des conditions de travail épouvantables, combinant des salaires de misère et des logements surpeuplés et insalubres.7 Ainsi, de la collaboration économique à la collaboration politique (Paul Biya en « visite officielle » est accueilli à bras ouverts en France, de même le colonel Khadafi), la France perpétue une importante tradition post-coloniale. On serait tenté de rapprocher ces comportements du régime ancien des protectorats, consistant à maintenir des institutions apparemment indépendantes mais noyautées par une métropole se présentant comme simple « protecteur ». Le terme renvoie à une réalité considérée comme obsolète, mais plusieurs pays issus de la décolonisation ont pu être qualifiés de « protectorats déguisés » : ainsi, le Tchad et le Gabon, parfois la Côte d’Ivoire, où l’armée française est installée durablement, aux côtés de conseillers surnommés « gourous blancs » et présents à tous les étages du pouvoir politique, et où finalement de grandes sociétés françaises contrôlent en bonne partie l’économie. Curieusement, parmi toutes les stratégies militaires contemporaines que l’on hésite à qualifier de néocolonialistes alors qu’elles réunissent un certain nombre de critères incitant à l’usage de cette terminologie, il en est une où il demeure courant de parler de « colons » alors que c’est peut-être le cas où le mot est le plus impropre : l’implantation d’Israël au ProcheOrient. En effet, les Israéliens ne souhaitent pas juguler la population locale mais détruire ses infrastructures pour les remplacer par des infrastructures destinées à leur propre usage. De même, Israël ne possède pas de métropole ; or, l’essence du colonialisme, nous l’avons vu avec Arendt, n’est pas d’étendre le territoire national mais de créer un second territoire au statut différent, de la même manière que dans le monde latin, une colonia est une maison de campagne, une résidence secondaire, par opposition à la sphère urbaine. Il ne s’agit donc pas ici d’une logique colonialiste mais d’une logique guerrière (et même, selon l’article 8-2-b-VIII du
48_ "L’Etat face à l’échec du marché"_ Jeune République
Statut de Rome de la Cour pénale internationale, d’un « crime de guerre »), moins proche par sa nature et ses intentions (y compris sur un plan symbolique) des colonisations du xixe siècle que des croisades du xie siècle. L’impérialisme est donc une réalité contemporaine, mais il n’est pas une exclusivité américaine : en France notamment, il n’y a pas de véritable solution de continuité entre le colonial et le post-colonial. On peut aussi juger, avec l’écrivain tunisien Albert Memmi, que même en reconnaissant la réalité de la rupture de l’indépendance, il faut voir en quoi elle a pu servir le maintien d’une mainmise de type colonial, en particulier par l’installation de régimes « amis » par les anciens colonisateurs : « Pire qu’une loi injuste est l’absence de loi […] Voici que le droit colonial ayant été aboli, il n’a pas été vraiment remplacé. Le potentat n’a de comptes à rendre à personne. »8 Il est devenu inutile de continuer à assimiler le colonialisme à une conquête aventureuse, image surannée depuis plus d’un siècle et nuisant à la reconnaissance des formes de pouvoir qui lui ont succédé, formes dont il nous faut maintenant étudier plus précisément l’aspect principalement économique et commercial. Un témoignage étonnant à cet égard est celui d’un Arthur Rimbaud trentenaire qui, bien après avoir renoncé à la poésie, s’est installé en 1885 à Aden, dans l’actuel Yémen, pour travailler dans l’exportation vers l’Europe du café de Moka. Déçu par l’eldorado auquel il s’attendait (« … on vient en croyant gagner quelque chose, mais un franc ailleurs en vaudrait 5 ici. »), il décrit dans une lettre à sa famille l’emprise précoce de l’administration : « À Obock, la petite administration française s’occupe à banqueter et à licher les fonds du gouvernement, qui ne feront jamais rendre un sou à cette affreuse colonie, colonisée jusqu’ici par une dizaine de flibustiers seulement. »9 On oublie souvent, notamment en vantant ses acquis positifs, que la colonisation moderne a toujours été une colonisation de marché.
Capitalisme mondialisé et colonisation par l’argent. On peut assimiler les premiers réseaux coloniaux à l’amorce de la mondialisation ; Arendt ne fait pas autre chose sur le plan géopolitique en affirmant que « avant l’ère impérialiste, ce qu’on appelle une politique mondiale n’existait pas »10 et les analyses de Fernand Braudel sur la « civilisation matérielle » vont dans ce sens. La première question posée par la mondialisation en général, et par les nouveaux rapports coloniaux en particulier, est celle de l’indépendance d’un certain nombre de pays, et du respect de la souveraineté nationale censée être une priorité de la nouvelle justice internationale ; la menace la plus directe qui plane sur celle-ci est l’impérialisme tel que le définit par exemple Che Guevara, dans son discours du 24 février 1965 à Alger : « Tant que l’impérialisme existera, il étendra, par définition, sa domination sur d’autres nations. Aujourd’hui cette domination s’appelle le néocolonialisme. » Un des arguments les plus courants en faveur de l’extension mondialisée du capitalisme (dont la première manifestation structurée est donc la colonisation, et dont nous chercherons à montrer qu’elle étaie aussi les pratiques néocoloniales) est la symétrie des avantages qu’apportent des échanges multiples et normalisés. Un exemple parlant est ici celui de l’Indonésie. Braudel, justement, a montré que par exemple les Hollandais ont moins cherché, en finançant les activités de la Compagnie néerlandaise des Indes orientales (qui ne sont pas l’Inde que nous connaissons, alors colonie britannique), à permettre un échange symétrique et fructueux entre deux « économies-mondes » qu’à d’abord accumuler des fonds en créant un important commerce d’Inde en Inde dont ils ont eux-mêmes tiré les bénéfices, et ensuite s’assurer un monopole sur l’exportation d’un certain nombre de denrées asiatiques : une apparence de relation d’échange symétrique cache une asymétrie savamment construite, qui persiste, dans ses conséquences du moins, jusqu’à nos jours. Il est spectaculaire que l’une des cultures les plus riches d’Asie, au confluent des civilisations hindouistes et de l’Islam, possédant notamment un théâtre d’ombres d’un grand raffinement, sorte tout récemment d’une période de dictature militaire (succédant à une indépendance à peine moins récente) qui a laissé des séquelles dans un pays devenu fragile économiquement, dont l’insalubrité permet à la mortalité infantile de plafonner, où le débat public commence à peine à émerger, et où le football et le badminton font désormais partie de la culture nationale. Tous les maux dont l’Asie du Sud-Est, et notamment l’Indonésie, a souffert dans le dernier siècle ne sont bien sûr pas le pur fruit de la succession de pratiques de type colonial dont elle a été victime – d’origines différentes mais néanmoins de manière continue –, mais la manière impérialiste dont les puissances occidentales ont imposé leur logique économique dans ces régions, toujours à l’avantage de leurs marchés, a été décisive dans leur évolution, jusqu’à la catastrophe de la crise asiatique de 1997. Joseph Stiglitz, extrêmement critique envers le FMI qu’il accuse de servir principalement les intérêts des États-Unis plutôt que ceux des pays en développement qu’il est censé soutenir, a ce constat impitoyable sur la stratégie de cet organisme en Asie Jeune République _"L’Etat face à l’échec du marché"_49
et sa responsabilité dans la crise de 1997 : « Les mesures du FMI n’ont pas seulement exacerbé la crise, elles l’ont aussi en partie provoquée : sa cause principale a probablement été la libéralisation trop rapide des marchés financiers, même si des erreurs d’origine locale ont aussi joué. »11 Il précise : « La libéralisation des marchés des capitaux a mis le pays en développement à la merci des impulsions rationnelles et irrationnelles de la communauté des investisseurs […] »12. Ces analyses, même en refusant le « procès d’intention » que l’on a pu reprocher à Stiglitz de faire et en se limitant à l’influence objective du FMI et de la Banque mondiale sur l’économie d’un certain nombre de pays, correspondent parfaitement à la définition que donnait Nkrumah du néocolonialisme, citée plus haut dans cet article. D’autres exemples transparents en sont les prêts accordés par le FMI, soumis à un certain nombre de conditions, dont souvent la favorisation des investissements étrangers. Un autre exemple de néocolonialisme économique peut être pris dans une autre ancienne colonie, le Kenya, indépendant depuis 1963 membre d’un groupe né des vestiges de l’Empire colonial britannique et censé stimuler la croissance économique des pays qui en font partie : le Commonwealth. En raison de son histoire et des liens économiques et diplomatiques dont il a hérités, le Kenya est dépendant des importations britanniques qui soutiennent son agriculture (engrais et machines) et qui permettent l’accès aux soins de la population. L’action des lobbies pharmaceutiques basés au Royaume-Uni et aux États-Unis y est suffocante, et les polémiques qui ont suivi la publication de The Constant Gardener (2001), roman de John Le Carré, agent du MI6 avant de devenir un auteur à succès, ont montré l’ampleur d’un système où les kenyans, transformés en simples cobayes, devenaient des esclaves de la domination économique de ces puissantes corporations. Il serait caricatural de faire de ce pays un exemple univoque du caractère vampirique de la mondialisation, qui a aussi permis au Kenya d’importer du maïs nourrissant son bétail et l’approchant de l’autosuffisance alimentaire. Mais sur tous les autres plans, le Kenya est devenu largement dépendant d’un « ailleurs », notamment par le biais des recettes des exportations de thé et de fleurs coupées vers l’Union européenne, dont il est le premier fournisseur de roses, dont le différentiel de puissance empêche toute équité dans les échanges. Par ailleurs, être le pays d’origine du père de l’actuel président des États-Unis n’empêche pas ce pays de considérer le Kenya avant tout comme une base stratégique permettant la lutte contres les islamistes de Somalie. L’existence de Zones Franches d’Exportation (ZFE), très recherchées par les puissances occidentales parce qu’elles permettent, sous un régime de douane extrêmement souple et avec l’aide de crédits préférentiels et de subventions, la fabrication de produits par une main d’œuvre sous-traitée avec des contrats temporaires, dans des conditions de travail inférieures aux normes, et généralement non syndiquée, si elle permet la survie d’une partie de la population, permet de maintenir, voir d’institutionnaliser, l’écart de richesses dont il souffre vis-à-vis des pays du Nord. Ajoutons que ces types de néocolonialismes économiques sont de moins en moins l’apanage exclusif des puissances occidentales ; la « spécialisation appauvrissante »13 des pays d’Afrique noire se poursuivant avec l’ouverture à de nouveaux partenaires comme la Chine et l’Inde, d’ores et déjà accusés par la communauté internationale d’exploiter la main d’œuvre africaine et ses matières premières. (« Le commerce sino-africain devrait quintupler entre 2000 et 2010 en atteignant 100 milliards de dollars. »14), et nous comprenons que loin de décroître, le néocolonialisme semble au contraire vivre un âge d’or dont les perspectives sont excellentes. En dehors de sous-traitances officielles, ayant une existence juridique comme les ZFE, on ne peut par ailleurs ignorer un certain nombre de réseaux relevant de ce qui est appelé « l’esclavage moderne ». La Déclaration universelle des droits de l’homme (1948) condamne, presque simultanément à l’anathème jeté par la 4e Convention de Genève sur la colonisation civile, « l’esclavage et la traite des esclaves » qui « sont interdits sous toutes leurs formes ». Pourtant, les différentes formes d’esclavage existent, non seulement comme phénomènes ponctuels (la situation de la servitude pour dette, qui concernerait plus de 20 millions de personnes dans le monde en est un que l’on pourrait assimiler à la situation des pays en développement vis-à-vis du « monde développé ») mais surtout comme flux charriant annuellement des millions d’individus, principalement des femmes et des enfants, partant d’Amérique latine, d’Afrique noire et d’Asie du Sud et du Sud-Est et convergeant vers les pays du Nord où ils alimentent les ateliers clandestins et les réseaux de prostitution. Ces flux sont directement liés à la soumission économique (et par conséquent démographique) d’un certain nombre de pays. L’historienne Catherine Coquery-Vidrovitch développe dans un article du Livre noir du colonialisme l’idée que ce sont les « implications économiques du problème démographique » africain qui ont incité les puissances coloniales à passer du colonialisme au néocolonialisme, « à savoir la mise en coupe réglée de l’ancien pré carré », permettant de laisser « la charge financière des politiques démographiques » aux nouveaux États indépendants tout en continuant à en tirer des bénéfices économiques et géostratégiques.15
50_ "L’Etat face à l’échec du marché"_ Jeune République
Les flux esclavagistes modernes ainsi que l’impérialisme libéral permettent dès lors de penser un néocolonialisme qui ne serait plus territorial mais déterritorialisé. Cette idée est assez proche de ce que Toni Negri nomme l’Empire (dans un ouvrage portant ce titre, coécrit avec Michael Hardt et publiée en 2000), à savoir une construction d’ordre biopolitique (terme emprunté à Foucault), déterritorialisée mais créant des hiérarchies pyramidales dans un monde postmoderne soumis à l’hégémonie de la marchandise. C’est une pensée qui, cherchant à envisager l’aboutissement de l’impérialisme, rejette le colonialisme dans le passé. On peut cependant se demander si Negri n’est pas trop prompt à reléguer dans « l’Histoire » un certain nombre de phénomènes, au nom d’une révolution postmoderne qui serait déjà advenue, nous faisant entrer dans une ère nouvelle sans que nous nous en rendions compte.
Aliénation d’un colonialisme silencieux. Nous nous sommes attachés à montrer la continuité entre la colonisation que Arendt relie à la période « impérialiste » et le néocolonialisme. Ces deux phénomènes sont deux étapes successives, qui prennent la suite de ce que l’on pourrait appeler le premier colonialisme, qui a débuté au XVe siècle au moment de la découverte de l’Amérique, et dont on peut trouver le projet jusque dans le journal de Christophe Colomb. Ces trois colonialismes relèvent sans doute de la même poussée expansionniste, dont on se battra toujours pour savoir si elle est d’origine biologique, ethnologique, psychologique, mystique, etc. On notera cependant que chacun est en conformité avec le code de valeurs de son époque : le premier colonialisme reflète le besoin des grandes couronnes européennes de projeter leurs rivalités dans tous les domaines, de défendre leur honneur en faisant étalage de puissance et de richesses toujours accrues ; le colonialisme impérialiste est la conséquence de l’urgence d’étendre un projet politique national et des ambitions économiques désormais industrielles à une partie accrue du monde ; le néocolonialisme répond à la nécessité de contrôler des ressources humaines et matérielles ainsi que des flux sous couvert de ne pas enfreindre les principes nouvellement sacrés des droits de l’homme et du droit des peuples à disposer d’eux-mêmes. Et un autre point commun : chacun de ces colonialismes a suscité un discours de légitimation propre ; nous appellerons ces discours, dans un sens large, racismes. Il existe depuis la nuit des temps des formes d’isolationnisme, de peur de l’autre, de préjugés xénophobes, de rivalités ou de mépris ou d’indifférences interethniques, mais le racisme comme discours formalisé est une création de l’âge moderne. Il a fallu pour les conquistadores justifier la soumission par les armes, voire la destruction des Indiens d’Amérique, élevées au niveau de politique continentale ; ce fut l’objet de la fameuse Controverse de Valladolid de 1547, qui opposa le pacifique dominicain Las Casas au chanoine de Cordoue, Sépulveda, celui-ci faisant la distinction célèbre entre des êtres inférieurs par nature (en bricolant Aristote) et idolâtres et des Européens supérieurs en tout. L’esclavage des noirs d’Afrique a fait l’objet de semblables théorisations (par exemple par le recours à différentes théories des climats opposant les pays tempérés aux pays tropicaux). De même, au XIXe siècle, le même type de mélange de biologie et de classifications culturelles (mises au goût du jour en fonction des découvertes scientifiques nouvelles) a permis de donner un sens à la colonisation effrénée : il ne s’agissait plus d’évangéliser, mais d’éduquer des peuples inférieurs, non par égoïsme, mais par sens du devoir : tel est « le fardeau de l’homme blanc ». On a ainsi pu clamer en 1885 : « Il faut dire ouvertement qu’en effet les races supérieures ont un droit vis-à-vis des races inférieures. » À qui doit-on cette sortie ? À Vacher de Lapouge ? À Drumont ? À Maurras, peut-être, quoi qu’il ait refusé la théorie des races ? Non, c’est à Jules Ferry, le porte-flambeau de la Troisième République, devant la Chambre des députés16. Dans sa bouche, l’Empire devient un devoir « humanitaire et civilisateur ». Mais ces argumentaires ont été troublés par les excès des totalitarismes du XXe siècle, et l’application systématique des théories eugénistes à laquelle conduit le racisme scientifique, qui s’en est trouvé frappé d’opprobre, avant d’être décrédibilisé par les avancées de la science moderne, la globalisation de valeurs clamant l’universalité des droits de l’homme formant un obstacle supplémentaire. Le pan biologique devant être abandonné, on a pu observer un développement du racisme culturel, parfois teinté de relents d’ancien racisme pseudo-généticien, clamant la supériorité de telle civilisation sur telle autre, l’infériorité de telle religion, etc. L’arme principale devient alors l’Histoire, invoquée en permanence à l’appui de différentes visions du monde, et notamment en ce qui nous concerne ici l’histoire coloniale, dont on considérera qu’elle démontre l’impact civilisateur de l’Occident qui a permis à tant de nations de rattraper leur retard technologique, de développer des infrastructures et des régimes démocratiques, et d’entrer dans une économie mondialisée (en admettant de facto le caractère absolument positif de ces acquis et en évitant de se demander à quel prix ils ont été obtenus). On a ainsi pu suivre en France les différents débats sur une « islamophobie savante »17 qui sévirait dans les élites, renforçant des préjugés répandus. De telles conceptions trouvent cependant leur formalisation la mieux connue, et la plus largement vulgarisée dans l’ouvrage de Samuel Huntington dont le titre est passé dans le langage courant : Le Choc des civilisations (1996). La thèse en est connue : l’humanité serait divisée en huit civilisations occupant chacune une certaine aire géographique, ce qui pour la première fois apparaîtrait avec clarté dans la réalité Jeune République _"L’Etat face à l’échec du marché"_51
mondialisée de l’après-Guerre froide, laissant transparaître le principal enjeu de la période contemporaine : l’affrontement de ces entités civilisationnelles, qui semblent être de grands blocs homogènes dépourvus de dissensions internes, étiquetés sans cohérence selon des critères tantôt religieux (civilisations islamique, orthodoxe, hindoue), tantôt géographiques (civilisations occidentale, chinoise, japonaise et même africaine « si possible », sic18), voire linguistiques (civilisation latino-américaine), et surtout ces blocs n’interagissent jamais que par affrontement, jamais par mélange ou métissage ; ajoutons à cela que, en vertu d’une métaphore organiciste qui semble nous renvoyer trois siècles en arrière philosophiquement, ces civilisations naissent et meurent, et luttent pour leur survie. Huntington assume le caractère schématique de ce qu’il appelle son « paradigme », nécessaire à son sens pour servir à la réflexion et l’action humaines. Car ce paradigme est bien censé servir de repère pour l’action politique contemporaine : « la survie de l’Occident dépend de la réaffirmation par les Américains de leur identité occidentale ; les Occidentaux doivent reconnaître que leur civilisation est unique mais pas universelle et s’unir pour lui redonner vigueur contre les défis posés par les sociétés non occidentales »19. Car oui, l’Occident est en déclin ; il a fait partie des « civilisations majeures » (sic), mais son penchant à se croire porteur de valeurs universelles l’a conduit à se fourvoyer, même s’il demeure la civilisation la plus puissante, ne laissant aux autres que l’alternative de l’imiter ou de lui résister… Mais Huntington, pour sa part, prêche la paix, bien sûr… tant que faire se peut. Le projet avoué étant de façonner à partir de différentes représentations vaguement documentées un paradigme pouvant être largement adopté et susceptible de servir de ligne de conduite pragmatique, on peut qualifier Le Choc des civilisations de réussite, qui a trouvé sa réalisation tant attendue dans la politique américaine postérieure au 11 septembre 2001, au Moyen-Orient notamment. Fort heureusement, chacun de ces racismes a été très largement contesté en son temps ; mais chacun a la propriété d’être extrêmement commode tant pour les décideurs (qui dans chacun des trois cas se sont explicitement référés à ces cautions savantes et réclamés d’elles dans leurs prises de décisions) pour que pour le plus grand nombre. On perçoit aisément le champ d’application théorique de cette concomitance entre colonialismes et racismes. Il est également intéressant de l’utiliser pour comprendre une partie du phénomène migratoire en France, que l’on pourrait qualifier de prolongation coloniale inversée. C’est d’abord le cas historiquement, puisque une grande partie de l’immigration française provient d’anciennes colonies, pour des raisons linguistiques et culturelles (par exemple pour l’immigration algérienne antérieure à 1962). Mais le Français qui se considère comme l’étant « de souche » ne se comporte pas de la même manière avec un colonisé et avec un immigré. Certes, les deux ont pour lui en commun de sortir d’un état de grande indigence et de bénéficier des luxes d’une société plus riche et développée, ce dont il doit se montrer reconnaissant et digne. Seulement, il se produit un flou, dû à la superposition de réalités historiques mal définies, entre le modèle de la dissociation et le modèle de l’assimilation. Faut-il se tenir à l’écart ? Faut-il revendiquer une différence culturelle ? Une assimilation réussie est-elle celle qui vous met en avant ou celle qui vous rend transparent comme un bon domestique ? Ces interrogations ne trouvent pas de solution satisfaisante dans les représentations vagues de ce que l’on a coutume d’appeler « la figure de l’immigré ». Avant, les choses étaient claires : les colonisés étaient utilisés pour entretenir les colonies et nourrir les besoins de l’industrie et de l’armée, l’espace était clairement organisé. Quand la colonie cesse d’exister, ces représentations volent en éclats. La fréquentation des populations immigrées devient quotidienne, la structuration socio-culturelle de l’espace se dissout. Face à ce problème, on assiste bien sûr à la réactivation d’un certain nombre de vieux préjugés sur « les Arabes », leur malignité génétique, etc. sans pour autant pouvoir se généraliser. On appellera donc à la rescousse le bien-aimé racisme culturel. La recette est simple : créons un terme assez vague, censé posséder une certaine pertinence scientifique (sociologique, géo-historique), par exemple « les Maghrébins ». Faisons-en une étiquette sous laquelle nous regrouperons les ressortissants de nations aux histoires très variées (« nous », car euxmêmes n’emploient jamais ce terme), et qui surtout ont des historiques d’émigration vers la France tout à fait différents. Nous aurons ainsi réunis en une même entité fantomatique (dans tous les sens du terme) des flux d’immigration, des générations d’immigrés et des individus issus de pays et de cultures différents (beaucoup ne se comprendraient pas mutuellement s’ils parlaient la langue de leurs grands-parents). Ensuite, la bête est lâchée : « le recours constant à cette étiquette « maghrébine » permet de conforter le discours xénophobe sur le « ghetto » en grossissant les chiffres, puisqu’elle englobe plusieurs nationalités »20. Fixer des quotas, étiqueter des formes plus ou moins imaginaires de communautarismes, donner des instructions destinées aux contrôles de sécurité sur la voie publique, tout cela devient plus aisé, et se transpose facilement dans le quotidien en regards méfiants, en peur de la « racaille », en mépris envers cette population d’anciens colonisés qui a le culot de venir en redemander chez nous maintenant que nous avons bien voulu leur accorder leur indépendance. Quels grands enfants ! Et on les laisserait troubler la belle [et imaginaire] homogénéité de notre prestigieuse culture nationale ?
52_ "L’Etat face à l’échec du marché"_ Jeune République
Ainsi, la transposition est achevée. La frontière entre métropole et colonie n’est plus la Méditerranée mais le boulevard périphérique ; non pas que ce soit du pareil au même, la différence est même considérable : maintenant la colonie se meut, on peut la sentir palpiter, elle est partout autour de soi. L’immigré est insaisissable : est-il bien un citoyen ? Ses papiers sontils en règles ? Est-il vraiment intégré ? A-t-il adopté nos valeurs ? Il est, comme le colonisé, un ailleurs que l’on devrait accepter comme un ici… « L’étranger n’est plus celui qui vient d’ailleurs, mais celui qui se reproduit en permanence dans le corps social. D’une altérité, l’autre. De l’immigration aux banlieues et autres no man’s lands urbains. Comme une partition sociale ou ethnique de l’Hexagone, une rupture radicale entre citoyens reconnus et citoyens de seconde zone. »21 On ne sait plus très bien où est cet ici, il faut promptement créer un ministère de l’Immigration et de l’Identité nationale… Ces lignes sur l’immigration, si elles peuvent sembler être une inutile digression, soulèvent un enjeu majeur du néocolonialisme, ou du moins de notre gestion de « l’héritage colonial » (objet du collectif La Fracture coloniale, cité en note). Elles doivent du moins rappeler à notre mémoire trois corollaires : primo, le symétrique de l’immigration, à savoir l’émigration, qui est pour certains pays en développement une source non négligeable de revenus grâce aux envois provenant des diasporas, mais aussi la garantie d’une stagnation prolongée si elle comprend aussi, comme c’est le plus souvent le cas, une « fuite des cerveaux » vers des pays où leurs talents sont susceptibles d’être immédiatement mis à profit après complétion de leur formation. Secundo, les flux migratoires entre la France et ses colonies méditerranéennes ne sont pas seulement favorisés par l’histoire récente et la langue française, mais aussi par la collaboration continuée avec ces différents pays, tant sur le plan diplomatique que sur le plan commercial. Ainsi, plusieurs entreprises françaises sont implantées en Algérie et au Maroc, qui possèdent un certain nombre de ZFE qui sont parfois sujettes aux débats (les entreprises françaises y font assembler des voitures). Tertio, la reconnaissance publique et critique progressive d’écrivains français issus de l’immigration, et leur confusion avec des auteurs non Français de langue française (c’est-à-dire le plus souvent ressortissants d’une ancienne colonie), a récemment placé sous les projecteurs la notion de francophonie, tantôt pour l’exalter au titre de formidable ouverture culturelle et signe de l’unité d’une communauté culturelle d’étendue internationale, tantôt pour la condamner comme « dernier avatar du colonialisme », ainsi que l’ont fait les quarante-quatre écrivains signataires d’un article-manifeste militant pour l’abandon du terme, francocentré et fermé à toute forme de créolisation22. Si ces questions sont toutes trois importantes et réclament de manière pressante des solutions, je voudrais m’attacher à une dernière manifestation du néocolonialisme qui me semble de première importance, et qui fait pourtant l’objet de trop peu d’analyses dans cette optique, à savoir le tourisme. On serait tenté de confronter le classement des pays les plus corrompus – à ce titre les plus médiatisés, y compris dans les interventions occidentales qu’ils subissent, puisqu’il s’agit d’interventions militaires – et celui des plus grandes destinations touristiques : constater qu’ils ne coïncident pas revient-il à nier la réalité d’un néocolonialisme touristique, sous prétexte que la présence militaire est la forme la plus visible de néocolonialisme que nous ayons décrite ? En effet, les trente premières destinations touristiques mondiales sont des pays du Nord, des champions de l’IDH, les bons élèves, les « propres sur eux » (Singapour illustre merveilleusement cette qualité) : les chiffres de l’Organisation Mondiale du Tourisme23 révèlent que les principaux pays émetteurs de flux touristiques sont aussi les principaux pays récepteurs de ces flux. Seulement, c’est dans les marges qu’il faut regarder, puisqu’il s’agit ici essentiellement d’analyser l’économie de pays tenus pour marginaux à l’échelle globale. Prenons la liste des régimes les plus corrompus selon le classement publié par Transparency International sur son site internet24. On peut par recoupement dessiner un portrait robot du pays corrompu type sous sa forme extrême (gouvernement refermé sur lui-même, administration touffue et même anarchique ; des pays comme l’Inde et la Russie, également associés à la corruption, la possèdent à d’autres niveaux et d’autres degrés d’intensité) : le pouvoir y est autoritaire et centralisé, qu’il soit familial, issu d’un putsch militaire ou concentré par un personnage arrivé au pouvoir avec l’aide – ou par la complaisance – des grandes puissances occidentales basées dans la région (il a généralement accompli plusieurs mandats, grâce à un amendement de la constitution de son pays et à des opérations de fraude électorale dont la réalité a le plus souvent été démontrée, le reste des voix ayant été remporté à l’aide de slogans tels que : revendication patriotique d’indépendance vis-à-vis de l’Occident / idéologie religieuse comme revendication identitaire / lutte contre la corruption – rayez la mention inutile) ; l’opposition est muselée, et parfois mise en scène pour les apparences, comme en Guinée Équatoriale, pays parfois qualifié de « démocrature ». Le palmarès permet de dessiner un triangle entre l’Afrique noire, la zone Moyen-Orient/ Asie centrale, et l’Amérique latine. Bien sûr, des facteurs extrêmement variés ont présidé aux
Jeune République _"L’Etat face à l’échec du marché"_53
destinées de ces pays, les ont conduits à subir cette gangrène. Mais sur les quinze pays les plus corrompus de la planète, combien n’ont pas subi un passé colonial ou une occupation de leur territoire à une date plus ou moins récente ? Un seul, l’Iran, qui se veut justement le fer de lance de la lutte contre la présence occidentale dans le Golfe persique ; les autres sont, à proportion encore une fois à peu près égale, d’anciennes colonies ayant pris leur indépendance dans les années 50 et 60, et d’anciennes possessions de l’URSS indépendantes depuis 1991, plus deux précurseurs de la décolonisation, Haïti et le Venezuela, qui se sont tous deux battus avec esprit révolutionnaire et idéalisme – respectivement contre la France et l’Espagne – au début du XIXe siècle. Dans chacun de ces pays, l’ingérence occidentale est pluriséculaire, elle est du moins économique lorsqu’elle n’est pas politique. Sur ces mêmes quinze pays, combien ne sont pas exportateurs de pétrole, de gaz naturel, d’uranium, de diamants, ou du moins de coton, de café et de cacao, si ce n’est d’opium (massivement cultivé et exporté vers la Russie et l’Europe principalement) ? Aucun. Évidemment, ces quinze pays ne sont pas considérés comme des destinations touristiques de choix : personne ne veut avoir affaire à des États ouvertement placés sous une dictature, militaire ou non (ou en « dérive autoritaire », selon l’expression feutrée d’Amnesty International au sujet du Venezuela), et éventuellement déchirés par la guerre civile (comme la Somalie, numéro une du palmarès, ou le Tchad). Mais il ne faut pas oublier leur importante diaspora (Somalie encore, et Haïti), qui fait rentrer un argent qui constitue une part souvent impressionnante du PIB. Cette forme de dépendance complète nos remarques précédentes sur l’immigration comme colonialisme inversé. Mais isoler la tête d’un tel classement, c’est ne prendre en considération que les extrêmes. La coïncidence est en revanche bien plus manifeste entre des pays moins évidemment corrompus ou dictatoriaux (puisque c’est la perception publique que prétend mesurer Transparency International) et les destinations touristiques favorites après les pays riches qui s’échangent leurs flux de voyageurs, les fameux trente premiers. À côté des grands courants, il faut compter avec des flux apparemment minimes en comparaison avec les premiers, mais énormes à l’échelle des pays récepteurs qu’ils concernent. C’est précisément dans leur asymétrie que réside leur intérêt pour notre sujet. En effet, après les trente premières destinations touristiques apparaissent très vite des pays plus fortement touchés par la corruption (Malaisie, Croatie, République de Maurice, Tunisie…), des régimes plus controversés (Thaïlande, Chine, Brésil, Bulgarie…) et enfin, toujours haut dans le classement des principales destinations touristiques, des pays largement décriés pour leur corruption et leurs pratiques politiques en général (Mexique, Panama, Jamaïque, Inde, Égypte, République dominicaine, puis les principaux pays d’Amérique latine, du Maghreb, de l’Asie du Sud-Est). C’est cette frange fragile, qui n’apparaît en tête d’aucun baromètre ni d’aucun indicateur chiffré, qui est la victime d’un néocolonialisme d’autant plus dangereux qu’il est silencieux. J’en prends à témoin l’Égypte, pays entièrement dépendant de l’aide internationale/occidentale (accordée pour des raisons géostratégiques par rapport au Moyen-Orient) et dépendant surtout de l’important tourisme sur lequel se greffent des économies officielles et souterraines. Le pays, qui vit sous une dictature militaire déguisée à la politique désastreuse (la construction du barrage d’Assouan a perturbé les crues du Nil et détruit l’immense fertilité de son lit, détruisant un potentiel agricole immense), est sous perfusion, et vit pour ainsi dire de ses rentes, puisque une grande partie du legs culturel qui sert de prétexte au tourisme se trouve en réalité dans les musées de grandes villes occidentales. Le comportement des touristes, qui attendent pour leur propre usage la reconstitution d’un mode de vie que la plus grande partie de la population locale ne connaît pas, et qui promènent dans le pays un luxe aussi ostentatoire que celui des dirigeants d’ONG et d’institutions internationales dans les pays où ils agissent ne diffère en rien de ceux qui les ont précédés affublés du titre de colons, et qui maintenaient la même distance entre eux et les « autochtones ». En somme, la tertiarisation de l’économie a logiquement entrainé la tertiarisation du néocolonialisme ; ajoutez à cela la banalisation des déplacements mondiaux et le raccourcissement des distances, vous aurez fait de votre colon de 1910 un touriste de 2010. Il ne s’agit pas, comme veulent le faire croire certains défenseurs de la mémoire coloniale positive et pourfendeurs de la solidarité internationale (deux populations qui, de manière signifiante, se recoupent souvent), de déresponsabiliser ces populations, et d’attribuer tous leurs maux (la corruption et la misère notamment) à des causes extérieures et colonialistes. « La montée d’une ethnicisation de la mémoire, d’une idéologie victimaire qui psychologise et invidualise des situations politiques compliquées – ce type de phénomènes est en train d’émerger sur l’île de La Réunion – indique combien il faut rester attentif aux évolutions des discours. »25 Ce serait faire une concession à ceux qui défendent l’idée de pays du Sud n’ayant pas encore atteint leur « majorité » comme nations (ou pire, comme civilisations). Mais il est difficilement concevable qu’imposer une logique de compétitivité sur le court terme et jamais le long, tout en incitant au repli identitaire par une attitude paternaliste et humiliante permette jamais de sortir de cette situation, et n’incite pas à sa perpétuation. C’est pourtant cette
54_ "L’Etat face à l’échec du marché"_ Jeune République
même vision, c’est ce même continent statique et refermé sur son présent continu, incapable d’apprendre que décrit Hegel, c’est le « si possible » de Huntington, c’est trois colonialismes successifs qui exsudent des propos d’un président de la République français qui ose venir dire à Dakar : « Le drame de l’Afrique, c’est que l’homme africain n’est pas assez entré dans l’histoire. […] Dans cet imaginaire où tout recommence toujours, il n’y a de place ni pour l’aventure humaine, ni pour l’idée de progrès. »26
Quelques mots de conclusion. Soit que les catégories créées par Nkrumah soient souples à en être douteuses, soit que les réalités géopolitiques et économiques aillent se complexifiant et se ramifiant (et continuent de le faire, comme le montre la multiplication des partenaires commerciaux des pays en voie de développement), une grande palette de stratégies et de pratiques peuvent être étiquetées comme néocoloniales aujourd’hui. Notre incapacité à nous pencher résolument sur notre passé colonial et sur son héritage – qu’il s’agisse des Français et du véritable gouffre que constitue ce sujet dans leur historiographie et leur mémoire collective, ou des Américains qui n’ont pas pris la mesure de leur influence mondiale au XXe siècle ni même de la médiocrité de leur gestion des minorités amérindiennes vivant sur leur territoire, dans des réserves reproduisant un folklore pour touristes et régies par des règlements surannés – et notre difficulté à nous déprendre de constructions ethnocentristes liées à des imaginaires nationaux dépassés nous empêchent d’imprimer un tournant majeur dans la manière dont nous structurons notre société, notre mondialisation et ses interactions avec les autres. Y a-t-il un remède au néocolonialisme ? La réponse de ceux qui sont aux premières lignes pour lui résister semble être toujours le même rêve unitaire : Nkrumah appelait au panafricanisme, contre la « balkanisation » de l’Afrique en petits pays, Nasser au panarabisme, Che Guevara au bolivarisme en Amérique latine. C’est en somme la vieille utopie fédérale qui n’a rien pour nous surprendre, puisqu’elle guide les projets américain et européen. Mais ces auteurs sans doute n’auraient pas aimé voir l’œuvre de leurs successeurs : l’Union africaine du colonel Khadafi et le bolivarisme devenu projet de Chavez. C’est le même danger dictatorial, voire totalitaire, que Arendt avait déjà vu dans le pangermanisme. On peut constater que toute utopie va de pair avec une obsession de la pureté qui se traduit sous sa pire forme en nettoyages ethniques comme ce fut le cas dans le pangermanisme nazi, ou du moins en un certain isolationnisme incompatible avec la collaboration ouverte que doit permettre la fin des pratiques néocolonialistes . On ne saurait cependant non plus se réjouir de la mise en défaite de ces projets par la continuation de rapports anciens, le morcellement et la spécialisation des pays en développement, leur mise en rivalité qui explose dans des conflits identitaires, interreligieux et interethniques, ainsi que par l’émergence de nouveaux impérialismes tel celui de la Chine. Le risque est que, comme ce fut souvent le cas dans la transition entre le colonialisme et le néocolonialisme, les acteurs changent, de même les règles, mais que le jeu continue. Parler de multiculturalisme et de commerce équitable ne suffit pas à en faire autre chose que de beaux slogans. Le « nouveau choc colonial » n’est pas une collision, comme on en voit dans la boxe ou comme le décrit Huntington (qui emploie le mot éloquent clash), mais bien plutôt un état de choc au sens médical : le cœur bat fort mais le sang ne circule pas, et en l’absence d’un diagnostic et d’un traitement rapides, les tissus se meurent, faute d’oxygène. L’image du vivant s’impose : car là où le terme de néocolonialisme est sans doute le plus adapté, c’est dans sa manière de transformer la vie humaine en marchandise, de fondre l’individu dans les flux économiques, d’abolir les notions de vie privée et d’espace privé ou du moins de leur faire perdre leur sens en aliénant tous les héritages, en traçant les frontières des pays à la règle et en mimant une amnésie sélective de l’histoire collective ; le terme de biopolitique est ici pertinent. Mais dans le diagnostic vital de cet état de choc, quel peut être le symptôme décisif ? Un nouvel attentat en Égypte pourrait-il être le Sétif du colonialisme touristique ? Ou peut-être un long travail de mémoire, mené collectivement par les colonisateurs et les colonisés, par le biais des échanges culturels et arts notamment, remplira-t-il cette fonction ? Le pessimisme est ici permis, car nous n’aurons jamais appris qu’une seule chose de l’Histoire à l’issue du XXe siècle : à savoir notre incapacité totale à apprendre d’elle. Alexandre Barrière est étudiant à Paris 1 Panthéon-Sorbonne
Jeune République _"L’Etat face à l’échec du marché"_55
NOTES 1_ Rééd. Le Serpent à Plumes, 2000, p. 17. 2_ Lexique des termes juridiques, Dalloz, 2009, article « Colonisation ». 3_K. Nkrumah, Le néocolonialisme, dernier stade de l’impérialisme, trad. fr. Présence Africaine, 1973, p. 9-10. 4_ H. Arendt, L’Impérialisme, trad. M. Leiris/H. Frappat, Fayard, 2002, p. 15. 5_ « La présence militaire des États-Unis dans le monde », in Histoire/Géographie 3e, dir. M. Ivernel, Hatier, 2007, p. 246 et sqq. 6_ Ils font cependant tous deux l’objet d’une enquête de Daniel Mermet dans son reportage pour l’émission radio Là-bas si j’y suis du 3 novembre 2006, disponible en ligne : http://www.la-bas. org/article.php3?id_article=1021 7_ « Cameroun : l’empire noir de Vincent Bolloré », disponible en ligne : http://sites.radiofrance. fr/franceinter/em/interception/index.php?id=77736 8_ A. Memmi, Portrait du décolonisé, Gallimard, 2004, p. 98-99. 9_ Lettres aux siens, 14 avril 1885, in A. Rimbaud, Œuvres complètes, Gallimard, Pléiade, 1972, p. 398-400. 10 _ H. Arendt, op. cit., p. 14. 11_ J. E. Stiglitz, La Grande désillusion, trad. P. Chemla, Fayard, 2002, p. 153-154. 12_ Op. cit., p. 169. 13_ P. Hugon, L’Économie de l’Afrique, La Découverte, 2009, p. 51. 14_ Op. cit., p. 52. 15_ C. Coquery-Vidrovitch, « Évolution démographique de l’Afrique coloniale », in Le Livre noir du colonialisme, dir. M. Ferro, Hachette, 2003, p. 756. 16_ « Les fondements de la République coloniale », cf. http://www.assemblee-nationale.fr/histoire/ Ferry1885.asp 17_ Cf. notamment le collectif Les Grecs, les Arabes et nous : enquête sur l’islamophobie savante, Fayard, 2009. 18_ S. Huntington, Le Choc des civilisations, trad. J.-L. Fidel, Odile Jacob, 2007, p. 45. 19_ Op. cit., p. 17. 20_ G. Noiriel, Immigration, antisémitisme et racisme en France, Fayard, 2007, p. 585. 21_ A. Boubeker, « Le creuset français ou la légende noire de l’intégration », in La Fracture coloniale, dir. P. Blanchard, N. Bancel, S. Lemaire, La Découverte, 2005, p. 188. 22_ « Manifeste pour une littérature-monde en français », Le Monde, 19 mars 2007. 23_ Cf. http://www.unwto.org 24_ Cf. http://www.transparency.org 25_ F. Vergès, « Postcolonialité : retour sur une “théorie” », in Retours du colonial, dir. C. Coquio, L’Atalante, 2008, p. 286. 26_ N. Sarkozy, Allocution à l’Université de Dakar, 26 juillet 2007, disponible sur le site de l’Élysée : http://www.elysee.fr/elysee/elysee.fr/francais/interventions/2007/juillet/allocution_a_l_universite_de_ dakar.79184.html
56_ "L’Etat face à l’échec du marché"_ Jeune République
Chapitre II
INNOVATION
&
RÉGULATION À L’HEURE DU NUMÉRIQUE
58_ Jeune République
Flickr - Creative Commons licence photo credit pooyan jal
- Edito - Création & Numérique - p.60 - Le cinéma à l’heure du numérique : de l’industrie vers l’artisanat ? - p.61 - Entre droit à la culture, protection des artistes et puissance des majors : les pouvoirs publics à l’heure de la régulation numérique - p.66 - L’Hadopi et le cinéma français : petits meurtres entre amis - p.71 - Réflexion comparée sur la protection juridique de la propriété intellectuelle en France et aux Etats-Unis - p.76 - L’exception culturelle française : un simple protectionnisme industriel ou une véritable politique au service d’une certaine idée de l’art et de sa diffusion ? - p.80 - Vers de nouveaux paradigmes de la diffusion et de la création des oeuvres - p.83
Jeune République _59
EDITO CRÉATION
& NUMÉRIQUE
L’arrivée d’internet a bousculé toutes les industries de la création et le fragile équilibre que la France avait réussi à construire et faire porter politiquement, équilibre dont la renommée s’est faite à partir de l’expression « Exception Culturelle », qui nous permet d’être présents dans les quatre coins du monde avec une efficacité admirable en termes d’influence et de rayonnement de notre pays.
Aujourd’hui ce modèle est complètement remis à plat, ce qui suscite bien des inquiétudes. La loi Hadopi est née de cette angoisse, angoisse partagée tant par l’ensemble de la classe politique que par le monde de la création: celle d’une disparition progressive de notre aura et de la spécificité de notre création, engloutie comme tant d’autres industries par la mondialisation. Cette angoisse légitime a pourtant empêché un débat plus légitime encore de naître et qui aurait permis de s’ouvrir à de nouveaux modèles de régulation. L’arrivée des chaînes privées, du magnétoscope et des K7 vidéo avait engendré un bouleversement fantastique dans les années 80, qui avait été très largement rentabilisé par les Loi Lang et avait permis d’inventer un nouveau modèle de financement pour la création. C’est ce nouveau modèle qui, aujourd’hui périmé, demande à être réinventé. La formidable énergie créatrice qui avait découlé de la bousculade des années 80 ne s’est pourtant pas reproduite. Comme si ce modèle, mille fois bénéfique, avait installé les industries culturelles et leurs créateurs dans un certain confort dont elles n’oseraient plus sortir. Or Internet est devenu une révolution telle que l’impasse ne peut être faite aujourd’hui sur la réinvention de notre modèle. L’attentisme ne peut être de mise face à de tels enjeux. Car si le risque est grand, il l’est surtout parce que de formidables opportunités s’ouvrent à nous. La France a aujourd’hui l’opportunité de montrer que l’audace et le panache dont elle s’est si souvent prévalue dès lors qu’il s’agissait de défendre sa culture, lors des négociations du GATT notamment ne l’ont pas quittée. En ouvrant un grand débat sur les alternatives à l’HADOPI, en montrant qu’il est possible d’ouvrir une autre voie que celle de la répression sur la question du téléchargement, et en promouvant une solution innovante, radicale dans son message et respectueuse des intérêts et de la liberté de la création, le Ministre de la culture marquerait d’une empreinte durable l’histoire de la politique culturelle française. Refuser de fermer le débat malgré la récente décision du Conseil constitutionnel est en effet une impérieuse nécessité. Il ne s’agit pas de s’opposer dogmatiquement à l’Hadopi, ni défendre coûte que coûte un modèle alternatif qui laisse un certain nombre de questions en suspens. Il s’agit de sortir des postures et des points d’opposition stérilisants qui ont étouffé le débat ces derniers mois, et empêché de se poser les bonnes questions: le modèle économique actuel des entreprises culturelles est-il véritablement viable encore aujourd’hui, avec ou sans l’Hadopi? Les dernières interventions des sociétés d’auteur réclamant une nouvelle taxe ne semblent pas aller en ce sens. Dès lors, ne faut-il pas repenser l’ensemble de l’échafaudage économique et législatif composé depuis les lois Lang, en partant de la base? Si l’occasion semble trop belle pour certains de pousser à une dérégulation totale du système, nous défendons au contraire la prise en compte de solutions originales, parfois radicalement nouvelles, mais toujours réalistes et garantes de l’équilibre du système actuel. La plus évidente d’entre elles? La licence globale. 60_ "Innovation et régulation à l’heure du numérique"_ Jeune République
LE CINEMA A L’HEURE DU NUMERIQUE :
> A la une
de l’industrie vers l’artisanat ? par Alexis Bétemps Depuis une dizaine d’années, l’émergence de la technologie numérique a ouvert une brèche dans le roc jadis perçu comme impénétrable de l’industrie du septième art; en offrant une opportunité de production élargie puisqu’affranchie des contraintes, notamment pécuniaires, du format traditionnel du 35 millimètres, la technologie numérique facilite de fait l’accès à la création visuelle. Faut-il pour autant voir dans cette dématérialisation du support cinématographique une révolution comparable à celle déclenchée par l’avènement du numérique dans le monde de la musique, et ainsi prévoir une évolution similaire des deux domaines, avec la démocratisation de la production et le glissement d’une industrie à une forme d’artisanat à la portée de presque tous? Il semble que la mutation des formats et de supports ne soit pas suffisante pour modifier de manière significative le rapport des individus à l’art lui-même, et que l’ouverture des voies d’accès ne soit pas nécessairement synonyme d’accès facilité à la création; le format n’est que support, et en ce sens, son renouveau doit s’accompagner d’un renouveau des genres, de l’offre artistique et des idées pour véritablement transfigurer le monde du cinéma.
LA REVOLUTION DU CINEMA NUMERIQUE L’introduction d’une nouvelle technologie au service d’un secteur (surtout s’il est artistique par essence) suscite toujours beaucoup d’espoirs et d’engouement. L’arrivée du numérique est d’autant plus fracassante qu’elle touche le septième art au cœur. Ne parle-t-on pas de film pour désigner toute œuvre cinématographique? La métonymie évoquant initialement la pellicule n’a plus de raison d’être avec le numérique: plus de bobine, plus de film. Si cette remarque sémantique peut paraître purement symbolique, elle ne témoigne pas moins de ce que le cinéma numérique est un univers nouveau. L’artiste, tout d’abord, avec le numérique, voit les coûts de réalisation considérablement diminués. L’investissement que représente un tournage en numérique étant moindre que celui impliqué par un tournage en 35 millimètres, la barrière des coûts semble quelque peu s’abaisser, et le domaine de la réalisation ainsi s’ouvrir à des budgets plus modestes. En conséquence, l’accès à la création facilité, il devient possible de contourner les voies traditionnelles qui seules menaient à la possibilité de s’exprimer, à savoir les réseaux de relations dans le milieu, ou le formatage des sujets traités. Avec le numérique, l’impératif de rentabilité qui contraignait autrefois les producteurs à ne s’intéresser qu’aux projets sûrs, garantissant un retour sur investissement, compte tenu des coûts engagés, peut s’estomper au profit d’une création diversifiée. Prenant le parti de croire que lorsqu’il s’agit d’art, c’est l’offre qui doit susciter la demande, il est certain que les apports nouveaux du cinéma numérique en matière de création ne manqueront pas de rencontrer leur public. En prenant le domaine artistique dans son sens large, on peut également considérer que les monteurs et les équipes de post-production voient leur tâche facilitée grâce au support
« Avec le numérique, l’impératif de rentabilité qui contraignait autrefois les producteurs à ne s’intéresser qu’aux projets sûrs peut s’estomper au profit d’une création diversifiée. »
Jeune République _"Innovation et régulation à l’heure du numérique"_61
(c) J-L Godard
dématérialisé; l’économie de kilomètres de pellicules représente un gain de temps et d’argent considérable. Enfin notons que la conservation des bobines n’offrait aucune certitude, tandis que le numérique garantit une absence de vieillissement de l’image, ce qui pérennise l’œuvre elle-même. Le distributeur également profite des avantages du numérique. Si l’on s’en réfère aux chiffres publiés par la Warner Bros, la distribution d’une copie d’un film coûte environ 1500 euros. En numérique, la distribution d’une copie ne nécessite que 150 euros, soit une économie de 90%. En effet, le poids d’un disque dur est bien moindre que celui d’une bobine (environ 30 fois moins lourd), et les facilités de distributions sont accrues, le film pouvant être transmis par communication satellite ou Ethernet. Dans les salles, le numérique représente également un progrès conséquent. Les manipulations de bobines, notamment entre les bandesannonces et le film lui-même, deviennent inutiles, ce qui permet une réduction des effectifs de projectionnistes et une diminution des coûts d’exploitation. D’autre part, les exploitants sont limités avec le format argentique par les possibilités des distributeurs. Le numérique permet en revanche à chaque salle de commander une copie du film qu’elle désire, ce qui conduit inévitablement à un élargissement de l’offre culturelle et ouvre la voie à estompement de l’uniformité des programmations d’un cinéma à l’autre. Un constat simple peut être effectué, qui permet de mesurer l’ampleur du succès que rencontre le numérique grâce à ses nombreuses aménités. En France, 84 films ont été distribués au format numérique en 2009, ce qui représente une augmentation de 75% par rapport à 2008. Le chiffre relatif est donc satisfaisant. Dans l’absolu, cela représente près d’un cinquième des sorties de films: les qualités du numérique semblent ainsi se doubler d’un succès mérité. En effet, le numérique apparaît quelque part comme la panacée de tous les maux dont souffre le cinéma. Il permet d’enrichir la production, d’affiner l’offre, et d’améliorer l’œuvre. On comprend qu’il soit devenu depuis quelques années l’attention de tous les regards des professionnels d’un cinéma qui paraissait miné par la contradiction permanente entre films divertissants et sans intérêt artistique mais sans risque pour l’industrie, et films d’auteurs, fruits d’une création plus poussée, mais peu commerciaux. Le numérique a donc cet extrême mérite de permettre de lubrifier quelques peu les couloirs étroits de la production cinématographique.
62_ "Innovation et régulation à l’heure du numérique"_ Jeune République
LA PERSISTANCE DE L’INDUSTRIE DU CINEMA Pour comprendre l’horizon que sous-tend l’arrivée du numérique dans le cinéma, il s’avère utile de comparer, de manière certes ironique mais efficace, les possibilités du cinéma numérique à l’avènement de la démocratie dans une société aristocratique: chacun pourrait réaliser son film, quand seuls quelques noms le pouvaient. La liberté des sujets traités serait extrême, quand elle était restreinte aux histoires d’amour et aux situations critiques dont le dénouement se trouve subitement confié à quelque quadragénaire séduisant, intelligent, etc. Voilà la véritable illusion qui hante le développement du numérique; l’idée que dans un futur plus ou moins proche, il sera donné à chacun de réaliser son film et de le faire distribuer. Il suffit de lever les yeux vers les affiches pour constater que la quasi-totalité des films numériques distribués en France en 2009 étaient des super-productions. Le box office des cinq productions ayant attiré le plus de spectateurs est exclusivement composé de films numériques: Avatar, L’âge de glace 3, Harry Potter et le Prince de sang mêlé, Le Petit Nicolas, 2012. Ces éléments permettent d’avoir une idée relativement précise de la topographie du cinéma numérique. Loin des films d’auteurs, il semble constituer le support idéal aux blockbusters, autrement dit, aux films qui tenaient déjà le haut de l’affiche avec la technologie analogique. Exit le renouveau, l’impact artistique du numérique semble sévèrement ébranlé, et on voit sourdre la réalité économique d’une technologie juteuse pour les grands studios. A peine l’avenir radieux du cinéma numérique s’annonçait-il en 2002 que les sept plus gros studios hollywoodiens, à savoir la Metro-Goldwyn-Mayer, les studios Paramount Pictures, les studios Sony-Pictures, la Twentieth Century Fox, les Universal Studios, la Walt Disney Company, et la Warner se retrouvaient pour officialiser leur collaboration au sein d’un organe recevant le nom de Digital Cinema Initiatives. L’objectif de cette entreprise nouvelle est de « permettre l’établissement et l’information de structures pour une architecture ouverte au service du cinéma numérique », autrement dit de coordonner les productions et les producteurs dans l’aventure nouvellement offerte à leurs investissements, et de permettre l’interopérabilité entre les acteurs du milieu. Si l’initiative s’est avérée efficace d’un point de vue technique, elle consacre en réalité la mainmise de ces grands studios sur le cinéma numérique (ils cumulent à eux sept 47 productions numériques sur les 84 de l’année 2009). L’industrie du cinéma n’a donc pas tardé à se mettre efficacement au numérique, sentant le vent tourner. Ces faits ne suffisent cependant pas à conclure que la grande industrie du cinéma se soit emparée du cinéma numérique; on peut très bien être pionnier sans être en position hégémonique. Pour montrer qu’Hollywood s’est saisi de manière quelque peu gourmande du secteur numérique, restreignant spectaculairement les opportunités que celui-ci offrait à l’ouverture d’une industrie du cinéma, favorisant l’art et le travail d’auteur, il faut analyser un fait nouveau: les contenus stéréoscopiques, aussi connus sous le nom de films « en 3D ». L’effet de la 3D est spectaculaire, et spectaculairement coûteux. D’un point de vue artistique, il n’apporte rien pour l’instant, car seules ont été exploitées ses fantastiques capacités commerciales: en 2009, douze films sont sortis en France en 3D, dont les titres suffisent à parfaitement cibler le type de public visé, mais aussi l’absence totale de recherche artistique innovante: Destination finale 4, Jonas Brothers: le concert événement, Hannah Montana le film… Fait parlant; la totalité des productions 3D en 2009 émanait d’un des studios hollywoodiens de la DCI. La technologie 3D est extrêmement coûteuse et à la seule portée des magnats de l’industrie cinématographique; loin de servir pour développer de nouvelles pistes de création, elle n’est employée que pour renforcer le « choc » des images, notamment dans les films à pur but distractif -et qui ont plus à voir avec le loisir qu’avec l’art. D’un point de vue extérieur, la technologie 3D apparaît comme l’outil par lequel Hollywood a verrouillé derrière lui la porte qu’avait ouverte le cinéma numérique; il semble que les chances de développer un artisanat du cinéma avec de nouvelles règles du jeu soient fortement compromises, et que, analogique comme numérique, le cinéma doive suivre un schéma industriel, ainsi qu’une économie de marché. Le ver est dans le fruit.
« La technologie 3D apparaît comme l’outil par lequel Hollywood a verrouillé derrière lui la porte qu’avait ouverte le cinéma numérique. »
Par ailleurs, il apparaît que les coûts d’équipement des salles pour la projection de films numériques ne permettent qu’à 18% des cinémas en France de passer à la technologie nouvelle qui est appelée à se généraliser. La plupart ont franchi le cap avec l’arrivée des films 3D: mais les petits cinémas indépendants ne risquent-ils pas d’être lésés et de ne pas pouvoir se permettre la modernisation qu’exige cette révolution de support? Si l’on compare la situation de la France à celle de la Grande-Bretagne, on comprend l’inquiétude suscitée par la domination de l’industrie du cinéma sur le numérique. Près de 70% des films sortis en 2009 outre-manche étaient des productions numériques. Cela reflète deux faits; le Royaume-
Jeune République _"Innovation et régulation à l’heure du numérique"_63
Uni ne comptabilise que très peu de petites salles de cinéma et préfère les grands multiplex, et son paysage cinématographique est bien plus hollywoodien que le nôtre. Autrement dit, dans les pays où le cinéma industriel est déjà à son faîte, le triomphe se trouve confirmé par la domination des multiplex -qui peuvent se permettre l’équipement numérique. Ce tableau a donc de quoi inquiéter la France. Les belles promesses du cinéma numérique sont gravement menacées par le mécanisme de récupération dont il fait l’objet de la part des grands studios. La perspective d’un artisanat s’éloigne, et l’industrie lourde s’empare peu à peu des opportunités. On parlait de démocratisation; l’aristocratie cinématographique est restée en place. La métaphore politique semble d’autant plus justifiée que la question du cinéma numérique touche de très près à l’économie et que dans la lutte entre superproductions hollywoodiennes et cinéma véritablement artistique apparaît une dimension quasi sociale. Quelque part, un certain cinéma tente de préserver son indépendance et son art face au spectacle, au loisir, au business.
LA DERNIERE OPPORTUNITE DU NUMERIQUE : LE RENOUVELLEMENT ARTISTIQUE Lorsque le monde de la musique a subi la numérisation et l’entrée dans l’ère du MP3, nombreux furent ceux qui espéraient que se concrétisât le célèbre aphorisme d’Andy Warhol: « Au XXème siècle, chacun aura droit à son quart d’heure de célébrité ». De son salon, un sombre inconnu pouvait enregistrer une chanson, la diffuser sur Internet, et devenir du jour au lendemain une star, avant de s’autoproclamer artiste. Nombreux furent ceux qui prédirent la fin de la tyrannie des majors avec l’accès facilité aux possibilités d’enregistrement et de production musicale. Il n’en fut rien. Que nous enseigne cette comparaison quant au cinéma numérique? Les grandes maisons de disques sont toujours présentes et puissantes, et s’il est vrai qu’elles sont aujourd’hui en difficulté, cela n’est certainement pas dû à la concurrence insignifiante des labels indépendants récemment fondés grâce aux technologies numériques. La chimère de la démocratisation d’un art par son support dématérialisé est tenace, et elle sera invalidée pour le cinéma comme elle l’a été pour la musique. Il ne suffit pas d’avoir de nouveaux moyens pour s’imposer sur un marché industrialisé, où l’art est bien plus formel que substantiel. Là encore, la métaphore politique est pertinente: le suffrage universel généralise l’accès de tous les citoyens à la politique, mais il ne signifie pas pour autant que la démocratie est advenue. Le moyen d’accéder à un outil, qu’il s’agisse du vote pour le pouvoir politique, ou du numérique pour l’art, est insuffisant, et celui qui espère se contenter du support pour lutter contre l’hégémonie de la grande industrie ne sera qu’un Sisyphe poussant son rocher.
« La chimère de la démocratisation d’un art par son support dématérialisé est tenace, et elle sera invalidée pour le cinéma comme elle l’a été pour la musique. »
Puisque la grande industrie utilise elle aussi la technologie numérique, il faut une ruse supplémentaire à ceux désireux d’implanter un artisanat artistique pour parvenir à s‘imposer; la forme étant identique, la bataille doit se jouer sur le fond. Autrement dit, la naïveté d’une production artistique indépendante prétendument permise à tous doit céder à la place à un courage artistique se concentrant sur le renouvellement des idées et des styles -bref, sur la création de ce que l’on désigne analytiquement comme étant des « mouvements ». L’exemple de la Nouvelle Vague est à ce titre très parlant. Qui oserait affirmer que son essor est à attribuer à l’utilisation de caméras 16 millimètres, révolutionnaires pour l’époque, et au Nagra, magnétophone portatif permettant une prise de son bien plus aisée? L’apport technique a certainement été décisif pour les cinéastes français de l’époque, mais il n’a pas été déterminant. Si ce mouvement est parvenu à s’imposer dans le monde entier, à l’heure où le cinéma américain semblait plus omniprésent et omnipotent que jamais, c’est avant tout parce que les œuvres avaient fait le pari audacieux de s’affranchir de règles pour en créer de nouvelles, d’aborder des thèmes originaux avec un point de vue novateur, et d’assumer de véritables prises de positions à la limite du politique. C’est cette force qui a structuré l’originalité artistique d’un certain cinéma français de l’époque -la révolution technique n’a fait que lui donner corps et la véhiculer avec force. La comparaison s’arrête néanmoins au domaine de l’art, car la Nouvelle Vague fut loin d’être un exemple d’indépendance quant aux sociétés de production et à l’industrie cinématographique. Mais il paraît évident que le cinéma numérique ne peut servir d’outil d’émancipation pour les cinéastes que si l’intention artistique elle-même affiche résolument des velléités d’émancipation. Dans le domaine de la musique, certains labels indépendants ont émergé, qui n’auraient jamais pu le faire à l’époque où produire des artistes eût impliqué des coûts
64_ "Innovation et régulation à l’heure du numérique"_ Jeune République
trop importants. Le label français Kitsuné fait à ce titre figure d’exemple, mais s’il est parvenu à conquérir une renommée internationale, cela est moins dû aux facilités de productions que lui a offertes le numérique qu’au choix des artistes qu’il promeut, dont l’univers musical est novateur et les créations à l’avant-garde des genres plus classiques sur lesquels investissent les majors. Certaines œuvres cinématographiques semblent avoir compris la nécessité d’un renouveau artistique conjugué au numérique, et semblent ainsi évoluer en ce sens. C’est par exemple le cas d’Antichrist de Lars von Trier, qui renoue avec le noir et blanc en épurant son aspect suranné, tout en se concentrant sur un scénario épuré et une esthétique symboliste. Plus innovant encore, le dessin animé Kérity et la maison des contes ose la radicalité de l’image en « abîmant » les reliefs, en optant pour des couleurs fades et une bande son des plus déconcertantes, franchissant sans cesse la limite entre le film d’animation pour enfant et l’essai de littérature. Ces deux œuvres sont presque les seules productions numériques de l’année 2009 qui ne sont pas issues de l’industrie traditionnelle, puisqu’elles sont respectivement distribuées par Les films du losange et Haut et court. Leur succès est considérable pour des « petits films », mais il montre que la sensibilité de leurs auteurs et l’audace de leurs réalisateurs sont efficaces: le numérique rend possible la réalisation de ces projets sans doute trop atypiques pour filtrer à travers les mailles du filet du profit des grandes sociétés de productions. Les deux films ont certes été moins rentables qu’Avatar ou Watchmen, mais l’investissement qu’ils ont nécessité a été recouvert, et leur apport à l’art cinématographique est de très loin plus intéressant. Finalement, la question du cinéma numérique possède bien plus d’enjeux qu’il n’y paraît a priori. Le cinéma est sans doute aucun l’art qui souffre le plus d’une dénaturation et d’un appauvrissement qui risque de lui être fatal. Mêmement, ses excès se trouvent toujours justifiés par des éléments annexes, et qui n’ont qu’un rapport très lointain avec l’art: le showbusiness, la rentabilité, le spectacle et le divertissement… Dans ce contexte, le numérique a des chances de constituer un renforcement pour une industrie « articide » aux mains de quelques grands studios et sociétés de distribution et de production, et consacrera sans doute la fin de l’innovation créatrice au profit d’une offre purement divertissante et marchande. Toutefois, si certains cinéastes ont le courage, l’ambition (et le talent!) d’innover et de proposer des œuvres profondément nouvelles dans leur thèmes, leurs genres et leurs procédés, le numérique sera la voie d’accès pour un nouveau cinéma à l’indépendance et à la liberté artistique. Car si d’aucuns prétendent que c’est le public qui suscite la demande, que l’offre doit s’adapter à la curiosité des spectateurs pour les toucher et que l’insuccès des œuvres dites « d’auteurs » est dû à un manque d’intérêt de la part de ces derniers, cette vision est profondément contestable. Elle fait le jeu de la grande industrie qui confond art et publicité, en ciblant, offrant et adaptant son offre à des consommateurs. Mais l’art, et le cinéma à de multiples égards, a ceci d’extraordinaire et de précieux qu’il échappe aux lois de la logique commerciale, et qu’il vise avant tout une forme de perfection et de vérité plutôt qu’une exigence de goût et de communication. Un bon film n’est pas un film qui assemble et bricole des procédés pour se mettre à la portée qu’il suppose être celle du public; c’est avant tout un film qui ne fait pas de compromis séculier, et dont le réalisateur cherche à faire une œuvre distincte et incorruptible. Qui peut dire que le spectateur préfère ceci, ou ne s’intéresse pas à cela, si l’occasion ne lui est jamais donnée de visionner des œuvres qui sortent du cadre ordinaire des productions à grand spectacle? Il y a dans ce présupposé autant de mépris pour le public qu’il y en a pour l’art, et c’est contre cette vision erronée, et qui ruine volontairement la créativité pour plus de facilité à engendrer un profit par l’œuvre devenue produit de consommation et la création devenue production industrielle, que doivent se dresser les cinéastes qui tiennent à leur art et qui ont la volonté de le défendre et de le sauver. Le numérique est sans doute la clé principale de ce combat complexe, et dont l’avenir nous dira si nous avons eu tort d’espérer une issue heureuse. Alexis Bétemps est étudiant à Sciences Po
Jeune République _"Innovation et régulation à l’heure du numérique"_65
Entre droit à la culture, protection des artistes et puissance des majors :
les pouvoirs publics à l’heure de la régulation numérique par Chloé Perrot En mars 2010, les premiers bilans de l’adoption de la loi Hadopi faisaient état de l’échec des mesures mises en place pour freiner le téléchargement illégal sur Internet. Une étude de l’Université de Rennes, reprise par la plupart des quotidiens nationaux, montrait que, entre septembre et décembre 2009 - trois mois après l’adoption de Hadopi II - le nombre de pirates avait augmenté de 3%. Au total, plus de 3 millions de Français échapperaient aux mailles d’un dispositif qui ne concernerait finalement « que » 2,7 millions d’internautes. L’inefficacité de la loi à protéger les œuvres diffusées sur Internet serait principalement liée au fait que les internautes utilisent actuellement d’autres voies que le peer-to-peer pour accéder aux œuvres sur Internet. Parmi celles-ci, le téléchargement direct, ou le streaming (visionnage sans téléchargement) qui concerne 20 % des internautes, contre 14 % d’utilisateurs de réseaux de partage peer-to-peer ; or ces pratiques ne peuvent être détectées par Hadopi II. Plus encore qu’inefficace, la loi aurait même des effets pervers sur l’économie numérique de la culture, puisque la moitié des pirates seraient également acheteurs de films ou de musique sur Internet. Selon l’étude de l’Université de Rennes, étendre Hadopi à toutes les formes de téléchargement illégal reviendrait à exclure du marché la moitié des acheteurs de contenus culturels sur Internet. Loin de protéger le marché culturel en ligne, Hadopi II aurait donc, comme le concluait le quotidien Les Echos le 9 mars 2010, « un effet négatif sur le marché légal ». Après les débats houleux qui ont entouré le projet de loi « Création et Internet », ou « loi Hadopi », et les péripéties qui ont finalement abouti à son adoption – le projet est adopté une première fois le 12 mai 2009, censuré par le Conseil Constitutionnel le 10 juin ; le 15 septembre, Hadopi II est à son tour adoptée – l’inadaptation de la loi à protéger tant la création sur Internet que les droits des consommateurs souligne les difficultés à trouver un compromis viable sur le modèle à adopter en matière de régulation numérique. L’enjeu, essentiellement économique, relève du droit d’auteur mais aussi du droit de la consommation, du droit de la concurrence, du droit au respect de la vie privée (notamment en ce qui concerne les mesures de protection technique), et plus largement du « droit à la culture ». Ce droit à la culture se fonde pour une large part sur la Déclaration universelle des droits de l’homme du 10 décembre 1948, dont l’article 27 reconnaît le droit de chacun à « participer à la vie culturelle de la communauté, jouir des arts et partager le progrès scientifique et ses bénéfices ». Le même article mentionne également les intérêts moraux et matériels des auteurs sur leurs productions artistiques, reconnaissant ainsi la nécessité d’un équilibre entre droit d’accès à la culture et droit d’auteur. Cet article est également repris par l’article 15 du pacte des Nations Unies, qui précise que « les mesures que les Etats parties au présent Pacte prendront en vue d’assurer le plein exercice de ce droit devront comprendre celles qui sont nécessaires pour assurer le maintien, le développement et la diffusion de la science et de la culture ». Il est donc impératif pour les Etats signataires de favoriser la diffusion de la culture. La difficulté provient dès lors du nécessaire équilibre entre ce droit d’accès à la culture et la protection des œuvres et des intérêts des ayants droit. C’est cet équilibre que les pouvoirs publics peinent, aujourd’hui, à instaurer ; la France semble au contraire s’engager dans une voie qui protège davantage les intérêts des grands acteurs commerciaux, notamment les majors en ce qui concerne le marché de la musique en ligne, au détriment non seulement des internautes mais aussi bien souvent des intérêts des artistes eux-mêmes. Les débuts de la législation numérique se sont appuyés sur le principe de « what goes offline goes online » (van Dijk). Cependant, ce système ne semble
66_ "Innovation et régulation à l’heure du numérique"_ Jeune République
pas adapté pour faire face à la remise en cause, sur Internet, du droit de la propriété intellectuelle et partant des modèles économiques qui ont prévalu jusqu’à présent. Plutôt que de protéger à tout prix un système qui a fait son temps, un équilibre satisfaisant entre droit à la culture et protection des ayants droit et acteurs économiques passe par l’élaboration d’un nouveau modèle juridique. De plus, si la régulation numérique est nécessaire pour garantir cet équilibre, elle ne sera sans doute pas suffisante et de nouveaux modèles économiques sont également nécessaires pour adapter le marché culturel à l’économie numérique, comme le montre le cas du marché musical sur Internet.
« La France semble s’engager dans une voie qui protège davantage les intérêts des grands acteurs commerciaux, notamment les majors au détriment des artistes eux-mêmes. »
Dans le contexte de la remise en cause du droit de la propriété intellectuelle français par la révolution numérique, les pouvoirs publics tentent de protéger un système qui profite en premier lieu aux grands acteurs économiques Le droit d’auteur français est actuellement confronté à un nouvel enjeu: l’environnement numérique dans lequel il est appliqué. Traditionnellement – à l’exception du spectacle vivant – la diffusion des œuvres musicales s’est effectuée au moyen de supports matériels, sur lesquels se fonde le droit d’auteur. Cependant, Internet constitue un nouveau mode de diffusion qui rompt avec cette tradition et bouleverse les habitudes de consommation des œuvres musicales. Bien que la disparition des supports matériels soit loin d’être à l’ordre du jour, la diffusion d’œuvres musicales sur Internet est en forte croissance et certains acteurs du marché de la vente sur Internet réalisent des chiffres d’affaires en constante augmentation. A titre d’exemple, en juillet 2007 la plate forme de vente du musque en ligne d’Apple, iTunes, avait déjà vendu plus de trois milliards de titres depuis sa création en 2003. C’est cette dématérialisation qui pose aujourd’hui problème. Depuis la création de Napster en 1999, logiciel permettant d’échanger gratuitement des fichiers musicaux entre plusieurs ordinateurs, la naissance du peer-to-peer a remis en en cause les fondements du droit de la propriété intellectuelle français et, partant le modèle économique du marché de la musique que celui-ci protégeait. En effet, sur Internet, les titres musicaux sont devenus non rivaux et non exclusifs : non rivaux, car la vente ou l’échange d’un fichier musical n’empêche pas son premier propriétaire d’en conserver l’usage. Non exclusifs, car le coût de cette copie et de sa diffusion est faible ou nul, ce qui implique qu’il devient très difficile d’empêcher quiconque d’y avoir accès même sans payer. Ainsi, l’effet économique de la numérisation consiste à transformer des biens privés en biens non-rivaux et non-exclusifs, et donc en biens collectifs. Leur consommation par un agent économique ne diminue pas celle d’un autre, ils sont échangeables à un coût marginal quasi nul et tendent donc à la gratuité pour les consommateurs. Brutalement confrontée à une chute de leurs revenus, les majors du disque, généralement soutenue par les gouvernements nationaux, ont réagi en tentant par tous les moyens de freiner le téléchargement illégal. L’Union européenne tente de renforcer la protection des copyrights, arguant de la nécessité des incitations à créer des œuvres sous copyright, perçues comme sources de compétitivité et de croissance. De nombreux Etats membres ont dès lors choisi de condamner la technologie du peer-to-peer en elle-même, préférant encourager en ligne la reproduction du modèle traditionnel de la vente au titre, alors même que le peer-to-peer pourrait éventuellement servir de moteur à la diffusion de la culture. Aujourd’hui, la comodification croissante de la toile tend à remettre en cause les intérêts des internautes ; pourtant, il semble que les impopulaires campagnes d’information qui assimilent tous les utilisateurs du peer-to-peer à des délinquants – voire des criminels – sont difficilement tenables sur le long terme, et que si en matière d’économie musicale le modèle du revenu direct prévaut actuellement, il est loin d’être le seul – ou le plus efficace. En effet, d’une part, les pirates ne manquent pas et les efforts pour criminaliser leurs activités ont eu jusqu’à présent un succès très limité, comme on le voit dans le cas des législations françaises, à commencer par la DADVSI. On peut noter que l’application de la loi pose problème du fait des caractéristiques mêmes du réseau : Internet est à la fois un média de masse, un média interpersonnel, et un média qui remplit de multiples fonctions entre ces deux limites ; les frontières entre public et privé y sont floues. Le droit français peine à s’appliquer à ce média convergent. Enfin, le caractère international de la toile et la nature volatile du réseau, où il est difficile de constater un abus et de le tracer, impliquent qu’Internet est aujourd’hui en large partie en dehors du contrôle national.
Jeune République _"Innovation et régulation à l’heure du numérique"_67
D’autre part, quoique les majors prétendent, la crise du secteur musical est loin d’être évidente : l’on n’a jamais écouté autant de musique qu’aujourd’hui. Si la période faste des années 80 et 90, où les possesseurs de vinyles, séduits par l’arrivée du CD, ont massivement racheté des albums qu’ils possédaient déjà en plus des nouveautés, est révolue, le secteur se porte toujours bien. En France, les sommes collectées par la Sacem ont encore progressé entre 2000 et 2005, passant de moins de 600 millions à près de 750 millions d’euros, niveau auquel elles semblent se stabiliser actuellement. La crise est en fait celle du CD, dont les ventes chute libre (-20 % en 2008) touchent en premier lieu les maisons de disques. Ce sont les plus grandes d’entre elles, Universal, Sony BMG, EMI et Warner, qui en souffrent le plus, puisqu’elles encaissent environ 50 % du produit des ventes de disques, contre 10% seulement pour les auteurs, compositeurs et interprètes – qui doivent parfois soustraire de ce revenu les coûts d’enregistrement et de promotion de leurs albums. En réalité donc, l’immense majorité des artistes qui sortent un CD en vendent trop peu pour être financièrement concernés par l’impact du téléchargement illégal. Face aux 5 % des artistes qui gagneraient de l’argent grâce aux ventes de disques (chiffre avancé par l’UFC Que Choisir), les 95 % restants se préoccupent en premier lieu de se faire connaître, pas d’éviter de se faire pirater. Par ailleurs, il est loin d’être prouvé que le téléchargement illégal est responsable d’une quelconque baisse de l’activité musicale. Ce n’est pas parce qu’un fichier a été téléchargé illégalement qu’une vente a été perdue ; d’une part, parce qu’il n’est pas certain que l’internaute aurait acheté le titre ou le CD en question, d’autre part parce que la découverte d’un artiste peut amener cet internaute à effectuer d’autres achats liés (autres albums, concerts ou produits dérivés comme des sonneries, etc.). Comme le montre les premiers résultats de la mise en place du dispositif de Hadopi II, les « pirates » sont également les premiers consommateurs de produits culturels en ligne. En réalité, les majors ont développé une économie de rente aux dépends des artistes et des auditeurs. Ainsi, dès leur introduction les CD ont été vendus 50 % plus cher que les disques vinyles, malgré une baisse des coûts de production ; de plus, la baisse de la TVA en 1987 ne s’est que partiellement reflétée dans le prix de vente des CD, sans que la rémunération des artistes n’évolue. Surtout, au début des années 2000, les majors se sont concentrées sur la production et la promotion d’artistes considérés comme des valeurs sûres, et ont pratiquement cessé de recruter de nouveaux talents : ainsi, en 2006, moins de 6 % des références vendues accaparaient 90 % du marché. On constate donc que ce sont principalement les majors qui profitent du système actuel, fondé sur une économie de rente plutôt que sur l’innovation et la découverte de nouveaux talents. Plutôt que de les protéger, il serait bon de repenser le système de régulation afin de mieux prendre en compte les intérêts des ayants droit et les artistes. D’autres modèles que celui du revenu direct sont en effet possibles, bien qu’elles ne retiennent que rarement l’attention des pouvoirs publics.
Repenser le système de régulation de la création musicale sur Internet : quelles alternatives ? Plusieurs modèles sont envisageables, dont l’idée d’une licence globale. Discutée lors des débats entourant la préparation de la loi Dadvsi, le concept était globalement bien accueilli. Soutenu par les associations d’artistes (et notamment les quinze organisations membres de l’Alliance Public-Artistes, qui regroupe, d’un côté, des représentants d’artistes interprètes et de l’autre, les consommateurs), qui estimaient que la répression serait impuissante à arrêter le téléchargement illégal et qu’il était important de proposer une alternative légale incitative, il était également vu d’un bon œil par les auditeurs (selon un sondage Médiamétrie de juin 2005, 75 % des internautes se déclaraient prêts à payer la licence globale). Cependant, au terme de débats passionnés, la licence globale n’a pas été retenue, ayant été jugée incompatible avec le droit européen et international par le gouvernement. En effet, sa mise en place nécessiterait au préalable des accords autorisant l’utilisation des œuvres par les ayants droits, comme c’est le cas pour la radio. Depuis, il ne semble toujours pas que la discussion de tels accords soit à l’ordre du jour pour les pouvoirs publics. Un autre modèle serait celui des licences libres de droits. De nombreux artistes cherchant avant tout à se faire connaître du grand public en diffusant leurs œuvres ont lancé un mouvement en faveur du copyleft. Par opposition au copyright, le copyleft repose sur le principe que l’auteur a la possibilité d’accorder à tout utilisateur de son œuvre le droit de copier et de distribuer cette œuvre, tant que l’utilisateur laisse cette œuvre librement accessible à autrui. La question que soulève le mouvement du copyleft est de savoir si la création culturelle nécessite la protection de droits d’auteur pour être pérenne, foisonnante et rentable. Ainsi c’est la conception même de l’auteur et son statut privilégié qui sont remis en question. Si l’on admet, avec Foucault, que l’auteur est une construction historique datant de la période
68_ "Innovation et régulation à l’heure du numérique"_ Jeune République
Romantique, et qu’il est donc possible de dépasser, cette question se pose avec une acuité croissante. En effet, les licences libres semblent à la fois être économiquement viables et encourager la création, comme en atteste le cas des logiciels libres tels que Firefox. Un exemple de cette alternative est celui des creative commons, projet démarré en 2001 sous l’impulsion de l’Américain Lawrence Lessig. Un exemple, en France, en est la radio Web d’Arte, Arteradio.com, qui propose d’accéder et de diffuser librement tous ses reportages et créations sonores, à condition d’en mentionner le réalisateur et la source. Si Arteradio.com reste propriétaire des droits sur ces fichiers, elle favorise ainsi leur diffusion tout en accordant une certaine marge de confiance à l’internaute. Comme on l’a vu, il existe un lien entre la gratuité des œuvres diffusées en ligne et les caractéristiques mêmes d’Internet, puisqu’il est très difficile d’empêcher qu’une œuvre diffusée sur Internet ne devienne libre d’accès. Pour les artistes qui tentent de profiter de l’effet de réseau d’Internet, principe qui va à l’encontre du modèle classique des économies d’échelle, en diffusant massivement leurs œuvres, il serait donc préférable d’organiser cet accès gratuit juridiquement, en amont, plutôt que de tenter de le combattre. Dès lors c’est l’ensemble du financement de la création qui devrait être révisé. En effet, la gratuité pour l’internaute ne signifie pas l’absence de financement et de rémunération pour les auteurs. La publicité, par exemple, peut permettre de rémunérer les auteurs qui mettent gratuitement à disposition leurs œuvres.
Repenser le modèle économique de la création sur Internet, en partant du lien entre musique et numérique sans chercher à le combattre. Sur Internet, comme on l’a vu, le prix de l’enregistrement musical tend naturellement vers la gratuité. Les mesures de protection technique, souvent inefficaces - ou nuisibles lorsqu’elles imposent aux internautes des contraintes ou des atteintes à la vie privée qui les détournent des marchés en ligne - ne paraissant pas aujourd’hui à même d’inverser la tendance, les acteurs économiques se trouvent dans l’obligation d’innover. D’avril 2006 à mars 2007, le projet «Musique & numérique : créer de la valeur par l’innovation», organisé par la Fondation Internet Nouvelle Génération (FING), s’est intéressé à diverses initiatives visant à recréer de la valeur économique à la musique en ligne. Face au modèle économique de la vente au titre, remis en question par l’abondance et la volatilité caractéristiques des réseaux, deux modèles de monétisation des contenus musicaux se développent actuellement. D’une part, celui, dérivé des modèles traditionnels, de la musique directement financée par le consommateur - les modes de paiement pouvant varier à l’infini avec des développements nouveaux tels l’abonnement au streaming, la location de titres ou le forfait de téléchargements légal. Le modèle de l’abonnement au streaming peut-être illustré par le système Rhapsody aux Etats-Unis, qui fédère 500 000 abonnés écoutant en moyenne 250 titres par mois. Ce système est également confortable pour les ayants-droits, puisque Rhapsody reverse 1,25 million de dollars de ses 5 millions de chiffre d’affaire.
Flickr - Creative Commons licence photo credit 917press
Jeune République _"Innovation et régulation à l’heure du numérique"_69
D’autre part, la musique peut également être financée indirectement via, par exemple, l’utilisation du titre comme produit d’appel d’autres produits, ou par le financement par la publicité, un modèle de financement qui existe depuis longtemps déjà dans les cas de la télévision et de la radio (qui exigent néanmoins le versement d’une redevance en plus des revenus publicitaires). Cependant, les problèmes de droits d’auteur ne sont pas encore réglés pour ce mode d’exploitation, qui demeure de surcroît précaire, dépendant du marché publicitaire et de la fréquentation : sur un marché dominé par quelques gros acteurs, se présenter comme concurrent en ne comptant que sur la publicité est une stratégie risquée. L’autre possibilité de générer de la valeur à l’expérience musicale consiste à recréer artificiellement les formes de rivalité et d’exclusivité qu’Internet tend à mettre en cause. La possibilité offerte par les abonnements et les transferts de fichiers musicaux illimités est de créer de la valeur non sur la musique elle-même, mais sur de nouveaux services annexes, puisque plus on a accès à la musique, plus on a besoin de la classer, de l’organiser, de la transférer. Ainsi, selon la FING, 59% des internautes seraient prêts à payer pour un service en ligne (comme la personnalisation) plutôt que pour des produits (les titres), faisant ainsi passer le marché de la musique en ligne d’une économie de biens à une économie de service. Selon Chris Anderson, le rédacteur en chef du magazine américain Wired, qui a développé le modèle dit de la longue traîne, si le marché physique est destiné à la masse, sur Internet les goûts des consommateurs ne sont pas limités par l’offre restreinte des distributeurs et les limites de distribution physique ; le nouveau rôle des maisons de disque serait alors de proposer une intermédiation entre une œuvre surabondante et une demande de plus en plus personnalisée. Cela pourrait par exemple passer par la valorisation de la relation avec les artistes (fan clubs sur abonnement, accès exclusifs à des chats…), la personnalisation ou l’exclusivité. Pour concurrencer le modèle économique de la gratuité, certaines initiatives visent donc à retrouver le chemin de la rareté, de l’unicité dans l’expérience musicale. Internet permettrait donc de passer à un modèle économique de l’attention.
« Le nouveau rôle des maisons de disque serait alors de proposer une intermédiation entre une œuvre surabondante et une demande de plus en plus personnalisée. »
Il se pourrait donc que l’économie de la musique numérique devienne une économie de la demande et non plus de l’offre, et que les auditeurs aient un rôle croissant à y jouer. Les pratiques communautaires du web 2.0 pourraient en effet avoir une influence sur l’économie musicale, comme le montre l’exemple des artistes « découverts » sur les réseaux sociaux tels que Lily Allen ou Grégoire, même si peu d’artistes percent encore par ces voies. Le numérique pourrait donc constituer une opportunité pour les labels comme pour les artistes: les moindres coûts de production et de distribution permettent en effet de mieux déployer la diversité du catalogue et de prendre moins de risques en lançant de jeunes artistes, qui peuvent également choisir de s’autoproduire. Il semble toutefois que les développements du numérique imposent aux labels de repenser leur rôle. Il serait donc grand temps que les pouvoirs publics cessent de concevoir le numérique comme une menace pour la création artistique, et reconnaissent les opportunités qu’Internet a à offrir dans la recherche d’un meilleur équilibre entre droit à la culture et protection de la création, entre labels, artistes et auditeurs. Inciter les initiatives innovantes semble être impératif, plutôt que de les freiner par une régulation restrictive qui transforme une large partie des internautes en pirates dans l’objectif de protéger un modèle économique dont on peut légitimement se demander s’il mérite de l’être. Il est donc nécessaire de développer de nouveaux modèles de régulation pour adapter l’économie musicale à la révolution numérique tout en préservant les intérêts des artistes et des auditeurs ; mais comme on l’a vu, la régulation d’Internet déborde le cadre national, et s’ils comptent rester rentables sur le long terme, les labels vont devoir repenser intégralement leur rôle et les moyens de créer de la valeur à l’expérience musicale en ligne. Enfin, la question de l’équilibre entre droits des internautes et intérêts des acteurs commerciaux ne se pose pas que dans le cadre de l’économie numérique de la culture. Plus largement, les enjeux du marché musical en ligne renvoient à la problématique du type de régulation que l’on veut développer sur Internet. A l’origine conçu comme un espace d’échange et de gratuité pour les internautes, Internet se privatise et se commercialise davantage jour après jour. Actuellement, la régulation numérique se construit en faveur des grands acteurs économiques et au détriment, semble-t-il, des intérêts des Internautes. Chloé Perrot est étudiante à la London School of Economics
70_ "Innovation et régulation à l’heure du numérique"_ Jeune République
par Juan Anatole Branco
L’HADOPI ET LE CINÉMA FRANÇAIS : petits meurtres entre amis Lorsque plus rien ne semble pouvoir s’opposer à l’adoption de la loi Hadoi, Catherine Deneuve, Christophe Honoré, Louis Garrel et quelques autres publient un texte s’opposant à la loi qui permet son rejet à l’Assemblée nationale deux jours plus tard par des députés mutins. Le début d’une longue saga aux faux semblants permanents.
Le 7 avril dernier, treize membres de la grande famille du cinéma français, treize acteurs, réalisateurs et producteurs, brisaient une omerta savamment construite par le pouvoir politique et les lobbies en dénonçant dans le quotidien Libération le projet de loi «Création et Internet », mieux connu sous le nom d’Hadopi. Décriant un texte « démagogique, techniquement inapplicable et purement répressif », ils appelaient à l’émerveillement et à l’abandon des réflexes corporatistes sur un sujet qui exigeait réinvention et prise de risques et ouvraient ainsi, par le prestige de leur signature, un espace protecteur pour tous ceux qui, dans l’industrie, n’avaient pu auparavant exprimer leurs réserves par crainte de se voir marginaliser. Alors que ce sursaut semblait arriver trop tard, et que les critiques pleuvaient déjà sur le supposé opportunisme de l’initiative, un rebondissement à l’Assemblée nationale deux jours plus tard remettait le projet de loi au centre du débat national, et laissait acculés ses défenseurs qui se voyaient privés de leur principal argument, à savoir une supposée unanimité des industries culturelles en leur faveur. Critiqué par tous les experts s’étant penchés sur la question, CNIL et ARCEP en tête, l’Hadopi mettait à nouveau dans l’embarras une majorité extrêmement divisée sur la question et forçait le gouvernement à un tour de main législatif dont l’issue n’est pas encore certaine. A l’heure où sont écrites ces lignes, et après un échec à l’Assemblée nationale et un autre au Conseil constitutionnel, la loi n’a toujours pas vu ses décrets publiés, et est unanimement décrite comme inapplicable, au point où la question se pose ouvertement de savoir si elle n’a été uniquement créée que comme un outil politique visant à récupérer une partie du monde artistique, traditionnellement ancré à gauche. Si cette hypothèse est incertaine, ceux qui ne souhaitèrent participer à cette mascarade eurent tôt fait de comprendre qu’ils touchaient là à un point sensible de la stratégie politique du Président de la république, et qu’ils paieraient cher le prix de leur témérité... Cela commence le jour même de la publication de la tribune des treize, par des appels anonymes aux plus fragiles des signataires, menaçant de couler leur carrière en cas de maintien de leur prise de position. La débauche de procédés d’intimidation qui s’ensuivrait sur les bientôt 45 signataires failli les faire vaciller à plusieurs reprises. Citons seulement pour l’exemple des pressions ministérielles continue pour faire annuler toute intervention médiatique, plusieurs contrôles fiscaux tombant à pic et une multiplicité de menaces et chantages provenant tantôt des agents, aperçus peu avant lors d’un cocktail organisé à l’Élysée, tantôt de collègues de la profession pourtant peu réputés pour leurs accointances avec le pouvoir politique. Dans un climat de tension extrêmement forte où les pressions et les insultes quotidiennes s’ajoutaient aux doutes légitimes quant à l’opportunité d’avoir « trahi » des frères d’armes, les signataires ne tinrent bon que grâce au renfort de certaines des voix les plus prestigieuses de la profession (Balibar, Douchet, Truffaut...). Si la prise de position fut maintenue, l’instrumentalisation des signatures par les politiques, le mépris affecté de Jean-François Copé et de Christine Albanel notamment, et la manipulation des sociétés d’auteur rendirent impossible la tenue d’un débat
« Cela commence le jour même de la publication de la tribune des treize, par des appels anonymes aux plus fragiles des signataires, menaçant de couler leur carrière. »
Jeune République _"Innovation et régulation à l’heure du numérique"_71
de fond qui aurait pu décristalliser les positions en levant les malentendus et réconcilier une profession peu habituée aux césures si violentes.
« La nature même du projet de loi, opposant sciemment les artistes à leur public et touchant au cœur de l’exception culturelle française »
Mais la nature même du projet de loi, opposant sciemment les artistes à leur public et touchant au cœur de l’exception culturelle française, rendait difficile toute amorce de rapprochement des positions, du moins publiquement. Ainsi, alors qu’il était su que diverses sociétés d’auteurs avaient déjà rédigé des projets soutenant une forme de licence globale qu’appelaient de leurs vœux les signataires, leurs représentants continuaient à diffamer publiquement les antihadopi et crier au parricide, dans ce qui s’apparentait déjà plus à une guerre d’images qu’à une quelconque confrontation idéologique.
Les jours qui suivirent furent pour tous ceux qui s’étaient engagés par leur signature l’occasion de mesurer la perméabilité de la profession à l’innovation et son incapacité à se repenser, quelles que fussent les urgences. Premiers à parler de révolution numérique et de bouleversement industriel, les principaux soutiens à l’Hadopi ne réussirent pourtant jamais à avancer des propositions en véritable adéquation avec cette nouvelle donne et avec les problématiques posées par la généralisation de la circulation d’œuvres sur internet, protégées ou non. Au lieu de saisir la balle au bond, et de proposer de nouvelles formules de commercialisation, et pourquoi pas, de production des œuvres, ils ne cherchèrent, à travers leur soutien à cette loi, qu’à perpétuer un modèle pourtant condamné par les bouleversements par eux-mêmes anticipés. Il nous faut par ailleurs revenir un instant sur l’assertion, trop peu contestée, consistant à présenter l’industrie cinématographique comme grande victime du téléchargement illégal et au bord de l’abîme. Cette assertion a constitué l’un des principaux point d’achoppement entre pro et anti-hadopi. Semblant raisonner par simple analogie avec les industries musicales, ne se fondant sur aucune étude, même biaisée !, les tenants de ce discours, au premier chef desquels se trouvait Madame la Ministre Christine Albanel, multipliaient les raccourcis intellectuels permettant de couper court à tout débat et, dans un procédé particulièrement malhonnête, se contentaient d’opposer des professionnels victimes de la turpitude des masses et au bord du précipice à toute une population de délinquants inconscients, sans jamais réussir à s’extraire d’une dichotomie hypocrite et dangereuse ni apporter des éléments de preuve soutenant ces affirmations. Ainsi suffisait-il de procéder par jugements de valeur et de mensonges pour disqualifier les pourfendeurs de l’Hadopi, d’immatures voleurs égoïstes haïssant les créateurs, et d’y ajouter une pincée de dramatisme larmoyant sur l’état des industries culturelles, et le débat serait gagné. Plutôt que de s’adapter aux évolutions de la demande, l’on cru qu’il suffirait de stigmatiser un tiers des internautes (téléchargeurs assumés) et de profiter de l’opportunisme politique du président de la république pour s’économiser le temps de la réflexion sur une question pourtant primordiale. Ainsi, et contrairement à tout bon sens, aucune étude de faisabilité ni d’impact ne fut officiellement commandée par le ministère de la culture avant d’entreprendre son naufrage législatif, montrant par là même sa volonté d’agir uniquement sur le segment de l’image et de la tactique politicienne, plutôt que sur celui du respect des citoyens et de l’efficacité politique. Ce qui devait arriver arriva et, alors que pleuvaient les saillies annonçant l’apocalypse, Le film français publiait des chiffres faisant état d’une année 2008 record pour la fréquentation en salles, et un début d’année 2009 encore meilleur, alors même que la crise frappait de plein fouet les ménages français. De plus, ces chiffres étaient en grande partie le fait de très bon résultats français, notamment Bienvenue chez les Chtits, film le plus vu en salles en France de tous les temps, en plus d’avoir été le plus téléchargé illégalement… Faute donc d’avoir effectué un travail minimum d’enquête et d’expertise, le gouvernement se trouvait pris à son propre jeu, perdant sur le terrain même des chiffres qu’il avait tant invoqué auparavant à tort et à travers. N’était-il pas étonnant de ne voir aucune étude invoquée par Albanel, malgré tous les moyens humains et financiers mis à sa disposition par les lobbies et les agences gouvernementales dans le cadre de cette loi? Il est par ailleurs impensable qu’à l’heure de la république des experts, où le chiffre et les études « scientifiques » monopolisent le débat démocratique jusqu’à le confisquer et le rendre assourdissant, aucune étude n’ait été commandée par les majors afin de faire valoir leurs positions. Or leur non-publication est un indice supplémentaire concernant
« Alors que pleuvaient les saillies annonçant l’apocalypse, Le film français publiait des chiffres faisant état d’une année 2008 record pour la fréquentation en salles, et un début d’année 2009 encore meilleur, alors même que la crise frappait de plein fouet les ménages français. »
72_ "Innovation et régulation à l’heure du numérique"_ Jeune République
l’absence de corroboration scientifique entre téléchargement et chute de la consommation culturelle, pourtant amplement recherchée (une équipe de Harvard ayant même montré que les utilisateurs de P2P étaient de plus gros consommateurs culturels que la moyenne). Quant au gouvernement, il est su qu’il a eu accès à un certain nombre d’études commandées par ses administrations (et notamment le CNC), études qu’il a décidé de ne pas rendre publiques et qui n’ont jamais été invoquées par le Ministère de la culture. La raison en est simple: les résultats n’allant pas dans le sens des intérêts politiques du gouvernement, ils ne devaient absolument pas paraître. En ne les prenant pas en compte et en refusant de les publier, le gouvernement à commis un acte grave, avant tout parce qu’il a empêché les représentants du peuple d’avoir l’information suffisante pour voter en conscience. Mais c’est surtout en détournant les ressources publiques mises à sa disposition et en s’éloignant de sa mission première, à savoir la défense de l’intérêt général, que le gouvernement s’est perdu. Tout cela dans le simple but de manœuvrer politiquement et de flatter les lobbys.
« Quant au gouvernement, il est su qu’il a eu accès à un certain nombre d’études commandées par ses administrations (et notamment le CNC), études qu’il a décidé de ne pas rendre publiques et qui n’ont jamais été invoquées par le Ministère de la culture. »
Mais revenons sur la situation de l’industrie cinématographique et ses perspectives, puisqu’elle fait polémique. L’on rappellera avant tout que le cinéma est un art aux sources de revenu extrêmement diversifiées, et de ce fait beaucoup moins sujet aux potentiels effets du téléchargement illégal que la musique. De toutes les sources de financement dont bénéficie le cinéma en France, les entrées en salle restent la variable prépondérante. Or, si l’on souhaite dépasser les querelles de chiffonnier sur le nombre d’entrées et le rapport purement statistique entre évolution du téléchargement et des entrées en salle (qui nous est favorable comme l’on vient de le voir), il faut analyser les spécificités du cinéma, notamment vis-à-vis de l’industrie musicale. Aller au cinéma est avant toute chose très majoritairement une démarche sociale, comme aller à un concert ou au théâtre, qui ne peut être substituée par le visionnage solitaire d’un DVIX de basse qualité sur un écran d’ordinateur. En cela, le cinéma présente un cas différent de celui de la musique, dont la première ressource reste la vente de disques. Ceux-ci, destinés principalement à une écoute personnelle et casanière, n’ont qu’une faible valeur ajouté vis-à-vis des mp3 téléchargés sur le P2P. C’est cette différence, cette plusvalue sociale, qualitative et substantielle dont bénéficient les œuvres cinématographiques et leur exploitation en salles qui a fait que tandis que « coulait »l’industrie musicale, le cinéma se portait bien, et ce alors même que toutes deux s’étaient distingués dans la même mesure par leur absence totale d’efforts d’adaptation à la révolution numérique. C’est aussi ce qui explique que le cinéma soit un placement sûr en périodes de crise, étant le divertissement social le plus accessible et démultipliable à bas-coût. Se bénéficiant ainsi des reports de consommateurs ayant vu leur pouvoir d’achat baisser et ne pouvant se permettre d’autres sorties culturelles plus onéreuses, le cinéma a ainsi passé sans trop de dommages les plus grandes crises du XXe siècle et du XXIe naissant, et ce malgré la diversification de ses débouchés (individualisés comme le DVD), qui, à prix égal comparé aux CD, leur sont toujours privilégiés. L’on pourrait même, sans prendre trop de risques, avancer que les diverses consommations d’une même œuvre cinématographique gardent un caractère complémentaires qui rend tout calcul de type « un film téléchargé=un dvd acheté en moins » absurde: comment expliquer autrement que Bienvenue chez les chtits, après avoir été « le film le plus piraté de l’histoire du cinéma français », ait été vu par près de 22 millions de spectateurs au cinéma, puis acheté par 2 millions de personnes en dvd la première semaine de sa sortie, avant d’être regardé par près de 3 millions de téléspectateurs lors de sa première diffusion télévisée ? Il est tout à fait envisageable de considérer que, dans l’attente d’une étude sérieuse, comme les acheteurs des films en dvd ont souvent été des spectateurs au cinéma du même film, le téléchargement ne soit qu’une étape supplémentaire dans la vie des films, et qu’il ne fasse que rediriger le public vers tel ou tel film en salles, selon la première impression tirée par le visionnage partiel ou complet sur l’ordinateur. C’est d’ailleurs le point de vue que semblent avoir adopté en interne les grands groupes industriels: lanceurs de tendance et de buzzs autrement moins domesticables que les critiques de cinéma, les « pirates » mettent à mal les machines marketing bien huilées des majors et court-circuitent leurs stratégies commerciales en échappant au contrôle des attachés de presse, des avant-premières et des teasing infligés jusqu’à satiété aux cinéphiles et repris abondamment (complaisamment?) par la presse spécialisée. C’est sans doute autant cette dose d’aléatoire, potentiellement bouleversante pour des acteurs habitués à un formatage extrême de leurs œuvres/produits et de leur circuit de diffusion/promotion, que pourchasse les majors, que la perte économique infinitésimale représentée par les quelques pour-cents de « pirates » dont on suspecte qu’ils soient prêts à sacrifier la qualité, la sérénité, le confort et l’interaction sociale d’une sortie au cinéma dans le seul but d’économiser quelques euros. Ainsi, non contents de ne pas respecter la législation,
Jeune République _"Innovation et régulation à l’heure du numérique"_73
les pirates seraient les nouveaux chevaliers de l’apocalypse prêts à mettre en déroute les stratégies de gavage des grands groupes industriels... au plus grand profit de la diversité culturelle. Résumons: les seules études existantes démontrent que les plus gros pirates sont aussi les plus gros consommateurs culturels, que le piratage n’est corroboré qu’à une diversification de la consommation culturelle, et que les pirates sont dangereux... exclusivement pour ceux qui tentent de formater le marché cinématographique et de vendre leurs films comme des baskets nike. Ceci acquis, il devient difficile de défendre l’Hadopi en maintenant le même vocabulaire que celui d’Albanel et de Mitterrand, qui n’ont pas hésité à invoquer des « grands » noms de la culture et la mission quasi-divine qui leur aurait été confiée en même temps que leur portefeuille et qui consisterait en la défense d’une exception culturelle d’autant plus louée qu’elle perd progressivement de son sens. Attardons nous d’ailleurs quelques instants sur l’étude du modèle actuel, directement dérivé de la loi lang de 1985, qui serait tant menacé par la contribution créative (qui remet à plat la chronologie des médias, ce qui a constitué l’une des principales raisons de « soutien par défaut » à l’Hadopi) et qui a permis à la cinématographie française d’acquérir une autonomie très forte vis-à-vis du politique et un rayonnement mondial: l’étude de son cas risque d’apporter quelques éléments intéressants à l’analyse des positions prises lors des débats autour de l’Hadopi. Car si cette loi Lang, qui consacrait l’exception culturelle à la français que nous ont tant enviés nos voisins, à permis de sauver le cinéma français de l’écrasement par l’oncle américain, elle a dans le même temps créé une dépendance aux télévisions aux conséquences dans un premier temps limitées, mais qui sont devenues dramatiques lors de la dernière décennie, excluant des circuits toute œuvre un tant soit peu risquée (le règne de l’audimat empêchant les chaînes, même publiques, de prendre le risque de faire découvrir un nouvel auteur) et à la diversité des sources de financement des producteurs indépendants, dont l’accès aux guichets des chaînes de télévision est devenu la condition sine qua non de l’existence de leurs films. Il suffira pour s’assurer des dégâts provoqués par cette dépendance d’analyser le nombre de rediffusions des bronzés chaque année sur les 2 premières chaînes, et de le comparer au nombre de premiers films diffusés par les mêmes chaines, qui préfèrent payer à prix d’or des films cent fois rentabilisés dans le simple but de s’assurer des recettes publicitaires, à s’exposer à une chute de l’audimat même passagère. Or si jusqu’aux années 2000 le modèle s’était montré satisfaisant pour l’ensemble de la filière, notamment grâce à l’audace de Canal+ et à l’émergence des chaînes câblées, le repositionnement stratégique de Canal suite à sa fusion avec Vivendi a créé un premier grave déséquilibre pour la production indépendante, dont l’accès à ce qui était l’une de ses sources de financement primordiales s’est drastiquement réduit. Accentué par les crises de 2001 puis de 2008 (qui ont rationné le crédit aux plus petites structures) et la fusion des chaînes cablées (TPS et CanalSat), ce bouleversement a provoqué la mise au ban des projets les moins « bankables » ou pas entièrement financés, et le regroupement ou la disparition des structures de production les plus exposées et radicales dans leur engagement pour la diversité de la création, sans qu’aucune réaction ne fusse à mettre au crédit des pouvoirs publics. Le modèle français, déséquilibré par la trop grande concentration des acteurs et par l’émergence de phénomènes qui ne pouvaient être prévus dans les années 80, se devait d’être renouvelé. Mais malgré l’importante évolution du contexte économique, qui a pourtant mis à jour la trop grande dépendance du cinéma français vis-à-vis de la télévision et la fragilité du modèle dans son ensemble, malgré l’apparition massive des échanges illégaux de films sur la toile, ni les pouvoirs publics ni les institutions représentatives de l’industrie cinématographique n’ont émis l’hypothèse d’une évolution du système, se contentant de tenter de boucher les trous, un esprit dont la loi Hadopi est tributaire. Le confort dans lequel se sont installés une majorité des membres de la grande famille du cinéma français, accompagné par l’étouffement progressif des marges du cinéma le plus radical et contestataire, obligé de se réinventer en dehors du système, ont au contraire permis une gentrification du milieu, moins disposé que jamais à la prise de risque et à la remise en cause des standards de financement et de création. C’est ainsi que nous assistons depuis des années à la mise en place de dispositifs de compensation et d’équilibrage (crédit-impôt, SOFICA, raccourcissements de la chronologies des médias...Hadopi) visant à maintenir artificiellement en vie un modèle qui n’est plus adapté à la nouvelle donne du numérique. C’est ainsi qu’aujourd’hui, Frédéric Mitterrand avance l’idée d’une nouvelle subvention, qui serait financée par une taxe sur les FAI et qui permettrait de compenser les pertes liées au téléchargement illégal, sans qu’aucune contrepartie ne soit prévue pour les spectateurs. Une sorte de licence globale sans la légalisation des échanges.
74_ "Innovation et régulation à l’heure du numérique"_ Jeune République
C’est ainsi qu’année après année le système est maintenu sous perfusion,voyant des mécanismes de soutien et de redistribution chaque fois moins adaptés s’empiler les uns sur les autres, sans que personne n’ose envisager une refonte globale du modèle.
« C’est ainsi qu’année après année le système est maintenu sous perfusion,voyant des mécanismes de soutien et de redistribution chaque fois moins adaptés s’empiler les uns sur les autres, sans que personne n’ose envisager une refonte globale du modèle. »
Or il faudra un jour ou l’autre admettre l’évidence, à savoir que si le « piratage » s’est développé sans contrôle, ce n’est pas parce qu’il à manqué des mesures répressives pour le limiter (la DADVSI suffisant déjà à envoyer un pirate en prison pour quelques années...), mais parce que l’ensemble de l’industrie cinématographique s’est vue incapable de se saisir de ce nouveau média et d’adapter son offre en conséquence, se contentant de prolonger (tardivement) ses modèles de distribution habituels sans même chercher à les enrichir. L’État, comme la mère face à l’enfant immature et dépendant, devra un jour se responsabiliser et cesser de répondre à tous les caprices de l’industrie et envisager une remise à plat de la chronologie des médias et des modèles de financement de la création. Cette étape essentielle pour la survie d’une certaine exception culturelle française devra être menée de l’extérieur, et son impulsion devra être politique, le modèle étant trop confortable et rassurant pour être remis en cause par les acteurs privés eux-mêmes. Si l’imprimerie a supposé une révolution pour l’accès à la culture et a remis en cause l’ensemble des monopoles et des systèmes de diffusion alors existants, l’internet n’en fait pas moins et exige une réponse à la hauteur des bouleversements qu’il induit. Espérons qu’il ne nous faille pas attendre trois siècles, comme durent attendre les auteurs de l’époque l’arrivée de Beaumarchais, pour que les pouvoirs publics réagissent autrement que par la censure et inventent un nouveau système de protection des auteurs adapté à ce nouveau média et suffisamment flexible pour ne pas entraver cette nouvelle, et incroyable opportunité, d’élargir l’accès à la culture à tous et à toutes, dans toute sa diversité. Juan Anatole Branco est rédacteur de la lettre aux spectateurs citoyens et fondateur de Jeune République
Flickr - Creative Commons licence photo credit las (used to be meeza 1)
Jeune République _"Innovation et régulation à l’heure du numérique"_75
Réflexion comparée
sur la protection juridique de la propriété intellectuelle
en France & aux Etats-Unis par Hanna Maalèj
La protection de la propriété intellectuelle, dans le domaine de l’art et des industries culturelles, est actuellement sujet de nombreux débats et interrogations. La perspective internationale des enjeux induit une réflexion à grande échelle sur les moyens qui peuvent être employés pour moderniser, adapter le droit et les pratiques aux mutations technologiques et numériques de nos sociétés – nous pouvons d’ailleurs constater la multiplication des textes internationaux et communautaires ayant vocation à régir ces questions. La médiatisation exacerbée des (multiples) affaires « Google » vient nous rappeler l’étendue des enjeux que recouvre le droit de la propriété intellectuelle. Ceuxci ne peuvent être limités au champ purement juridique, loin de là. Au contraire, les dimensions économiques, mais aussi morales et philosophiques ne peuvent en aucun cas être omises pour apporter des propositions de réponse sur ces questions toujours en suspens. Le constat est aujourd’hui le suivant : la propriété intellectuelle semble avoir échappé au droit censé la régir. Celuici apparaît dépassé par les dernières évolutions technologiques qu’il ne réussit pas à appréhender dans leur ensemble.
Les conditions d’accès aux œuvres culturelles ont une place prédominante dans un vaste débat qui oppose tour à tour artistes, industrie culturelle, citoyens, internautes et politiques du monde entier. Sur ce point, les idées défendues divergent fondamentalement ; nous pouvons marquer une rupture entre les pays de Common Law et les pays appliquant une conception plus encadrée du droit d’auteur, majoritaires en Europe. Nous nous intéresserons ici plus précisément aux cas des Etats-Unis et de la France en tant que représentants de ces deux modèles. Quelles sont les considérations qui doivent prédominer, qu’est-ce qui constitue l’intérêt général dans ce domaine ? Les différentes protections de la propriété intellectuelle doivent-elles s’incliner devant le très revendiqué droit d’accès à la culture ? Là sont quelquesuns des enjeux majeurs du débat. Dans cette optique, et pour mieux cerner les données inhérentes au sujet et les intérêts en présence, un éclairage sur les différences entre le droit d’auteur français et le copyright américain apparaît essentiel. La question des dérogations à ces deux modalités de protection de la propriété intellectuelle reste elle aussi centrale, celles-ci subissant des évolutions dans un mouvement d’extension. Enfin, les réactions face aux bouleversements numériques induits par les évolutions technologiques traduisent la nécessaire évolution de la propriété intellectuelle pour y faire face. L’intérêt de l’exception culturelle à la française pourra dans cette mesure être discuté. 76_ "Innovation et régulation à l’heure du numérique"_ Jeune République
Droit d’auteur, Copyright : quelles différences ? Bien trop souvent assimilées, ces deux notions de droit d’auteur (français) et de copyright (américain) divergent pourtant sur de nombreux points. La protection de la propriété intellectuelle qu’elles assurent n’est pas équivalente, ce qui entraine des problèmes de conflits de normes (et d’intérêts) de plus en plus réguliers dans les litiges internationaux. Se pose la question de savoir qui du droit d’auteur ou du copyright est plus légitime et adaptable aux révolutions numériques; la réponse dépend, nous allons le voir, principalement de la conception qui peut être défendue de la création et de l’accès à la culture. Le droit d’auteur et le copyright trouvent leur origine dans deux conceptions de la propriété intellectuelle radicalement opposées. Le droit d’auteur a été pensé comme un moyen de protection des auteurs, en premier lieu, tandis que le copyright a eu au départ pour objectif l’intérêt public. En effet, le droit d’auteur ne tient compte que des seuls intérêts de l’auteur, le Code de la propriété intellectuelle affirmant à l’article L111-1 le caractère « exclusif et opposable à tous » du droit moral de l’auteur sur son œuvre, auquel il ne peut être dérogé même si l’auteur conclut un contrat en vue de l’exploitation de son œuvre avec une tierce personne ou la cède. En quelque sorte donc, l’auteur de l’œuvre dispose d’un droit moral « monopolistique » sur le produit de sa création intellectuelle. Dans cette optique, le système français apparaît être un système fermé, la perspective étant autocentrée sur l’auteur de l’œuvre. A l’inverse, la conception américaine confère des droits plus restreints aux auteurs sur leurs œuvres, dans une perspective qui s’est révélée beaucoup plus centrée sur les intérêts économiques. Le titulaire du copyright bénéficie de droits exclusifs sur son œuvre. Mais celuici n’est pas nécessairement l’auteur : il peut s’agir du producteur ou de l’éditeur de l’œuvre. L’œuvre originale peut donc être cédée par l’auteur, souvent pour une somme forfaitaire, à une personne qui se chargera de sa diffusion et bénéficiera d’un monopole d’exploitation, ce qui restreindra corrélativement les droits que l’auteur détient sur sa création. Initialement, ce système se réclamait de l’intérêt de la société, du public, qui trouve un profit dans une large diffusion des œuvres sans entrave forte. Pour beaucoup, la création artistique dans cette perspective se trouve en quelque sorte assimilée à un produit dans l’industrie culturelle. Sur ce point, la Cour suprême des Etats-Unis avait d’ailleurs revendiqué « l’équilibre entre, d’une part, les intérêts des auteurs et des inventeurs en ce qui concerne le contrôle et l’exploitation de leurs œuvres écrites et de leurs inventions et, d’autre part, l’intérêt opposé de la société qui veut la libre circulation des idées, des informations et des échanges commerciaux ». Cela traduit bien la position américaine sur la protection de la propriété intellectuelle, ce système pouvant être qualifié d’ouvert et marchand, par opposition au droit d’auteur. Ces deux approches ont évidemment des implications très différentes. En pratique, cela se traduit également dans les dérogations qui sont accordées aux droits exclusifs détenus par l’auteur ou le titulaire du copyright.
Casuistique et règles légales : des dérogations au copyright et au droit d’auteur Dans des situations encadrées et limitées, il est possible de déroger aux droits exclusifs protecteurs de la propriété intellectuelle. Ces dérogations sont envisagées dans des termes différents selon le modèle considéré. Les admettre permet en réalité d’assurer l’effectivité de ces droits exclusifs – sinon, le système serait intenable. Il apparaît donc nécessaire d’envisager ces cas dans lesquels des exceptions sont admises. Elles prennent le nom de « fair use » dans le système juridique américain et, principalement, d’ « exception de copie privée » et d’ « exception de citation » dans le système juridique français. D’emblée, nous pouvons faire un constat : les dérogations se sont étendues au cours des dernières années, en lien avec l’apparition des problématiques liées aux nouvelles technologies. Le droit français appréhende limitativement les dérogations au droit d’auteur à l’article L122-5 du Code de la propriété intellectuelle, qui dispose que « Lorsque l’œuvre a été divulguée, l’auteur ne peut interdire (…) les copies ou reproductions strictement réservées à l’usage du copiste et non destinées à une utilisation collective (…) ; les analyses
« Les dérogations se sont étendues au cours des dernières années, en lien avec l’apparition des problématiques liées aux nouvelles technologies. »
Jeune République _"Innovation et régulation à l’heure du numérique"_77
et courtes citations justifiées par le caractère critique, polémique, pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées ». Nous nous intéressons ici particulièrement à l’exception de copie privée, qui suscite de nombreux débats, l’exception de citation n’étant quant à elle pas remise en cause. L’exception de copie privée peut être envisagée comme une dispense expresse du législateur de l’obligation de solliciter l’autorisation de l’auteur pour la reproduction de son œuvre. Elle est strictement encadrée par la prohibition de tout usage collectif de la reproduction effectuée dans ce cadre. Dans cette optique, elle apparaît en quelque sorte comme un complément de la citation, par essence courte, mais pouvant par sa nature faire l’objet d’une diffusion plus large. Elle s’inscrit dans une optique non-marchande de partage, pensée à une époque où celui-ci était limité par des contraintes technologiques (copie de cassette manuelle par exemple), ce qui explique les difficultés actuelles. A l’inverse, le fair use appliqué dans les pays de Common Law est essentiellement jurisprudentiel même s’il est consacré légalement aux Etats-Unis dans la loi sur le copyright de 1976. On entend par fair use la limitation des droits exclusifs d’auteur dans le cadre d’un usage loyal, en vue des « critiques, commentaires, informations, enseignement, recherche et parodie ». Pour déterminer si, dans un cas particulier, il y a ou non fair use, les juges apprécient essentiellement la finalité de l’utilisation, l’importance de la citation par rapport à l’œuvre citée et à l’œuvre citante et le préjudice économique. En conséquence, contrairement au droit civil qui pose des exceptions légales au droit d’auteur et d’interprétation stricte, le fair use américain laisse aux juridictions étatiques la faculté de déterminer si, dans le cadre du litige qui leur est soumis, l’usage réalisé d’une œuvre a été ou non loyal. Il s’agit donc d’une interprétation au cas par cas, qui confère un large pouvoir d’appréciation aux juges, tandis que dans le système de droit civil, les juges ne disposent d’aucune latitude du fait de textes légaux techniquement très précis. Cette différence de conception tient aujourd’hui une place considérable dans le règlement des litiges relatifs à la propriété intellectuelle. Dans cette optique, on comprend aisément que le champ des dérogations aux droits exclusifs protecteurs de la propriété intellectuelle soient l’objet de conflits de normes, voire même dans une certaine mesure de conflits de valeurs au sein d’un contentieux internationalisé.
Les réactions face aux bouleversements numériques – Défendre l’exception culturelle française ? Les mutations technologiques ont induit des changements dans les modes d’utilisation des œuvres artistiques depuis plusieurs années déjà. Immédiatement, on pense aux contenus musicaux et filmographiques qui ont fait leur apparition sur Internet et les questions de « téléchargement illégal » qui y sont reliées. Mais la problématique de l’évolution 78_ "Innovation et régulation à l’heure du numérique"_ Jeune République
de la propriété intellectuelle et de sa protection ne saurait s’y limiter. Nos systèmes sont en effet confrontés à une mutation d’ensemble. Celle-ci s’avère difficile, du fait des nombreux enjeux qu’elle renferme, au premier rang desquels figurent les questions liées à la production culturelle et à l’industrialisation de cette dimension sociétale. Dans une certaine mesure, les affaires « Google » cristallisent les interrogations auxquelles le droit de la propriété intellectuelle est confronté aujourd’hui. Les litiges liés à la numérisation des livres par Google (« Google Book Search ») sont actuellement en instance en France et aux Etats-Unis. Un autre litige était relatif au service Adwords de Google, qui permettait aux annonceurs d’établir des liens sponsorisés à partir de marques d’autrui. Dans un arrêt du 23 mars 2010 « Google France SARL et Google Inc. c/ Louis Vuitton Malletier SA », la Cour de Justice de l’Union Européenne (CJUE) a décidé que ce service ne contrefaisait pas les marques utilisées comme mots-clés, donnant ainsi raison à Google. A travers ces litiges particuliers apparaît la complexité des questions soulevées par l’utilisation des nouvelles technologies d’information et les évolutions auxquelles la protection de la propriété intellectuelle doit faire face. C’est principalement sur le terrain des dérogations aux droits exclusifs, abordées plus haut, que se situent les évolutions. Les deux systèmes anglo-saxon et civiliste ne réagissent pas de la même manière face aux bouleversements suscités par le numérique. Il apparaît que le système légal français fondé sur le droit d’auteur n’est pas à même de répondre aux nouvelles problématiques qui s’imposent à lui et qu’il n’avait pu anticiper. On se retrouve de fait dans une situation de vide juridique : des pratiques se développent et ne font l’objet d’aucune réglementation ou, à tout le moins, de régulation. En effet, la protection de la propriété intellectuelle étant en France d’origine légale, il faut nécessairement une intervention du Parlement – c’est-à-dire une loi – pour pouvoir adapter l’état du droit aux évolutions technologiques. De ce point de vue, il est apparu que les solutions envisagées par le législateur dans le cadre des lois DADVSI et HADOPI n’étaient pas satisfaisantes et laissaient toujours nombre de questions en suspens. Même si la loi DADVSI voulait étendre le champ des dérogations au droit d’auteur, cela s’est révélé inadapté en pratique. Le constat est donc dans une certaine mesure celui de la rigidité du système qui n’arrive pas à appréhender globalement les nouveaux enjeux. A l’inverse, le fair use tiré du Common Law s’est révélé pour beaucoup plus adapté, dans la mesure où il a pu continuer à être appliqué sans nécessiter de révolution juridique : les juges, du fait de la latitude qui leur est laissée dans l’appréciation du fair use, ont été plus à même de réagir à l’apparition de paramètres nouveaux dans le champ de la propriété intellectuelle. En les prenant en compte, ils ont impulsé un mouvement d’évolution jurisprudentiel. Mais dans cette hypothèse, plus réactif n’est-il pas synonyme de plus de laxisme ? Admettant une extension des dérogations au copyright, c’est en parallèle accepter que s’amenuisent les droits des auteurs. Dès lors, on comprend mieux pourquoi le vice-président de Google chargé du développement et de la direction juridique du groupe, David C. Drummond, a tenu les propos suivants dans une interview accordée au journal Le Monde le 27 juin 2009 : « Nous comprenons très bien que la protection des oeuvres de création est importante. Mais nous pensons aussi qu’il est important pour la société de parvenir à un meilleur équilibre entre la protection des auteurs et le fait de donner au public la possibilité d’innover en utilisant des travaux se trouvant dans la sphère publique. (…) Introduire le concept de fair use dans la législation française sur le droit d’auteur serait un développement positif ». Les ayants droit français, très puissants dans leur lobbying, ne vont probablement pas rester inertes face à de telles propositions, au nom de « l’exception culturelle française » qu’ils défendent sans faillir contre le copyright qu’ils jugent moins protecteur des auteurs et davantage des multinationales. Mais le Conseil constitutionnel a peut-être déjà ouvert une possibilité d’évolution législative plus proche de l’idée du fair use américain, en jugeant dans sa décision de censure de la loi « Hadopi » du 10 juin 2009 que le droit d’auteur n’est pas supérieur aux droits de la société civile dont le droit à l’information fait partie – tout en posant néanmoins un « objectif de sauvegarde de la propriété intellectuelle » fondé sur les articles 2 et 17 de la Déclaration des droits de l’Homme et du citoyen de 1789. En refusant la solution proposée par le gouvernement, le Conseil constitutionnel appelait de fait à chercher une solution juridique alternative permettant de concilier les intérêts de toutes les parties. Le droit de la propriété intellectuelle semble avoir de belles perspectives d’avenir devant lui… Hanna Maalèj est étudiante à Paris 1 Panthéon Sorbonne
Jeune République _"Innovation et régulation à l’heure du numérique"_79
L’EXCEPTION CULTURELLE FRANÇAISE : un simple protectionnisme industriel ou une véritable politique au service d’une certaine idée de l’art et de sa diffusion ? par Pierre-Emmanuel Bartier Lorsqu’il annonce en 2001 la « mort » de l’exception culturelle française, Jean-Marie Messier déclenche un tollé parmi les dirigeants politiques et les professionnels de la culture. La très vive réaction des contradicteurs de M. Messier est proportionnelle à l’importance, presque sacrée, que l’on reconnaît en France à cette notion. Pourtant, la conception française des biens et services culturels émerge récemment sur la scène internationale, dans le cadre des négociations commerciales de l’Uruguay Round (1986-1994). Elle se définit par l’idée selon laquelle les biens et services culturels ne sont pas assimilables aux autres biens et services et, qu’à ce titre, ils doivent être affranchis partiellement ou totalement des règles qui régissent le libre-échange. L’accord de Marrakech, qui clôt en 1994 le cycle de négociations, ne donne que partiellement satisfaction à la France, qui, depuis, s’attache à défendre avec acharnement l’exception culturelle. Pourquoi notre pays en est-il devenu le fer-de-lance ?
La politique culturelle de la France Pour comprendre la position de la France depuis la négociation du GATS, il convient de rappeler la politique culturelle menée dans le pays. La production des œuvres de l’esprit se fait indépendamment ou à l’encontre des lois du marché. Telle est l’idée qui s’est imposée en France. Cette conception s’appuie probablement sur une certaine expérience de la vie intellectuelle et artistique. Souvenons-nous en particulier de la bohème : des auteurs reconnus incontestablement comme des génies ont connus de leur vivant une diffusion confidentielle qui les condamnait à la misère. Rimbaud et Verlaine brillent depuis leur mort sur la poésie ; mais qui se souvient du Roman d’un jeune homme pauvre d’Octave Feuillet, le plus grand succès de librairie sous le Second Empire ? Le succès, la reconnaissance par le nombre, en vient même désormais à faire suspecter la qualité de l’œuvre et les capacités de son auteur. C’est l’idée qu’expose Pierre Bourdieu dans son opuscule Sur la télévision : « Les productions les plus hautes de l’humanité, les mathématiques, la poésie, la littérature, la philosophie, toutes ces choses ont été produites [ … ] contre la logique du commerce. » Et le seul critère de l’appartenance d’une production à la culture, c’est la reconnaissance par les pairs. Ce postulat posé, on saisira la nécessité d’une aide publique pour assurer une certaine indépendance à l’égard des contraintes immédiates du marché. Le mécanisme s’est progressivement mis en place après la Libération ; il concerne essentiellement, avant de 80_ "Innovation et régulation à l’heure du numérique"_ Jeune République
s’étendre au livre, la musique et le cinéma. C’est dans ce dernier domaine que le mécanisme est le plus développé : le Centre national de la cinématographie (CNC) prélève un petit pourcentage sur tout billet de cinéma afin de financer les aides à l’écriture, à la création et à la diffusion. A la télévision, les obligations de service public qui pèse sur France Télévision permettent au public d’accéder, certains soirs, contre la logique de l’audimat, à des œuvres savantes, telles Les Fausses Confidences de Marivaux, diffusées dernièrement sur France 2 depuis le théâtre de la Commune à Aubervilliers.
« L’exception culturelle a toutefois ses limites. La première réside dans la définition même de la culture. »
Unanimement vantée, l’exception culturelle a toutefois ses limites. La première réside dans la définition même de la culture. Il semblerait légitime de faire bénéficier d’un soutien public la seule culture intellectuelle et non le simple divertissement. Il ne s’agit pas d’opposer, comme on le pense rapidement, culture d’élite et divertissement de masse : il existe en effet des divertissements socialement valorisés (Le Barbier de Séville de Rossini est un chef-d’œuvre de légèreté) comme il existe une culture populaire (il est vrai, souvent réappropriée par les élites), dont Jacques Prévert ou Marcel Carné sont deux représentants. Or la politique culturelle embrasse la totalité d’un secteur donné, sans distinguer ce qui relève de la culture stricto sensu et du divertissement. A l’inverse, des pans entiers de la vie intellectuelle et artistique ne bénéficient pas ou à peine de la politique culturelle. L’écriture littéraire, la photographie ou les sciences ne jouissent pas des faveurs accordées au cinéma ou à la musique.
L’exception culturelle et l’action internationale de la France L’objectif de l’Uruguay Round est la généralisation du libre-échange organisé par le GATT aux produits jusque-là exclus (produits agricoles, textile, services). Les trois principes du GATT – la non-discrimination, le protectionnisme et l’interdiction des subventions à l’exportation – menacent alors la politique culturelle menée par la France dans le cadre de ses frontières et de celles de la Communauté européenne. C’est alors qu’est forgée la thèse d’une spécificité de la culture. Le gouvernement Balladur parvient à convaincre de la justesse de sa position une majorité des Etats de l’Europe des Douze. L’accord de Marrakech ne va cependant pas jusqu’à reconnaître l’exemption appelée des vœux français. Naturellement, derrière le combat de la France se cachent d’autres enjeux. Il ne s’agit pas seulement de protéger la haute culture, la culture savante, quelle que soit sa nationalité. C’est surtout la défense d’une culture nationale face à l’influence américaine ; et cette résistance va plus loin encore, car elle ne conçoit pas la culture française comme une culture nationale parmi d’autres : sous les mots d’exception culturelle française, c’est bien ceux d’exceptionnalisme de la culture française que l’on se plaît à entendre.
« Sous les mots d’exception culturelle française, c’est bien ceux d’exceptionnalisme de la culture française que l’on se plaît à entendre. »
Les Français sont un peuple à l’orgueil blessé. Il n’y a pas si longtemps, et ce depuis au moins le règne du Roi Soleil, la France était la première puissance culturelle mondiale. Sa vie intellectuelle et artistique, officielle comme marginale, influençaient tous les peuples ou presque ; les divertissements français plaisaient aussi : on copiait les pièces des théâtres des Boulevards, on écoutait Maurice Chevallier et les jambes de Mistinguett étaient connues universellement. C’était une civilisation entière qui rayonnait, et dont l’achèvement a été très brutal. Les accords Blum-Byrnes de 1946, en ouvrant les salles de cinéma français aux films américains contre liquidation d’une partie de la dette française envers les Etats-Unis, constituent un élément important de ce tournant historique. La vie culturelle française reste de nos jours sans doute dynamique. Mais l’industrie française n’ayant pas la puissance de feu de sa concurrente américaine (85% du marché mondial du cinéma est américain), son drame reste avant tout la question de sa diffusion à l’étranger, aussi bien auprès des élites que du plus grand nombre. Les films français ne percent que rarement à l’étranger et si c’est le cas, on remarquera qu’ils sont soit remplis de stéréotypes à l’égard de leur pays d’origine (Le fabuleux destin d’Amélie Poulain de Jean-Pierre Jeunet ou La Môme d’Olivier Dahan), soit réalisés selon les canons des films hollywoodiens (pensons aux films de Luc Besson). Seule, la France ne peut mener le combat de l’exception culturelle ; elle s’est pour cela alliée au Canada, nonobstant plusieurs contradictions. Dans le cadre de leur action commune, l’exception culturelle devient un simple sous-ensemble de la « diversité culturelle ». Cette Jeune République _"Innovation et régulation à l’heure du numérique"_81
notion part du constat que les cultures des minorités et des peuples autochtones au sein d’un pays sont menacées par l’acculturation au profit des seules cultures rentables. Les pouvoirs publics doivent alors quitter leur neutralité à l’égard du marché pour protéger les cultures minoritaires et soutenir leur expression. C’est pourquoi la France et le Canada ont défendu la Convention pour la diversité culturelle adoptée en 2005 par l’Unesco. Son article 20 lui confère le même niveau juridique que les autres traités auxquels les Parties ont adhéré – la Convention a donc la même valeur que les textes de l’Organisation mondiale du commerce. La France peut-elle crier victoire ? Probablement pas. La promotion de la diversité culturelle se retourne contre la France, sur au moins deux points. L’exception culturelle revient à protéger la culture nationale ; la diversité culturelle promeut le multiculturalisme. On aura compris la situation du Canada, Etat de tradition anglo-saxonne dont la domination est combattue aussi bien par ses citoyens de langue française que par les peuples autochtones présents avant la colonisation. A l’inverse, dans une nation qui ne reconnaît pas de minorités, la culture nationale, protégée de l’influence américaine, pourrait désormais être concurrencée par une aide aussi bien en faveur des expressions culturelles des communautés récemment installées dans le pays que des demandes régionalistes. La diversité culturelle est source d’une seconde contradiction pour la France. Si toutes les cultures doivent s’épanouir, que subsiste-t-il de la supériorité de la culture française ? Bref, que devient l’exception culturelle, véritable politique au service d’une certaine idée de la France ? Pierre-Emmanuel Bartier est étudiant à Sciences Po
Flickr - Creative Commons licence photo credit jay8085
82_ "Innovation et régulation à l’heure du numérique"_ Jeune République
VERS
DE NOUVEAUX PARADIGMES DE LA DIFFUSION ET DE LA CRÉATION DES OEUVRES par Jérémie Nestel L’économie de la vente des oeuvres culturelles, du fait de la possibilité de les dupliquer et distribuer à l’infini à l’identique à un coût proche de zéro, amène à un changement de paradigmes tant au niveau de la production que de la diffusion. Le chiffre d’affaires du marché du support physique est en baisse constante, tendance appelée à perdurer puisque qu’il est prévu en 2010 une baisse d’environs 10% par rapport à 2009. Ce support constitue encore la principale source de revenue de l’industrie de musique.
Les effets de ces changements sont multiples et ont plusieurs incidences. Ils induisent de nouvelles pratiques sociales et un rapport nouveau du public vis à vis des oeuvres. En un temps très court, nous sommes passés du Walkman à cassette à l’Ipod où il est possible d’accéder à plus de 80 disques. Ce simple état de fait change complètement le rapport aux oeuvres et à leur écoute. Il est désormais possible de transporter en permanence avec soi des catalogues d’oeuvres et de créer à volonté des playlistes. Il est important sans même évoquer internet, de comprendre, ce que l’arrivée de ces lecteurs numériques change phénoménologiquement dans le rapport existant entre l’oeuvre, le public, et les artistes. Le format et les pratiques d’écoute sont en train d’évoluer. Le format disque et sa standardisation de chanson à 2m30 restera t-elle en phase avec le public et les nouveaux usages numériques, maintenant que l’on peut sélectionner et choisir l’ordre de passage des oeuvres, voir les modifier/mixer avec différents logiciels de montage audio ? L’industrie des majors, dans la standardisation des oeuvres imposée en corrélat des médias qu’elles possèdent. Radio, télévision, est-elle en discordance avec ces nouvelles possibilités offertes par l’évolution des nouvelles technologies ? Une oeuvre n’est plus obligée d’avoir un format de temps imposé, elle peut inclure des possibilités de modification et d’interaction avec son public. Une nouvelle typologie d’oeuvres est d’ailleurs en train d’apparaître. Par exemple le groupe Lonah sortira son prochaine album avec un mixer rendant possible via Internet de remixer piste par piste chaque chanson, de supprimer une basse ou de modifier la batterie. Le groupe Lonah en plus de proposer « un produit fini » invente une nouvelle façon d’entrer en interaction avec son public. C’est dans ce sens qu’un nombre croissant d’auteurs décident d’utiliser des licences libres et de tenter de gérer leur carrière en gestion individuelle plutôt que collective. Les licences libres (Art Libre, Créatives Commons) semblent innover et être en adéquation avec l’évolution de la diffusion de la musique. Elles garantissent le droit d’auteur tout en favorisant une libre diffusion des oeuvres, incluant des possibilités nouvelles d’interaction entre public et auteur. Bien que les oeuvres sous licence libre augmentent chaque jour sur Internet autour de différents initiatives à l’image de Wikimedia, à Jamendo, à Dogmazic, leur valeur financière n’est prise en compte par aucune étude officielle. Le marché de la musique est détenu en France par 4 majors qui détiennent 75,3% du chiffre d’affaire du marché physique. Elles détiennent un pouvoir d’influence énorme sur les évolutions de l’industrie culturelle et sur l’évolution du marché numérique. Ce sont de puissants lobbies comme il a été possible de le constater avec la loi HADOPI et maintenant ACTA. En attendant un développement du marché de la musique numérique qui représente à peine 8% sur le marché de la musique enregistré, les majors valorisent leurs catalogues d’artistes en tant que cotation financière. On retiendra que c’est un artiste mort qui a réalisé la plus grande exploitation commerciale en France pour l’année 2009 : Michael Jackson. Parmi les 100 CD les plus vendu en France, une bonne partie n’ont pas été produit cette année, et ces 100 CD représentent environs 74% des ventes unitaires. A contrario, on retiendra en septembre 2009 la création d’une Société d’Acceptation et de Répartition des Dons, crée autour de la proposition du Mécénat Global de Françis Muguet et Richard Stallman, visant à favoriser des dons pour les auteurs par une mise en relation directe avec leur public. Le marché de la musique semble préempté par les majors, qui ne semblent plus en capacités d’inventer une économie en adéquation avec des auteurs toujours plus nombreux et de plus en plus précarisés. L’émergence de nouveaux artistes souffre de la difficile réinvention de l’industrie musicale, quand de plus en plus d’auteurs tentent de rencontrer leur public via Internet. Des initiatives comme la SARD où la Licence Créative foisonnent sur Internet pour inventer de nouvelles formes d’aide ou rémunération pour les artistes. Il serait peut être temps de réfléchir à une nouvelle économie numérique tenant compte des nouveaux paradigmes de la diffusion musicale, et de soutenir les initiatives économiques autour des licences libres. Jérémie Nestel est président de Libre Accès
Jeune République _"Innovation et régulation à l’heure du numérique"_83
jeunerepublique.fr Jeune République - Association loi 1901 Adresse de l’éditeur : 92, rue de Rennes 75006 Paris Directeur de la Publication : Juan Paulo Branco Lopez Conception graphique et photos 1ère et 4ème de couverture : Camille Bui - camillebui@gmail.com Numéro ISSN : 2105-0988
contact@jeunerepublique.fr