Chapitre 9 – Les transformations des structures ...

47
Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 1 Chapitre 9 – Les transformations des structures économiques et financières Ce que dit le programme La croissance et le développement sont à l’origine des changements économiques, sociaux, démographiques comme ils sont modifiés par ceux-là. (…) L’étude de la dimension historique des changements économiques, sociaux et démographiques éclairera les analyses plus théoriques. On présentera les transformations des structures économiques, sociales et démographiques et on montrera que leurs relations avec la croissance sont complexes. Croissance, développement et transformations du système productif sont en interaction permanente. On étudiera l’évolution de la productivité, ainsi que les mutations des secteurs d’activité et des modes de financement depuis la révolution industrielle. Plan proposé 1 – L’évolution de la productivité depuis le 19 ème siècle 2 – Les conséquences du progrès technique sur le tissu productif 3 – Les impacts de la transition numérique sur l’emploi et la distribution des revenus 4 – L’évolution des structures financières depuis le 19 ème siècle -------------------------------------------------------------------------------------------------------------------------------------------------- 1 – L’évolution de la productivité depuis le 19 ème siècle 1.1 – la productivité : définition et enjeux 1.1.1 – La productivité : de quoi parle-t-on ? Document 1 – Productivité apparente et productivité globale des facteurs Les mesures de la productivité les plus usuellement utilisées sont des indicateurs de productivité apparente et de productivité globale des facteurs. Les indicateurs de productivité apparente rapportent une mesure du volume de l’output, le PIB par exemple, à une mesure du volume de l’un des facteurs de production utilisés pour produire cet output. Par exemple, l’indicateur macroéconomique de productivité par emploi dans un pays donné rapporte le PIB à l’emploi total de ce pays. Il peut y avoir autant d’indicateurs de productivité apparente que de facteurs de production considérés. Mais, par ailleurs, l’output et chacun des facteurs de production peuvent faire l’objet de différentes mesures, qui aboutiront à augmenter d’autant le nombre des indicateurs. Ainsi, par exemple, l’output d’un pays peut être mesuré par le PIB mais aussi par le produit intérieur net, le facteur travail par l’emploi salarié, l’emploi total ou le nombre d’heures travaillées, et le capital par une mesure brute ou nette du stock de capital productif fixe, voire par le flux de consommation de capital fixe. Les indicateurs de productivité globale des facteurs (PGF) rapportent une mesure du volume de l’output à une combinaison des volumes de tous les facteurs de production dont la prise en compte est explicitée. Cette combinaison correspond à la relation fonctionnelle, ou fonction de production, retenue pour représenter la combinaison productive. Les évolutions de la PGF traduisent celles de l’output qui ne sont pas directement expliquées par les évolutions des inputs. Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007 1.1.2 – Pourquoi étudier la notion de productivité ? Document 2 – Gains de productivité et niveau de vie Les gains de productivité revêtent une importance primordiale en économie puisqu’ils sont à l’origine de l’amélioration du niveau de vie, soit le PIB par habitant. L’accroissement de la productivité du travail peut provenir de l’augmentation de la quantité de capital disponible pour chaque travailleur (hausse de l’intensité capitalistique : capital/travail) et/ou de l’amélioration de la productivité globale des facteurs.

Transcript of Chapitre 9 – Les transformations des structures ...

Page 1: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 1

Chapitre 9 – Les transformations des structures économiques et financières

Ce que dit le programme La croissance et le développement sont à l’origine des changements économiques, sociaux, démographiques comme ils sont modifiés par ceux-là. (…) L’étude de la dimension historique des changements économiques, sociaux et démographiques éclairera les analyses plus théoriques. On présentera les transformations des structures économiques, sociales et démographiques et on montrera que leurs relations avec la croissance sont complexes. Croissance, développement et transformations du système productif sont en interaction permanente. On étudiera l’évolution de la productivité, ainsi que les mutations des secteurs d’activité et des modes de financement depuis la révolution industrielle.

Plan proposé 1 – L’évolution de la productivité depuis le 19ème siècle 2 – Les conséquences du progrès technique sur le tissu productif 3 – Les impacts de la transition numérique sur l’emploi et la distribution des revenus 4 – L’évolution des structures financières depuis le 19ème siècle -------------------------------------------------------------------------------------------------------------------------------------------------- 1 – L’évolution de la productivité depuis le 19ème siècle

1.1 – la productivité : définition et enjeux

1.1.1 – La productivité : de quoi parle-t-on ?

Document 1 – Productivité apparente et productivité globale des facteurs Les mesures de la productivité les plus usuellement utilisées sont des indicateurs de productivité apparente et de productivité globale des facteurs. Les indicateurs de productivité apparente rapportent une mesure du volume de l’output, le PIB par exemple, à une mesure du volume de l’un des facteurs de production utilisés pour produire cet output. Par exemple, l’indicateur macroéconomique de productivité par emploi dans un pays donné rapporte le PIB à l’emploi total de ce pays. Il peut y avoir autant d’indicateurs de productivité apparente que de facteurs de production considérés. Mais, par ailleurs, l’output et chacun des facteurs de production peuvent faire l’objet de différentes mesures, qui aboutiront à augmenter d’autant le nombre des indicateurs. Ainsi, par exemple, l’output d’un pays peut être mesuré par le PIB mais aussi par le produit intérieur net, le facteur travail par l’emploi salarié, l’emploi total ou le nombre d’heures travaillées, et le capital par une mesure brute ou nette du stock de capital productif fixe, voire par le flux de consommation de capital fixe. Les indicateurs de productivité globale des facteurs (PGF) rapportent une mesure du volume de l’output à une combinaison des volumes de tous les facteurs de production dont la prise en compte est explicitée. Cette combinaison correspond à la relation fonctionnelle, ou fonction de production, retenue pour représenter la combinaison productive. Les évolutions de la PGF traduisent celles de l’output qui ne sont pas directement expliquées par les évolutions des inputs.

Gilbert Cette, Productivité et croissance en Europe et aux Etats-Unis, collection Repères, La Découverte, 2007

1.1.2 – Pourquoi étudier la notion de productivité ?

Document 2 – Gains de productivité et niveau de vie Les gains de productivité revêtent une importance primordiale en économie puisqu’ils sont à l’origine de l’amélioration du niveau de vie, soit le PIB par habitant. L’accroissement de la productivité du travail peut provenir de l’augmentation de la quantité de capital disponible pour chaque travailleur (hausse de l’intensité capitalistique : capital/travail) et/ou de l’amélioration de la productivité globale des facteurs.

Page 2: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 2

Robert Solow explique dans son célèbre article de 1956 intitulé « A contribution to the theory of economic growth » le rôle fondamental des gains de productivité pour améliorer le niveau de vie. Comme le montre le schéma 2, à mesure que l’intensité capitalistique croît, la productivité du travail augmente mais ses accroissements sont de plus en plus faibles du fait des rendements décroissants associés à l’accumulation de capital par travailleur. À long terme, l’accroissement du niveau de vie n’est possible qu’à travers un accroissement de la productivité globale des facteurs.

Manuel ESH ECE1, Studyrama, 2017

Document 3 – Les gains de productivité concourent à la réalisation du bien-être humain Dans le modèle que présente le schéma 2 (dans le document 2), le niveau de vie est approximé par la productivité du travail. Même si ces deux notions s’articulent étroitement, elles doivent être distinguées notamment parce qu’une partie de la population n’occupe pas d’emploi, ce qui fait que le PIB par habitant est inférieur à la productivité par tête. Le PIB par habitant peut être décomposé comptablement comme le produit de la productivité horaire du travail, de la durée moyenne du travail, du taux d’emploi, et de la part de la population en âge de travailler dans la population totale. Cette relation peut également s’écrire en taux de croissance, mais de façon additive et non plus multiplicative :

Croissance du PIB par habitant = évolution de la productivité horaire + évolution de la durée du travail + évolution du taux d’emploi + évolution de la part de la population en âge de travailler dans la population

totale

L’analyse de cette relation comptable permet de mettre en évidence le rôle majeur des gains de productivité dans la réalisation du bien-être humain. D’une part, les gains de productivité peuvent être utilisés à la fois pour baisser les prix des biens et services et augmenter les revenus, ce qui accroît le niveau de vie réel de la population. D’autre part, les gains de productivité peuvent également servir à réduire la durée du travail, et donc à augmenter le temps de loisir, sans consentir de diminution du niveau de vie. Ainsi, en France, la durée annuelle moyenne du travail est passée d’à peu près 2 900 heures en 1890 à 1 536 heures en 2012, soit une division par deux du temps de travail. Dans le même temps, le PIB par habitant augmentait en moyenne de 1,8 % par an sur la période 1890-2012. Si une telle coévolution du PIB par habitant et de la durée du travail est

Page 3: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 3

possible, c’est uniquement parce que la période 1890-2012 se caractérise par de forts gains de productivité horaire du travail, de l’ordre de 2,5 % par an en moyenne.

Manuel ESH ECE1, Studyrama, 2017

Document 4 – Les gains de productivité : une manière d’apaiser les conflits de répartition Dans les pays où la productivité stagne, le revenu réel par tête fait lui aussi du surplace : il n’y a pas de revenu supplémentaire, chaque année, à partager entre les différentes catégories de la population. Le partage des revenus devient un jeu à somme nulle. Si une catégorie bénéficie d’une progression de son revenu, une autre accusera un recul. On imagine aisément, dans ces conditions, les conflits de répartition qui sont susceptibles de surgir. Entre revenus du capital et revenus du travail par exemple, le partage devient très conflictuel dès lors que les gains de productivité sont faibles. En effet, si la part des profits dans le revenu global augmente (comme c’est le cas depuis 2008 en Espagne, depuis 2009 aux États-Unis et au Royaume-Uni, en Allemagne et au Japon), la croissance des salaires réels devient très modeste, et les salariés se sentent fortement pénalisés ; si la part des salaires dans le revenu global augmente (France, Italie), les profits diminuent, et la capacité des entreprises à investir est fortement atteinte, ce qui à terme, ne manquera pas de pénaliser l’emploi et le niveau de vie des salariés. De même, dans un contexte de vieillissement démographique, le maintien coûte que coûte du niveau de vie relatif des retraités alors que la productivité stagne implique forcément un recul du niveau de vie des actifs et un conflit de répartition. On pourrait aussi bien évoquer la même problématique entre insiders (salariés anciens en CDI) et outsiders (salariés récents, en particulier les jeunes, avec des contrats de travail temporaires) sur le marché du travail, ou entre « riches » et « pauvres » : les inégalités de revenus sont vécues encore plus durement lorsque le revenu réel global par tête ne progresse pas (…). Tous ces conflits potentiels mijotent désormais à feu doux. Il suffit pour s’en convaincre de faire l’inventaire de l’improbable ménagerie qui a envahi les routes de notre beau pays depuis quelques mois : des pigeons aux cigognes en passant par les poussins, les dindons, les moutons et les dodos… Sans oublier les « bonnets rouges », une espèce nouvelle, récemment encore inconnue des zoologistes ! Autrement dit, les entrepreneurs du Net vent debout contre la fiscalité sur les plus-values, les sages-femmes résolues à être reconnues comme « praticien de premier secours », les autoentrepreneurs attachés à leur statut, les enseignants remontés contre la réforme des rythmes scolaires, les indépendants victimes de la pression fiscale, les VTC en lutte contre les artisans taxis, sans oublier les collectifs d’agriculteurs et d’entrepreneurs bretons mobilisés contre l’écotaxe poids lourds… Sans oublier non plus l’émergence de mouvances qui veulent faire de la préservation du monde une priorité et entrent en résistance contre ce qu’elles appellent l’« idéologie de la croissance ». A commencer par les « zadistes », militants anti-productivistes des « zones à défendre » (ZAD) bien implantés sur le site du barrage de Sivens (Tarn) mais aussi sur celui de l’aéroport de Notre-Dame-des-Landes ou du Val de Suse (Italie) afin de protester contre la ligne à grande vitesse Lyon-Turin. Les jeunes, particulièrement malmenés par les conséquences de la crise, s’inquiètent de plus en plus de l’évolution de la situation économique et sociale. Notamment sur le front des inégalités. Ainsi, Louis Chauvel, sociologue à l’université du Luxembourg, et Martin Schröder, sociologue à l’université de Marburg, ont consacré leurs dernières recherches à l’évolution des inégalités entre générations en Europe. Leurs conclusions ne sont guère flatteuses pour la France, qu’ils classent en tête pour ces inégalités entre générations. En étudiant 17 pays européens, les deux chercheurs ont noté que si les jeunes nés autour de 1975 avaient eu la chance de suivre la tendance de croissance exceptionnelle des niveaux de vie dont ont bénéficié les cohortes nées entre 1929 et 1950, leur niveau de vie serait 30 % plus élevé. De quoi alimenter l’exaspération de la fameuse génération Y. Une grande enquête menée à l’automne 2013 (« Génération quoi ? », France Télévision/Le Monde/Europe 1) auprès de quelques 210 000 jeunes âgés de 18 à 34 ans révèle son malaise et sa rancœur vis-à-vis de la génération dorée des baby-boomers, qui serait, selon une majorité d’entre eux, responsable de ses difficultés actuelles. Des jeunes qui aiment tendrement leurs parents mais qui en ont « marre des baby-boomers » ; « On paie pour leur retraite, mais, nous, on n’en aura pas. » Commentaire de la sociologue Cécile Van de Velde, maître de conférence à l’EHESS citée par Le Monde : « Le problème d’équité entre générations se conscientise, sans doute du fait de la politique d’austérité, de la réforme des retraites et des débats sur le poids de la dette. Les jeunes pensent qu’ils font les frais de tout cela. » Pour le moment, la qualité des liens familiaux (les parents aident de plus en plus leurs enfants qui ont du mal à s’insérer dans le monde du travail)

Page 4: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 4

constituent un frein à la contestation générationnelle. En 2010, des lycéens sont même descendus dans la rue en France pour défendre la retraite de leurs « vieux parents », et les jeunes se mobilisent plus facilement contre les élites ou le capitalisme que contre leurs bienveillants aînés. Toutefois, cette enquête traduit un glissement et une montée de l’exaspération face aux difficultés qui s’accumulent dans un contexte général plutôt morose. L’enquête « Génération quoi ? » révèle aussi la fragilisation du lien social à travers les frustrations d’une génération qui ne croit plus dans la politique et dont l’esprit de tolérance demeure fort mais semble entamé. Les sociologues pointent qu’une grosse minorité campe sur des positions autoritaires et xénophobes. « Ce sont les jeunes invisibles, précise Cécile Van de Velde, dans des vies d’impasse, perdants de la mondialisation. Beaucoup de ruraux et de péri-urbains, en difficulté, déclassés. Ils sont souvent tentés par le Front National. » De ce point de vue, la génération Y tend un miroir à une société française où le lien social devient de plus en plus fragile, s’accompagnant d’une difficulté à vivre ensemble, nourrissant les corporatismes, les affrontements catégoriels, et favorisant la recherche de boucs émissaires. Le succès de l’ouvrage d’Eric Zemmour (Le suicide français) suffit à démontrer combien les Français sont désormais tentés de rendre pêle-mêle les technocrates bruxellois, les élites, les immigrés, les partisans de la mondialisation, le « lobby » homosexuel, les musulmans et autres « ennemis de l’intérieur » responsables de tous les maux. Et d’abord du déclin national accompagné d’un déclassement individuel. Quitte à mettre de l’huile sur le feu des affrontements catégoriels. Chacun aujourd’hui en est d’ailleurs parfaitement conscient. Un sondage BVA/CGSP (« Quelle France dans dix ans ? », réalisé en février 2014 pour le Commissariat général à la stratégie et à la prospective, montre que 72 % des Français anticipent pour les dix ans à venir des tensions entre les groupes composant la société. L’absence durable de résultats économiques susceptibles de garantir une amélioration de la vie quotidienne du plus grand nombre ne pourrait qu’alimenter cette dérive, avec le risque que les mouvements que l’on voit fleurir au gré des exaspérations se connectent avec le climat idéologique conservateur. Un terreau privilégié pour les extrêmes, comme l’ont montré en France et ailleurs les résultats des scrutins électoraux de 2014. En une ou deux générations, la mondialisation aura jeté dans un même bain planétaire les vieux riches que nous sommes et les milliards de jeunes pauvres qui rêvent de rattraper notre niveau de vie. Ce n’est pas la mer à boire, mais c’est une autre mer. Comment y naviguer ? Une chose est sûre : nous ne pouvons plus compter désormais, en tout cas comme avant, sur la providentielle croissance. Il va nous falloir apprendre à gérer la rareté, pas seulement de l’argent public, mais aussi et surtout du PIB. Pour la génération arrivée aux affaires avec les Trente Glorieuses, c’est une bascule intellectuelle sans précédent. Un ultime défi à relever avant de transmettre le flambeau.

Patrick Artus, Marie-Paule Virard, Croissance zéro Comment éviter le chaos ?, Fayard, 2015 p.136-142

Page 5: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 5

Rappel – Gains de productivité et croissance économique

1.2 – Les grandes vagues de croissance de la productivité

1.2 1 – Approche empirique

Document 5 – Un essor considérable de la productivité Sur l’ensemble de la période 1890-2012, le PIB par habitant a connu une très forte progression, correspondant par exemple en France à une multiplication par un facteur neuf. Cette progression n’a pas été régulière : elle connait de fortes irrégularités liées à des chocs globaux, comme les guerres, les innovations techno- logiques et les chocs pétroliers, ou propres à chaque pays ou zone comme la mise en œuvre de programmes de réformes ambitieux. Les deux facteurs qui ont principalement contribué à cette forte progression du PIB par habitant sont la productivité globale des facteurs (PGF) et l’intensité capitalistique.

Source : Cette et alii ÉCONOMIE ET STATISTIQUE N° 474, 2014

Document 6 – TCAM de la productivité horaire du travail depuis 1890

Page 6: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 6

Document 7 – Décomposition de la croissance du PIB/habitant depuis 1890 : l’importance de la PGF

Document 8 – L’innovation comme facteur essentiel de la croissance de long terme du niveau de vie Paul Krugman exprime un quasi-consensus parmi les économistes quand il écrit que « la productivité n’est pas tout, sauf à long terme ». Pourquoi ? Parce que la « capacité d’un pays à améliorer son niveau de vie au cours du temps dépend presque entièrement de sa capacité à augmenter sa production par actif », c’est-à-dire le nombre d’heures de travail nécessaires pour produire tout ce que nous produisons (…). La plupart des pays ne disposent pas de larges réserves pétrolières ou minières, et ils ne peuvent donc pas s’enrichir en les exportant. Le seul moyen pour eux de le faire, et donc d’améliorer le niveau de vie de leur population, est que les entreprises et les travailleurs continuent à obtenir davantage d’outputs pour une même quantité d’inputs – autrement dit, davantage de biens et services pour le même nombre de personnes. L’innovation sert à augmenter la productivité. Les économistes (…) s’accordent tous sur le rôle fondamental de l’innovation dans la croissance et la prospérité. La plupart serait d’accord avec Joseph Schumpeter pour dire que « l’innovation est le fait le plus remarquable de l’histoire économique des sociétés capitalistes ». (…) C’est ici que prend fin le consensus et que commencent les désaccords : quelle est la part de ce « fait remarquable » aujourd’hui ? Et sa trajectoire est-elle à la hausse ou à la baisse ?

Erik Brynjolfsson et Andrew McAffe, Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique, Odile Jacob, 2015, p. 84

Page 7: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 7

Document 9 – Taux de croissance filtré de la productivité horaire aux États-Unis, dans la zone euro, au Japon et au Royaume-Uni (1891-2012) en %

Document 10 – Périodisation historique des gains de productivité dans les pays développés Le rythme des gains de productivité n’a cependant pas été linéaire au cours du temps et diffère selon les pays ou zones géographiques. Depuis 1890, plusieurs grandes périodes doivent être distinguées. Jusqu’à la Première Guerre mondiale, c’est le Royaume-Uni qui définit la frontière technologique tandis que les autres zones économiques rattrapent leur retard. En dépit d’innovations majeures telles que l’électricité ou le moteur à explosion, la croissance de la productivité n’est pas très dynamique. Sur la période 1913-1950, les États-Unis se distinguent des autres zones géographiques puisque c’est le seul pays à connaître une accélération significative de ses gains de productivité. Les autres pays du monde connaissent en moyenne un ralentissement de leurs gains de productivité. Les États-Unis définissent désormais la frontière technologique. Ce renforcement de l’efficacité du travail aux États-Unis est essentiellement permis par un accroissement de la PGF, conséquence de la diffusion dans l’économie américaine d’innovations majeures comme l’électricité, le téléphone, la chimie ou bien encore le moteur à explosion. Durant les Trente Glorieuses, les économies européenne et japonaise connaissent une accélération forte et brutale de la productivité (entre 5 et 6 % en moyenne chaque année sur la période), surtout portée par une accélération de la PGF. La productivité continue à croître à un rythme important de 2,7 % par an aux États-Unis mais, sur la période 1950-1974, l’Europe tend à rattraper son retard sur l’économie américaine qui définit la frontière technologique. C’est cette forte accélération de la productivité sur la période 1913-1974 – précoce et linéaire aux États-Unis, tardive et brutale en Europe et au Japon – qui a conduit l’économiste américain Robert J. Gordon à parler d’une « grande vague » de productivité dans un article de 2003 intitulé « Deux siècles de croissance économique : l’Europe à la poursuite des États-Unis ». Sur la période qui suit, de 1974 à 1995, le rythme de croissance de la productivité diminue dans tous les pays du monde, sous l’effet d’un ralentissement important et généralisé de la croissance de la PGF, ce qui peut s’expliquer par la fin du rattrapage économique et l’épuisement de la grappe d’innovations ayant engendré la « grande vague ». Ce ralentissement est toutefois plus marqué aux États-Unis (où les gains de productivité s’élèvent à 1,1 % en moyenne par an) qu’en Europe ou au Japon, zones dans lesquelles les gains de productivité sont encore de l’ordre de 2,5 à 3 % en moyenne par an. Les rythmes de croissance de la productivité après le premier choc pétrolier sont souvent considérés comme historiquement faibles. C’est vrai au regard des évolutions de la productivité constatées durant les Trente Glorieuses, mais ils demeurent élevés au regard de ceux observés durant plusieurs décennies avant la Seconde Guerre mondiale. Au final, c’est plutôt la période

Page 8: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 8

des Trente Glorieuses qui est atypique en termes d’évolution de la productivité. Du milieu des années 1990 au milieu des années 2000, la productivité horaire américaine se met à croître significativement alors que les gains de productivité continuent à ralentir dans le reste du monde. La diffusion dans l’économie américaine des innovations associées à la troisième révolution industrielle, à savoir les technologies de l’information et de la communication (TIC), soutient la croissance de la productivité par l’accélération conjointe de la PGF et de l’intensité capitalistique. Depuis la Grande Récession, les principaux pays développés sont tous confrontés à un ralentissement des gains de productivité qui passent en dessous de la barre des 1 %.

Manuel ESH ECE1, Studyrama, 2017

Document 11 – La désynchronisation des vagues de croissance de la productivité En France, deux vagues apparaissent entre 1890 et 2012, dans les années vingt, puis de manière beaucoup plus marquée pendant la période des « Trente Glorieuses » au cours de laquelle la France bénéficie d’un taux de croissance annuel moyen de 4,2 % par an du PIB par habitant. Cette seconde vague peut être attribuée aux reconstructions d’après-guerre ainsi qu’au rattrapage technologique vis-à-vis des États-Unis. Le profil observé pour la zone euro est assez proche de celui de la France. Les États-Unis présentent un profil très différent, avec une grande vague, la « one big wave » de Gordon (1999), s’amorçant dans les années vingt et culminant dans les années quarante, qui correspond à un choc d’innovation ayant permis une forte accélération de la productivité (Fields, 2012). Une autre vague plus modeste apparaît à partir du début des années quatre-vingt-dix, correspondant à la révolution technologique portée par les TIC. À chaque fois, les chocs d’innovation semblent atteindre les États-Unis avant la zone euro. Cette avance est généralement attribuée à des facteurs institutionnels (Ferguson et Washer, 2004) tels la concurrence sur le marché des biens, la flexibilité du marché du travail ou encore le niveau d’éducation de la population en âge de travailler.

Antonin Bergeaud, Gilbert Cette, Rémy Lecat, « Le produit intérieur brut par habitant en France et dans les pays avancés : le rôle de la productivité et de l’emploi » Banque de France, rue de la Banque, Octobre 2015

n°11

1..2 – Les vagues de croissance de la productivité s’expliquent par l’apparition de technologies à portée générale

Document 12 – Comment définir les innovations à portée générale ? Le terme de technologie à portée générale traduit l’arrivée d’une technologie transformant en profondeur la vie des ménages et la manière dont les firmes conduisent leurs activités. Elles ont la particularité d’affecter l’ensemble de l’économie comme ont pu le faire la vapeur, l’électricité, le moteur explosion, les technologies de l’information ou plus loin dans le temps l’imprimerie. Les technologies à portée générale sont souvent directement reliées au terme de révolution industrielle. Ainsi, la première révolution industrielle (1ère moitié du 19ème) est dans la continuité de l’invention de la machine à vapeur par James Watt dans les années 1770 ; la seconde révolution industrielle (première moitié du 20ème siècle est dans la continuité de l’utilisation de l’électricité avec l’invention de l’ampoule par Edison (1879) et de la dynamo notamment par Siemens (1866) et la troisième révolution industrielle dans la continuité de l’utilisation des technologies de l’information et de la communication suite à l’invention du microprocesseur par Hoff et Faggin, ingénieurs chez Intel, en 1969. Dans les trois cas, on note l’importance de l’innovateur qui permet l’apparition d’une nouvelle technologie à portée générale et donc la croissance de la productivité à long terme. Le changement technologique profond apporté par les technologies à portée générale est à l’origine des vagues de croissance de la productivité. Bresnahan et Trajtenberg distinguent les technologies à portée générale des autres technologies en mettant en avant i) l’ampleur de leur diffusion (elles s’étendent à tous les secteurs), ii) leur potentiel d’amélioration (puisqu’elles s’améliorent avec le temps, le prix des technologies pour un niveau de qualité donnée baisse rapidement) ; iii) leur capacité à générer des innovations incrémentales (elles facilitent l’invention et la production de nouveaux produits ou procédés).

D’après Philippe Aghion, cours au Collège de France : AI and economic growth, 16/10/18

Page 9: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 9

Document 13 – La diffusion des technologies à portée générale est lente au départ en raison de délais d’adoption De manière assez paradoxale, quand une technologie à portée générale apparaît, elle s’accompagne d’une très faible croissance de la productivité durant les premières années. L’historien de l’économie, Paul David, dans « The dynamo and the computer : an historical perspective on the modern productivity paradox » (American Economic Review, 1990) met en avant le rôle des coûts de transition d’une technologie à portée générae à une autre dans une perspective historique en faisant le parallèle entre l’arrivée de l’électricité et la révolution numérique. Ce sont deux époques marquées par l’arrivée de grandes innovations mais une faible croissance de la productivité.

La première dynamo électrique opérationnelle a été mise au point par Siemens en 1868 et Edison et Swann inventent la lampe à incandescence à filament de carbone en 1879. Pourtant, en 1899, l’électricité est encore très peu répandue aux États-Unis que ce soit chez les ménages ou dans les firmes. Pourtant, certains ingénieurs avaient déjà perçu les transformations de fond rendues possible par l’arrivée de l’électricité à la fin du 19ème siècle. Pourquoi ce délai ?

Au début du 19ème siècle, les usines étaient alimentées en énergie par des moulins à eau. L’arbre de transmission tournait à l’aide de la force de l’eau, et toutes les machines individuelles étaient ensuite reliées à cet arbre par des systèmes de courroie. Elles étaient alors regroupées par tâche, ce qui était plus simple pour optimiser la transmission d’énergie.

Page 10: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 10

La vapeur a ensuite progressivement remplacé l’eau comme source d’énergie dans les usines mais le système de transmission est resté le même, avec un arbre central tournant grâce à la machine à vapeur, et ensuite des courroies de distribution pour chaque machine. Quand l’électricité s’est développée, les ingénieurs n’ont tout d’abord pas remis en cause le système de production existant depuis un siècle : celui de l’arbre à transmission. Ainsi, dans la plupart des usines, ils ont simplement remplacé la machine à vapeur comme source d’énergie par un moteur électrique pour faire tourner l’arbre de transmission sans changer le système de courroies. Les firmes percevaient deux bénéfices principaux de l’électrification (une réduction de la consommation d’énergie et un meilleur contrôle de la vitesse de la machine que par la vapeur) et un important coût fixe de transition (raccordement au réseau électrique et embauche d’ingénieurs capables de réparer l’alimentation électrique notamment). Ce coût fixe perçu explique le faible développement de l’électricité à la fin du 19ème siècle. Il était alors impossible de deviner les économies permises par la

suppression d’un arbre de transmission unique. Et pourtant, à plus long terme, la miniaturisation du moteur électrique a permis d’alimenter chaque machine séparément, permettant alors de faire fonctionner des machines de tailles et de fonctions différentes les unes à côté des autres. Le fil pouvait relier chaque machine au réseau sans impliquer la présence d’un arbre de transmission. Au début des années 1910, Henry Ford à l’idée d’abandonner le système d’arbre de transmission vieux d’un siècle et de repenser complètement le fonctionnement des usines. Ford invente ainsi la chaîne de montage qui présente des avantages très importants : i) économie en capital fixe grâce à la construction d’usines plus légères et sur un seul étage alors que le système d’arbre de transmission demandait de construire en hauteur ; ii) ce passage du vertical à l’horizontal dans la structure de l’usine a permis une plus grande flexibilité dans la mise en place des chaînes de montage ; iii) possibilité d’arrêter une machine défectueuse pour la réparer sans stopper les autres machines, alors qu’il fallait arrêter toutes les machines liées à un arbre de transmission auparavant. La flexibilité offerte par l’électricité a alors été utilisée à son potentiel maximal, générant d’énormes gains de productivité et encourageant l’ensemble des usines à converger vers ce modèle. C’est le début de la vague de l’électricité, plus de 40 ans après l’invention de la première dynamo opérationnelle.

Page 11: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 11

L’électricité remplace progressivement la vapeur dans l’ensemble des secteurs

Paul David dresse un parallèle entre la mauvaise utilisation de l’électricité à la fin du 19ème siècle et la mauvaise utilisation de l’informatique à la fin du 20ème siècle. Alors que l’informatique devait permettre de numériser de nombreuses tâches de traitement de données, Paul David constate que les anciennes procédures papier sont souvent conservées, ne prenant donc pas la mesure du nouvel outil. Cela entraîne donc une faible croissance de la productivité à la fin des années 1980 La diffusion des technologies à portée générale prend du temps parce qu’elles impliquent des externalités de réseau. En effet, la mise en place d’un réseau de distribution à grande échelle est rentable uniquement si le nombre d’utilisateurs est important. De même, le développement de l’informatique requiert une masse critique d’utilisateurs, en particulier pour l’utilisation de l’Internet.

La diffusion de l’électricité et des technologies de l’information et de la communication (TIC) a également concerné les ménages. On suit en parallèle l’évolution temporelle des deux technologies en considérant l’invention de l’électricité en 1894 et celle de l’ordinateur en 1971. Comme dans le cas des firmes, la diffusion de l’électrification atteint un premier plateau dans les années 1930 avant de croître de nouveau. Avec les ménages, comme avec les entreprises, des retards de diffusion semblent se produire pour des raisons différentes pour les deux technologies (électricité et TIC) : i) les difficultés d’électrification des zones

rurales car elles nécessitent des coûts fixes important d’installation de réseau ; ii) pour la diffusion des ordinateurs, le principal obstacle semble être le coût d’apprentissage. Pour synthétiser, Paul David estime que l’on a mis 40 ans à optimiser l’utilisation d’une nouvelle technologie à portée générale (l’électricité) à l’industrie. Un délai est donc nécessaire avant d’observer des gains de productivité significatifs. Alors que l’l’industrie est restée prisonnière du modèle de l’arbre de transmission pour la conception des usines, elle a fini de sortir de ce sous-optimum pour utiliser au mieux l’apport de l’électricité.

D’après Philippe Aghion, cours au Collège de France : AI and economic growth, 16/10/18 Document 14 – L’amélioration des technologies à portée générale : gains d’efficacité et réduction du coût pour les utilisateurs Une technologie générique doit, à mesure qu’elle vieillit, améliorer son efficacité, sa qualité. Cela se traduit donc par une baisse des prix à qualité donnée. C’est le principe du partage volume-prix qui doit tenir compte des améliorations de qualité des produits pour calculer la croissance. L’idée est la suivante : à mesure que la technologie générique se diffuse au sein de l’économie, le prix du capital ajusté pour la qualité baisse. La figure

Page 12: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 12

ci-après représente une série ajustée du prix relatif de l’équipement en général (capital) ajusté pour la qualité, par rapport à l’indice des prix à la consommation (PK/Pc) depuis 1885.

Par rapport à la tendance temporelle linéaire de baisse relative du coût du capital, on observe une forte baisse : i) entre 1905 et 1920, ce qui correspond à la période de diffusion de l’électricité dans les firmes et chez les ménages ; après 1975, ce qui correspond à la diffusion de l’ordinateur. Si le coût moyen du capital ajusté pour la qualité baisse particulièrement durant une période de diffusion d’une technologie à portée générale, cette baisse devrait être particulièrement concentrée sur les biens capitaux qui sont au cœur de la révolution technologique.

Dans le graphique ci-contre, on observe une chute marquée de l’indice des prix pour les trois technologies. Cette chute est plus forte pour les ordinateurs avec un prix divisé par 10 000 en 25 ans (échelle de droite) que pour l’électricité ou les véhicules à moteur dont les prix ont été divisés par 10 en un siècle (échelle de gauche). L’électricité a un avantage en termes de diffusion sur l’ordinateur, mais l’ordinateur a connu une baisse inégalée des coûts, notamment liée à l’amélioration des micro-processeurs.

D’après Philippe Aghion, cours au Collège de France : AI and economic growth, 16/10/18 Document 15 – Les technologies à portée générale sont génératrices d’innovation incrémentales : elles facilitent l’invention et l’émergence de nouveaux produits ou procédés Les technologies à portée générale affectent en profondeur les processus de production, y compris ceux d’innovation et d’invention. Les technologies génériques peuvent aussi bien aider à fabriquer les produits existants (innovations de procédé) que permettre de développer de nouveaux produits (innovations de produit). Pour les innovations de procédé, on peut mentionner que i) l’électricité, en alimentant les usines en énergie de façon continue peut être considérée comme à l’origine de l’automatisation des processus de production ; ii) les TIC, en développant les capacités de simulation informatique, ont changé la façon de faire de la recherche empirique. Pour les innovations de produit, on peut rappeler que c’est le développement des TIC qui a permis la création des smartphones. Le nombre de brevets par habitant est une mesure de l’intensité d’innovation dans une économie. Le graphique qui suit met en évidence l’accélération des dépôts de brevets ou de marques lors des périodes de diffusion d’une technologie à portée générale.

Page 13: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 13

Les nouvelles entreprises ne subissent pas de coûts liés au passage des anciennes aux nouvelles technologies, et leur organisation est plus flexible que celle des entreprises existantes. L’arrivée de technologies génériques devrait donc être à l’origine d’entrées et de sorties de firmes (destruction créatrice). C’est ce que l’on observe dans le graphique qui suit : en effet, la valeur des firmes qui entrent au New-York Stock Exchange (NYSE) ou au NASDAQ représente une part plus importante de l’indice boursier lors des périodes de diffusion des technologies à portée générale.

D’après Philippe Aghion, cours au Collège de France : AI and economic growth, 16/10/18

Page 14: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 14

1.3 – Les problématiques contemporaines relatives à la productivité

1.3.1 – Le retard français : comment rattraper les États-Unis ?

a) Le paradoxe français : malgré une productivité horaire du travail proche de celle des États-Unis, le niveau de vie (PIB par tête) est largement inférieur

Document 16 – En France, une productivité horaire du travail proche de celle des États-Unis

Document 17 – Pourtant le PIB par tête est nettement inférieur (2002)

En % du niveau des États-Unis

PIB par heure travaillée

Pib par emploi PIB par habitant

Allemagne 98,6 78,2 71,4 Grande-Bretagne 88,9 79,2 78,4 France 106,7 88,7 76,2 Corée du Sud 40,2 52,9 52,0

Gilbert Cette, Productivité et croissance en Europe et aux États-Unis, collection Repères, La Découverte, 2007

Document 18 – La productivité horaire n’est qu’un facteur de l’évolution du PIB par tête Croissance du PIB par habitant =

évolution de la productivité horaire + évolution de la durée du travail +

évolution du taux d’emploi + évolution de la part de la population en âge de travailler dans la population totale

Document 19 – Un niveau de vie plus faible du fait d’une durée du travail et d’un taux d’emploi plus faible Les États-Unis sont, et de loin, le pays industrialisé où le PIB par habitant est le plus élevé. (…) Le niveau de PIB par habitant des différents ensembles européens (zone euro, UE à 15 ou à 25), comme d’ailleurs de chacun des principaux pays participants à l’UE, ainsi que du Japon, serait très nettement inférieur (d’environ 25 à 30 points) au niveau atteint par les États-Unis. Les pays dans lesquels le niveau de productivité horaire du travail est le plus élevé font partie de l’Europe continentale. Dans plusieurs pays, la productivité est proche voire supérieure au niveau des États-Unis. (…) la

Page 15: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 15

France apparaît d’ailleurs particulièrement performante. Ce constat suggère au premier regard que « la frontière technologique » ne serait pas sur la période actuelle, définie par les États-Unis mais plutôt par certains pays européens. (…) Comptablement cet écart peut s’expliquer par : - une durée du travail et/ou - un taux d’emploi et/ou - une part de la population en âge de travailler dans la population totale plus faible qu’aux États-Unis .

Schreyer et Pilat (2001) ou l’OCDE (2003) montrent que l’impact du troisième terme (la part de la population en âge de travailler dans la population totale) est négligeable sur la période récente, même s’il peut être important sur des périodes antérieures. Le contraste entre la forte productivité horaire et le faible niveau de PIB par habitant de certains pays européens vis-à-vis des États-Unis s’explique essentiellement par une durée du travail et/ou un taux d’emploi plus faibles. (…) Une durée du travail plus courte peut résulter d’une durée collective elle-même plus courte ou d’un développement plus important du travail à temps partiel, voire parfois conjointement de ces deux facteurs, comme aux Pays-Bas. Le taux d’emploi plus faible peut provenir (comptablement) lui-même d’un taux de participation plus faible ou d’un taux de chômage plus élevé.

Gilbert Cette, Productivité et croissance en Europe et aux États-Unis, collection Repères, La Découverte, 2007

Document 20 – Mesurer la productivité horaire structurelle du travail (2002) Productivité horaire

« observée » (a) Effets sur la productivité des écarts sur le taux d’emploi (b)

Effets sur la productivité des écarts sur la durée du travail (c)

Productivité horaire structurelle (d)

États-Unis 100 0 0 100 Allemagne 98,6 2,70 8,18 87,7 Grande-Bretagne 88,9 -0,49 2,93 86,5 France 106,7 4,14 5,96 96,6 Pays-Bas 100,5 -0,23 9,69 91

Gilbert Cette, Productivité et croissance en Europe et aux États-Unis, collection Repères, La Découverte, 2007

Document 21 – Les facteurs explicatifs de l’écart de PIB par tête par rapport aux États-Unis Écart au niveau de PIB/habitant des États-Unis en 2017 (en % et en points de croissance du niveau des États-Unis, PPA 2010)

A. Bergeaud, G. Cette, R. Lecat, Le bel avenir de la croissance, Odile Jacob, 2018

Page 16: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 16

Document 22 – La faible mobilisation de la main d’œuvre en Europe continentale relativement aux États-Unis : institutions ou préférences collectives ?

b) Comment expliquer le décrochage de la productivité française par rapport à la productivité américaine depuis le milieu des années 1990 ?

Document 23 – Le décrochage de la productivité française par rapport à celle des États-Unis

France Stratégie, « Comprendre le ralentissement de la productivité », La note d’analyse n°38, Janvier 2016

Page 17: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 17

Document 24 – Le décrochage français : conséquence d’investissements insuffisants dans les TIC

France Stratégie, « Comprendre le ralentissement de la productivité », La note d’analyse n°38, Janvier 2016

Document 25 – Les canaux par lesquels les TIC stimulent la productivité Une révolution technologique comme celle associée aux technologies de l’information et de la communication peut dynamiser la productivité essentiellement via trois canaux : • La production de TIC elle-même. Les gains de productivité dans la production de TIC sont importants et cette

production élève donc les gains de productivité moyens. Pour autant la faible part de ce secteur de production des TIC dans l’ensemble de l’économie aboutit à une contribution moyenne qui demeure mesurée. Des économistes ont évalué cette contribution aux États-Unis à 0,72 points de pourcentage en moyenne par an sur la décennie 1995-2004 où elle a été la plus forte, mais à seulement 0,28 points de pourcentage par an sur la décennie suivante. Ils expliquent cette forte baisse en grande partie par la délocalisation hors des États-Unis, généralement dans les pays émergents, de larges segments de la production des TIC.

• L’augmentation de l’intensité en capital de la combinaison productive. La baisse du prix des TIC par rapport au prix des autres biens a comme conséquence qu’une même dépense d’investissement en TIC permet de s’équiper en matériels dont les performances productives sont croissantes. Chacun connaît bien ce phénomène quand il s’équipe en achetant un ordinateur personnel : la même dépense correspond d’année en année à un matériel plus performant, c’est ce que l’on appelle communément la loi de Moore. Des économistes ont évalué cette contribution aux États-Unis à 0,78 points de pourcentage en moyenne par an sur la décennie 1995-2004 où elle a également été la plus forte, mais à seulement 0,36 points de pourcentage par an sur la décennie suivante. Ils expliquent cette forte baisse en grande partie par le ralentissement de la baisse du prix des TIC, qui traduit des gains de performances productives en diminution.

• Les externalités. On nomme ainsi le fait que les dépenses en TIC d’une entreprise élèvent non seulement sa propre productivité du fait du canal précédemment évoqué, mais aussi la productivité d’autres entreprises. Ces effets d’externalités sont bien illustrés dans le domaine du matériel de communication : quand une entreprise s’équipe de tels matériels, elle élève sa productivité mais aussi celle des autres entreprises qui auront plus de facilité à communiquer avec elle. De telles externalités associées aux TIC peuvent aussi transiter par les mouvements de main d’œuvre : un travailleur formé dans une entreprise à utiliser des techniques avancées peut aller ensuite travailler dans une autre entreprise qui tirera profit de cette formation. De telles externalités ne peuvent être directement mesurées. Elles sont appréhendées de façon résiduelle, comme ce qui ne peut pas être attribué aux précédents canaux.

A. Bergeaud, G. Cette, R. Lecat, Le bel avenir de la croissance, Odile Jacob, 2018

Page 18: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 18

Document 26 – Les écart d’efforts d’investissement en TIC

Source : https://blocnotesdeleco.banque-france.fr/billet-de-blog/niveau-de-vie-et-risque-de-stagnation-seculaire

Document 27 – Un retard dans la diffusion des TIC Ce décrochage s’explique par un important retard dans la diffusion des TIC, c’est-à-dire le matériel informatique, le matériel de communication et les logiciels. Gilbert Cette estime qu’en France en 2012, le stock de capital TIC est inférieur d’environ un quart au stock des États-Unis ; il correspondrait même au stock TIC américain de la fin des années 1980. Pour illustrer ce retard, on peut mentionner que seulement 63 % des entreprises françaises disposent d’un site web alors que la moyenne de l’OCDE est de 75 %. De même, seulement 17 % des entreprises françaises utilisent les réseaux sociaux pour leurs relations clients, contre 25 % en moyenne dans l’OCDE. Or les TIC contribuent à stimuler la productivité par l’intensification capitalistique mais aussi par des gains d’efficience.

Manuel ESH ECE1, Studyrama, 2017

Document 28 – Un exemple du retard français : l’utilisation du « clouding » en 2014

Page 19: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 19

Document 29 – Le décrochage français : conséquence d’une insuffisante destruction créatrice (recomposition insuffisante du tissu productif) Pourquoi la France n’a-t-elle pas connu de gains de productivité comparables à ceux des États-Unis dans ces secteurs ? Outre le moindre investissement dans les TIC, les études empiriques ont mis en avant la moindre intensité du processus de destruction créatrice en France. En effet, aux États- Unis, une partie importante des gains de productivité réalisés dans le secteur utilisateur de TIC s’est faite via la disparition d’entreprises de petite taille et peu productives, au profit de grandes entreprises productives. C’est l’effet Walmart du nom de la chaîne de distribution américaine qui a connu une forte croissance dans les années 1990. Ce phénomène dit d’efficience allocative, qui consiste en ce que les entreprises les plus productives grossissent en attirant capitaux et travailleurs, tandis que les moins productives voient leur poids relatif diminuer ou même disparaissent, est en effet une source de productivité agrégée majeure. Foster, Haltiwanger et Krizan (2006) montrent qu’aux États-Unis, la réallocation du facteur travail des entreprises faiblement productives vers les plus productives a été responsable de 50 % de la croissance de la productivité du secteur manufacturier des années 1990 et de 90 % dans le commerce de détail. Quel est le degré d’efficience allocative de l’économie française et comment a-t-il évolué ces dernières années ? Selon des travaux récents conduits par l’OCDE, cette efficience est au-dessus de la moyenne mais assez largement en dessous de celle des États-Unis, de l’Allemagne, de la Suède ou de la Finlande. En dynamique, Fontagné et Santoni indiquent que l’allocation du facteur travail entre les entreprises du secteur manufacturier serait même moins efficiente en 2008 qu’elle ne l’était au début des années 2000. Les entreprises les plus productives n’auraient pas suffisamment grandi alors que les moins productives auraient une taille excessive. Par ailleurs, Ben Hassine (2016) montre que la baisse de la productivité des entreprises françaises sur la période post-crise (2008-2012) relativement à la période antérieure à la crise (2004-2008) s’explique principalement par une baisse de la productivité moyenne des entreprises mais aussi par de moindres effets de réallocation.

France Stratégie, « Comprendre le ralentissement de la productivité en France », janvier 2016

c) Faible diffusion des TIC et moindre destruction créatrice en France relativement aux États-Unis : pourquoi ?

i) Les difficultés d’accès au financement des PME

Document 30 – Difficulté d’accès au financement des PME qui freine le développement des jeunes entreprises innovantes

Philippe Aghion, Alexandra Roulet, Repenser l’Etat, La République des Idées, 2011

ii) Des insuffisances en termes de capital humain

Document 31 – Une population active insuffisamment formée Sur le modèle des enquêtes PISA, l’OCDE procède aussi à une enquête cherchant à évaluer les compétences des adultes. Ce programme pour l’évaluation internationale des compétences des adultes (PIAAC) atteste que le niveau de compétence de la population active française est inférieur à celui de la plupart des pays de l’OCDE. Ces faibles compétences des actifs sont un obstacle à la diffusion des TIC et au progrès de la productivité.

Page 20: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 20

Document 32 – Proportion de diplômés du supérieur long et taux d’investissement en TIC

Document 33 – Un niveau de compétence des actifs inférieur à celui des autres pays de l’OCDE (enquêtes PIAAC)

Page 21: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 21

iii) Un degré insuffisant de concurrence sur le marché des biens et des services

Document 34 – Degré de concurrence sur le marché des biens et des services et diffusion des TIC Le degré de concurrence sur le marché des biens et des services est un autre facteur explicatif de la plus ou moins grande diffusion des TIC. Une concurrence plus forte, qu’elle soit domestique ou internationale, contribue à diminuer le prix des TIC et ainsi à favoriser leur diffusion. Dans les secteurs qui ne sont pas producteurs mais utilisateurs des TIC, les travaux de Philippe Aghion et Peter Howitt mettent en évidence qu’une plus forte pression concurrentielle constitue pour les entreprises à la frontière technologique une forte incitation à innover et à adopter les TIC.

Manuel ESH, Studyrama, 2017

Document 35 – Les rigidités sur le marché des biens et services freinent la destruction créatrice et donc la réallocation des ressources dans le système productif La France se singularise par un taux de rotation de ses entreprises (somme des créations et destructions d’entreprises) particulièrement faible, symptomatique d’une économie où le processus de destruction créatrice est peu intense. Par ailleurs, elle a une démographie d’entreprises atypique faite de beaucoup de petites entreprises âgées et de peu d’entreprises de taille moyenne dynamiques. Les travaux récents sur la productivité montrent que c’est bien le croisement entre la taille et l’âge des entreprises qui est le facteur explicatif déterminant : les jeunes entreprises, soit sont productives et grandissent, soit ne le sont pas et disparaissent (« up-or-out »). Or certaines rigidités légales et réglementaires limitent le développement des entreprises les plus productives. La complexité administrative et fiscale ainsi que le manque de concurrence dans certains secteurs sont autant d’obstacles à la croissance des nouveaux entrants. Le dynamisme entrepreneurial d’une économie dépend également des barrières à la sortie qui peuvent protéger de manière excessive les entreprises en place. Le droit des faillites français, en protégeant de manière disproportionnée les actionnaires de l’entreprise ou en donnant un poids démesuré à la préservation de l’emploi à court terme lors des décisions de reprise, rend moins efficace la restructuration des entreprises en difficulté. Cela nuit à long terme à la productivité et à l’emploi global.

France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Page 22: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 22

Document 36 – Les effets négatifs de la réglementation du marché des biens

Document 37 – Des secteurs dans lesquels les barrières à l’entrée sont importantes en France selon P. Aghion, G. Cette et E. Cohen, Changer de modèle, Odile Jacob, 2014

1) Les professions réglementées dans les services : chauffeurs de taxis, notaires, professions médicales (numerus clausus), opticiens, commissaires-priseurs, pharmaciens (pas de possibilité de participation au capital si l’investisseur n’est pas pharmacien)

2) L’énergie 3) La distribution ; loi Raffarin de 1996 soumet à une commission départementale les demandes

d’ouverture de tout magasin de plus de 300m2. La commission est composée en partie de représentants des professionnels du secteur = barrière à l’entrée + loi Galland de 1996 qui interdit de vendre en dessous du prix d’achat unitaire

4) Les transports ; les médicaments, etc.

iv) Une insuffisante flexibilité du marché du travail

Document 38 – Les rigidités sur le marché du travail français

Page 23: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 23

Document 39 – Les réglementations sur le marché du travail freinent l’adoption des TIC dans les firmes Philippe Askenazy et Christian Gianella expliquent, dans un article intitulé « Le paradoxe de la productivité : les changements organisationnels, facteur complémentaire à l’informatisation » (2000), que la pleine réalisation du potentiel productif des TIC implique une réorganisation de la production reposant sur l’adoption de pratiques flexibles du travail. Or, les réglementations sur le marché du travail peuvent compromettre ces innovations organisationnelles et ralentir la diffusion des TIC.

Document 40 – Le dualisme du marché du travail entrave les gains de productivité Le second facteur limitant l’intensité du processus de destruction créatrice en France est la faible mobilité du facteur travail. Les actifs français conservent le même emploi plus longtemps que dans la plupart des autres pays européens : en 2014, un Français reste en moyenne 11,4 années avec le même employeur, contre une moyenne européenne de 10,1 années et seulement 9 années au Royaume-Uni. Cette faiblesse s’observe également dans les indices de réallocation des emplois (somme des créations et destructions d’emplois moins créations nettes d’emplois, graphique 8b).

Page 24: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 24

Le marché du travail a connu en France un fort développement de la flexibilité « à la marge », avec la croissance des formes atypiques d’emploi (CDD, de plus en plus courts, et intérim). Ceci résulte en une segmentation croissante avec d’un côté des personnes dans des emplois précaires (multiplication des CDD, de l’intérim et d’allers-retours entre emploi et chômage) et de l’autre une faible mobilité des personnes en CDI. Cette dualisation du marché du travail génère, à rebours de ce qui serait désirable, une instabilité excessive au niveau des emplois peu qualifiés (au détriment de la formation et de l’investissement dans le capital humain) et une mobilité insuffisante au niveau des emplois les plus productifs (dont l’allocation plus dynamique assurerait des gains de productivité). Comment dès lors encourager la mobilité ? Des dispositifs tels que le compte personnel d’activité, en améliorant la portabilité des droits sociaux, devrait réduire les barrières à la mobilité. L’accroissement de la mobilité passera en effet par la construction d’une véritable sécurisation des parcours professionnels notamment à travers une amélioration de la formation continue. De manière plus générale, il s’agit de réduire la dualisation du marché du travail et par là, la précarité des moins-qualifiés tout en diminuant l’incitation à l’immobilité des personnes en emploi stable.

France Stratégie « Comprendre le ralentissement de la productivité en France », janvier 2016

Document 41 – Synthèse : effets sur la productivité de l’enseignement supérieur, des rigidités sur les marchés du travail et des biens & services selon la distance à la frontière technologique

Page 25: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 25

v) Un système fiscal qui n’incite pas assez à l’investissement productif

Document 41 – Poids des PO dans le PIB en France et en Europe du Nord

1.3.2 – Les économies développées sont-elles condamnées à connaître de faibles gains de productivité ?

a) Le constat empirique : le ralentissement des gains de productivité Document 42 – Le ralentissement des gains de productivité

En France

Dans le monde

Page 26: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 26

b) Les techno-pessimistes et la thèse de la stagnation séculaire

Document 43 – Les sources de la productivité horaire aux États-Unis depuis 1890

Robert J. Gordon, « La fin de l’âge d’or Les Etats-Unis entrent-ils dans une phase durable de croissance molle ? » in FMI,

Finances et développement, Juin 2016

Document 44 – La baisse de la productivité horaire aux États-Unis depuis 1890

Robert J. Gordon, « La fin de l’âge d’or Les Etats-Unis entrent-ils dans une phase durable de croissance molle ? » in FMI,

Finances et développement, Juin 2016

Page 27: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 27

Document 45 – « Toutes les révolutions industrielles ne se valent pas ! » (R. J. Gordon)

La seconde révolution industrielle a été la plus importante des trois car elle a amené 80 ans de croissance de la productivité entre les années 1890 et 1970 parce qu’elle a engendré de nombreuses innovations secondaires qui ont particulièrement soutenu les progrès de la productivité (aviation, climatisation, réseaux routiers, éclairage, chaîne de montage, etc.). Une fois que les innovations incrémentales de la seconde révolution industrielle se sont essoufflées, la croissance de la productivité devient beaucoup plus lente sur la période 1972-1995. A partir de 1995, les innovations incrémentales associées aux technologies de l’information et de la communication ont relancé la croissance de la productivité de 1995 à 2004. Robert Gordon fait remarquer que la vague de la révolution des TIC n’a pas eu le même effet sur la croissance de la productivité que la seconde révolution industrielle (The one big wave) que ce soit en termes d’intensité (les gains de productivité sont moins stimulés) et surtout en termes de durée (la période de forte croissance de la productivité est beaucoup plus courte). Il considère que les gains de productivité associés au TIC ont été en grande partie réalisés dans la plupart des secteurs d’activité sur la période 1995-2004. R.J. Gordon aime mobiliser la parabole de l’arbre fruitier, selon laquelle « les meilleurs fruits sont ceux que l’on cueille le plus facilement, ensuite la cueillette devient plus difficile et moins juteuse ». Selon lui, les innovations les plus juteuses sont derrière nous et les économies développées sont condamnées à de faibles gains de productivité et donc à une faible croissance économique. Il écrit qu’« il semble clair aujourd’hui que les bénéfices des grandes inventions et de leurs retombées sont derrière nous et ne pourront pas se reproduire ». En raison des évolutions de fond qui ont déjà eu lieu avec les innovations de la seconde révolution industrielle (exode rural, rapidité des transports, climatisation, etc.) R. J. Gordon doute du fait que la productivité pourra connaître les niveaux du passé.

Document 46 – Le paradoxe de Gordon Tout le monde connaît le « paradoxe de Solow », du nom du célébrissime Américain, prix Nobel d’économie, qui en 1987 se désolait de constater que l’« on trouve de l’informatique de partout, sauf dans les statistiques de la productivité ». Robert Gordon (…) a pris le relais à propos d’Internet et formulé à son tour une sorte de « paradoxe de Gordon ». Ainsi, dans ses nombreuses interventions publiques, il adore proposer une petite expérience à l’assistance qui vient l’écouter un peu partout à travers les Etats-Unis : « Imaginez que vous devez choisir entre l’option A et l’option B. Option A : vous gardez tout ce que l’on a inventé jusqu’à dix ans en arrière. Donc vous avez Google, Amazon, Wikipedia, mais aussi l’eau courante et les toilettes à l’intérieur. Option B : vous conservez tout ce que l’on a inventé jusqu’à hier, c’est-à-dire y compris facebook, Twitter et votre Iphone, mais vous devez renoncer par exemple à avoir l’eau courante ou les toilettes à la maison » C’est alors qu’il se délecte de constater qu’il déclenche immanquablement les rires dans l’assistance tant la réponse paraît évidente… L’alternative proposée par le professeur américain vaut ce qu’elle veut, mais elle a au moins le mérite

Page 28: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 28

de poser clairement les données du problème qui nous occupe ici : le progrès associé aux NTIC est-il de nature à ouvrir une nouvelle période de croissance soutenue de l’économie mondiale ? (…) Pour Gordon, comme pour le clan des techno-pessimistes, la tendance sur laquelle évolue la productivité des économies avancées a commencé à ralentir depuis plusieurs décennies déjà, avec ou sans Internet. Et il en veut pour preuve le ralentissement de la productivité aux États-Unis et dans les grands pays développés, ralentissement qui a commencé à se manifester dès 1972. Certes, avec la diffusion de nouvelles technologies, la productivité a connu un regain au cours de la dernière décennie du 20ème siècle, mais nos techno-pessimistes considèrent que le potentiel de croissance attaché à la révolution numérique a été concentré sur quelques années, une grosse décennie tout au plus, et sont convaincus qu’il est désormais derrière nous. Nous avons déjà évoqué leurs arguments : par sa richesse, sa diversité et sa puissance, la deuxième révolution industrielle a fait bien plus que booster la productivité, elle a transformé l’existence des Américains, des Européens puis des Japonais. Des décennies de pur éblouissement ! En comparaison, cette révolution de l’information – et les huit petites années dont ils la créditent – leur paraît bien pâle (…). Pour eux, le regain de croissance de la productivité enregistré au cours des années 1990 a déjà fait long feu, et les progrès attendus dans le domaine médical, les robots, l’impression 3D, l’intelligence artificielle et le big data ne peuvent espérer avoir le même impact sur la productivité que ceux générés par les inventions de nos illustres prédécesseurs. (…) Contrairement aux apparences, il n’y a pas eu de progrès technique majeur depuis des décennies. (…) Commençons par le commencement. C’est-à-dire par ce que l’on voit. Jusqu’à preuve du contraire, le « paradoxe de Gordon » vaut bien celui de Solow : les smartphones, tablettes et autres merveilles numériques sont en train de changer en profondeur notre vie quotidienne et même l’évolution de la société, mais on n’en voit pas la trace dans les statistiques de la productivité. D’où le désappointement partagé par les techno-pessimistes et résumé dans la fameuse formule de Peter Thiel, le fondateur de Paypal : « Nous rêvions de voitures volantes, nous avons eu les 140 caractères ! » Thiel est comme (…) Saint Thomas, il a beau scruter l’horizon, celui-ci lui paraît désespérément vide : « Si vous regardez ailleurs que dans l’ordinateur et Internet, vous voyez quarante années de stagnation. » Manière de dire que l’innovation n’a pas diffusé dans l’ensemble de l’économie. L’examen attentif des courbes montre que, si la diffusion des ordinateurs dans les années 1980 a fini par doper la productivité par tête comme la productivité horaire, l’une et l’autre ralentissent à partir des années 2000, autrement dit même après la diffusion d’Internet, que ce soit dans l’ensemble de l’économie ou dans le secteur des nouvelles technologies lui-même. Ainsi, aux États-Unis, la croissance annuelle moyenne de la productivité par tête atteint 2,7 % sur la période 2000-2006 dans l’ensemble de l’économie et 2,5 % pour l’économie hors secteur des NTIC (…). Une tendance qui fléchit nettement à partir de 2007, quel que soit le secteur observé (les chiffres plafonnent à +1,5% de croissance annuelle). Même le secteur qui produit les nouvelles technologies affiche des gains de productivité faibles. Leur rythme de croissance est passé de 15,2 % sur la période 1990-1999 à 5,1 % (2000-2006) puis 1,6 % (2007-2013) en ce qui concerne la productivité par tête alors que la productivité horaire prend le même chemin : avec respectivement 16, 10 et enfin 3,8 % par an en moyenne sur les trois périodes de référence. A partir de là, la conclusion ne peut être que provocatrice : si, en son temps, le développement des ordinateurs avait fini par correspondre à une accélération de la productivité dans l’ensemble de l’économie, la diffusion d’Internet dans les années 2000 va plutôt de pair avec un coup de frein, aussi bien dans le secteur des nouvelles technologies de l’information que dans le reste de l’économie. Et cela est vrai y compris aux Etats-Unis, c’est-à-dire jusque dans le berceau des NTIC. Sur la période 2000-2013, la PGF n’a progressé en moyenne que de 0,7 % l’an outre-Atlantique, deux fois moins que lors de la décennie précédente (1,4 %). En zone euro, les chiffres sont encore plus cruels, puisqu’elle est carrément tombée à zéro (0,8 % l’an sur la décennie 1990)

Patrick Artus, Marie-Paule Virard, Croissance zéro, Fayard, 2015 P.109-117

Document 47 – La loi de Moore et son épuisement Les gains d’efficacité des TIC dépendent essentiellement des gains de performance des microprocesseurs qui équipent les ordinateurs et les autres équipements de communication. La performance d’un microprocesseur dépend du nombre de transistors qu’il peut accueillir. La miniaturisation croissante des transistors se traduit donc en gains de performance. Gordon Moore, cofondateur d’Intel, prédit en 1975 que le nombre de transistors intégrés dans un microprocesseur doublera tous les deux ans. Cette prédiction est nommée loi de Moore.

Page 29: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 29

Unni Pillai (« A model of technological progress in microprocessor industry », 2013) a analysé les gains de performance des microprocesseurs Intel et AMD de 1974 à 2013. Il constate que la croissance de la performance des microprocesseurs a été extrêmement forte dans les années 1990 mais qu’elle a considérablement ralenti à partir des années 2000. Un tel constat semble remettre en cause la loi de Moore et constitue un élément explicatif du ralentissement des gains de productivité constaté depuis le milieu des années 2000.

Tableau : la contribution des semi-conducteurs à la croissance de la PGF (en TCAM)

Manuel ESH ECE1, Studyrama, 2017

Document 48 – Pour les techno-pessimistes, la révolution technologique des TIC est anti-schumpétérienne (Patrick Artus) A ce constat précis et chiffré, il faut ajouter un élément de réflexion supplémentaire qui éclaire peut-être la déception ressentie à propos de l’impact d’Internet sur les gains de productivité. On s’attendait en effet à ce que le développement des NTIC détruise des emplois peu qualifiés, mais crée des emplois qualifiés en raison de la complémentarité entre le capital technologique et l’emploi qualifié. Grâce à cette substitution, le processus était censé accoucher d’une augmentation des gains de productivité et de la croissance potentielle. Or, ce n’est pas du tout ce que l’on observe depuis la fin des années 1990. On assiste plutôt à une bipolarisation de la structure des emplois qui a tendance à éliminer les emplois de qualification intermédiaire. Le développement des nouvelles technologies n’a donc évité ni le freinage de la productivité dans les secteurs dits « sophistiqués », ni la diminution du poids relatif de ces secteurs dans l’économie, ouvrant – à la surprise générale – la voie à un phénomène plutôt « antischumpétérien » en apportant sa pierre au développement des emplois peu qualifiés.

Patrick Artus, Marie-Paule Virard, Croissance zéro, Fayard, 2015

Document 49 – « Is US economic growth over? », Robert J. Gordon et les vents contraires (2012) En supposant des innovations telles que la voiture autonome ou des progrès majeurs dans la lutte contre le cancer, Robert J. Gordon émet l’hypothèse que la croissance de la productivité pourrait se poursuivre au rythme de la période 1987-2007, soit 1,8 % par an. Toutefois, même si l’innovation permettait de soutenir ce rythme de croissance de la productivité, l’économie américaine ferait selon lui face à six vents contraires (headwinds) qui contrebalanceront la croissance de la productivité et maintiendront la croissance du PIB par tête bien en-dessous de ce que permet l’innovation. Le premier vent contraire est la démographie. Alors que les femmes sont massivement arrivées sur le marché du travail à partir des années 1960 et ont augmenté la quantité de facteur travail, c’est exactement le contraire qui se passe aujourd’hui avec l’arrivée à l’âge de la retraite des baby-boomers qui fait baisser le PIB/hab. La hausse de l’espérance de vie des retraités accentuera cette tendance. Le second vent contraire est l’éducation. R. J. Gordon observe un plateau dans l’élévation du niveau d’instruction qu’il attribue à la croissance rapide du prix des formations universitaires aux États-Unis qui décourage les étudiants aux revenus les plus faibles d’aller à l’université. Le troisième vent contraire correspond aux inégalités. S’intéresser au niveau de vie consiste à s’intéresser au plus grand nombre soit aux 99 % de la population les plus pauvres. Alors que le niveau de vie augmentait de 1,3

Page 30: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 30

% par an en moyenne aux USA entre 1993 et 2008, la croissance du niveau de vie des 99 % les plus pauvres était de seulement 0,75 % parce que le TOP1% a capturé 52 % des richesses créées durant cette période de 15 ans. Le quatrième vent contraire se trouve dans la combinaison des TIC et de la mondialisation qui favorise la mise en concurrence des travailleurs américains avec la force de travail des pays émergents à travers les importations et la sous-traitance internationale, ce qui fait pression à la baisse sur les salaires américains. L’énergie et l’environnement représente le cinquième vent contraire. Le réchauffement climatique rend nécessaire la mise en oeuvre d’une taxe sur le carbone qui réduira l’offre. Enfin l’endettement est le sixième vent contraire à la croissance du niveau de vie. Le désendettement public et privé pèse sur la demande globale avec des risques d’effets négatifs sur la croissance.

Robert J. Gordon soustrait alors un à un les effets de chaque vent contraire sur le niveau de croissance postulé de 1,8 % par an. Les chiffres avancés par Robert Gordon sont des estimations à la louche de que pourrait être la croissance en 2100. Mais la fourchette raisonnable avancée par Gordon est comprise entre 0 et 1 %, ce qui marque dans tous les cas une chute importante avec les niveaux du 20ème siècle. Le choix de 0,2 % annuel est, de son propre aveu, marquant car c’était le niveau du pays leader, l’Angleterre, entre 1300 et 1700. C’est la raison pour laquelle il parle de stagnation séculaire. Par

cette expression, il signale un retour au rythme de croissance de long terme du niveau de vie que le monde a toujours connu hormis durant les deux derniers siècles.

D’après Philippe Aghion, « Stagnation séculaire » Cours au Collège de France, 13/11/18 & Robert J. Gordon, « Is US Economic Growth Over ? Faltering Innovation Confronts The Six Headwinds », NBER, 2012

c) La position des techno-optimistes

i) Le deuxième âge de la machine (E. Brynjolfsson et A. McAfee – 2015)

Document 50 – Le deuxième âge de la machine, 2016 (Erik Brynjolfsson, Andrew McAfee) La révolution industrielle a été la somme de plusieurs avancées concomitantes dans le domaine de la mécanique, de la chimie et de la métallurgie, entre autres. Et ces avancées techniques ont elles-mêmes été à l’origine d’un bond soudain, rapide et soutenu en matière de progrès humain. Mais on peut encore préciser laquelle de ces avancées techniques a été la plus déterminante : il s’agit de la machine à vapeur, et même, pour être encore plus précis, de la machine mise au point et perfectionnée par James Watt et par ses confrères dans la seconde moitié du 18ème siècle. Avant Watt, la machine à vapeur n’était guère performante : elle n’exploitait que 1 % de l’énergie libérée par la combustion du charbon. Les brillants bricolages de Watt de 1765 et 1766 ont permis de multiplier ce chiffre par trois. Comme l’écrit Morris : « Même si la révolution (de la vapeur) a mis plusieurs dizaines d’années à se déployer (...) elle a été la transformation la plus importante et la plus rapide de l’histoire du monde. » Et cela a fait toute la différence. Assurément, la révolution industrielle ne repose pas seulement sur l’énergie vapeur, mais elle a commencé avec elle. C’est elle, plus que tout autre chose, qui nous a permis de surmonter les limites de la force humaine et animale, et de produire à volonté des quantités énormes d’énergie. De là sont nés les usines et la production de masse, les chemins de fer et les transports de masse, c’est-à-dire la vie moderne. La révolution industrielle a fait entrer l’humanité dans le premier âge de

Page 31: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 31

la machine : pour la première fois de l’histoire, le progrès humain était principalement alimenté par l’innovation technique, et cette transformation était la plus profonde que le monde eût jamais connue. Notre capacité à produire des quantités énormes d’énergie mécanique était si importante qu’en comparaison « tous les drames antérieurs de l’histoire avaient l’air d’une aimable plaisanterie, écrit encore Morris. Nous vivons aujourd’hui le deuxième âge de la machine. L’ordinateur et les nouvelles technologies numériques font pour ce que j’appellerai la puissance intellectuelle – la capacité d’utiliser notre cerveau pour comprendre et façonner notre environnement – ce que la machine à vapeur et ses rejetons ont fait pour la force musculaire. Ils nous permettent de franchir allègrement les frontières d’hier et d’entrer dans de nouveaux territoires. Nous ne savons pas encore comment va se passer cette transition, mais, qu’elle infléchisse ou non notre trajectoire comme l’a fait la machine de Watt. Les enjeux sont immenses. Ce livre explique pourquoi et comment. A ce stade, l’analyse est simple : la puissance intellectuelle est au moins aussi importante pour le progrès et le développement – c’est-à-dire pour la maîtrise de notre environnement physique et intellectuel – que la puissance physique. Et un formidable bond en avant de la puissance intellectuelle devrait être un formidable pour l’humanité, comme le fut à l’évidence celui de la puissance physique.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

Document 51 – Une époque de progrès extraordinaires Nous vivons une époque de progrès extraordinaire des technologies numériques, c’est-à-dire de toutes les technologies reposant sur le matériel informatique, les logiciels et les réseaux. Ces technologies ne datent pas d’aujourd’hui : les entreprises sont équipées d’ordinateurs depuis plus d’un demi-siècle, et c’est en 1982 que le magazine Time a fait du PC sa « machine de l’année », il y a plus de trente ans. Mais, tout comme il a fallu plusieurs décennies pour faire de la machine à vapeur le moteur de la révolution industrielle, il a fallu du temps pour perfectionner les machines numériques. (...) Les transformations provoquées par les technologies numériques seront bénéfiques. Nous entrons dans un âge qui ne sera pas seulement différent : il sera meilleur, car nous serons capables d’accroître à la fois le volume et la diversité de nos consommations. Formulé ainsi – avec la sécheresse du vocabulaire économique –, cela ne paraît pas très excitant. A quoi bon consommer toujours plus ? Mais nous ne consommons pas seulement de l’essence et des calories. Nous consommons de l’information grâce aux livres ou à nos amis, nous consommons du divertissement grâce à des stars ou à des artistes amateurs, nous consommons de l’expertise auprès de professeurs et de médecins, nous consommons des milliers de choses qui ne sont pas faites d’atomes. Or, la technologie peut nous donner encore plus de choix et encore plus de liberté. Quand une information, une musique ou des données sont numérisées – quand elles sont transformées en bits qui peuvent être stockés dans un ordinateur et envoyés sur un réseau –, elles acquièrent des propriétés à la fois étranges et merveilleuses. Elles deviennent sujettes à un tout nouveau type d’économie, où l’abondance l’emporte sur la rareté. Comme on le verra, les biens numériques ne sont pas comme les biens physiques et ces différences ont une immense importance. Bien sûr, les biens physiques restent essentiels, et nous aimerions en avoir davantage d’une plus grande diversité et de meilleure qualité. Sans vouloir forcément manger plus, nous aimerions manger mieux ou manger autrement. Sans vouloir brûler davantage de carburants fossiles, nous aimerions pouvoir nous déplacer davantage sans que cela soit trop difficile. L’ordinateur peut nous aider à faire tout cela, et bien d’autres choses encore. La numérisation améliore le monde physique, et ces améliorations vont être de plus en plus importantes. Nombreux sont les historiens de l’économie qui estiment que « la croissance à long terme d’une économie avancée est dominée par le progrès technique ». Or, celui-ci, nous le verrons progresse de façon exponentielle.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

Page 32: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 32

Document 52 – Le progrès technique dans le domaine de l’informatique, du logiciel et des réseaux : un progrès exponentiel

Différents aspects de la loi de Moore

Pour illustrer l’impact de la loi de Moore sur le monde réel, on peut comparer les capacités d’ordinateurs séparés par quelques périodes de doublement seulement. En 1996, l’ASCI Red, premier produit de l’Initiative informatique stratégique accélérée des Etats-Unis (US Accelerated Stratégic Computing Initiative), était le superordinateur le plus rapide du monde. Son coût de développement fut de 55 millions de dollars, et il occupait une surface au sol équivalant aux quatre cinquièmes d’un court de tennis (...). Conçu pour des tâches intensives en calcul, comme la simulation des essais nucléaires, ASCI Red fut le premier ordinateur à passer au-dessus d’un téraFLOPS soit 1012 opérations à virgule flottante par seconde (floating-point per second). Neuf ans plus tard, un autre ordinateur atteignait 1,8 terFLOPS. Il n’était pas conçu pour simuler des explosions nucléaires mais pour dessiner des graphiques complexes avec le plus grand réalisme possible, en temps réel et en trois dimensions, pour les jeux vidéo. Il s’agit de la Playstation 3 de Sony. Elle dépassait les performances de l’ASCI Red pour un prix de 500 dollars, une puissance de 200 watts et une taille de moins d’un dixième de mètre carré. En moins de dix ans, le rythme exponentiel du progrès numérique avait permis à une puissance de calcul de 1 billion de FLOPS de sortir du laboratoire de la première puissance mondiale pour envahir les écoles et les maisons du monde entier. La Playstation 3 s’est vendue à 64 millions d’unités environ, l’ASCI Red a été mis hors service en 2006. (...) Nous sommes aujourd’hui dans le deuxième âge de la machine : un progrès exponentiel et régulier nous a fait pénétrer dans la seconde moitié de l’échiquier, dans un temps où ce qu’il s’est passé hier n’est plus un indicateur fiable de ce qui va se passer demain. Le doublement cumulé de la loi de Moore et l’énorme doublement à venir produisent un monde où la puissance des superordinateurs se trouvent en quelques années dans des jouets pour enfants, où des capteurs de moins en moins chers permettent de résoudre à moindre coût des problèmes naguère insurmontables, où, en un mot, la science-fiction devient réalité.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

Document 53 – Le progrès technique dans le domaine de l’informatique, du logiciel et des réseaux : un progrès numérique Dans un ouvrage qui a fait date, Information Rules, les économistes Carl Shapiro et Hal Varian définissent ce phénomène comme « l’encodage de l’information sous la forme de bits ». La numérisation consiste, autrement dit, à convertir des informations – du texte, du son, de l’image, des données reçues par capteur et autres instruments, etc. – dans la langue vernaculaire des ordinateurs, le 0 et le 1. (...) Nous avons cru, grâce au travail

Page 33: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 33

de Shapiro, de Varian et de bien d’autres, et grâce aussi à notre présence presque constante sur le web, que nous avions compris ce qu’était la numérisation. Or, depuis quelques années, le phénomène a évolué de façon totalement inattendue. Il a également explosé en termes de quantité, de rapidité et de diversité. Ce bond en avant de la numérisation s’est traduit par deux choses : de nouveaux moyens d’acquérir des connaissances (c’est-à-dire faire de la science) sont apparus et les rythmes d’innovation se sont fait de plus en plus élevés. L’information numérique présente deux propriétés remarquables : la non rivalité et un coût marginal de reproduction presque nul. Pour le dire simplement, l’information numérique ne s’use pas quand on s’en sert, et la copie ne coûte pratiquement rien. Examinons plus en détail ces deux propriétés. Les biens rivaux, auxquels nous avons affaire tous les jours, ne peuvent être consommés que par une personne à la fois. Si je prends l’avion pour aller de Paris à Rome, l’avion qui décollera après le mien ne pourra pas utiliser le carburant de mon avion. Andy ne pourra pas non plus avoir la place ou Erik est assis et si Erik met ses écouteurs pour écouter de la musique sur son smartphone, Andy ne pourra pas les utiliser. La musique numérisée qu’écoute Andy est, en revanche, non rivale : le fait qu’Erik soit en train de l’écouter n’empêche personne de la faire également au même moment. Si Andy lit un exemplaire papier d’un roman de Jules Verne, il ne l’use pas : une fois qu’il l’aura lu, il pourra le passer à Erik. Mais s’ils veulent lire en même temps Vingt mille lieues sous les mers, il faudra soit qu’ils en trouvent un deuxième exemplaire, soit qu’Andy fasse une copie du sien pour la donner à Erik. Il peut même avoir le droit de le faire si le livre n’est pas protégé par le droit d’auteur, mais il lui faudra passer du temps devant le photocopieur ou payer quelqu’un pour faire les copies. Dans les deux cas, cela aura un coût. De plus la photocopie d’une photocopie n’est pas toujours facile à lire. Mais si Andy possède une version numérique du livre, il n’aura besoin que de quelques clics pour en faire une copie et la psser à Erik. Contrairement aux photocopies, les bits copiés à partir de bits sont généralement identiques à l’original. Copier des bits est donc facile à faire, prend très peu de temps et ne coûte presque rien. Si le coût de création d’un livre d’un livre ou d’un film peut parfois être très élevé, les exemplaires supplémentaires ne coûtent presque rien. On dit alors que le coût marginal de reproduction et de zéro. Aujourd’hui bien sûr, au lieu donner un disque à Erik, Andy préfèrera lui envoyer un email avec un fichier attaché ou le partager sur un service de cloud comme Dropbox. Dans les deux cas, il utilisera Internet. Il choisira ce moyen parce que c’est plus rapide, plus pratique e fondamentalement gratuit. Comme la plupart des gens, nous payons un forfait pour accéder chez nous à Internet et à nos appareils portables. (...) Nous payons le même montant quel que soit le nombre de bits que nous téléchargeons. Il n’y a donc pas de coût supplémentaire quand nous envoyons ou recevons un ensemble supplémentaire de données sur le Net. Les biens composés de bits à la différence de ceux composés d’atomes, peuvent être reproduits ou copiés à la perfection et envoyés en n’importe quel point du globe presque instantanément et gratuitement. Fabriquer un produit gratuit, parfait et disponible immédiatement relève de l’utopie ; mais en matière d’information numérisée, ce type de produit est de plus en plus courant. Shapiro et Varian résument tout cela de façon assez élégante en écrivant qu’à l’âge des ordinateurs et des réseaux, « l’information est chère à produire mais pas à reproduire ». (...) Mais que se passerait-il si la production même de l’information ne coûtait plus rien ? Si elle était dès le départ totalement libre de droits ? (...) Tout le monde connaît le vieux dicton : « Le temps c’est de l’argent ». Or ce qui est incroyable avec Internet, c’est qu’il y a partout des gens prêts à passer du temps à produire du contenu en ligne sans demander d’argent en retour. Le contenu de Wikipédia par exemple est l’oeuvre de bénévoles. C’est de loin l’encyclopédie la plus grande et la plus consultée au monde, et personne n’est payée pour écrire et éditer ses entrées. On peut en dire autant d’innombrables sites Web, blogs, forums, et autres sources d’information en ligne. Leurs auteurs n’attendent aucune récompense pécuniaire et offre gratuitement l’information. Quand Shapiro et Varian ont publié Informations Rules, en 1998, l’essor du contenu généré par les utilisateurs, créé pour l’essentiel sans aucun échange monétaire, n’avait pas encore eu lieu. Blogger, un des premiers services de weblog, est né en août 1999 ; Wikipedia en janvier 2001, et Friendster, un site de réseaux sociaux, en 2002. Friendster a été rapidement eclipsé par Facebook, créé en 2004 et devenu depuis le site Internet le plus populaire au monde. En fait, sur les dix sites de contenu les plus populaires du globe, six sont générés par les utilisateurs ; on constate les mêmes chiffres aux Etats-Unis. Ce contenu généré par les utilisateurs ne nous permet pas seulement de nous exprimer et de communiquer avec d’autres ; il contribue également à certaines des technologies qui sont passées récemment de la science-fiction à la réalité. Siri, par exemple, en analysant une quantité toujours plus grande de fichiers générés par ses utilisateurs quand ils interagissent avec le système de reconnaissance de la

Page 34: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 34

parole, ne cesse de s’améliorer avec le temps. (...) Peut-être ne devrions-nous pas nous étonner de la croissance et de la popularité du contenu généré par les utilisateurs sur l’Internet. Après tout, les humains aiment partager et interagir. Ce qui est plus surprenant, en revanche, c’est que nos machines, elles aussi, aiment apparemment converser entre elles. La communication de machine à machine (M2M) est une expression fourre-tout pour parler d’appareils qui partagent entre eux des données sur des réseaux comme Internet. (...) Quand on cherche des billets d’avions pas chers sur le site de voyage Kayak, les serveurs de kayak envoient aussitôt des requêtes aux serveurs des différentes compagnies aériennes, qui répondent en temps réel, (...) sans aucune intervention humaine. Les distributeurs automatiques de billets (DAB) demandent à leurs banques réciproques combien il reste d’argent sur le compte d’un titulaire avant de permettre à celui-ci de retirer du liquide ; les thermomètres numériques des camions réfrigérés tiennent informés en permanence les supermarchés de la température à laquelle sont transportés les produits ; dans les usines de semi-conducteurs, les capteurs informent la direction, en temps réel, de chaque incident produit. Et ce ne sont là que quelques exemples parmi des milliers d’autres. D’après un article paru en juillet 2012 dans le New-York Times, « la somme des bavardages des robots sur les réseaux sans fil de la planète (...) devrait bientôt dépasser celle des conversations humaines. La numérisation de presque toute chose – documents, informations, cartes, photos, musique, données personnelles, réseaux sociaux, demandes d’informations et réponses à ces demandes, données transmises par toutes sortes de capteurs, etc. – est un des phénomènes les plus importants de ces dernières années. A mesure que nous entrons dans le deuxième âge de la machine, la numérisation ne cesse de s’étendre et de s’accélérer, et cela se traduit par des statistiques stupéfiantes. D’après Cisco Systems, le trafic mondial sur Internet a été multiplié par douze entre 2006 et 2011, pour atteindre 23,9 exabits par mois. (...) La récente explosion de la numérisation est donc impressionnante, mais le phénomène a-til vraiment de l’importance ? (...) La réponse est oui. Incomparablement. Une des raisons pour lesquelles la numérisation est un des principaux ressorts du deuxième âge de la machine, c’est que, en rendant accessible d’énormes quantités de données, elle accroît la connaissance – car les données sont l’aliment de la science. Par « science », nous entendons ici le travail qui consiste à formuler des hypothèses et des théories, puis à les évaluer. Ou plus simplement, à deviner comment quelque chose fonctionne, puis à vérifier si cela est vrai. (...) Une équipe de chercheurs de la Harvard Medical School (...) a par exemple découvert que les tweets avaient suivi l’épidémie de choléra qui s’était abattue sur Haïti après le tremblement de terre de 2010 avec autant de fiabilité que les rapports officiels : mais, en plus, ils étaient arrivés avec deux semaines d’avance. Sitaram Asur et Bernardo Huberman, du Laboratoire informatique sociale de HP, ont également démontré que les tweets pouvaient être utilisés pour prévoir les revenus des films au box-office (...). La numérisation peut aussi nous aider à mieux comprendre le passé. En mars 2012, Google avait scanné plus de 20 millions de livres, publiés sur plusieurs siècles. Cet immense réservoir de mots et de groupes de mots forme une base de ce qu’aucuns appellent la « culturomie », c’est-à-dire l’utilisation du stock et de l’analyse de données haut débit pour l’étude de la culture humaine. Une équipe a ainsi examiné plus de 5 millions de livres publiés en anglais depuis 1800. Elle a fait apparaître, entre autres choses, que le nombre de mots en anglais avait augmenté de 70 % entre 1950 et 2000 ; que l’on devient célèbre aujourd’hui plus rapidement qu’hier, mais que cette célébrité disparaît aussi plus vite ; et qu’au 20ème siècle l’intérêt pour les théories de l’évolution a fortement diminué, jusqu’à la découverte de la structure de l’ADN par Warson et Crick. Voilà autant d’exemple d’une meilleure compréhension et d’une meilleure prévision – autrement dit d’une meilleure science – rendues possibles par la numérisation. L’information numérique n’est pas seulement l’aliment d’une nouvelle science : elle est, avec le progrès exponentiel, un des principaux ressorts du deuxième âge de la machine, et son rôle est de favoriser l’innovation.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

Document 54 – Le progrès technique dans le domaine de l’informatique, du logiciel et des réseaux : un progrès combinatoire Gordon écrit qu’il faut « considérer le processus de l’innovation comme une série d’inventions séparées, suivies d’une série d’améliorations incrémentales qui exploitent toutes les potentialités de l’invention initiale. Cela paraît aller de soi. Une invention comme la machine à vapeur ou l’ordinateur apparaît, et nous en tirons des bénéfices économiques. Ces bénéfices sont modestes tant que la technologie n’est pas encore totalement mûre et reste peu utilisée, puis ils augmentent avec l’amélioration et la diffusion de la technologie à portée générale,

Page 35: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 35

avant de décliner quand celles-ci ralentissent – et particulièrement la diffusion. Quand plusieurs technologies à portée générales voient le jour en même temps, ou avec une certaine régularité, les taux de croissance restent élevés pendant une longue période. Mais s’il y a un délai important entre ces grandes innovations, la croissance économique finit par s’essouffler. Nous appellerons cette vision des choses « l’innovation comme fruit », en hommage à la métaphore des fruits prêts à être cueillis utilisée par Tyler Cowen. De ce point de vue, réaliser une innovation, c’est faire pousser un fruit ; l’exploiter, c’est le manger. Mais une autre école de pensée soutient que le véritable travail d’innovation n’est pas de créer quelque chose de nouveau mais de recombiner des éléments déjà existants. Et plus on se penche sur les grandes étapes qui ont fait avancer nos connaissances et notre capacité d’agir, de fabriquer et de produire, plus cette idée de recombinaison apparaît pertinente. C’est en tout cas de cette façon qu’a vu le jour l’innovation d’un récent Prix Nobel de chimie. Le biochimiste Karry Mullis s’est vu décerner le Prix Nobel de chimie en 1993 pour le développement de la réaction en chaîne par polymérase (RCP), une technique désormais utilisée partout pour copier des séquences d’ADN. Quand l’idée lui en est venue un soir, dans sa voiture, en Californie, il l’a d’abord écartée. Ainsi qu’il le raconte dans le discours lu lors de la remise du prix, « je me suis dit que ça ne pouvait être qu’une illusion (...). C’était trop simple. (...) Il n’y avait rien que nous ne savions déjà. Chaque étape du processus était connue. « Tout ce que Mullis a fait, c’est recombiner des techniques familières aux biochimistes pour en produire une nouvelle. Et pourtant cette recombinaison évidente s’est avérée extrêmement précieuse. Après avoir étudié de nombreux exemples d’inventions, d’innovations et de progrès technologiques, le spécialiste de la complexité Brian Arthur a acquis la conviction que des histoires comme celles de Mullis n’étaient pas l’exception mais la règle. Comme il l’écrit dans The Nature of Technology, « inventer, c’est trouver quelque chose de nouveau dans ce qui est déjà là ». L’économiste Paul Romer a puissamment défendu cette thèse, à laquelle on a donné le nom de nouvelle théorie de la croissance, pour la distinguer de celle de Gordon. Cette théorie optimiste souligne le rôle de l’innovation par recombinaison : « Il y a croissance économique chaque fois qu’on prend des ressources et qu’on les réarrange de manière à augmenter leur valeur (...). Toutes les générations savent que, fautes d’idées nouvelles, la finitude des ressources et les effets secondaires indésirables ne peuvent qu’imposer des limites à la croissance. Toutes ont cependant estimé les possibilités de trouver ces nouvelles idées. Nous n’avons jamais réussi à comprendre combien d’idées il reste à découvrir (....). Les possibilités ne font que s’ajouter les unes aux autres : elles se multiplient. » Romer souligne également l’importance d’une catégorie particulière d’idées, qu’il appelle les « méta-idées » : « Les idées les plus importantes sont des méta-idées : elles portent sur la meilleure façon de favoriser la production et la transmission d’autres idées (...). On peut faire sans risque deux prévisions. La première, c’est qu’au 21ème siècle le premier pays du globe sera celui qui mettra en application l’innovation favorisant le mieux la production d’idées nouvelles dans le secteur privé. La seconde, c’est que ces méta-idées seront bel et bien mises au jour. » Gordon et Cowen sont des économistes de niveau international mais ils ne jugent pas les technologies numériques à leur juste valeur. La nouvelle méta-idée, appelée de ses vœux par Romer, a déjà été trouvée : elle réside dans les nouvelles communautés de cerveaux et de machines rendues possibles par les appareils numériques en réseau et leurs multiples logiciels. Technologie à portée générale, les TIC ont donné naissance à une manière radicalement neuve de combiner et recombiner des idées. Comme le langage, l’imprimerie, la bibliothèque ou l’éducation universelle, le réseau numérique mondial stimule l’innovation par recombinaison. Nous sommes en capacité mélanger et de remélanger des idées, anciennes et récentes, comme cela n’a jamais été fait auparavant. Prenons quelques exemples. Le projet chauffeur de Google donne une vie nouvelle à une technologie à portée générale ancienne : le moteur à combustion interne. Il suffit d’équiper une voiture ordinaire d’un ordinateur rapide, d’une batterie de capteurs (dont le prix, en vertu de la loi de Moore, ne cesse de baisser) et d’une énorme quantité d’informations d’ordre géographique et cartographique (disponible grâce à la numérisation générale) pour en faire un véhicule autopiloté tout droit sorti de la science-fiction. (...) Le Web lui-même est une recombinaison à peu près directe du réseau de transmission de données TC/IP d’Internet, bien plus ancien ; d’un langage de balisage baptisé HTML qui dit comment le texte, les images, etc., doivent être disposés ; et d’une simple application pour PC appelée « navigateur » qui permet d’afficher les résultats. Aucun de ces éléments n’étaient particulièrement nouveau ; leur combinaison s’est avérée révolutionnaire. Facebook a utilisé l’infrastructure du Web pour permettre aux utilisateurs de numériser leur réseau social et de mettre des médias en ligne sans avoir besoin d’apprendre l’HTML. Qu’il s’agisse ou non d’une recombinaison intelligente de capacités technologiques, le succès populaire et économique est remarquable : en juillet 2013,

Page 36: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 36

la valeur de l’entreprise était estimée à 60 milliards d’euros. Quand le partage d’images est devenu une des activités les plus populaires sur Facebook, Kevyn Systrom et Mike Krieger ont décidé de créer une application pour smartphone qui reprenait cette capacité, et ils y ont ajouté la possibilité, au moyen de filtres numériques, de modifier l’apparence de ces images. Cela peut paraître une innovation mineure, d’autant que Facebook permettait déjà, en 2010, quand Systrom et Krieger ont lancé leur projet, le partage de photos. Mais leur application, Instagram, comptait au printemps 2012 plus de 30 millions d’utilisateurs, qui avaient téléchargé à eux-tous plus de 100 millions de photographies. Instagram a été racheté par Facebook en avril 2012 pour un milliard de dollars. Ces exemples montrent que la recombinaison est l’essence de l’innovation numérique. Chaque nouveau développement devient un élément d’une future innovation. Le progrès ne se vide pas de son contenu : il s’accumule. En outre, le monde numérique ne respecte aucune frontière. Il s’étend à tout le monde physique, qu’il peuple de voitures et d’avions se pilotant seuls, d’imprimantes fabriquant des pièces en 3D, etc. La loi de Moore fait baisser les prix des appareils et des capteurs numériques de façon exponentielle, ce qui permet d’en construire toujours plus, dotés de toujours plus de capacités, et à des prix toujours moins élevés – depuis les poignées de porte jusqu’aux cartes de vœux. La numérisation rend disponibles des quantités énormes de données, dans presque tous les domaines ; et ces informations parce qu’elles sont non rivales, peuvent être reproduites et utilisées indéfiniment. En vertu de ces deux facteurs, le nombre de composantes potentiellement utiles explosent et les possibilités se multiplient plus que jamais. Nous appelons ce phénomène l’ « innovation comme composante » ; c’est ainsi qu’Arthur, Romer et nous voyons le monde aujourd’hui. De ce point de vue, au contraire de l’innovation comme fruit, l’innovation comme composante ne se vide pas de son contenu : elle augmente en permanence les possibilités de recombinaisons futures. (...) Le meilleur moyen pour accélérer le progrès est d’augmenter notre capacité à expérimenter de nouvelles combinaisons d’idées. On peut le faire en impliquant davantage de personnes dans ce processus d’expérimentation, or les technologies numériques ont notamment pour vertu de faciliter une participation toujours plus nombreuse. Les TIC nous mettent tous en relation les uns avec les autres, où que nous habitions sur la planète, et nous avons un accès relativement peu coûteux à des masses de données et à une immense puissance de calcul. En un mot, l’environnement numérique est aujourd’hui un terrain de jeu idéal pour des recombinaisons à grande échelle. Eric Raymond, le promoteur bien connu du logiciel libre, a fait ce constat optimiste : « plus on est d’yeux, moins il y a de bugs ». En matière d’innovation, l’équivalent de cette maxime pourrait être : « Plus nous seront nombreux à y travailler, plus les recombinaisons que nous trouverons auront de la puissance ». La NASA a d’ailleurs fait l’expérience de cette maxime quand elle a essayé d’améliorer sa capacité à prévoir les éruptions à la surface du soleil. Il est important ici que la prévision soit exacte et faite le plus tôt possible, car les évènements à particules solaires (solar particle events, SPE) peuvent produire des niveaux de radiation nocifs pour les personnes et les équipements se trouvant dans l’espace. Or, malgré 35 ans de recherche et de données sur les SPE, la NASA a reconnu qu’elle ne disposait d’aucune méthode fiable pour prévoir le début, l’intensité ou la durée d’un évènement à particules solaires. L’agence a fini par poster sur InnoCentive ses données et une description du problème que lui posait la prévision des SPE. InnoCentive est un centre d’échanges en lignes spécialisé dans les problèmes scientifiques. Il fonctionne sans références obligées : nul besoin d’avoir fait une thèse de doctorat ou de travailler dans un laboratoire pour analyser des problèmes, télécharger des données ou proposer des solutions. Tout le monde peut y travailler, dans toutes les disciplines : des physiciens, par exemple, peuvent fort bien s’attaquer à des problèmes de biologie. Dans le cas qui nous intéresse, il s’avère que la personne ayant l’expertise nécessaire pour améliorer la prévision des SPE n’appartenait pas au milieu de l’astrophysique. Il s’agit de Bruce Gragin, un ingénieur retraité spécialiste des fréquences radio, habitant dans une petite ville du New Hampsire. « Sans avoir travaillé dans le domaine de la physique solaire, j’avais beaucoup réfléchi à la théorie de la reconnexion magnétique » raconte-t-il. Cette approche était la bonne : elle permit de prévoir les SPE 8 heures à l’avance avec 85 % d’exactitude et 24 heures à l’avance avec 75 % d’exactitude. Et la NASA récompensa sa recombinaison de données et de théories existantes par un prix de 30000 dollars. De nombreuses organisations ont récemment adopté la stratégie de la NASA et utilisé la technologie pour soumettre leurs problèmes d’innovation à un plus grand nombre d’intéressés. Ce phénomène porte plusieurs noms – l’innovation libre, le crowdsourcing – et peut être d’une remarquable efficacité.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

Page 37: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 37

Document 55 – L’application Waze symbole du deuxième âge de la machine Il y a peu, Matt Beane, (...) membre de notre équipe Digital Frontier, nous a donné ce tuyau : « Il faut que vous regardiez Waze : c’est incroyable ! » Mais quand nous avons constaté qu’il s’agissait d’une application de navigation GPS fournissant des indications pour la circulation automobile, ça ne nous a guère impressionné. Nos voitures disposent déjà de systèmes de navigation et nos iPhone peuvent donner des indications de direction au moyen de l’application Maps. Nous ne voyions pas la nécessité d’une autre technologie de navigation. Matt a du nous expliquer patiemment que comparer Waze aux autres outils de navigation, c’était faire courir une Ducati contre un char à boeufs. Contrairement aux systèmes traditionnels de navigation GPS, Waze ne vous dit pas quel est, en général, le meilleur itinéraire pour arriver à votre destination, mais quel est le meilleur itinéraire ici et maintenant. Comme on peut le lire sur le site web de l’entreprise : L’idée de Waze est née il y a quelques années, quand Ehud Shabtai (...) a reçu en cadeau un assistant numérique personnel muni d’une application GPS de navigation. Mais à l’excitation succéda vite la déception : le produit ne rendait pas compte des changements permanent des conditions réelles de circulation... Ehud prit les choses en main... Son objectif ? Reproduire fidèlement le système routier, l’état de la circulation et toutes les informations qui peuvent être, à tout moment, utiles au conducteur. Quiconque s’est déjà servi d’un système GPS traditionnel a connu la même frustration. Oui, grâce au réseau de 24 satellites GPS géosynchrones mis en place et entretenus par le gouvernement des États-Unis, le système connaît notre localisation précise. Il connaît aussi les routes – lesquelles sont des autoroutes, lesquelles des voies à sens unique, etc. – parce qu’il a accès à une base de données disposant de ces informations. Mais c’est à peu près tout. Les informations qu’un conducteur a vraiment besoin de connaître – les bouchons, les accidents, les fermetures de voie et tous les autres facteurs pouvant avoir un effet sur le temps de trajet – échappent aux systèmes traditionnels. Quand on lui demande par exemple de calculer le meilleur itinéraire pour se rendre de la maison d’Andy à celle d’Erik, il se contente de prendre le point de départ et le point d’arrivée, de consulter sa banque de données routières et de calculer théoriquement l’itinéraire le plus rapide entre l’un et l’autre. Le trajet passera par de grandes voies et par des autoroutes parce que c’est là que les limitations de vitesse sont les plus élevées. Mais à l’heure de pointe, cet itinéraire théoriquement le plus rapide, en réalité, ne le sera plus : quand des milliers de voitures foncent vers les mêmes grands axes, la vitesse de circulation est loin d’atteindre la vitesse maximale autorisée. Andy devrait donc plutôt passer par des petites routes connues seulement des initiés. Le GPS connaît leur existence (s’il est à jour, il connaît toutes les routes), mais il ignore qu’il est la meilleure option à 8h45 ce mardi matin. Et même si Andy commençait par emprunter des voies secondaires, le GPS croyant bien faire, le redirigerait vers les grands axes. Shabtai estimait qu’un système GPS vraiment utile ne devait pas seulement savoir où la voiture se trouvait sur la route. Il devait aussi savoir où les autres voitures se trouvaient et à quelle vitesse elles se déplaçaient. Quand sont apparus les premiers smartphones, il y a vu une opportunité et a créé Waze, en 2008, avec Uri Levine et Anir Shinar. Le logiciel transforme les smartphones qui l’utilisent en capteurs qui communiquent en permanence aux serveurs de l’entreprise leur localisation et des informations relatives à la vitesse. Plus il y a de smartphone faisant tourner l’application, mieux Waze peut connaître l’état de circulation dans une zone donnée. Au lieu de fournir seulement une carte statique des routes, il met à jour les conditions de trafic en temps réel. Ses serveurs utilisent les cartes, les mises à jour et des algorithmes complexes pour donner des indications de navigation. Si Andy veut se rendre chez Erik à 8h45 ce mardi matin, Waze ne va pas forcément le faire passer par l’autoroute : il va le faire passer par les voies où la circulation ce jour-là et à cette heure-là, est la moins dense. Le fait que plus Waze compte d’utilisateurs et plus l’application leur est utile est un exemple classique de ce que les économistes appellent l’effet de réseau : c’est une situation où la valeur d’une ressource pour chacun des utilisateurs croît avec chaque utilisateur supplémentaire. Or le nombre de « wazers », comme on les appelle, s’est accru rapidement. En juillet 2012, la société estimait que sa base utilisateurs avait doublé au cours des six derniers mois pour atteindre 20 millions de personnes. Collectivement, celles-ci avaient parcouru plus de 4,8 milliards de kilomètres et fait entrer dans le système des milliers de mises à jour sur des accidents, des bouchons, des emplacements de radars, des fermetures et des ouvertures de voies, des stations-service moins chères et quantité d’autres données susceptibles d’intéresser les automobilistes. Waze fait du GPS ce qu’il devrait être pour tout automobiliste : un système permettant de se rendre à destination aussi rapidement et facilement que possible, quoi que celui-ci sache des conditions de la circulation et de l’état des routes. Il fait de vous, à chaque instant, le conducteur le mieux informé de la ville.

Page 38: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 38

La loi de Moore et le rythme exponentiel du progrès technique ont, pour une large part, rendu possible l’application Waze. Ce service s’appuie sur l’existence d’un grand nombre d’appareils puissants mais bon marché (les smartphones), tous équipés de processeurs, de capteurs et de transmetteurs. Non seulement, cette technologie comme Waze, n’existait pas il y a dix ans ; mais elle n’est devenue réalisable qu’en raison de l’augmentation cumulée de la puissance numérique et de la baisse des coûts. Comme nous l’avons vu dans le précédent chapitre, les progrès exponentiels des équipements informatiques sont un des trois facteurs qui ont fait advenir le deuxième âge de la machine. Waze dépend également du deuxième de ces facteurs, la numérisation. (...) Carl Shapiro et Hal Varian définissent ce phénomène comme « l’encodage de l’information sous forme de bits ». La numérisation consiste, autrement dit à convertir des informations – du texte, du son, de l’image, des données reçues par capteurs et autres instruments, etc. – dans la langue vernaculaire des ordinateurs, le 0 et le 1. Waze utilise par exemple plusieurs flux d’informations : des cartes et des plans numérisés, des coordonnées de localisation des voitures, des alertes sur les bouchons, etc. C’est la capacité de l’application à rassembler ces données et à les mettre au service de l’utilisateur qui fait son succès. (...) Comme beaucoup d’autres services en ligne, Waze exploite deux propriétés remarquables et bien connues de l’information numérique : la non rivalité et un coût marginal de production presque nul. Pour le dire simplement, l’information numérique ne s’use pas quand on s’en sert, et la copie ne coûte pratiquement rien. (...) La communication de machine à machine (M2M pour l’anglais machine to machine) est une expression fourre-tout pour parler d’appareils qui partagent entre eux des données sur les réseaux comme Internet. Waz utilise la M2M : quand l’application est active sur un smartphone, elle envoie en permanence des informations aux serveurs de Waze sans aucune intervention humaine. L’information numérique n’est pas seulement l’aliment d’une nouvelle science : elle est avec, le progrès exponentiel, un des principaux ressorts du deuxième âge de la machine, et son rôle est de favoriser l’innovation. Waze en est un bon exemple. Le service est fait de multiples strates et générations de numérisation, dont aucune n’est devenue obsolète, les biens numériques ayant pour caractéristiques d’être non rivaux. La première strate est celle de la cartographie numérique, au moins aussi ancienne que l’ordinateur personnel. La deuxième est celle des informations de localisation GPS, si importantes pour la conduite automobile depuis que le gouvernement des États-Unis, en 200, a augmenté la précision du GPS. La troisième est celle des données sociales : les utilisateurs de Waze s’aident mutuellement en fournissant eux-mêmes des informations sur ce qui leur arrive sur la route, des accidents aux stations-service bon marché, en passant par les bouchons et les radars. Ils peuvent même utiliser l’application pour discuter entre eux. Enfin, Waze fait un large usage des données des capteurs : en fait, il convertir chaque véhicule utilisateur en instrument de détection de la vitesse de circulation et utilise ces données pour calculer les routes les plus rapides. Il y a d’abord eu les systèmes de navigation embarqués, qui n’utilisaient que les deux premières générations de données numériques : les cartes et les informations de localisation GPS. Ils peuvent être très utiles, en particulier quand on traverse une ville pour la première fois, mais ils ont, comme on l’a vu, quelques lacunes. Les créateurs de Waze ont compris qu’à mesure que la numérisation avançait et se diffusait, ils pourraient surmonter ces lacunes de la navigation GPS traditionnelle. Ils ont donc ajouté des capteurs et des données sociales au système existant, augmentant ainsi considérablement sa puissance et son utilité. (...) Ce type d’innovation (par recombinaison) est caractéristique de notre temps. Son rôle est même si important qu’il constitue le troisième ressort du deuxième âge de la machine. Waze est la recombinaison d’un détecteur de localisation, d’un appareil de transmission de données (en l’espèce un téléphone), d’un système GPS et d’un réseau social en ligne. Aucune de ces technologies n’a été inventée par l’équipe de Waze : elle s’est contentée de les assembler d’une certaine façon. En vertu de la loi de Moore, le coût de tous ces appareils est devenu suffisamment attractif, et la numérisation a rendu les données nécessaires disponibles.

Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine Travail et propsérité à l’heure de la révolution technologique, Odile Jacob, 2016

ii) La thèse du délai

Document 56 – Les TIC sont une révolution technologique majeure mais ses effets bénéfiques sur la productivité mettent du temps à se concrétiser D’autres avancent la thèse du délai. Il faut du temps pour que les innovations se diffusent dans le tissu économique et se convertissent en gains de productivité. L’histoire de l’électricité relatée par Paul David et

Page 39: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 39

Gavin Wright dans « Early twentieth century productivity growth dynamics: an inquiry into the economic history of “our ignorance” » (1999) le rappelle : si elle est apparue à la suite des travaux de Thomas Edison dans les années 1870-1880, il faudra attendre les années 1910 pour que l’électricité, devenue moins chère, se diffuse dans l’ensemble de l’économie américaine, et les années 1920 pour qu’elle engendre de forts gains de productivité. Dans cette perspective, les innovations actuelles requièrent seulement du temps pour générer des gains de productivité significatifs. Dans « Croissance de la productivité : quelles perspectives pour la France ? » (2013), Gilbert Cette défend une variante de cette thèse. Pour lui, les gains de productivité associés aux TIC diminuent parce que les progrès de la puissance de calcul des microprocesseurs ralentissent du fait de contraintes d’ordre physique. Cependant, il considère qu’« une nouvelle vague de gains de performance des TIC devrait émerger dans les prochaines années, associée tout d’abord à la fabrication et à la diffusion des puces 3D puis des bio-chips et, enfin dans un avenir beaucoup plus lointain, à l’électronique quantique. Dans cette hypothèse réaliste, la révolution technologique associée aux TIC induirait une nouvelle vague de croissance de la productivité, qui pourrait même être plus importante que la première vague, et qui s’amorcerait dans quelques années. »

Manuel ESH ECE1, Studyrama, 2017

Document 57 – Une révolution technologique peut se traduire dans un premier temps par un ralentissement des gains de productivité parce qu’il est nécessaire de réorganiser le système productif

iii) La thèse de la mauvaise mesure

Document 58 - Les TIC sont une révolution technologique majeure dont la comptabilité nationale mesure mal les effets sur la productivité Le clan des techno-optimistes n’est cependant pas d’accord avec cette conclusion. Philippe Aghion, dans Repenser la croissance économique (2016), affirme que les TIC ont radicalement et durablement amélioré la technologie de production des idées. L’innovation est très dynamique aussi bien sur le plan qualitatif que quantitatif. Cependant, comment expliquer que ces innovations ne se traduisent pas statistiquement en gains de productivité ? Certains techno-optimistes, comme Philippe Aghion, avancent la thèse de la mauvaise mesure. Le système de comptabilité nationale serait incapable de mesurer les gains de productivité permis par les NTIC, gains qui sont essentiellement qualitatifs.

Manuel ESH ECE1, Studyrama, 2017

Document 59 – La qualité : grande oubliée des mesures Nos mesures laissent complètement échapper un élément essentiel qui est l’effet « qualité ». On ne sait pas tenir compte du fait qu’une automobile de 2016 est en réalité un autre produit qu’une automobile de 2000 ou

Page 40: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 40

de 1990, même lorsqu’elle est vendue au même prix et porte le même nom. Elle démarre dans le froid, consomme deux à trois fois moins, tombe rarement en panne, inclut de plus en plus d’électronique… La production de masse traditionnelle était axée sur la production en volume (faire plus avec moins). Or, depuis une trentaine d’années, des critères de « qualité » (au sens large) sont devenus déterminants, et non plus secondaires, dans la concurrence : la fiabilité des produits, la diversification des variantes (ce qu’on a appelé le « sur-mesure de masse »), la réactivité temporelle par rapport aux demandes. Au centre du jeu économique, il y a désormais une « productivité des qualités » (faire mieux avec moins) que nos outils de mesure, qu’ils soient microéconomiques (le contrôle de gestion des firmes) ou macro-économiques, saisissent très mal. De plus chacun voit que ce qui est vrai des automobiles ou des machines à laver est encore plus vrai des services où ces dimensions de qualité sont à la fois centrales et plus difficiles à estimer. Enfin, les nouveaux services du monde numérique achèvent de brouiller les cartes, ou plutôt les comptes. Car, bien souvent, ils n’entrent même pas dans le produit marchand. Wikipédia n’existe pas dans le PIB. Blablacar le fait baisser, de même qu’Airbnb et tous les services de l’« économie de partage » qui mobilisent des ressources dormantes ou sous-utilisées ! On peut multiplier ce type d’exemples. Dira-t-on que leur apport à la création de valeur dans la société est nul ou négatif ? Ce point est crucial, car il jette un doute sérieux sur les chiffres de la croissance exprimés à partir du PIB marchand, et sur le ralentissement supposé de la productivité globale, telle qu’elle semble s’exprimer, à un niveau très agrégé dans nos pays industrialisés.

Pierre Veltz, La société hyperindustrielle, La République des Idées, Seuil, 2017, p.30-31

Document 60 – Les difficultés de prise en compte statistique de l’innovation Philippe Aghion estime que le déclin de la croissance de la productivité sur la période récente s’explique en partie par l’incapacité de notre système de comptabilité nationale à enregistrer les gains permis par les nouvelles technologies de l’information et de la communication qui sont essentiellement des gains qui sont qualitatifs. Comment tenir compte dans la comptabilité nationale de ces contenus qui améliorent la qualité de vie des individus sans passer par les prix ? C’est la fameuse économie du partage.

• Wikipedia : accès à un contenu encyclopédique gratuit ; • Blogs : articles sans coûts de publication et consultables gratuitement ; • Youtube : vidéos en libre accès • Réseaux sociaux (question de l’accès à la vie privée comme moyen de paiement) ;

Ces gains pour les consommateurs ne sont pas pris en compte par le PIB. Bien plus, ces contenus en libre accès font baisser le PIB en diminuant les achats de DVD, de journaux, d’encyclopédies, etc. Le PIB ne prend pas assez en compte l’amélioration de la qualité des produits. Philippe Aghion prend l’exemple de la photographie. En 2000, 80 milliards de photos étaient prises dans le monde, en 2015, c’est 1600 milliards, soit 20 fois plus. En parallèle, le coût d’une photo est passé d’environ 50 centimes à presque 0. Cette évolution favorable au bien-être matériel n’est pourtant pas bien pris en compte par le PIB parce que :

• l’indice des prix de la photographie tient compte d’éléments matériels (appareils photos, coûts de développement, pellicules photo qui sont en train de disparaître) ;

• les photos sont davantage partagées (via les réseaux sociaux) que vendues : bien non marchands ; • le développement des smartphone fait baisser les ventes d’appareil photo numériques.

Ce dernier point pose une autre question : comment la comptabilité nationale tient-elle compte de cet ajustement de qualité dans les smartphones ? Un smartphone peut être un substitut au moins partiel à un appareil photo, un GPS mais aussi une caméra, un e-book, un lecteur audio, une carte, un réveil, un navigateur internet, une calculatrice, un dictaphone, etc. Pourtant l’intégration de tous ces éléments dans le smartphone a conduit à une baisse du PIB mesuré en raison de la difficulté à enregistrer comptablement les gains de qualité des smartphones. D’après Philippe Agion, https://www.college-de-france.fr/site/philippe-aghion/course-2018-11-13-14h00.htm

Page 41: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 41

Document 61 – La difficulté à bien prendre en compte l’amélioration de la qualité des biens : l’exemple de la photographie

Document 62 – « The missing growth from creative destruction » (Aghion, Bergeaud et alii, 2017)

• La croissance du PIB nominal provient d’une hausse de la quantité produite mais aussi d’une hausse du

NGP ; • La Compta Nat retranche donc l’effet de la hausse du NGP pour calculer le PIB réel (l’augmentation de

la quantité produite) ; • Mais, pour les biens qui sont améliorés par le progrès technique, il faut prendre en compte la hausse

de la qualité pour ajuster le prix pour la qualité ; • C’est faisable pour les biens qui connaissent des améliorations mineures (qu’on peut comparer à la fois

en termes de prix et de qualité aux biens de la période antérieure) • Ce n’est pas faisable pour les biens fondamentalement nouveaux (les biens profondément affectés par

la destruction créatrice) • Pour dépasser cette difficulté, les systèmes de comptabilité nationale recourent à la technique de

l’extrapolation : ils calculent l’indice des prix pour les biens qui n’ont pas connu d’innovation ; l’indice des prix pour les biens qui ont connu une innovation sans destruction créatrice (prise en compte de l’amélioration de la qualité) puis, à partir de ces deux indices, ils extrapolent une inflation moyenne pondérée sans tenir compte des gains de qualité pour les produits innovants avec destruction créatrice.

• L’inflation est surestimée et la croissance économique et la croissance de la productivité sont donc sous-estimées.

Page 42: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 42

Document 63 – « The missing growth from creative destruction » : un exemple numérique • 80 % des biens = pas d’innovation = inflation pour cette catégorie de biens = 4 % • 10 % des biens = innovation sans destruction créatrice = inflation pour cette catégorie de bien = - 6 %

(prix ajusté pour la qualité) • 10 % des biens = innovation avec destruction créatrice (la CN ne prend pas en compte ces biens mais

on suppose que l’inflation ajustée pour la qualité est de – 6 % Calcul de l’inflation par la comptabilité nationale via la technique de l’extrapolation = 80/90 x 4 % + 10/90 x

-6 % = 2,9 % Si hausse du PIB nominal = 4 % => Croissance du PIB réel = 4 – 2,9 % = 1,1 %

OR, DANS LA REALITE : Inflation = 80/100 x 4% + 10/100 x -6% + 10/100 x -6% = 2%

Avec une hausse du PIB nominal de 4 %, cela nous donne une croissance réelle de 2 % : il y a 0,9 points de croissance économique qui manque (« missing growth ») dans la mesure de l’activité économique par la

comptabilité nationale. Document 64 – « The missing growth » : évaluations empiriques

iv) Politique monétaire trop accommodante et hausse du pouvoir de marché : des obstacles à la réalisation des gains de productivité rendus possible par les TIC

Document 65 – Une politique monétaire trop accommodante peut réduire les gains de productivité

• Assertion paradoxale car on attend d’une baisse des taux d’intérêt un accès plus facile au crédit et donc une hausse de la R&D

• MAIS : relâchement de la contrainte de crédit réduit la destruction créatrice en maintenant des firmes inefficientes sur le marché qui peuvent en outre financer grâce aux crédits obtenus la mise en place de barrières à l’entrée qui inhibent les entrées de nouvelles firmes => baisse des gains de productivité

D’après Ph. Aghion, A. Bergeaud, G. Cette & alii, « The inverted U Relationship Between Development and Productivty growth » 2017

Page 43: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 43

Document 66 – La hausse du pouvoir de marché : des rentes qui augmentent et la croissance de la productivit qui ralentit Avec les TIC, les entreprises bénéficient d’effet de réseau et peuvent réaliser d’énormes économies de gamme. De ce fait, elles ont énormément étendu le champs de leur activité à l’image de Google, Facebook, Amazon, etc.

• En statique, ce fut une bonne chose parce que cela a permis que l’activité soit principalement assurée

par les firmes les plus efficaces (gdp entre 1995 et 2006). • MAIS en dynamique un gros problème car ces firmes superstars (celles qui, en accédant à de larges

réseaux, obtiennent des coûts plus faibles, pour une même innovation = GAFAM) inhibent les dépenses de R&D des firmes non superstars (la majorité des firmes)

• Dans ce contexte, la destruction créatrice est limitée : elle endigue la croissance de la productivité (= ce que l’on constate depuis 2006)

• Recommandation de Philippe Aghion = repenser la politique de la concurrence en faisant en sorte qu’un maximum de firmes puissent accéder aux réseaux ou alors en limitant la taille des firmes superstars.

Une augmentation de la concentration aux États-Unis

D’après Philippe Agion, https://www.college-de-france.fr/site/philippe-aghion/course-2018-11-13-14h00.htm

Ph. Aghion et alii « Rising Rents and Slowing Growth » (2018)

Page 44: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 44

Résumé : Comment expliquer que la croissance de la PGF reste si faible depuis 20 ans ?

PISTES DE TRAITEMENT SUJET SUR LA STAGNATION SECULAIRE CROISANT CHAPITRES 8 & 9 « La stagnation séculaire »

Discussion des termes du sujet • Stagnation séculaire = maintien à un niveau très faible du taux de croissance sur le long terme • Comment expliquer faiblesse durable des taux de croissance ? : deux explications • Soit la croissance potentielle de l’économie est durablement affaiblie • Soit l’économie est dans une situation durable de récession, c’est-à-dire qu’elle connaît un écart de

production négatif qui persiste dans le temps

Page 45: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 45

L’approche par l’offre : un affaiblissement de la croissance potentielle

Les déterminants de la croissance potentielle (approche « fonction de production ») :

- Évolution de la quantité d’heures travaillées - Évolution de la quantité de capital - Évolution de la productivité globale des facteurs (PGF)

L’approche par la demande : un écart de production durablement négatif

Les déterminants de l’output-gap (l’approche équilibre emplois-ressources) Y = C + I + G (pour simplifier = raisonnement en économie fermée) Si la demande (C + I + G) n’est pas suffisante, c’est-à-dire que tous les revenus ne sont pas dépensés (S > I : excès d’épargne), la production effective s’ajuste à la baisse (écart de production négatif) et permet ex-post l’égalisation de I et de S par diminution des revenus (qui fait baisser le montant absolu de l’épargne).

Problématique

Quels sont les facteurs à la fois du côté de l’offre et de la demande qui permettent d’expliquer la faiblesse durable des taux de croissance dans les pays développés ? Quelles sont les politiques publiques qui peuvent être mise en œuvre pour lutter contre ce phénomène, que ce soit des politiques conjoncturelles pour résorber l’output gap négatif ou des politiques structurelles pour renforcer la croissance potentielle ?

Page 46: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 46

1 – Les explications de la stagnation séculaire

11 – La stagnation séculaire du côté de la demande Commencer le raisonnement en expliquant qu’il y a un excès d’épargne par rapport à l’investissement (pas assez de demande). Beaucoup d’épargne car : - Volonté de désendettement des AE après le choc financier de 2008 => processus qui s’étend dans le

temps du fait de la déflation par la dette ; - Augmentation des inégalités qui selon la loi psychologique fondamentale renforce l’épargne globale ; - Forte épargne des pays émergents qui accumulent des excédents commerciaux (« global saving glut »

selon Ben Bernanke) - Forte épargne de précaution dans un contexte d’incertitude (vieillissement démographique,

conjoncture éco déprimée). Et une faiblesse de l’investissement car : - VD => moins besoin d’investissement pour maintenir intensité capitalistique (K/L) - VD et crise => conventions pessimistes des AE => anticipations de faibles rendements => rdmts anticipés

< taux d’intérêt => faiblesse investissement - Crise => dépréciation valeur des firmes => moins de collatéral pour emprunter => baisse investissement

Dans une situation normale, le déséquilibre entre I et S devrait se régler par la variation du prix sur le marché des fonds prêtables, à savoir une baisse du taux d’intérêt qui réduirait l’épargne et devrait augmenter l’investissement. Mais les taux d’intérêt sont à zéro ou proches de la borne zéro. En outre, l’inflation est très faible voir négative si bien que le taux d’intérêt réel reste élevé I et S ne pouvant s’ajuster par les prix, ces deux variables vont s’ajuster ex post par les quantités à travers un recul de la production (qui diminuera l’épargne de manière à ce qu’elle soit égale à l’investissement). Mener une politique monétaire expansionniste (offrir davantage de monnaie) ne permet pas de faire baisser les taux d’intérêt et donc ne relance pas l’investissement = situation de trappe à liquidité.

Transition entre le 11 et le 12 Les récessions peuvent dégrader la croissance potentielle : - Hystérèse (Blanchard, Summers) - Thèse de M. Aglietta (cf. graphique ci-dessous)

12 – La stagnation séculaire du côté de l’offre Thèse des techno-pessimistes : un progrès technique qui exerce de moins en moins d’effets sur la PGF VD => ralentissement de la croissance des heures travaillées et baisse dans les pays où le VD est très avancé => faible contribution ou contribution négative à la croissance (chapitre 10) VD => vieillissement de la pop active => courbe en u inversé de la relation âge-productivité de l’OCDE + atteinte d’un plateau en ce qui concerne le % de la population réalisant des études supérieures => effet négatif sur accumulation de capital humain => ralentissement contribution de la PGF à la croissance (chapitre 10) VD => modèle du cycle de vie => baisse effort d’épargne => baisse accumulation du capital => moindre contribution du capital à la croissance (chapitre 10) Ph. Aghion : une politique monétaire trop accommodante et une hausse du pouvoir de marché des firmes superstars = entrave à la réalisation des gains de productivité permis par les TIC

Page 47: Chapitre 9 – Les transformations des structures ...

Chapitre 9 – Les transformations des structures économiques et financières – CPGE ECE1 – 2019-2020 – Camille Vernet 47

2 – Les politiques publiques pour contrer la stagnation séculaire

21 – Les politiques conjoncturelles • Situation de trappe à liquidité qui met en échec la politique monétaire (PM) conventionnelle (régulation

du ti directeur sur le marché interbancaire) ; • Mise en oeuvre de PM non conventionnelles : quantitative easing (politique de rachats d’actifs financiers

par la banque centrale) ; qualitative easing (la banque centrale accepte des actifs avec plus de risque) ; refinancement à long terme des IF par la banque centrale ; taux de facilité de dépôt négatif...

• Le « bazooka monétaire » ne se relève toutefois pas satisfaisant pour relancer la demande et réduire l’écart de production s’il n’est pas accompagné d’une politique budgétaire expansionniste (ce qu’on fait par exemple les USA en parallèle des mesures monétaires non conventionnelles

• Austérité budgétaire dans ce contexte de stagnation séculaire = le « drame européen » : la dépense publique est la seule manière de soutenir la demande lorsque les AE privés sont très pessimistes MAIS problème de la soutenabilité des politiques budgétaires expansionnistes dans un contexte où l’endettement public est déjà fort.

• Dépense publique qui pourrait être orientée vers la transition écologique et énergétique

22 – Les politiques structurelles Reprendre ici les politiques inspirées par les théories de la croissance endogène qui permettent de renforcer l’accumulation des différentes formes de capital qui contribuent à l’accroissement de la PGF (capital humain, capital physique, capital technologique). Insister sur le rôle du capital public pour faire face aux défaillances de marché La politique de la concurrence pour éviter que les acteurs en position dominante dressent des barrières à l’entrée défavorable à l’innovation.