Les élections législatives de juin 2017 : les dangers de la futurologie [Par Jean-Marie Denquin]

Les élections législatives de juin 2017 : les dangers de la futurologie [Par Jean-Marie Denquin]

Qui se souvient d’Hermann Kahn ? Cet auteur américain, né en 1922 à Bayonne (New Jersey) fut, à la fin des années soixante, le maitre d’œuvre d’un ouvrage consacré à l’an 2000, qui devait être, si l’on en croit le titre de la traduction française, « la bible [!] des trente prochaines années » (le titre anglais parlait plus modestement de « framework »). Le livre, où s’opéraient les noces délicieuses du catastrophisme et de l’avenir radieux, eut un succès mondial. Il valut à son principal auteur la réputation de maitre incontesté d’une nouvelle discipline, la futurologie. Programme improbable puisque son nom même implique contradiction, idée vaseuse, mais américaine, le nouveau produit avait tout pour réussir sur le marché des modes intellectuelles accessibles au grand public. Le propre de la mode est toutefois de vouer au néant ce qu’elle a porté aux nues : plus personne ne se réclame aujourd’hui de la futurologie.

 

Hermann Kahn appliquait deux méthodes : l’extrapolation des tendances contemporaines et la transposition d’un scénario antérieur. Selon la première, si les sucres d’orge actuels mesurent x cm, les sucres d’orge futurs atteindront 2x cm. La seconde reposait sur la confrontation, supposée heuristique, entre des situations modernes et des événements historiques dont l’issue est, par hypothèse, connue. L’ouvrage développait, par exemple, un parallèle entre l’affrontement des États-Unis et de l’URSS avec la lutte de l’empire romain contre l’empire parthe. Comparer Brejnev et Artaban IV peut paraitre ingénieux. Mais, comme le disait Joseph Joubert (auteur qu’Hermann Kahn ne connaissait sans doute pas), ce qui est ingénieux est bien près d’être vrai.

 

Ces bricolages prophétiques, s’ils rencontrèrent le succès attendu, ne connurent en revanche qu’une réussite modérée. A l’époque de l’auteur la délicieuse apocalypse à l’ordre du jour, qui synthétisait l’angoisse des foules tout en les faisant marcher au pas, était la guerre nucléaire. Hermann Kahn annonça que l’humanité y survivrait – joyeuse bonne nouvelle qui n’a pu être confirmée. Rien en revanche sur les futurs avenirs, la fin de l’histoire, la guerre des civilisations, le réchauffement climatique. Le capitalisme va rendre possible une prospérité sans précédent. Le nucléaire va se développer. Peut-être même disposera-t-on de téléphones portables. Mais il n’est question ni d’épuisement des ressources naturelles, ni de transition énergétique, ni de terrorisme, ni d’internet, ni de Wikipédia. C’est pourtant cet « objet scientifique non identifié » – pour reprendre le titre du livre dirigé par Lionel Barbe, Louise Merzeau et Valérie Schafer (Presses universitaires de Paris-Ouest [Nanterre], 2015) – qui nous apprend qu’Hermann Kahn est mort en 1983, date qu’il n’avait, semble-t-il, pas prévue.

 

Les déconvenues enregistrées, si elles ont disqualifié le mot, n’ont pas pour autant restauré l’antique sagesse humaine selon laquelle l’avenir est incertain. Les spéculations vont bon train. Une grande partie des activités médiatiques est consacrée à commenter l’avenir, notamment l’avenir proche, car si l’information vise à informer, le spectacle se nourrit du suspense. On peut observer en passant que les journalistes, lorsqu’ils interrogent des universitaires, leur demandent rarement d’éclairer ce qui arrive ou ce qui est arrivé. Sur le présent et le passé ils estiment toujours en savoir assez – ce qui paraitrait étonnant si l’on ignorait que pour eux « savoir » signifie seulement « avoir quelque chose à dire ». Quoi que le mot soit tombé en désuétude, l’universitaire est donc prié de jouer les futurologues. En la rigueur des termes, l’homme de science devrait taire ce qu’il ne peut exprimer. Pourtant il semble légitime non de prédire le réel mais d’imaginer le possible, autrement dit de construire des conjectures rationnelles sans jouer les oracles. Dans la conjoncture politique actuelle, cet exercice a un sens : on peut s’interroger sur les résultats des prochaines élections législatives et sur les conséquences institutionnelles que celles-ci sont susceptibles d’engendrer.

 

Quels seront les résultats des élections législatives des 11 et 18 juin ? L’incertitude est à son comble. Mais il est intéressant de se demander pourquoi. Deux facteurs convergent : le caractère aléatoire de l’objet mesuré, l’inadéquation de l’instrument de mesure.

 

Sur le second point, il convient de se rappeler que les sondages ne sont que partiellement prospectifs. Les résultats collectés par les enquêteurs sont affectés d’une incertitude statistique, d’autant plus grande que l’échantillon de personnes interrogées est plus petit. Pour réduire cette marge d’erreur, sans d’ailleurs jamais la supprimer, les instituts de sondages utilisent des comparaisons rétrospectives : ils pondèrent les résultats bruts en leur appliquant des modèles mathématiques fondés sur les résultats des élections et sondages antérieurs. Cela permet en particulier d’estimer l’incidence de certaines variables cachées, liées au fait que toutes les opinions ne sont pas, dans une situation donnée, aussi faciles à exprimer devant autrui – voire devant soi-même.

 

Ces phénomènes concernent toutes les consultations. Mais en l’espèce leur influence est décuplée par la conjoncture. Tout en effet est nouveau. On ne se trouve pas devant une alternative définie à l’avance entre deux partis ou coalitions virtuellement majoritaires. Une nouvelle formation politique, dont l’impact ne sera précisément déterminé et connu que par ces élections, affronte pour la première fois les urnes. Il n’existe aucun scrutin de référence à partir duquel on pourrait extrapoler des courbes. Les résultats des présidentielles sont difficilement transposables aux législatives étant données la différence des enjeux, des niveaux de référence, national ou local, et l’équation personnelle des divers candidats. Phénomène d’ailleurs ambivalent : une solide implantation compense parfois l’impact de la conjoncture nationale – encore que la limitation du cumul des mandats tende à minimiser ce phénomène – mais il faut compter aussi avec un puissant désir de renouvellement, que l’on nomme en style moderne le « dégagisme » (en style classique : dulce et decorum est sortentes sortire, comme disait à peu près Horace).

 

Ces facteurs d’incertitude sont encore aggravés par les caractères propres des objets mesurés. Il serait en effet simpliste d’évoquer le fait que les élections présidentielles et législatives appliquent le même mode de scrutin, majoritaire à deux tours, pour verser autoritairement les voix obtenues par les candidats des premières au compte des formations politiques qui se réclament d’eux aux secondes. Car il existe entre les deux consultations deux différences majeures, dont les effets en outre se combinent : la possibilité de triangulaires et une problématique différente des reports de voix.

 

La possibilité de triangulaires, (voire de quadrangulaires) exclue par hypothèse aux présidentielles, introduit un aléa d’autant plus imprévisible que le phénomène n’est pas connaissable à l’avance, qu’il peut se produire dans un nombre de circonscriptions impossible à évaluer et qu’il dépend autant de décisions personnelles, individualisées et locales que des stratégies et consignes nationales. En cas de résultats serrés, la conjonction de ces variables aléatoires est tout à fait susceptible de faire basculer l’équilibre d’une assemblée. Les ravages du phénomène ont été observés à droite depuis l’émergence du Front national – mais cette fois on est en présence de deux et non plus d’une seule formation extrémiste (le FN et la France insoumise) susceptible de franchir le seuil nécessaire pour se maintenir au second tour.

 

La problématique des reports de voix, qui se combine avec le phénomène des triangulaires, nous ramène à une configuration un peu oubliée. Avant 1972, date qui inaugure, avec la signature du programme commun de la gauche, la bipolarisation de la vie politique française, les candidats de la gauche non communiste pouvaient être élus, selon les circonscriptions, par les électeurs de gauche contre un candidat de droite ou par les électeurs de droite contre un candidat communiste. Or, dans la conjoncture nouvelle, le retour à une situation de ce type est probable, à cette différence près qu’elle peut concerner les deux côtés de l’éventail politique. Un candidat de droite peut être élu par la droite ou par la gauche contre un candidat de la gauche extrême, et un candidat socialiste être élu par la gauche ou par la droite contre un candidat d’extrême droite. Or la combinaison de ces phénomènes, difficiles à anticiper, est susceptible de conditionner le résultat du scrutin dans chaque circonscription et donc, par agrégation, de déterminer l’existence et la nature d’une majorité au sein de l’Assemblée nationale.

 

Si l’on considère maintenant la notion de majorité comme entité collective et non comme addition d’individus, peut-on considérer ce phénomène, apparemment enraciné dans la culture politique de la Vème République, comme propre à orienter le choix des électeurs ? Doit-on, en d’autres termes, envisager l’hypothèse d’une dynamique majoritaire ? Cette question se subdivise en deux : faut-il pronostiquer un effet d’entrainement de l’élection présidentielle ? Celui-ci peut-il se manifester au profit du centre et non plus, comme naguère, s’inscrire dans la logique d’un affrontement bipolaire ?  Ces deux questions appellent un traitement différent.

 

D’un côté il n’est pas douteux que les élections législatives qui ont suivi une élection présidentielle ont toujours confirmé les résultats de celle-ci, bien qu’une fois, en 1988, le scrutin n’ait produit qu’une majorité relative. Les élections perdues par un président de la République, matrice de cohabitation, ont eu lieu en 1986, 1993 et 1997, soit plusieurs années après son élection. Le renversement du calendrier électoral opéré en 2002 a d’ailleurs eu pour but, conscient et proclamé, d’instrumentaliser ce phénomène. Jusqu’ici, le résultat fut au rendez-vous. Les ressorts en sont bien connus : les électeurs considèrent qu’il convient de donner sa chance au nouvel élu, les médias chantent ses louanges quelle qu’ait été leur attitude antérieure à son égard, il existe une force d’entrainement du fait accompli. C’est l’état de grâce, très inégalement durable, mais qui se maintient du moins jusqu’aux législatives.

 

Le contraste entre les deux cas de figures – élections immédiates, élections différées – montre cependant qu’il n’y a dans cette affaire rien d’institutionnel. Parler, dans un vocabulaire étrangement désuet, d’« onction du suffrage universel » n’est qu’une formule rhétorique puisque, dans la durée, les conséquences du suffrage demeurent alors que l’onction n’a plus d’effet. Il en est de même du « charisme », terme outrageusement galvaudé, étiquette arbitraire, rétrospective et jetable, qui baptise le phénomène sans l’expliquer. Le retournement de l’opinion est d’ordre psycho-politique : au début les citoyens croient au changement – parce qu’ils veulent y croire –, puis viennent la lassitude, le mécontentement, la désillusion : le pouvoir s’use. Tout ceci est banal, mais ces états d’âme collectifs sont hors de portée du droit constitutionnel. Changer la Constitution n’y changera rien.

 

La remise en cause du clivage droite/gauche est-elle de nature, d’autre part, à enrayer le processus ? Il est difficile d’en juger. Tout a été dit sur la pertinence ou sur l’inanité de cette division binaire et normative (mais de sens inverse selon le côté où l’on se situe) de l’espace politique, à la fois réelle et imaginaire, évidente et insaisissable. Il faudrait cependant distinguer entre le contenu du clivage et son existence. Le contenu, on le sait, est changeant : il ne respecte ni le principe de contradiction – certains phénomènes sont simultanément de droite et de gauche (la nation, l’État) – ni le principe de tiers exclu – certains autres ne sont ni l’un ni l’autre (la science, la religion). Les thèmes passent d’un bord à l’autre au hasard des batailles : la décentralisation est de droite quand la gauche est jacobine, de gauche quand la droite est au pouvoir, etc. En revanche l’opposition elle-même persiste et manifeste une surprenante vitalité, car elle est un principe d’intelligibilité du social et du politique, familier, verbal, commodément applicable à tout. Il permet de définir les autres et soi-même. Bref il joue, dans l’univers politique, le rôle d’une classification totémique.

 

Tout ceci fait du clivage un reflet plus qu’une cause. Il peut survivre, et même avoir un sens, sans impliquer nécessairement des conséquences au niveau des alliances politiques, qui ne sont pas exclusivement déterminées par les affinités idéologiques : des facteurs institutionnels, conjoncturels, tactiques, des questions de personne interfèrent constamment avec celles-ci. C’est pourquoi rien, a priori, ne rend plus improbable la réunion du centre droit et du centre gauche que celle de la gauche modérée et de la gauche extrême, et, a fortiori, de la droite modérée et de la droite extrême. Une majorité de concentration n’est pas plus improbable que des majorités polarisées. La pratique était bien connue sous les Républiques antérieures. Elle était parfois considérée comme un idéal, accessible ou non, et il existait une formule pour la désigner : « couper l’omelette par les deux bouts », c’est-à-dire écarter les extrêmes et s’entendre entre gens censés, capables de travailler ensemble malgré certaines divergences idéologiques. Ainsi, par exemple, en des temps où comptaient ces choses, ceux qui croyaient au ciel pouvaient gouverner avec ceux qui n’y croyaient pas – à condition de ne pas ouvrir certains placards. Seule donc la bipolarisation, qui a dominé la scène française depuis quarante-cinq ans et que l’émergence du Front national n’a pas réellement ébranlée, confère à l’idée d’une alliance centriste un caractère insolite. Mais la bipolarisation est un phénomène historique, non une donnée naturelle : elle peut donc se changer en son contraire.

 

Il semble découler des observations précédentes que la victoire du nouveau président n’est pas impossible, mais que l’hypothèse d’un échec ne saurait être écartée compte tenu des nombreuses inconnues qui marquent le prochain scrutin : conclusion éminemment futurologique. Il reste cependant à s’interroger sur le point de savoir quelles incidences les deux hypothèses pourraient entrainer sur le fonctionnement du régime.

 

Or, à ce niveau, la consistance « futurologique » de la question prend un autre tour car on se trouve en présence d’une alternative incontournable : soit le président de la République dispose d’une majorité, soit il n’en dispose pas. Dans le premier cas, il est probable que la prééminence présidentielle sera confirmée, même si elle se trouve infléchie. Dans le second cas, comme on l’a déjà observé ici, une sorte de retour à la IVème République parait possible. Un scénario comparable à celui de la période 1958-1962 serait toutefois envisageable : une majorité relative, permettant une coexistence initiale, se transformerait, après crise et dissolution, en une majorité absolue. Mais ces deux, voire ces trois hypothèses n’ont-elles pas quelque chose en commun ? Il semble qu’elles impliquent toutes, certes à des degrés divers, une remise en cause du « présidentialisme programmatique » tel que l’a magistralement décrit et critiqué Bruno Daugeron dans une récente intervention sur ce blog. En effet dans le modèle majoritaire qui s’est dégagé progressivement après 1962 et qui connut son apogée avec l’« hyperprésidence » sarkozienne, le chef impose sans débat sa volonté à une troupe disciplinée au nom d’un programme que le « peuple » est censé avoir approuvé au moment de son élection. Mais on peut imaginer qu’à cette autorité disciplinaire soit substituée une autorité négociée. Autrement dit une autorité qui, tout en préservant la capacité de décision et d’arbitrage du chef de l’État – qui peut s’avérer utile, même si les décisions ne sont pas toujours bonnes et les arbitrages toujours judicieux – implique la discussion et la prise en compte de divers points de vue car le consensus n’est pas présupposé. Une telle évolution ne peut reposer sur les seules vertus du chef, même si elles existent. Elle requiert des facteurs exogènes et structurels : l’hétérogénéité des tendances politiques dont l’accord serait la condition nécessaire à la marche du système et qui, par leur diversité, traduirait moins mal la diversité des attentes des citoyens. L’obéissance n’étant pas acquise, le débat reprendrait ses droits et les acteurs une marge d’action, seule compatible d’ailleurs avec l’accomplissement de leur mission constitutionnelle. Le régime reviendrait ainsi à ce qui était, semble-t-il son idéal initial – idéal, il ne faut jamais l’oublier, pensé dans la perspective d’une absence de majorité : un pouvoir de référence, non un monarque qui n’a qu’à parler pour imposer sa volonté particulière, y compris dans des domaines où la Constitution ne lui accorde aucune compétence. Ce n’est là bien sûr qu’une hypothèse, sans doute trop optimiste pour être probable. Mais aller plus loin dans la conjecture serait retomber dans la futurologie.

                                        

Jean-Marie Denquin, Professeur émérite à l’université Paris Nanterre