Ce blog rassemble des informations et des réflexions sur l'avenir qui nous attend.

This blog presents informations and views about the future.

lundi 27 novembre 2017

De l'Univers au Multivers / From Universe to Multiverse


Whereas for the ancients the stars were immutable, science has now shown that they are born, live and die. Large telescopes have revealed the immensity of the universe and the vertiginous number of stars it contains. The Milky Way, the galaxy to which our Sun belongs, has about one hundred billion stars. The observable universe comprises a hundred billion galaxies organized into clusters. Stars form from gaseous clouds of hydrogen and helium. Gravity tends to compress these clouds whose density increases, to the point of causing nuclear fusion reactions, successively producing the various known elements. Increasingly heavy elements, going as far as iron, are generated in successive stages. Fusion of iron nuclei does not occur spontaneously, reactions stop. The star collapses and dies. According to their initial mass, the stars know different destinies. Some die slowly, turning into a "white dwarf" or "black dwarf", a star that becomes invisible. The most massive stars turn into neutron stars and eventually explode suddenly forming a supernova. The enormous power reached during the explosion of a supernova leads to the fusion of elements heavier than iron. Supernova observations are relatively rare. In a galaxy, they occur approximately once a century. It was therefore these exceptional events that made possible the presence on Earth of all the elements without which life could not have appeared.The world can no longer be conceived as a gigantic clock reproducing indefinitely the same movements, immutably. The American astronomer Erwin Hubble having observed that the galaxies move away from each other at a speed proportional to their distance, he deduced that the Universe is expanding from an initial "Big Bang". It was preceded in this conclusion by the Belgian canon George Lemaître, who published in 1927 the mathematical model of an expanding universe, from a very dense state which he called the "primitive atom". The Big Bang theory established a link between the infinitely large and the infinitely small, because to understand the behavior of the Universe in its initial condensed state, it became necessary to apply quantum theory. In addition, the enormous energy densities reached by the Universe as we approached the initial moment of appearance of the Big Bang led to a progressive unification of all the known particles. Thus, paradoxically, cosmology offers the best field of application to the most advanced theories of quantum mechanics. In 1981, the American physicist Alan Guth realized, by applying quantum mechanics methods to an extremely condensed universe, that the fluctuations that occurred during the first moments of cooling after the Big Bang had caused an extremely rapid expansion of the Universe, followed by deceleration. During the initial "inflation" phase, the space expanded at speeds that greatly exceeded the speed of light (the relativity theory limits the speed within the space, but not the expansion velocity of space itself). The first moments of the expansion of the universe are beginning to be better and better known. In particular, it was possible using a microwave radio telescope on the COBE (Cosmic Background Explorer) satellite to record the energy distribution of a cosmic microwave background transmitted by a radiation emitted shortly afterwards. the Big Bang. The study of the cosmic microwave background makes it possible to test and validate inflation models. Following the early work of Alan Guth, more elaborate inflation models were developed, notably by physicists Alexandre Vilenkin and Andreï Linde, who described a phenomenon of expansion accompanied by multiple inflations, generating "bubble-universes" , which multiply indefinitely, each bubble being able to give birth to others. Since the speed of expansion of the Universe has been much greater than the speed of light during the first period of inflation (the theory of relativity limits only the speed within the space), the size of the universe is gigantic and we are able to observe only a small part of it. "The cosmic horizon", which corresponds to the distance traveled by the light since the Big Bang, is 41 billion light-years away. All that lies beyond is inaccessible for us. In particular, the bubble worlds of Vilenkin and Linde's model are totally out of our reach. The physicist Hugh Everett has further assumed that all superimposed quantum states occur in different "parallel worlds", only one of which can be observed by an experimenter living in our macroscopic world. According to this interpretation, performing a measurement on one of the particles belonging to a couple of entangled particles would involve the selection of one of the possible worlds in which they are located. Everett's theory, which had met with little success at the beginning, now seems to appeal to a growing number of physicists. The parallel universes of inflation and Everett's parallel universes are not the only ones. String theory represents elementary particles as tiny, vibrating strings. In addition to the one-dimensional strings, there would also be surfaces or "branes" with a multiple number of dimensions. Our four dimensional universe (three dimensional space and one time dimension) would be contained in a brane and could thus coexist with other universes located on different branes, unfolding in a space provided with an additional number of dimensions. All these parallel universes whose existence is predicted by mathematical models, remain impossible to observe directly. A single Universe replaces a Multiverse with a multiplicity of parallel universes. The hypothesis that "other worlds" exist, to which we do not have access, thus becomes quite plausible. Not only is it no longer scary to most scientists, but it is even considered by a number of them as the one that best captures reality.The physicist Max Tegmark goes even further, admitting that the multiple universes provided by mathematical models are real. A mechanistic and deterministic Universe is thus replaced by a Multiverse, whose multiple horizons remain hidden, perhaps forever. The result is a deeply renewed vision of the Cosmos, all of whose consequences have probably not yet been drawn.

Alors que pour les Anciens les étoiles étaient immuables, la science a montré à présent qu’elles naissent, vivent et meurent. Les grands télescopes ont révélé l’immensité de l’univers et le nombre vertigineux d’étoiles qu’il comporte. La Voie lactée, la galaxie à laquelle appartient notre Soleil, compte environ cent milliards d’étoiles. L’Univers observable comporte une centaine de milliards de galaxies organisées en amas.  Les étoiles se forment à partir de nuages gazeux d’hydrogène et d’hélium. La gravité tend à comprimer ces nuages dont la densité augmente, au point d’entraîner des réactions de fusion nucléaire, produisant successivement les différents éléments connus. Des éléments de plus en plus lourds, allant jusqu’au fer, sont générés par étapes successives. La fusion des noyaux de fer ne se produisant pas spontanément, les réactions s’arrêtent. L’étoile s’effondre et meurt. Suivant leur masse initiale, les étoiles connaissent des destins différents. Certaines meurent lentement, se transformant en « naine blanche » ou « naine noire », étoile qui devient invisible. Les étoiles les plus massives se transforment en étoiles à neutrons et finissent par exploser brutalement en formant une supernova. L’énorme puissance atteinte au cours de l’explosion d’une supernova conduit à la fusion des éléments plus lourds que le fer. Les observations de supernovae sont relativement rares. Dans une galaxie, elles interviennent environ une fois par siècle. Ce sont donc ces événements exceptionnels qui ont rendu possible la présence sur Terre de l’ensemble des éléments sans lesquels la vie n’aurait pas pu apparaîtreLe monde ne peut plus être conçu comme une gigantesque horloge reproduisant indéfiniment les mêmes mouvements, de façon immuable. L’astronome américain Erwin Hubble ayant observé que les galaxies s’éloignent les unes des autres à une vitesse proportionnelle à leur distance, il en déduisit que l’Univers est en expansion à partir d’un « Big Bang » initial. Il avait été précédé dans cette conclusion par le chanoine belge George Lemaître, qui avait publié en 1927 le modèle mathématique d’un univers en expansion, à partir d’un état très dense qu’il appela l’ « atome primitif ».
   La théorie du Big Bang établissait un lien entre l’infiniment grand et l’infiniment petit, car, pour comprendre le comportement de l’Univers dans son état condensé initial, il devenait nécessaire d’appliquer la théorie quantique. En outre, les énormes densités d’énergie atteintes par l’Univers lorsque l’on se rapprochait de l’instant initial d’apparition du Big Bang conduisaient à une unification progressive de toutes les particules connues. Ainsi, de manière paradoxale, la cosmologie offrait le meilleur champ d’application aux théories les plus avancées de la mécanique quantique. En 1981, le physicien américain Alan Guth se rendit compte, en appliquant les méthodes de la mécanique quantique à un univers extrêmement condensé, que les fluctuations intervenues au cours des premiers instants de refroidissement après le Big bang avaient dû provoquer une expansion extrêmement rapide de l’Univers, suivie d’une décélération. Au cours de la phase d’ « inflation » initiale, l’espace s’est dilaté à des vitesses qui ont largement dépassé la vitesse de la lumière, ce qui ne contredit pas la théorie de la relativité qui limite la vitesse dans l'espace. Les premiers moments de l’expansion de l’univers commencent à être de mieux en mieux connus. En particulier, il a été possible à l’aide d’un radiotélescope à micro-ondes embarqué sur le satellite COBE (Cosmic Background Explorer) de relever la répartition en énergie d’un fond diffus cosmologique transmis par un rayonnement émis peu de temps après le Big Bang. L’étude du fond diffus cosmologique permet ainsi de tester et de valider les modèles d’inflation. Suite aux premiers travaux d’Alan Guth, des modèles d’inflation plus élaborés ont été développés, notamment par les physiciens Alexandre Vilenkin et Andreï Linde, qui ont décrit un phénomène d’expansion accompagné de multiples inflations, générant des « bulles-univers », qui se multiplient indéfiniment, chaque bulle pouvant donner naissance à d’autres. Du fait que la vitesse d’expansion de l’Univers a été très supérieure à la vitesse de la lumière au cours de la première période de l’inflation , la taille de l’univers est gigantesque et nous ne pouvons en observer qu’une faible partie. « L’horizon cosmique », qui correspond à la distance parcourue par la lumière depuis le Big bang, se situe à 41 milliards d’années-lumière de distance. Tout ce qui se situe au-delà nous est inaccessible. En particulier, les univers-bulles du modèle de Vilenkin et Linde sont totalement hors de notre portée.

dimanche 19 novembre 2017

La difficile transition électrique/ The difficult electricity power transition



In a recent book, prefaced by Gérard Mestrallet, Chairman of the Board of Directors of Engie, Jean-Pierre Hansen, former head of Suez and president of Electrabel and Jacques Percebois, professor of energy economics, analyze the difficult conditions in which the electrical transition takes place in Europe. This transition aims, in principle, to create a safer, more economical and more environmentally friendly electricity system. The will to act against global warming leads to favor renewable energies, mainly, wind and solar. The difficulties encountered stem partly from the difficulty of setting up a common policy between countries that do not all share the same interests. It is also due to the fact that the transition was initiated on the basis of rigid principles, which upset the European energy landscape in two successive waves.The first of these waves, which came in the mid-1980s, led to a so-called "deregulation" based on the almost exclusive power of the market. These transformations introduced the principle of a systematic competition of service providers, the dismantling of national companies, the abandonment of long-term contracts and the fixing of prices by the  market. The second wave, which happened in the 1990s, consisted of introducing wind and solar as a priority. Therefore, the generation of energy from renewable energy sources had priority access to the grid at a rate set at a sufficiently high level to make these sources of energy competitive. Such conditions were creating a windfall effect for the industrialists concerned.These two modes of operation (market and priority access to a tariff imposed for renewable energies) were contradictory and led to a series of malfunctions: negative electricity prices at times, higher prices for the end consumer, power plant shutdowns. in favor of coal plants much more polluting, weakening of the actors, most European electricians being in much worse posture than before, like EdF in France. In total, despite the efforts made, there is no strong trend towards reducing CO2 emissions, apart from that caused by the slowdown in economic activities following the 2008 crisis. due to the very important role that continues to play coal, which is by far the most polluting fuel, at the expense of natural gas, which can significantly reduce CO2 emissions. Of course, measures are envisaged to combat these effects, but they should not be inappropriate or arrive too late.The authors of the book advocate public choices, clear, debated and assumed. In a sector like electricity, they doubt that a "mix of competitive principles and regal pushes" can lead to a satisfactory situation. Electricity has become a sector too strategic to be entrusted to the invisible hand of the market.

Dans un livre récent, préfacé par Gérard Mestrallet, président du Conseil d'administration d'Engie, Jean-Pierre Hansen, ancien dirigeant de Suez et président d'Electrabel  et  Jacques Percebois, professeur d'économie de l'énergie analysent les conditions difficiles dans lesquelles s'effectue la transition électrique en Europe. Cette transition vise, dans son principe, à instaurer un système électrique plus sûr, plus économique et plus respectueux de l'environnement. La volonté d'agir contre le réchauffement climatique conduit à privilégier les énergies renouvelables, principalement, l'éolien et le solaire. Les difficultés rencontrées tiennent pour une part à la difficulté de mettre en place une politique commune entre des pays qui ne partagent pas tous les mêmes intérêts. Elle tient aussi au fait que la transition a été engagée sur des la base de principes rigides, qui ont bouleversé le paysage énergétique européen en deux vagues successives.
La première de ces vagues qui est arrivée vers le milieu des années 1980  a entraîné une vague de "dérégulation" fondée sur la puissance quasi exclusive du marché. Ces transformations introduisaient le principe d'une mise en concurrence systématique des prestataires, un démantèlement des compagnies nationales, l'abandon des contrats à long terme et la fixation des prix par le marché.
La deuxième vague, qui est arrivée au cours des années 90, consistait à introduire de façon prioritaire l'éolien et le solaire. Dès lors la génération d'énergie à partir des sources d'énergie renouvelable bénéficiait d'un accès prioritaire sur le réseau à un tarif fixé à un niveau suffisamment élevé pour rendre ces sources d'énergie compétitives. De telles conditions ne pouvaient que susciter un effet d'aubaine pour les industriels concernés.
Ces deux modes de fonctionnement (marché et accès prioritaire à un tarif imposé pour les énergies renouvelables) étaient contradictoires et ont entraîné une série de dysfonctionnements: prix négatifs de l'électricité à certains moments, hausse des prix pour le consommateur final, arrêt de centrales au gaz au profit de centrales au charbon beaucoup plus polluantes, affaiblissement des acteurs, la plupart des électriciens européens se trouvant en bien plus mauvaise posture qu'auparavant, à l'image d'EdF en France. Au total, en dépit des efforts engagés on n'observe pas de forte tendance à une réduction des émissions de CO2, en dehors de celle qui a été causée par le ralentissement des activités économiques à la suite de la crise de 2008. Cette situation est due au rôle très important que continue à jouer le charbon, qui est de loin le combustible le plus polluant, aux dépens du gaz naturel, qui permet de réduire très sensiblement les émissions de CO2.
Bien entendu, des mesures sont envisagées pour combattre ces effets, mais il ne faudrait pas qu'elles soient inadaptées ou arrivent trop tard . 
Les auteurs de l'ouvrage préconisent donc des choix publics, clairs, débattus et assumés. Dans un secteur comme celui de l'électricité, ils doutent qu'un "panaché de principes concurrentiels et de coups de pouce régaliens" puisse aboutir à une situation satisfaisante. L'électricité est devenue un secteur trop stratégique pour être confié à la main invisible du marché.

vendredi 10 novembre 2017

Le dernier iceberg / The last iceberg

COP 23 has just opened in Bonn. Every year, climate change negotiators come together to discuss what to do for limiting the climate change. That means that these negotiations have been going on for 23 years. Climate negotiator is a real job in short, who can occupy an entire career. Every year, friendly and competent colleagues meet together in a pleasant environment, each year in a different country. For which results? Alas, the results so far are slim. Throughout all the years in which negotiations have continued, the rate of increase in emissions has increased more rapidly than in previous years (+ 2,2% per year from 2000 to 2010, instead of +1,3% for the whole period 1970-2000). But tomorrow, in 2020, in 2030 or in 2050, of course, we are told that it will be far better. GHG emissions will decrease drastically. Meanwhile the water level rises slowly, but steadily, with the water thermal dilatation, the melting of glaciers and ice caps, at a rate of 2.2 mm per year (1993), then 3.3 mm (2014) and tomorrow, perhaps much more, as the rate seems to increase rapidly.. If this process carries on, we can expect to see coastal areas and river valleys in great numbers, fully submerged under the waves. The future of more than five hundred million people is already under threat in the Mekong, Nile, Ganges and Louisiana deltas. For an increase of 1 m of the sea level, megacities like Lagos, Shanghai or Bombay might be entirely flooded. François CHERY, an engineer, but also a photographer and an artist has illustrated this situation in a striking way by imagining that "at the beginning of the year 2039, the Seine Valley is completely flooded, and the rising water reaches the terrace of the VUITTON Foundation in Paris. The ICEBERG placed there by the visionary architect Frank GEHRY for supporting the glass dome, will be soon carried away by the waves under the eyes of visitors most eager for images to share. Absorbed by the manipulation of their smartphones, the visitors do not see the ultimate wave that is sweeping the whole building.

La COP 23 vient de s'ouvrir à Bonn. Chaque année, les négociateurs du réchauffement se retrouvent ainsi pour discuter des mesures à prendre. Cela veut donc dire que ces négociations durent depuis 23 ans. Négociateur du climat est un vrai métier en somme, qui peut occuper une carrière entière. Chaque années, on se retrouve entre collègues sympathiques et compétents dans un cadre agréable, en voyageant dans différents pays du monde. Pour quels résultats? Hélas, les résultats jusqu'à présent sont minces. Pendant la vingtaine d'années au cours desquelles les négociations se sont poursuivies, le rythme d'accroissement des émissions a augmenté plus rapidement qu'au cours des années qui ont précédé (+ 2,2% par an de 2000 à 2010, au lieu de +1,3% sur toute la période 1970-2000). Mais, demain, en 2020, en 2030 ou en 2050, bien sûr, cela ira mieux. On parviendra à faire décroître ces émissions et même à les annuler, c'est promis. 
Pendant ce temps le niveau des eaux monte lentement mais surement, avec la dilatation thermique des eaux; la fonte des glaciers et des calottes glacières, au rythme de 1,7 mm au début du 20e siècle, 2,2 mm en 1993 et demain, peut-être beaucoup plus. On peut s'attendre à voir zones côtières et vallées fluviales en grand nombre, entièrement submergées sous les flots. L'avenir de plus de cinq cent millions de personnes est déjà menacé dans les deltas du Mékong, du Nil, du Gange ainsi qu'en Louisiane. Pour une montée des eaux de 1 m, des mégapoles comme Lagos, Shanghai ou Bombay seraient sous l'eau.  
François Chéry, ingénieur, mais aussi photographe et artiste a illustré cette situation de manière frappante en imaginant "qu'en ce début d'année 2039, la vallée de la Seine est entièrement inondée. La montée des eaux atteint alors la terrasse de la Fondation Vuitton. L'ICEBERG placé là par l'architecte visionnaire Frank GEHRY est emporté par les flots sous les yeux de visiteurs avides d'images à partager.". Absorbés par la manipulation de leurs smartphones, les visiteurs  ne voient pas arriver la vague ultime qui va les emporter en même temps que  le "dernier iceberg".

samedi 4 novembre 2017

La tragédie des biens communs / The tragedy of common goods


The tragedy of the commons is often evoked to highlight the difficulties encountered when it comes to preserving an environment that is useful to everyone but does not belong to anyone. A common good, with free and open access, risks being overexploited. Thus, overexploitation of the oceans due to industrial fishing, has led to the virtual disappearance of whole species of once abundant fish such as, for example, cod. The example of the "tragedy of the commons", these pastures, which would have been overexploited in the Middle Ages because they belonged to a whole village, is often cited, perhaps wrongly, because, it seems established, now that collective operating rules, functioning satisfactorily, existed at that time. The notion of common was manifested as a reaction to the "enclosure of the commons" policy, which had led to the privatization and closure of spaces previously open to the community. When it was practiced in England in the eighteenth century, the movement of enclosure provoked violent movements of revolt. The privatization of the commons was again practiced on a large scale during the 1990s. For the movements that contest the appropriation of natural resources by a minority, the defense of the "common" finds a central place in the definition of an alternative policy. The main justification for private property is that everyone is careful not to damage what belongs to them, and private property is better preserved and maintained than those belonging to a community or the state. The experience of the communist regimes has indeed shown that collective property frequently leads to failure. The functioning of collective farms, sovkhozes or large state enterprises has proved to be inefficient. Central planning, leaving little room for individual initiatives, has not been able to adapt the economy to needs. The economic system has also been unable to adequately reward the efforts of the most dynamic actors. Proponents of the neoliberal policy introduced in the 1990s used this argument to advocate the privatization of almost all economic and administrative activities, including public services, such as police or justice. This policy is obviously very dangerous for the commons, which are perceived in this context as a mere source of profit. The environment is the first of the commons. Without the preservation of natural environments, ecosystems, water and air, all life is impossible and even inconceivable. Nature provides resources, but it also forms a living environment, where the human being feels solidarity. A living culture is also part of the commons belonging to the World Heritage of Humanity. Regional or even national cultures are threatened by globalization and the standardization it entails. The populations who hold them tend to abandon them, under the effect of the conditioning they undergo, hoping to better benefit, thus, from the progress of modernity. As in the case of a loss of biodiversity , such depletion is generally irreversible, as it interrupts the intergenerational transmission process. To be preserved, cultural heritage requires ongoing efforts from the entire community. Otherwise, it may disappear forever. Community-based services of general interest such as schools, hospitals and public administration are another category of commons. Their good functioning conditions the quality of life and the future of society. Among these services, the internet is particularly important to protect, so as to preserve its independence and maintain free access to informationThe challenge to be met in order to preserve the commons is to avoid excessive use of privatization and state control, which is often misguided. According to economist Elinor Ostrom, who shared with Oliver E. Williamson in 2009 the "Nobel Prize" in Economics, local user associations are better able to manage common goods than public authorities or private companies. Good management of common goods at the local level requires, however, to specify at the outset the rules to follow as well as the deliberative procedures applicable to collective decision-making. The commons are particularly difficult to protect when they call for the concerted action of all nations, whose interests are often divergent. The prevention of global warming is a good illustration.

La tragédie des biens communs est souvent évoquée pour faire état des difficultés rencontrées, lorsqu’il s’agit de préserver un environnement, utile à tous mais n’appartenant à personne. Un bien commun, en accès libre et gratuit, risque d’être surexploité. Ainsi, la surexploitation des océans due à la pêche industrielle, a conduit à la quasi-disparition d’espèces entières de poissons jadis abondantes comme, par exemple, la morue. L’exemple de la « tragédie des communs », ces pâturages, qui auraient été surexploités au Moyen Âge parce qu’ils appartenaient à tout un village, est souvent cité, peut-être à tort, car, il semble établi, à présent, que des règles d’exploitation collective, fonctionnant de manière satisfaisante, existaient à cette époque. La notion de commun s’est manifestée sous la forme d’une réaction à la politique « d’enclosure des communs », qui avait conduit à privatiser et à clôturer des espaces auparavant ouverts à la collectivité. Lorsqu’il s’est exercé en Angleterre au xviiie siècle, le mouvement d’enclosure a suscité de violents mouvements de révolte. La privatisation des communs a été à nouveau pratiquée à grande échelle au cours des années 1990. Pour les mouvements qui contestent l’appropriation des ressources naturelles par une minorité, la défense du « commun » retrouve une place centrale dans la définition d’une alternative politiqueLa principale justification de la propriété privée repose sur l’idée que chacun étant soucieux de ne pas détériorer ce qui lui appartient, les biens privés sont mieux préservés et entretenus que ceux qui appartiennent à une collectivité ou à l’État. L’expérience des régimes communistes a effectivement montré que la propriété collective conduit fréquemment à un échec. Le fonctionnement des kolkhozes, sovkhozes ou des grandes entreprises étatiques s’est avéré peu efficace. La planification centralisée, en ne laissant que peu de place aux initiatives individuelles, n’a pas été en mesure d’adapter l’économie aux besoins. Le système économique s’est montré, en outre, incapable de rétribuer correctement les efforts engagés par les acteurs les plus dynamiques. Les partisans de la politique néolibérale instaurée dans les années 1990 se sont servis de cet argument pour préconiser la privatisation de la quasi-totalité des activités économiques et administratives, y compris de celles qui relèvent d’un service public, comme l’enseignement, la police ou la justice. Cette politique est évidemment très dangereuse pour les biens communs, qui sont perçus dans ce cadre comme une simple source de profit.
L’environnement constitue le premier des biens communs. Sans la préservation des milieux naturels, des écosystèmes, de l’eau et de l’air, toute vie est impossible et même inconcevable. La nature fournit des ressources, mais elle forme aussi un milieu vivant, dont l’être humain se sent solidaire. Une culture vivante fait également partie des biens communs appartenant au patrimoine mondial de l’humanité. Les cultures régionales ou même nationales sont menacées par la globalisation et l’uniformisation qu’elle entraîne. Les populations qui les détiennent tendent à les abandonner, sous l’effet du conditionnement qu’elles subissent, en espérant mieux bénéficier, ainsi, des progrès de la modernité. Comme dans le cas de la perte de biodiversité, un tel appauvrissement est en général irréversible, car il entraîne une interruption du processus de transmission entre générations. Pour être préservé, l’héritage culturel nécessite des efforts continus de toute la communauté concernée. Sinon, il risque de disparaître à jamais. Les services d’intérêt général assurés par la collectivité, tels qu’écoles, hôpitaux et administrations publiques forment une autre catégorie de biens communs. Leur bon fonctionnement conditionne la qualité de vie et l’avenir de la société. Parmi ces services, l’internet est particulièrement important à protéger, de façon à préserver son indépendance et maintenir un libre accès à l’information.
Le défi à relever, pour préserver les biens communs, consiste à éviter tout à la fois un recours excessif à la privatisation et un dirigisme étatique souvent mal inspiré. Selon l’économiste Elinor Ostrom, qui a partagé avec Oliver E. Williamson en 2009 le "prix Nobel" d'économie, des associations locales d’usagers sont mieux à même de gérer des biens communs que les pouvoirs publics ou les compagnies privéesUne bonne gestion des biens communs au niveau local nécessite, toutefois, de préciser dès le départ les règles à suivre ainsi que les procédures de délibération applicables aux prises de décisions collectives. Les biens communs sont particulièrement difficiles à protéger lorsqu’ils réclament l’action concertée de l’ensemble des nations, aux intérêts souvent divergents. La prévention du réchauffement climatique en est une bonne illustration.