Ce blog rassemble des informations et des réflexions sur l'avenir qui nous attend.

This blog presents informations and views about the future.

lundi 25 décembre 2017

L'économie symbiotique / The symbiotic economy



    The book written by the ecologist Isabelle Delannoy about "The symbiotic economy", aims to propose an economy allowing human beings to live no more as parasites using the resources of the planet until their extinction, but in symbiosis with the environment. Natural ecosystems function in a sustainable way, as they organize a permanent recycling of all the elements that serve the living organisms. They can do this by capturing solar energy through photosynthesis. In a symbiotic economy human activities are integrated into the functioning of natural ecosystems. Products and objects are designed to facilitate their recycling and minimize their impact on the environment throughout their life, from cradle to cradle, that is from the design of equipment to the recycling of its components. Nature finds its place, including in the city. Vegetable gardens and green spaces restore the contact between towns people and nature. The urban environment is designed to respect the beauty of natural landscapes and to eliminate pollution, thus preserving the health of the inhabitants and their psychological balance. The ecological transition is also a way for cities or regions hit by the end of an industrial activity to find a future. The symbiotic economy is based on the symbiosis between human intelligence, the power of natural ecosystems and technological tools. By finding the right balance between the three, it is possible to produce without depleting resources, but regenerating them. It uses many techniques and research highlighted in recent years: permaculture, circular economy, economy of functionality, peer-to-peer sharing, solidarity economy, complementary currencies. It aims to promote lifestyles compatible with the preservation of the environment, autonomous cities in resources, energy and water, town agriculture, bicycle motorways, agriculture and local manufactures . The routes thus described are interesting to explore and deserve to be continued. It would be dangerous, however, to imagine that solutions are at hand and that we now have the means to secure the future of the planet. "Green" technologies themselves pose many resource problems. The implementation of new economic paths contradicts the logic of the current globalization which favors social and environmental dumping. Only a profound transformation of mentalities and the organization of world globalization can solve the many problems facing humanity.

    Le récent ouvrage de l'écologiste Isabelle Delannoy, "L'Economie symbiotique", a pour ambition de proposer une économie permettant aux êtres humains de vivre non plus en parasites exploitant les ressources de la planète jusqu'à leur extinction, mais en symbiose avec l'environnement. Les écosystèmes naturels fonctionnent de manière durable, car ils organisent un recyclage permanent de tous les éléments qui servent aux organismes vivants. Ils peuvent y parvenir en captant l'énergie solaire par le biais de la photosynthèse.Dans une économie symbiotique les activités humaines sont intégrées dans le fonctionnement des écosystèmes naturels. Les produits et les objets sont conçus de façon à faciliter leur recyclage et à minimiser leur impact sur l’environnement pendant toute leur durée de vie, du berceau à la tombe, c’est-à-dire depuis la conception d’un équipement jusqu'au recyclage de ses composants. La nature retrouve sa place, y compris en ville. Jardins potagers et espaces verts restaurent le contact entre les citadins et la nature. Le milieu urbain est conçu de façon à respecter la beauté des paysages naturels et à éliminer la pollution, préservant ainsi la santé des habitants et leur équilibre psychique. La transition écologique est aussi un moyen pour des villes ou des régions frappées par l’arrêt d’une activité industrielle de retrouver un avenir. L’économie symbiotique s’appuie sur la symbiose entre l’intelligence humaine, la puissance des écosystèmes naturels et la technosphère. En trouvant le juste équilibre entre les trois, il est possible de produire sans épuiser les ressources, mais en les régénérant. L'économie symbiotique fait appel à de nombreuses techniques et recherches mises en lumière ces dernières années : permaculture, économie circulaire, économie de la fonctionnalité, du partage – pair à pair –, économie sociale et solidaire, monnaies complémentaire.  Elle vise à promouvoir des modes de vie compatibles avec la préservation de l'environnement, des cités autonomes en eau, en énergie, en ressources alimentaires, mêlant immeubles-forêts et jardins filtrants, cités numériques et jardins d’hiver, autoroutes à vélo, agriculture urbaine et manufactures locales.

    Les voies ainsi décrites sont intéressantes à explorer et méritent d'être poursuivies. Il serait toutefois dangereux d'imaginer que les solutions sont à portée de main et que nous disposons dès à présent des moyens pour assurer l'avenir de la planète. Les technologies "vertes" posent elles-mêmes de nombreux problèmes de ressources. La mise en oeuvre de nouvelles voies économiques entre en contradiction avec la logique de la globalisation actuelle qui favorise le moins-disant, dans le domaine économique, mais aussi social. Seule une transformation profonde des mentalités et de l'organisation de la globalisation mondial peut permettre de résoudre les multiples problèmes auxquels est confrontée l'humanité.

    dimanche 17 décembre 2017

    Vie 3.0 - L'avenir de l'intelligence artificielle / Life 3.0 - The future of artificial intelligence.


    "Life 3.0" ("Life 3.0"), the latest work by physicist Max Tegmark is a book on the future of artificial intelligence. The title may surprise. It is explained by the fact that the author, in a transhumanist perspective, considers that intelligent machines constitute the next stage of biological evolution, in accordance with a point of view that was particularly expressed by Ray Kurzweil. Life 1.0 is simply biological life. Life 2.0 refers to humanity, which represents the next stage of evolution through its ability to transform the world by its intelligence. Lastly, Life 3.0 would correspond to the arrival, presumed to be imminent, of machines that are sufficiently "intelligent" to become capable of transforming themselves and thus progressing towards ever greater intelligence, thus leading to an artificial super-intelligence, much more powerful than human intelligence. His book is therefore directly in line with the work of the transhumanist futurist Nick Bostrom, who was already considering the hypothesis of such a "super-intelligence". By helping to conceive an artificial intelligence of a still higher level, this super-intelligence would lead to a form of Singularity, resulting in an explosive increase in performance, as imagined by Ray Kurzweil. Nick Bostrom has lent to super-intelligence that would result in very extensive skills in functions as crucial as that of oracle, to bring answers to the most difficult questions, genius, to solve the most thorny problems and sovereign, to adopt the most appropriate decisions. From the network of human intelligence and artificial super-intelligence might emerge a global brain, able to ensure the "sovereign" function, anticipated by Nick Bostrom. A global brain, capable of centralizing massive amounts of information, then drawing the most relevant conclusions, would be able to manage a complex system, or even society as a whole, thus becoming the preferred tool for a global governance. Despite all the assets of artificial intelligence, it is not possible to ignore its potentially dangerous effects. Combined with the acquisition and processing of massive databases (Big Data), it allows not only to monitor the daily actions of everyone, but also to predict the behavior of an entire population. It could thus facilitate the emergence of a police state, with powerful means to detect and repress any resistance movement. From now on, artificial intelligence is used to design ever more powerful weapons. Tomorrow, intelligent robots behaving as suicide fighters will be able to carry chemical, bacteriological or nuclear weapons and activate them at their destination. By controlling all human activities on a global scale, the global brain would facilitate the transition to a form of totalitarian regime. It could also lead humanity to a major catastrophe, through mechanisms that human beings could not decipher. Becoming autonomous, an artificial super-intelligence would have no reason to look after the well-being of humanity. It may even be necessary to program the disappearance of the human species as an answer to the problems of the planet. Max Tegmark imagines many scenarios, often similar to sci-fi narratives, in order to anticipate the possible consequences of the development of a "super-intelligence". He deduces the need to think now about how to use it for the happiness of humanity, by removing the potential threats it represents. This wish is shared by leading scientists, including astrophysicist Stephen Hawking, or major industry players such as Bill Gates or Elon Musk, who cautioned against the danger posed by the most advanced forms of artificial intelligence, emphasizing the need for urgent measures to prevent such risks. Unfortunately, like many techno-prophets, Max Tegmark goes astray in considering machines that would be endowed with consciousness and subjectivity and that would claim an ethical respect of the same order as that required for human beings and more broadly living beings. Paradoxically, while the author insists on his wish to contribute to the happiness of humanity, it is such a confusion between machines and conscious beings that represents the greatest danger for humanity, showing the drifts that await our technical civilization if we do not take care.

    "Vie 3.0" ("Life 3.0"), le dernier ouvrage du physicien Max Tegmark est un livre sur l'avenir de l'intelligence artificielle. Le titre peut surprendre. Il s'explique par le fait que l'auteur, dans une perspective transhumaniste, considère que les machines intelligentes constituent la prochaine étape de l'évolution biologique, conformément à un point de vue qui a été notamment exprimé par Ray Kurzweil. La Vie 1.0 correspond simplement à la vie biologique. La Vie 2.0 désigne l'humanité, qui représente l'étape suivante de l'évolution par sa capacité de transformer le monde par son intelligence. Enfin, la Vie 3.0 correspondrait à l'arrivée, pressentie comme imminente, de machines suffisamment "intelligentes" pour devenir capables de se transformer elles-mêmes et de de progresser ainsi vers toujours plus d'intelligence, conduisant à l'apparition d'une super-intelligence artificielle, capable de dépasser largement l'intelligence humaine. L'ouvrage de Max Tegmark s'inscrit donc directement dans le prolongement de l'ouvrage du prospectiviste Nick Bostrom, adepte du transhumanisme, qui envisageait déjà l'hypothèse d'une telle "super-intelligence". En aidant à concevoir une intelligence artificielle d’un niveau encore supérieurcette super-intelligence mènerait vers une forme de singularité, se traduisant par un accroissement explosif des performances, comme l'a imaginé Ray Kurzweil. Nick Bostrom a prêté à cette super-intelligence des compétences très étendues dans des fonctions aussi déterminantes que celle d’oracle, pour apporter des réponses aux questions les plus difficiles, de génie, pour résoudre les problèmes les plus épineux et d’organe souverain, pour adopter les décisions les plus adéquates. De l’association en réseau de l’intelligence humaine et des multiples formes de super-intelligence artificielle déployées à la surface de la Terre, pourrait émerger un cerveau global, qui serait capable d’assurer la fonction « d’organe souverain », anticipée par Nick Bostrom. Un cerveau global, capable de centraliser des quantités massives d’informations, puis d’en tirer les conclusions les plus pertinentes, serait en mesure de gérer un système complexe, voire la société dans son ensemble, en devenant ainsi l’outil privilégié d’une gouvernance planétaireOn ne peut pas, de ce fait, ignorer les effets potentiellement dangereux d’une exploitation de l’intelligence artificielle à des fins de puissance et de domination. Associée à l’acquisition et au traitement de bases de données massives (Big Data), elle permet non seulement de surveiller les gestes quotidiens de chacun, mais aussi de prévoir le comportement de toute une population. Elle pourrait ainsi faciliter l’émergence d’un état policier, disposant de puissants moyens pour détecter et réprimer tout mouvement de résistance. Dès à présent, l’intelligence artificielle sert à concevoir des armes toujours plus puissantes. Demain, des robots intelligents se comportant en combattants-suicides seront capables de transporter des armes chimiques, bactériologiques ou nucléaires et de les activer à leur destination.  En contrôlant l’ensemble des activités humaines à l’échelle planétaire, le cerveau global faciliterait le passage à une forme de régime totalitaire. Il pourrait également entraîner l’humanité vers une catastrophe majeure, par des mécanismes impossibles à décrypter. Devenant autonome, une super-intelligence artificielle n’aurait aucune raison de veiller au bien-être de l’humanité. Elle pourrait même être amenée à programmer la disparition de l’espèce humaine comme réponse aux problèmes de  la planète. Max Tegmark imagine de nombreux scénarios,  dont beaucoup font penser à des récits de science-fiction, afin d'imaginer les conséquences possibles du développement de la "super-intelligence". Il en déduit la nécessité de réfléchir dès à présent à la façon de l'utiliser pour le bonheur de l'humanité, en écartant les menaces potentielles qu'elle représente. Ce souhait st partagé par des scientifiques de renom, parmi lesquels l’astrophysicien Stephen Hawking, ou de grands acteurs du monde de l’industrie tels que Bill Gates ou Elon Musk, qui ont mis  en garde l’opinion contre le danger que représentent les formes les plus avancées d’intelligence artificielle, en insistant sur la nécessité de mesures urgentes pour y parer.
    Malheureusement, comme de nombreux techno-prophètes, l'auteur s'égare en envisageant des machines qui seraient dotées de conscience et de subjectivité et qui réclameraient un respect éthique du même ordre que celui qui est requis pour les êtres humains et plus largement les êtres vivants. Paradoxalement, alors que l'auteur insiste sur son souhait de contribuer au bonheur de l'humanité, c'est une telle confusion entre les machines et les êtres conscients qui représente le plus grave danger pour l'humanité. Cette confusion montre bien les dérives qui guettent notre civilisation technicienne si nous n'y prenons pas gare.

    vendredi 8 décembre 2017

    Objets intelligents et connectés / Connected Smart Objects


    Many objects of everyday life are now equipped with microprocessors. This trend is expected to strengthen in the coming years. Objects become "intelligent", that is, able to react appropriately to different situations, adapting to their environment. Various regulation functions are already common in homes. The home automation sector is growing rapidly. The operation of heating, lighting or appliances is automatically managed by getting signals from different sensors and can be remotely controlled by means of a mobile phone, for example, to minimize energy consumption. All kinds of objects and equipment are becoming "smart" on a wide range of scales: cities, electric grids, cars, clothes, etc. A simple pot of flowers equipped with sensors and a microprocessor becomes able to control all the parameters on which depends the good health of the plant and to manage optimally its watering as well as its nourishment in nutriments. Smart objects can also provide information of all kinds, in the form of augmented reality, to inform a visitor, recreate a site as it existed in the past or organize a virtual trip. Smart objects are part of a vast, interconnected system connected by an Internet of Things. Their synergy contributes to the development of a global artificial intelligence, through a cloud of interconnected servers. The behavior of intelligent objects is gradually approaching that of living beings. There are already many robots capable of mimicking insects, birds, fish or humans. One can imagine eventually objects capable of repairing themselves and reproducing themselves. The threat associated with nano-components capable of self-replication, had been evoked in 1986 by K. Eric Drexler. Even if it is still science fiction, the fact remains that the increasing autonomy of connected objects carries the risk of a loss of control. Tomorrow, cars will become autonomous, that is to say able to go from one point to another without the intervention of a driver. It will be, therefore, much easier to share a vehicle, which will be able to present and leave after use, without the intervention of a human operator. The relation to objects is radically transformed. Objects are better used, but the user gradually loses all initiative. This evolution is supposed to liberate human beings but actually increases their dependence on all the machines they are using. Objects (watches, smartphones, computers) already exert strong constraints on human life. While opening up new opportunities, smart objects, networked and geolocated, will exert a firm grip on society, imposing their pace and their choices. Because of the complexity of this interconnected world, its control could gradually escape not only the ordinary citizen, but even the most advanced experts, artificial intelligence becoming the only available tool to ensure it. Human destiny will then be delivered to robots, exercising a dictatorship all the more dangerous as it is devoid of any feeling.

    De nombreux objets de la vie quotidienne sont, dès à présent, équipés de microprocesseurs. Cette tendance devrait se renforcer dans les années à venir. Les objets deviennent ainsi « intelligents », c’est-à-dire capables de réagir de façon appropriée à différentes situations, en s’adaptant à leur environnement. Des fonctions diverses de régulation équipent déjà couramment les habitations. Le secteur de la domotique se développe rapidement. Le fonctionnement du chauffage, de l’éclairage ou des équipements électroménagers est géré automatiquement à partir des signaux provenant de différents capteurs. De tels systèmes, commandés à distance au moyen d’un téléphone portable, sont aussi capables d’anticiper un changement et d’optimiser une fonction, de façon, par exemple, à minimiser une consommation d’énergie. Toutes sortes d’objets et d’équipements deviennent « intelligents » (smart), à des échelles très diverses : villes (smart cities), réseaux électriques (smart grids), voitures (smart cars), vêtements (smart clothes), etc. Un simple pot de fleurs équipé de capteurs et d’un microprocesseur devient capable de contrôler l’ensemble des paramètres dont dépend la bonne santé de la plante et de gérer de façon optimale son arrosage ainsi que son alimentation en nutriments. Les objets intelligents peuvent également fournir des informations de toutes sortes, sous la forme d’une réalité augmentée, en vue de renseigner un visiteur, recréer un site tel qu’il existait dans le passé ou organiser un voyage virtuel.

    lundi 27 novembre 2017

    De l'Univers au Multivers / From Universe to Multiverse


    Whereas for the ancients the stars were immutable, science has now shown that they are born, live and die. Large telescopes have revealed the immensity of the universe and the vertiginous number of stars it contains. The Milky Way, the galaxy to which our Sun belongs, has about one hundred billion stars. The observable universe comprises a hundred billion galaxies organized into clusters. Stars form from gaseous clouds of hydrogen and helium. Gravity tends to compress these clouds whose density increases, to the point of causing nuclear fusion reactions, successively producing the various known elements. Increasingly heavy elements, going as far as iron, are generated in successive stages. Fusion of iron nuclei does not occur spontaneously, reactions stop. The star collapses and dies. According to their initial mass, the stars know different destinies. Some die slowly, turning into a "white dwarf" or "black dwarf", a star that becomes invisible. The most massive stars turn into neutron stars and eventually explode suddenly forming a supernova. The enormous power reached during the explosion of a supernova leads to the fusion of elements heavier than iron. Supernova observations are relatively rare. In a galaxy, they occur approximately once a century. It was therefore these exceptional events that made possible the presence on Earth of all the elements without which life could not have appeared.The world can no longer be conceived as a gigantic clock reproducing indefinitely the same movements, immutably. The American astronomer Erwin Hubble having observed that the galaxies move away from each other at a speed proportional to their distance, he deduced that the Universe is expanding from an initial "Big Bang". It was preceded in this conclusion by the Belgian canon George Lemaître, who published in 1927 the mathematical model of an expanding universe, from a very dense state which he called the "primitive atom". The Big Bang theory established a link between the infinitely large and the infinitely small, because to understand the behavior of the Universe in its initial condensed state, it became necessary to apply quantum theory. In addition, the enormous energy densities reached by the Universe as we approached the initial moment of appearance of the Big Bang led to a progressive unification of all the known particles. Thus, paradoxically, cosmology offers the best field of application to the most advanced theories of quantum mechanics. In 1981, the American physicist Alan Guth realized, by applying quantum mechanics methods to an extremely condensed universe, that the fluctuations that occurred during the first moments of cooling after the Big Bang had caused an extremely rapid expansion of the Universe, followed by deceleration. During the initial "inflation" phase, the space expanded at speeds that greatly exceeded the speed of light (the relativity theory limits the speed within the space, but not the expansion velocity of space itself). The first moments of the expansion of the universe are beginning to be better and better known. In particular, it was possible using a microwave radio telescope on the COBE (Cosmic Background Explorer) satellite to record the energy distribution of a cosmic microwave background transmitted by a radiation emitted shortly afterwards. the Big Bang. The study of the cosmic microwave background makes it possible to test and validate inflation models. Following the early work of Alan Guth, more elaborate inflation models were developed, notably by physicists Alexandre Vilenkin and Andreï Linde, who described a phenomenon of expansion accompanied by multiple inflations, generating "bubble-universes" , which multiply indefinitely, each bubble being able to give birth to others. Since the speed of expansion of the Universe has been much greater than the speed of light during the first period of inflation (the theory of relativity limits only the speed within the space), the size of the universe is gigantic and we are able to observe only a small part of it. "The cosmic horizon", which corresponds to the distance traveled by the light since the Big Bang, is 41 billion light-years away. All that lies beyond is inaccessible for us. In particular, the bubble worlds of Vilenkin and Linde's model are totally out of our reach. The physicist Hugh Everett has further assumed that all superimposed quantum states occur in different "parallel worlds", only one of which can be observed by an experimenter living in our macroscopic world. According to this interpretation, performing a measurement on one of the particles belonging to a couple of entangled particles would involve the selection of one of the possible worlds in which they are located. Everett's theory, which had met with little success at the beginning, now seems to appeal to a growing number of physicists. The parallel universes of inflation and Everett's parallel universes are not the only ones. String theory represents elementary particles as tiny, vibrating strings. In addition to the one-dimensional strings, there would also be surfaces or "branes" with a multiple number of dimensions. Our four dimensional universe (three dimensional space and one time dimension) would be contained in a brane and could thus coexist with other universes located on different branes, unfolding in a space provided with an additional number of dimensions. All these parallel universes whose existence is predicted by mathematical models, remain impossible to observe directly. A single Universe replaces a Multiverse with a multiplicity of parallel universes. The hypothesis that "other worlds" exist, to which we do not have access, thus becomes quite plausible. Not only is it no longer scary to most scientists, but it is even considered by a number of them as the one that best captures reality.The physicist Max Tegmark goes even further, admitting that the multiple universes provided by mathematical models are real. A mechanistic and deterministic Universe is thus replaced by a Multiverse, whose multiple horizons remain hidden, perhaps forever. The result is a deeply renewed vision of the Cosmos, all of whose consequences have probably not yet been drawn.

    Alors que pour les Anciens les étoiles étaient immuables, la science a montré à présent qu’elles naissent, vivent et meurent. Les grands télescopes ont révélé l’immensité de l’univers et le nombre vertigineux d’étoiles qu’il comporte. La Voie lactée, la galaxie à laquelle appartient notre Soleil, compte environ cent milliards d’étoiles. L’Univers observable comporte une centaine de milliards de galaxies organisées en amas.  Les étoiles se forment à partir de nuages gazeux d’hydrogène et d’hélium. La gravité tend à comprimer ces nuages dont la densité augmente, au point d’entraîner des réactions de fusion nucléaire, produisant successivement les différents éléments connus. Des éléments de plus en plus lourds, allant jusqu’au fer, sont générés par étapes successives. La fusion des noyaux de fer ne se produisant pas spontanément, les réactions s’arrêtent. L’étoile s’effondre et meurt. Suivant leur masse initiale, les étoiles connaissent des destins différents. Certaines meurent lentement, se transformant en « naine blanche » ou « naine noire », étoile qui devient invisible. Les étoiles les plus massives se transforment en étoiles à neutrons et finissent par exploser brutalement en formant une supernova. L’énorme puissance atteinte au cours de l’explosion d’une supernova conduit à la fusion des éléments plus lourds que le fer. Les observations de supernovae sont relativement rares. Dans une galaxie, elles interviennent environ une fois par siècle. Ce sont donc ces événements exceptionnels qui ont rendu possible la présence sur Terre de l’ensemble des éléments sans lesquels la vie n’aurait pas pu apparaîtreLe monde ne peut plus être conçu comme une gigantesque horloge reproduisant indéfiniment les mêmes mouvements, de façon immuable. L’astronome américain Erwin Hubble ayant observé que les galaxies s’éloignent les unes des autres à une vitesse proportionnelle à leur distance, il en déduisit que l’Univers est en expansion à partir d’un « Big Bang » initial. Il avait été précédé dans cette conclusion par le chanoine belge George Lemaître, qui avait publié en 1927 le modèle mathématique d’un univers en expansion, à partir d’un état très dense qu’il appela l’ « atome primitif ».
       La théorie du Big Bang établissait un lien entre l’infiniment grand et l’infiniment petit, car, pour comprendre le comportement de l’Univers dans son état condensé initial, il devenait nécessaire d’appliquer la théorie quantique. En outre, les énormes densités d’énergie atteintes par l’Univers lorsque l’on se rapprochait de l’instant initial d’apparition du Big Bang conduisaient à une unification progressive de toutes les particules connues. Ainsi, de manière paradoxale, la cosmologie offrait le meilleur champ d’application aux théories les plus avancées de la mécanique quantique. En 1981, le physicien américain Alan Guth se rendit compte, en appliquant les méthodes de la mécanique quantique à un univers extrêmement condensé, que les fluctuations intervenues au cours des premiers instants de refroidissement après le Big bang avaient dû provoquer une expansion extrêmement rapide de l’Univers, suivie d’une décélération. Au cours de la phase d’ « inflation » initiale, l’espace s’est dilaté à des vitesses qui ont largement dépassé la vitesse de la lumière, ce qui ne contredit pas la théorie de la relativité qui limite la vitesse dans l'espace. Les premiers moments de l’expansion de l’univers commencent à être de mieux en mieux connus. En particulier, il a été possible à l’aide d’un radiotélescope à micro-ondes embarqué sur le satellite COBE (Cosmic Background Explorer) de relever la répartition en énergie d’un fond diffus cosmologique transmis par un rayonnement émis peu de temps après le Big Bang. L’étude du fond diffus cosmologique permet ainsi de tester et de valider les modèles d’inflation. Suite aux premiers travaux d’Alan Guth, des modèles d’inflation plus élaborés ont été développés, notamment par les physiciens Alexandre Vilenkin et Andreï Linde, qui ont décrit un phénomène d’expansion accompagné de multiples inflations, générant des « bulles-univers », qui se multiplient indéfiniment, chaque bulle pouvant donner naissance à d’autres. Du fait que la vitesse d’expansion de l’Univers a été très supérieure à la vitesse de la lumière au cours de la première période de l’inflation , la taille de l’univers est gigantesque et nous ne pouvons en observer qu’une faible partie. « L’horizon cosmique », qui correspond à la distance parcourue par la lumière depuis le Big bang, se situe à 41 milliards d’années-lumière de distance. Tout ce qui se situe au-delà nous est inaccessible. En particulier, les univers-bulles du modèle de Vilenkin et Linde sont totalement hors de notre portée.

    dimanche 19 novembre 2017

    La difficile transition électrique/ The difficult electricity power transition



    In a recent book, prefaced by Gérard Mestrallet, Chairman of the Board of Directors of Engie, Jean-Pierre Hansen, former head of Suez and president of Electrabel and Jacques Percebois, professor of energy economics, analyze the difficult conditions in which the electrical transition takes place in Europe. This transition aims, in principle, to create a safer, more economical and more environmentally friendly electricity system. The will to act against global warming leads to favor renewable energies, mainly, wind and solar. The difficulties encountered stem partly from the difficulty of setting up a common policy between countries that do not all share the same interests. It is also due to the fact that the transition was initiated on the basis of rigid principles, which upset the European energy landscape in two successive waves.The first of these waves, which came in the mid-1980s, led to a so-called "deregulation" based on the almost exclusive power of the market. These transformations introduced the principle of a systematic competition of service providers, the dismantling of national companies, the abandonment of long-term contracts and the fixing of prices by the  market. The second wave, which happened in the 1990s, consisted of introducing wind and solar as a priority. Therefore, the generation of energy from renewable energy sources had priority access to the grid at a rate set at a sufficiently high level to make these sources of energy competitive. Such conditions were creating a windfall effect for the industrialists concerned.These two modes of operation (market and priority access to a tariff imposed for renewable energies) were contradictory and led to a series of malfunctions: negative electricity prices at times, higher prices for the end consumer, power plant shutdowns. in favor of coal plants much more polluting, weakening of the actors, most European electricians being in much worse posture than before, like EdF in France. In total, despite the efforts made, there is no strong trend towards reducing CO2 emissions, apart from that caused by the slowdown in economic activities following the 2008 crisis. due to the very important role that continues to play coal, which is by far the most polluting fuel, at the expense of natural gas, which can significantly reduce CO2 emissions. Of course, measures are envisaged to combat these effects, but they should not be inappropriate or arrive too late.The authors of the book advocate public choices, clear, debated and assumed. In a sector like electricity, they doubt that a "mix of competitive principles and regal pushes" can lead to a satisfactory situation. Electricity has become a sector too strategic to be entrusted to the invisible hand of the market.

    Dans un livre récent, préfacé par Gérard Mestrallet, président du Conseil d'administration d'Engie, Jean-Pierre Hansen, ancien dirigeant de Suez et président d'Electrabel  et  Jacques Percebois, professeur d'économie de l'énergie analysent les conditions difficiles dans lesquelles s'effectue la transition électrique en Europe. Cette transition vise, dans son principe, à instaurer un système électrique plus sûr, plus économique et plus respectueux de l'environnement. La volonté d'agir contre le réchauffement climatique conduit à privilégier les énergies renouvelables, principalement, l'éolien et le solaire. Les difficultés rencontrées tiennent pour une part à la difficulté de mettre en place une politique commune entre des pays qui ne partagent pas tous les mêmes intérêts. Elle tient aussi au fait que la transition a été engagée sur des la base de principes rigides, qui ont bouleversé le paysage énergétique européen en deux vagues successives.
    La première de ces vagues qui est arrivée vers le milieu des années 1980  a entraîné une vague de "dérégulation" fondée sur la puissance quasi exclusive du marché. Ces transformations introduisaient le principe d'une mise en concurrence systématique des prestataires, un démantèlement des compagnies nationales, l'abandon des contrats à long terme et la fixation des prix par le marché.
    La deuxième vague, qui est arrivée au cours des années 90, consistait à introduire de façon prioritaire l'éolien et le solaire. Dès lors la génération d'énergie à partir des sources d'énergie renouvelable bénéficiait d'un accès prioritaire sur le réseau à un tarif fixé à un niveau suffisamment élevé pour rendre ces sources d'énergie compétitives. De telles conditions ne pouvaient que susciter un effet d'aubaine pour les industriels concernés.
    Ces deux modes de fonctionnement (marché et accès prioritaire à un tarif imposé pour les énergies renouvelables) étaient contradictoires et ont entraîné une série de dysfonctionnements: prix négatifs de l'électricité à certains moments, hausse des prix pour le consommateur final, arrêt de centrales au gaz au profit de centrales au charbon beaucoup plus polluantes, affaiblissement des acteurs, la plupart des électriciens européens se trouvant en bien plus mauvaise posture qu'auparavant, à l'image d'EdF en France. Au total, en dépit des efforts engagés on n'observe pas de forte tendance à une réduction des émissions de CO2, en dehors de celle qui a été causée par le ralentissement des activités économiques à la suite de la crise de 2008. Cette situation est due au rôle très important que continue à jouer le charbon, qui est de loin le combustible le plus polluant, aux dépens du gaz naturel, qui permet de réduire très sensiblement les émissions de CO2.
    Bien entendu, des mesures sont envisagées pour combattre ces effets, mais il ne faudrait pas qu'elles soient inadaptées ou arrivent trop tard . 
    Les auteurs de l'ouvrage préconisent donc des choix publics, clairs, débattus et assumés. Dans un secteur comme celui de l'électricité, ils doutent qu'un "panaché de principes concurrentiels et de coups de pouce régaliens" puisse aboutir à une situation satisfaisante. L'électricité est devenue un secteur trop stratégique pour être confié à la main invisible du marché.

    vendredi 10 novembre 2017

    Le dernier iceberg / The last iceberg

    COP 23 has just opened in Bonn. Every year, climate change negotiators come together to discuss what to do for limiting the climate change. That means that these negotiations have been going on for 23 years. Climate negotiator is a real job in short, who can occupy an entire career. Every year, friendly and competent colleagues meet together in a pleasant environment, each year in a different country. For which results? Alas, the results so far are slim. Throughout all the years in which negotiations have continued, the rate of increase in emissions has increased more rapidly than in previous years (+ 2,2% per year from 2000 to 2010, instead of +1,3% for the whole period 1970-2000). But tomorrow, in 2020, in 2030 or in 2050, of course, we are told that it will be far better. GHG emissions will decrease drastically. Meanwhile the water level rises slowly, but steadily, with the water thermal dilatation, the melting of glaciers and ice caps, at a rate of 2.2 mm per year (1993), then 3.3 mm (2014) and tomorrow, perhaps much more, as the rate seems to increase rapidly.. If this process carries on, we can expect to see coastal areas and river valleys in great numbers, fully submerged under the waves. The future of more than five hundred million people is already under threat in the Mekong, Nile, Ganges and Louisiana deltas. For an increase of 1 m of the sea level, megacities like Lagos, Shanghai or Bombay might be entirely flooded. François CHERY, an engineer, but also a photographer and an artist has illustrated this situation in a striking way by imagining that "at the beginning of the year 2039, the Seine Valley is completely flooded, and the rising water reaches the terrace of the VUITTON Foundation in Paris. The ICEBERG placed there by the visionary architect Frank GEHRY for supporting the glass dome, will be soon carried away by the waves under the eyes of visitors most eager for images to share. Absorbed by the manipulation of their smartphones, the visitors do not see the ultimate wave that is sweeping the whole building.

    La COP 23 vient de s'ouvrir à Bonn. Chaque année, les négociateurs du réchauffement se retrouvent ainsi pour discuter des mesures à prendre. Cela veut donc dire que ces négociations durent depuis 23 ans. Négociateur du climat est un vrai métier en somme, qui peut occuper une carrière entière. Chaque années, on se retrouve entre collègues sympathiques et compétents dans un cadre agréable, en voyageant dans différents pays du monde. Pour quels résultats? Hélas, les résultats jusqu'à présent sont minces. Pendant la vingtaine d'années au cours desquelles les négociations se sont poursuivies, le rythme d'accroissement des émissions a augmenté plus rapidement qu'au cours des années qui ont précédé (+ 2,2% par an de 2000 à 2010, au lieu de +1,3% sur toute la période 1970-2000). Mais, demain, en 2020, en 2030 ou en 2050, bien sûr, cela ira mieux. On parviendra à faire décroître ces émissions et même à les annuler, c'est promis. 
    Pendant ce temps le niveau des eaux monte lentement mais surement, avec la dilatation thermique des eaux; la fonte des glaciers et des calottes glacières, au rythme de 1,7 mm au début du 20e siècle, 2,2 mm en 1993 et demain, peut-être beaucoup plus. On peut s'attendre à voir zones côtières et vallées fluviales en grand nombre, entièrement submergées sous les flots. L'avenir de plus de cinq cent millions de personnes est déjà menacé dans les deltas du Mékong, du Nil, du Gange ainsi qu'en Louisiane. Pour une montée des eaux de 1 m, des mégapoles comme Lagos, Shanghai ou Bombay seraient sous l'eau.  
    François Chéry, ingénieur, mais aussi photographe et artiste a illustré cette situation de manière frappante en imaginant "qu'en ce début d'année 2039, la vallée de la Seine est entièrement inondée. La montée des eaux atteint alors la terrasse de la Fondation Vuitton. L'ICEBERG placé là par l'architecte visionnaire Frank GEHRY est emporté par les flots sous les yeux de visiteurs avides d'images à partager.". Absorbés par la manipulation de leurs smartphones, les visiteurs  ne voient pas arriver la vague ultime qui va les emporter en même temps que  le "dernier iceberg".

    samedi 4 novembre 2017

    La tragédie des biens communs / The tragedy of common goods


    The tragedy of the commons is often evoked to highlight the difficulties encountered when it comes to preserving an environment that is useful to everyone but does not belong to anyone. A common good, with free and open access, risks being overexploited. Thus, overexploitation of the oceans due to industrial fishing, has led to the virtual disappearance of whole species of once abundant fish such as, for example, cod. The example of the "tragedy of the commons", these pastures, which would have been overexploited in the Middle Ages because they belonged to a whole village, is often cited, perhaps wrongly, because, it seems established, now that collective operating rules, functioning satisfactorily, existed at that time. The notion of common was manifested as a reaction to the "enclosure of the commons" policy, which had led to the privatization and closure of spaces previously open to the community. When it was practiced in England in the eighteenth century, the movement of enclosure provoked violent movements of revolt. The privatization of the commons was again practiced on a large scale during the 1990s. For the movements that contest the appropriation of natural resources by a minority, the defense of the "common" finds a central place in the definition of an alternative policy. The main justification for private property is that everyone is careful not to damage what belongs to them, and private property is better preserved and maintained than those belonging to a community or the state. The experience of the communist regimes has indeed shown that collective property frequently leads to failure. The functioning of collective farms, sovkhozes or large state enterprises has proved to be inefficient. Central planning, leaving little room for individual initiatives, has not been able to adapt the economy to needs. The economic system has also been unable to adequately reward the efforts of the most dynamic actors. Proponents of the neoliberal policy introduced in the 1990s used this argument to advocate the privatization of almost all economic and administrative activities, including public services, such as police or justice. This policy is obviously very dangerous for the commons, which are perceived in this context as a mere source of profit. The environment is the first of the commons. Without the preservation of natural environments, ecosystems, water and air, all life is impossible and even inconceivable. Nature provides resources, but it also forms a living environment, where the human being feels solidarity. A living culture is also part of the commons belonging to the World Heritage of Humanity. Regional or even national cultures are threatened by globalization and the standardization it entails. The populations who hold them tend to abandon them, under the effect of the conditioning they undergo, hoping to better benefit, thus, from the progress of modernity. As in the case of a loss of biodiversity , such depletion is generally irreversible, as it interrupts the intergenerational transmission process. To be preserved, cultural heritage requires ongoing efforts from the entire community. Otherwise, it may disappear forever. Community-based services of general interest such as schools, hospitals and public administration are another category of commons. Their good functioning conditions the quality of life and the future of society. Among these services, the internet is particularly important to protect, so as to preserve its independence and maintain free access to informationThe challenge to be met in order to preserve the commons is to avoid excessive use of privatization and state control, which is often misguided. According to economist Elinor Ostrom, who shared with Oliver E. Williamson in 2009 the "Nobel Prize" in Economics, local user associations are better able to manage common goods than public authorities or private companies. Good management of common goods at the local level requires, however, to specify at the outset the rules to follow as well as the deliberative procedures applicable to collective decision-making. The commons are particularly difficult to protect when they call for the concerted action of all nations, whose interests are often divergent. The prevention of global warming is a good illustration.

    La tragédie des biens communs est souvent évoquée pour faire état des difficultés rencontrées, lorsqu’il s’agit de préserver un environnement, utile à tous mais n’appartenant à personne. Un bien commun, en accès libre et gratuit, risque d’être surexploité. Ainsi, la surexploitation des océans due à la pêche industrielle, a conduit à la quasi-disparition d’espèces entières de poissons jadis abondantes comme, par exemple, la morue. L’exemple de la « tragédie des communs », ces pâturages, qui auraient été surexploités au Moyen Âge parce qu’ils appartenaient à tout un village, est souvent cité, peut-être à tort, car, il semble établi, à présent, que des règles d’exploitation collective, fonctionnant de manière satisfaisante, existaient à cette époque. La notion de commun s’est manifestée sous la forme d’une réaction à la politique « d’enclosure des communs », qui avait conduit à privatiser et à clôturer des espaces auparavant ouverts à la collectivité. Lorsqu’il s’est exercé en Angleterre au xviiie siècle, le mouvement d’enclosure a suscité de violents mouvements de révolte. La privatisation des communs a été à nouveau pratiquée à grande échelle au cours des années 1990. Pour les mouvements qui contestent l’appropriation des ressources naturelles par une minorité, la défense du « commun » retrouve une place centrale dans la définition d’une alternative politiqueLa principale justification de la propriété privée repose sur l’idée que chacun étant soucieux de ne pas détériorer ce qui lui appartient, les biens privés sont mieux préservés et entretenus que ceux qui appartiennent à une collectivité ou à l’État. L’expérience des régimes communistes a effectivement montré que la propriété collective conduit fréquemment à un échec. Le fonctionnement des kolkhozes, sovkhozes ou des grandes entreprises étatiques s’est avéré peu efficace. La planification centralisée, en ne laissant que peu de place aux initiatives individuelles, n’a pas été en mesure d’adapter l’économie aux besoins. Le système économique s’est montré, en outre, incapable de rétribuer correctement les efforts engagés par les acteurs les plus dynamiques. Les partisans de la politique néolibérale instaurée dans les années 1990 se sont servis de cet argument pour préconiser la privatisation de la quasi-totalité des activités économiques et administratives, y compris de celles qui relèvent d’un service public, comme l’enseignement, la police ou la justice. Cette politique est évidemment très dangereuse pour les biens communs, qui sont perçus dans ce cadre comme une simple source de profit.
    L’environnement constitue le premier des biens communs. Sans la préservation des milieux naturels, des écosystèmes, de l’eau et de l’air, toute vie est impossible et même inconcevable. La nature fournit des ressources, mais elle forme aussi un milieu vivant, dont l’être humain se sent solidaire. Une culture vivante fait également partie des biens communs appartenant au patrimoine mondial de l’humanité. Les cultures régionales ou même nationales sont menacées par la globalisation et l’uniformisation qu’elle entraîne. Les populations qui les détiennent tendent à les abandonner, sous l’effet du conditionnement qu’elles subissent, en espérant mieux bénéficier, ainsi, des progrès de la modernité. Comme dans le cas de la perte de biodiversité, un tel appauvrissement est en général irréversible, car il entraîne une interruption du processus de transmission entre générations. Pour être préservé, l’héritage culturel nécessite des efforts continus de toute la communauté concernée. Sinon, il risque de disparaître à jamais. Les services d’intérêt général assurés par la collectivité, tels qu’écoles, hôpitaux et administrations publiques forment une autre catégorie de biens communs. Leur bon fonctionnement conditionne la qualité de vie et l’avenir de la société. Parmi ces services, l’internet est particulièrement important à protéger, de façon à préserver son indépendance et maintenir un libre accès à l’information.
    Le défi à relever, pour préserver les biens communs, consiste à éviter tout à la fois un recours excessif à la privatisation et un dirigisme étatique souvent mal inspiré. Selon l’économiste Elinor Ostrom, qui a partagé avec Oliver E. Williamson en 2009 le "prix Nobel" d'économie, des associations locales d’usagers sont mieux à même de gérer des biens communs que les pouvoirs publics ou les compagnies privéesUne bonne gestion des biens communs au niveau local nécessite, toutefois, de préciser dès le départ les règles à suivre ainsi que les procédures de délibération applicables aux prises de décisions collectives. Les biens communs sont particulièrement difficiles à protéger lorsqu’ils réclament l’action concertée de l’ensemble des nations, aux intérêts souvent divergents. La prévention du réchauffement climatique en est une bonne illustration.