Ce blog rassemble des informations et des réflexions sur l'avenir qui nous attend.

This blog presents informations and views about the future.

dimanche 7 janvier 2018

Effondrement / collapse


Two opposing visions of the future currently coexist. While one presents a future brightened by an unlimited technological progress, the other predicts an inevitable collapse on the horizon as society becomes unable to adapt to its environment. As early as the 1970s, a collapse by depletion of natural resources was considered in the Meadows Report. More recently, American biologist Jared Diamond has linked the collapse of various past civilizations, represented in particular by the ancient Mayas in Mexico, the Vikings living in Greenland or the inhabitants of Easter Island, to a lack of adaptation to a critical change in their environment. The current globalized society could suffer the same fate, if it fails to overcome the environmental challenges it faces, including the major challenge of global warming. The theme of collapse sparked a whole current of thought, sometimes referred to as collapsology, a new science of a predictable collapse. It is usually the ecological causes of a collapse that are retained and analyzed. However, other causes could also cause a catastrophic end. One of those who has addressed the issue, Dmitry Orlov, distinguishes five stages of collapse: financial, commercial, political, social and cultural. According to this American author born in Russia, a collapse similar to that experienced by the USSR could occur in the United States, due to an inadequate economic policy in the context of the decline of oil resources. A collapse could also occur as a result of a major global conflict, resulting in a sharp worsening of international geopolitical tensions. The current model of neoliberal globalization has proved its effectiveness in terms of technical progress and economic growth. On the other hand, as each one is supposed to act according to his own personal interest, the resulting lack of solidarity and social cohesion leads to a multiplication of conflicts and, eventually, to a dislocation of society. By encouraging more and more goods to be consumed, this model is, moreover, incompatible with sound management of issues of general interest, whether it is the preservation of the environment or the reduction of social inequalities. Under these conditions, a continuation of globalization in its current form most probably leads to an ecological and social collapse in the medium or long term. In fact, it is precisely an excessive optimism about the possibilities of technology, which risks leading to collapse. Technology opens up vast opportunities, but it is blind and can lead to the best, as to the worst. Only a large-scale cultural transformation as a result of collective awareness can prevent us from embarking on the path of collapse.

Deux visions opposées de l'avenir coexistent actuellement. Tandis que l'une envisage un avenir radieux éclairé par les promesses d'un progrès illimité de la technologie, l'autre prédit un effondrement inévitable, la société devenant incapable de s’adapter à son environnement. Dès les années 1970, un effondrement par épuisement des ressources naturelles a été envisagé dans le rapport Meadows. Plus récemment, le biologiste américain Jared Diamond a relié l’effondrement de différentes civilisations passées, représentées notamment par les anciens Mayas au Mexique, les Vikings installés au Groenland ou encore les habitants de l’île de Pâques, à un manque d’adaptation vis-à-vis d’un changement critique de leur environnement. La société globalisée actuelle pourrait connaitre le même sort, si elle ne parvient pas à surmonter les défis environnementaux auxquels elle est confrontée et notamment le défi majeur du réchauffement climatique.  
Le thème de l’effondrement a ainsi suscité tout un courant de pensée, parfois qualifié de collapsologie, en tant que science d'un effondrement prévisible. Ce sont en général les causes écologiques d’un effondrement qui sont retenues et analysées. Toutefois, d’autres causes pourraient également provoquer une fin catastrophique de la civilisation actuelle. L’un de ceux qui se sont penchés sur la question, Dmitry Orlov, distingue cinq stades d’effondrement: financier, commercial, politique, social et culturel. Selon cet auteur américain né en Russie, un effondrement semblable à celui qu’a connu l’URSS pourrait intervenir aux États-Unis, en raison d’une politique économique inadéquate dans le contexte du déclin des ressources pétrolières. Un effondrement pourrait également survenir à la suite d’un conflit mondial de grande ampleur, entraîné par une aggravation brutale des tensions géopolitiques internationales.
Le modèle actuel de la globalisation néolibérale a fait la preuve de son efficacité en termes de progrès technique et de croissance économique. Par contre, chacun étant supposé agir en fonction de son seul intérêt personnel, le manque de solidarité et de cohésion sociale qui en résulte mène à une multiplication des conflits et, à terme, à une dislocation de la société. En incitant à consommer toujours plus de biens, ce modèle est, en outre, incompatible avec une saine gestion des questions relevant de l’intérêt général, que ce soit la préservation de l’environnement ou la réduction des inégalités sociales. 
En fait, c'est précisément un optimisme excessif par rapport aux possibilités de la technologie, qui risque de conduire à l'effondrement. La technologie ouvre de vastes opportunités, mais elle est aveugle. Elle peut conduire au meilleur, comme au pire. Seule une transformation culturelle de grande ampleur résultant d'une prise de conscience collective peut nous éviter de nous engager dans la voie de l'effondrement.[

lundi 1 janvier 2018

High tech ou low tech / High tech or low tech


Technology always promises more: abundance of goods, humanity augmented by human-machine coupling, artificial intelligence, discovery of new worlds, prolonged life. The counterpart of these promises is the need to resort to ever more resources. Some of these resources can be renewable (water, biomass), but a very large part of them requires a renewal period that goes far beyond human life. In addition, the abundance of elements present in the earth's crust is very variable, from less than 1 ppb to several tens of %. High tech technologies require the use of more and more rare metals, involving the consumption of ever more energy. This energy production in turn requires ever more raw materials. The use of rare metals (platinum, neodymium, tantalum, ruthenium, indium, cobalt ...) in new high tech technologies (flat screens, hard disks, LEDs, batteries, solar PV, wind power, high-performance engines ...) is driving growth. fast of the request. Many uses of rare metals are dispersive (inks, pigments, cosmetics, nanotechnologies), making recycling problematic. This runaway resource consumption makes the economic system unsustainable, even when it claims to provide "green growth".To remedy this situation, it might be preferable to replace high-tech technologies with "low tech" technologies, which involve questioning superfluous needs, designing truly sustainable products and reviewing production methods. These technologies do not require scarce resources and are designed for an extensive recycling of  materials. They do not display technical feats, but aim at robustness and longevity. They are not the monopoly of a few, but are accessible to the greatest number. They are meaningful because they care about nature and the human being. The aim of frugal innovation is to design such simple and durable objects. In order to use only a minimum of resources, it uses recycling and exploits the by-products of agriculture or industry, so as to limit the discharge of waste. The equipment is designed to be more easily repairable and recyclable. Instead of forming a compact block, difficult to repair and recycle, they include modules that can be repaired or exchanged, without the need to change the whole. Such forms of innovation are already practiced to meet the needs of developing countries. Judaad innovation, whose name derives from a Hindi term meaning both ingenuity and resourcefulness, is designed to make the best use of all locally available resources, including recycled waste, by designing products and services. equipment adapted for such materials. It is now practiced throughout the world. More generally, it is about changing the current system towards more resilience, by agreeing to revise the design of technological products, ensuring that they are repairable do not require scarce resources and use components which can be easily recycled. Potential options need to be analyzed in depth to avoid unrealistic propositions such as those that Jeremy Rifkin expounds in his book on the "Third Industrial Revolution", to eliminate expensive gadgets and to focus on all solutions that represent real progress, rather than wanting to impose innovation at all costs.

La technologie promet toujours plus: abondance de biens, humanité augmentée par couplage homme-machine, intelligence artificielle, découverte de mondes nouveaux, vie prolongée. La contrepartie de ces promesses est la nécessité de recourir à toujours plus de ressources. Une partie de ces ressources peut être renouvelable (eau, biomasse), mais une très grande part d’entre elles nécessite une durée de renouvellement dépassant très largement la vie humaine. En outre, l’abondance des éléments présents dans la croûte terrestre est très variable, de moins de 1 ppb à plusieurs dizaines de %. Les technologies high tech nécessitent le recours à des métaux de plus en plus rares, ce qui implique la consommation de toujours plus d’énergie. Cette production d’énergie requiert à son tour toujours plus de matières premières. L’utilisation des métaux rares (platine, néodyme, tantale, ruthénium, indium, cobalt-…) dans les nouvelles technologies high tech (écrans plats, disques durs, LED, batteries, solaire PV, éolien, moteurs performants…) entraîne une croissance rapide de la demande. De nombreux usages des métaux rares sont dispersifs (encres, pigments, cosmétiques, nanotechnologies), rendant le recyclage problématique. Cet emballement de la consommation de ressources rend le système économique non durable, y compris lorsqu’il prétend assurer une « croissance verte ». Pour remédier à cette situation, il est préférable de substituer aux technologies high-tech,  des technologies « low tech », consistant à remettre en cause les besoins superflus, à concevoir des produits réellement durables et à revoir les modes de production. Ces technologies ne nécessitent pas de ressources rares et pratiquent un recyclage poussé des matériaux en fin de vie.

lundi 25 décembre 2017

L'économie symbiotique / The symbiotic economy



    The book written by the ecologist Isabelle Delannoy about "The symbiotic economy", aims to propose an economy allowing human beings to live no more as parasites using the resources of the planet until their extinction, but in symbiosis with the environment. Natural ecosystems function in a sustainable way, as they organize a permanent recycling of all the elements that serve the living organisms. They can do this by capturing solar energy through photosynthesis. In a symbiotic economy human activities are integrated into the functioning of natural ecosystems. Products and objects are designed to facilitate their recycling and minimize their impact on the environment throughout their life, from cradle to cradle, that is from the design of equipment to the recycling of its components. Nature finds its place, including in the city. Vegetable gardens and green spaces restore the contact between towns people and nature. The urban environment is designed to respect the beauty of natural landscapes and to eliminate pollution, thus preserving the health of the inhabitants and their psychological balance. The ecological transition is also a way for cities or regions hit by the end of an industrial activity to find a future. The symbiotic economy is based on the symbiosis between human intelligence, the power of natural ecosystems and technological tools. By finding the right balance between the three, it is possible to produce without depleting resources, but regenerating them. It uses many techniques and research highlighted in recent years: permaculture, circular economy, economy of functionality, peer-to-peer sharing, solidarity economy, complementary currencies. It aims to promote lifestyles compatible with the preservation of the environment, autonomous cities in resources, energy and water, town agriculture, bicycle motorways, agriculture and local manufactures . The routes thus described are interesting to explore and deserve to be continued. It would be dangerous, however, to imagine that solutions are at hand and that we now have the means to secure the future of the planet. "Green" technologies themselves pose many resource problems. The implementation of new economic paths contradicts the logic of the current globalization which favors social and environmental dumping. Only a profound transformation of mentalities and the organization of world globalization can solve the many problems facing humanity.

    Le récent ouvrage de l'écologiste Isabelle Delannoy, "L'Economie symbiotique", a pour ambition de proposer une économie permettant aux êtres humains de vivre non plus en parasites exploitant les ressources de la planète jusqu'à leur extinction, mais en symbiose avec l'environnement. Les écosystèmes naturels fonctionnent de manière durable, car ils organisent un recyclage permanent de tous les éléments qui servent aux organismes vivants. Ils peuvent y parvenir en captant l'énergie solaire par le biais de la photosynthèse.Dans une économie symbiotique les activités humaines sont intégrées dans le fonctionnement des écosystèmes naturels. Les produits et les objets sont conçus de façon à faciliter leur recyclage et à minimiser leur impact sur l’environnement pendant toute leur durée de vie, du berceau à la tombe, c’est-à-dire depuis la conception d’un équipement jusqu'au recyclage de ses composants. La nature retrouve sa place, y compris en ville. Jardins potagers et espaces verts restaurent le contact entre les citadins et la nature. Le milieu urbain est conçu de façon à respecter la beauté des paysages naturels et à éliminer la pollution, préservant ainsi la santé des habitants et leur équilibre psychique. La transition écologique est aussi un moyen pour des villes ou des régions frappées par l’arrêt d’une activité industrielle de retrouver un avenir. L’économie symbiotique s’appuie sur la symbiose entre l’intelligence humaine, la puissance des écosystèmes naturels et la technosphère. En trouvant le juste équilibre entre les trois, il est possible de produire sans épuiser les ressources, mais en les régénérant. L'économie symbiotique fait appel à de nombreuses techniques et recherches mises en lumière ces dernières années : permaculture, économie circulaire, économie de la fonctionnalité, du partage – pair à pair –, économie sociale et solidaire, monnaies complémentaire.  Elle vise à promouvoir des modes de vie compatibles avec la préservation de l'environnement, des cités autonomes en eau, en énergie, en ressources alimentaires, mêlant immeubles-forêts et jardins filtrants, cités numériques et jardins d’hiver, autoroutes à vélo, agriculture urbaine et manufactures locales.

    Les voies ainsi décrites sont intéressantes à explorer et méritent d'être poursuivies. Il serait toutefois dangereux d'imaginer que les solutions sont à portée de main et que nous disposons dès à présent des moyens pour assurer l'avenir de la planète. Les technologies "vertes" posent elles-mêmes de nombreux problèmes de ressources. La mise en oeuvre de nouvelles voies économiques entre en contradiction avec la logique de la globalisation actuelle qui favorise le moins-disant, dans le domaine économique, mais aussi social. Seule une transformation profonde des mentalités et de l'organisation de la globalisation mondial peut permettre de résoudre les multiples problèmes auxquels est confrontée l'humanité.

    dimanche 17 décembre 2017

    Vie 3.0 - L'avenir de l'intelligence artificielle / Life 3.0 - The future of artificial intelligence.


    "Life 3.0" ("Life 3.0"), the latest work by physicist Max Tegmark is a book on the future of artificial intelligence. The title may surprise. It is explained by the fact that the author, in a transhumanist perspective, considers that intelligent machines constitute the next stage of biological evolution, in accordance with a point of view that was particularly expressed by Ray Kurzweil. Life 1.0 is simply biological life. Life 2.0 refers to humanity, which represents the next stage of evolution through its ability to transform the world by its intelligence. Lastly, Life 3.0 would correspond to the arrival, presumed to be imminent, of machines that are sufficiently "intelligent" to become capable of transforming themselves and thus progressing towards ever greater intelligence, thus leading to an artificial super-intelligence, much more powerful than human intelligence. His book is therefore directly in line with the work of the transhumanist futurist Nick Bostrom, who was already considering the hypothesis of such a "super-intelligence". By helping to conceive an artificial intelligence of a still higher level, this super-intelligence would lead to a form of Singularity, resulting in an explosive increase in performance, as imagined by Ray Kurzweil. Nick Bostrom has lent to super-intelligence that would result in very extensive skills in functions as crucial as that of oracle, to bring answers to the most difficult questions, genius, to solve the most thorny problems and sovereign, to adopt the most appropriate decisions. From the network of human intelligence and artificial super-intelligence might emerge a global brain, able to ensure the "sovereign" function, anticipated by Nick Bostrom. A global brain, capable of centralizing massive amounts of information, then drawing the most relevant conclusions, would be able to manage a complex system, or even society as a whole, thus becoming the preferred tool for a global governance. Despite all the assets of artificial intelligence, it is not possible to ignore its potentially dangerous effects. Combined with the acquisition and processing of massive databases (Big Data), it allows not only to monitor the daily actions of everyone, but also to predict the behavior of an entire population. It could thus facilitate the emergence of a police state, with powerful means to detect and repress any resistance movement. From now on, artificial intelligence is used to design ever more powerful weapons. Tomorrow, intelligent robots behaving as suicide fighters will be able to carry chemical, bacteriological or nuclear weapons and activate them at their destination. By controlling all human activities on a global scale, the global brain would facilitate the transition to a form of totalitarian regime. It could also lead humanity to a major catastrophe, through mechanisms that human beings could not decipher. Becoming autonomous, an artificial super-intelligence would have no reason to look after the well-being of humanity. It may even be necessary to program the disappearance of the human species as an answer to the problems of the planet. Max Tegmark imagines many scenarios, often similar to sci-fi narratives, in order to anticipate the possible consequences of the development of a "super-intelligence". He deduces the need to think now about how to use it for the happiness of humanity, by removing the potential threats it represents. This wish is shared by leading scientists, including astrophysicist Stephen Hawking, or major industry players such as Bill Gates or Elon Musk, who cautioned against the danger posed by the most advanced forms of artificial intelligence, emphasizing the need for urgent measures to prevent such risks. Unfortunately, like many techno-prophets, Max Tegmark goes astray in considering machines that would be endowed with consciousness and subjectivity and that would claim an ethical respect of the same order as that required for human beings and more broadly living beings. Paradoxically, while the author insists on his wish to contribute to the happiness of humanity, it is such a confusion between machines and conscious beings that represents the greatest danger for humanity, showing the drifts that await our technical civilization if we do not take care.

    "Vie 3.0" ("Life 3.0"), le dernier ouvrage du physicien Max Tegmark est un livre sur l'avenir de l'intelligence artificielle. Le titre peut surprendre. Il s'explique par le fait que l'auteur, dans une perspective transhumaniste, considère que les machines intelligentes constituent la prochaine étape de l'évolution biologique, conformément à un point de vue qui a été notamment exprimé par Ray Kurzweil. La Vie 1.0 correspond simplement à la vie biologique. La Vie 2.0 désigne l'humanité, qui représente l'étape suivante de l'évolution par sa capacité de transformer le monde par son intelligence. Enfin, la Vie 3.0 correspondrait à l'arrivée, pressentie comme imminente, de machines suffisamment "intelligentes" pour devenir capables de se transformer elles-mêmes et de de progresser ainsi vers toujours plus d'intelligence, conduisant à l'apparition d'une super-intelligence artificielle, capable de dépasser largement l'intelligence humaine. L'ouvrage de Max Tegmark s'inscrit donc directement dans le prolongement de l'ouvrage du prospectiviste Nick Bostrom, adepte du transhumanisme, qui envisageait déjà l'hypothèse d'une telle "super-intelligence". En aidant à concevoir une intelligence artificielle d’un niveau encore supérieurcette super-intelligence mènerait vers une forme de singularité, se traduisant par un accroissement explosif des performances, comme l'a imaginé Ray Kurzweil. Nick Bostrom a prêté à cette super-intelligence des compétences très étendues dans des fonctions aussi déterminantes que celle d’oracle, pour apporter des réponses aux questions les plus difficiles, de génie, pour résoudre les problèmes les plus épineux et d’organe souverain, pour adopter les décisions les plus adéquates. De l’association en réseau de l’intelligence humaine et des multiples formes de super-intelligence artificielle déployées à la surface de la Terre, pourrait émerger un cerveau global, qui serait capable d’assurer la fonction « d’organe souverain », anticipée par Nick Bostrom. Un cerveau global, capable de centraliser des quantités massives d’informations, puis d’en tirer les conclusions les plus pertinentes, serait en mesure de gérer un système complexe, voire la société dans son ensemble, en devenant ainsi l’outil privilégié d’une gouvernance planétaireOn ne peut pas, de ce fait, ignorer les effets potentiellement dangereux d’une exploitation de l’intelligence artificielle à des fins de puissance et de domination. Associée à l’acquisition et au traitement de bases de données massives (Big Data), elle permet non seulement de surveiller les gestes quotidiens de chacun, mais aussi de prévoir le comportement de toute une population. Elle pourrait ainsi faciliter l’émergence d’un état policier, disposant de puissants moyens pour détecter et réprimer tout mouvement de résistance. Dès à présent, l’intelligence artificielle sert à concevoir des armes toujours plus puissantes. Demain, des robots intelligents se comportant en combattants-suicides seront capables de transporter des armes chimiques, bactériologiques ou nucléaires et de les activer à leur destination.  En contrôlant l’ensemble des activités humaines à l’échelle planétaire, le cerveau global faciliterait le passage à une forme de régime totalitaire. Il pourrait également entraîner l’humanité vers une catastrophe majeure, par des mécanismes impossibles à décrypter. Devenant autonome, une super-intelligence artificielle n’aurait aucune raison de veiller au bien-être de l’humanité. Elle pourrait même être amenée à programmer la disparition de l’espèce humaine comme réponse aux problèmes de  la planète. Max Tegmark imagine de nombreux scénarios,  dont beaucoup font penser à des récits de science-fiction, afin d'imaginer les conséquences possibles du développement de la "super-intelligence". Il en déduit la nécessité de réfléchir dès à présent à la façon de l'utiliser pour le bonheur de l'humanité, en écartant les menaces potentielles qu'elle représente. Ce souhait st partagé par des scientifiques de renom, parmi lesquels l’astrophysicien Stephen Hawking, ou de grands acteurs du monde de l’industrie tels que Bill Gates ou Elon Musk, qui ont mis  en garde l’opinion contre le danger que représentent les formes les plus avancées d’intelligence artificielle, en insistant sur la nécessité de mesures urgentes pour y parer.
    Malheureusement, comme de nombreux techno-prophètes, l'auteur s'égare en envisageant des machines qui seraient dotées de conscience et de subjectivité et qui réclameraient un respect éthique du même ordre que celui qui est requis pour les êtres humains et plus largement les êtres vivants. Paradoxalement, alors que l'auteur insiste sur son souhait de contribuer au bonheur de l'humanité, c'est une telle confusion entre les machines et les êtres conscients qui représente le plus grave danger pour l'humanité. Cette confusion montre bien les dérives qui guettent notre civilisation technicienne si nous n'y prenons pas gare.

    vendredi 8 décembre 2017

    Objets intelligents et connectés / Connected Smart Objects


    Many objects of everyday life are now equipped with microprocessors. This trend is expected to strengthen in the coming years. Objects become "intelligent", that is, able to react appropriately to different situations, adapting to their environment. Various regulation functions are already common in homes. The home automation sector is growing rapidly. The operation of heating, lighting or appliances is automatically managed by getting signals from different sensors and can be remotely controlled by means of a mobile phone, for example, to minimize energy consumption. All kinds of objects and equipment are becoming "smart" on a wide range of scales: cities, electric grids, cars, clothes, etc. A simple pot of flowers equipped with sensors and a microprocessor becomes able to control all the parameters on which depends the good health of the plant and to manage optimally its watering as well as its nourishment in nutriments. Smart objects can also provide information of all kinds, in the form of augmented reality, to inform a visitor, recreate a site as it existed in the past or organize a virtual trip. Smart objects are part of a vast, interconnected system connected by an Internet of Things. Their synergy contributes to the development of a global artificial intelligence, through a cloud of interconnected servers. The behavior of intelligent objects is gradually approaching that of living beings. There are already many robots capable of mimicking insects, birds, fish or humans. One can imagine eventually objects capable of repairing themselves and reproducing themselves. The threat associated with nano-components capable of self-replication, had been evoked in 1986 by K. Eric Drexler. Even if it is still science fiction, the fact remains that the increasing autonomy of connected objects carries the risk of a loss of control. Tomorrow, cars will become autonomous, that is to say able to go from one point to another without the intervention of a driver. It will be, therefore, much easier to share a vehicle, which will be able to present and leave after use, without the intervention of a human operator. The relation to objects is radically transformed. Objects are better used, but the user gradually loses all initiative. This evolution is supposed to liberate human beings but actually increases their dependence on all the machines they are using. Objects (watches, smartphones, computers) already exert strong constraints on human life. While opening up new opportunities, smart objects, networked and geolocated, will exert a firm grip on society, imposing their pace and their choices. Because of the complexity of this interconnected world, its control could gradually escape not only the ordinary citizen, but even the most advanced experts, artificial intelligence becoming the only available tool to ensure it. Human destiny will then be delivered to robots, exercising a dictatorship all the more dangerous as it is devoid of any feeling.

    De nombreux objets de la vie quotidienne sont, dès à présent, équipés de microprocesseurs. Cette tendance devrait se renforcer dans les années à venir. Les objets deviennent ainsi « intelligents », c’est-à-dire capables de réagir de façon appropriée à différentes situations, en s’adaptant à leur environnement. Des fonctions diverses de régulation équipent déjà couramment les habitations. Le secteur de la domotique se développe rapidement. Le fonctionnement du chauffage, de l’éclairage ou des équipements électroménagers est géré automatiquement à partir des signaux provenant de différents capteurs. De tels systèmes, commandés à distance au moyen d’un téléphone portable, sont aussi capables d’anticiper un changement et d’optimiser une fonction, de façon, par exemple, à minimiser une consommation d’énergie. Toutes sortes d’objets et d’équipements deviennent « intelligents » (smart), à des échelles très diverses : villes (smart cities), réseaux électriques (smart grids), voitures (smart cars), vêtements (smart clothes), etc. Un simple pot de fleurs équipé de capteurs et d’un microprocesseur devient capable de contrôler l’ensemble des paramètres dont dépend la bonne santé de la plante et de gérer de façon optimale son arrosage ainsi que son alimentation en nutriments. Les objets intelligents peuvent également fournir des informations de toutes sortes, sous la forme d’une réalité augmentée, en vue de renseigner un visiteur, recréer un site tel qu’il existait dans le passé ou organiser un voyage virtuel.

    lundi 27 novembre 2017

    De l'Univers au Multivers / From Universe to Multiverse


    Whereas for the ancients the stars were immutable, science has now shown that they are born, live and die. Large telescopes have revealed the immensity of the universe and the vertiginous number of stars it contains. The Milky Way, the galaxy to which our Sun belongs, has about one hundred billion stars. The observable universe comprises a hundred billion galaxies organized into clusters. Stars form from gaseous clouds of hydrogen and helium. Gravity tends to compress these clouds whose density increases, to the point of causing nuclear fusion reactions, successively producing the various known elements. Increasingly heavy elements, going as far as iron, are generated in successive stages. Fusion of iron nuclei does not occur spontaneously, reactions stop. The star collapses and dies. According to their initial mass, the stars know different destinies. Some die slowly, turning into a "white dwarf" or "black dwarf", a star that becomes invisible. The most massive stars turn into neutron stars and eventually explode suddenly forming a supernova. The enormous power reached during the explosion of a supernova leads to the fusion of elements heavier than iron. Supernova observations are relatively rare. In a galaxy, they occur approximately once a century. It was therefore these exceptional events that made possible the presence on Earth of all the elements without which life could not have appeared.The world can no longer be conceived as a gigantic clock reproducing indefinitely the same movements, immutably. The American astronomer Erwin Hubble having observed that the galaxies move away from each other at a speed proportional to their distance, he deduced that the Universe is expanding from an initial "Big Bang". It was preceded in this conclusion by the Belgian canon George Lemaître, who published in 1927 the mathematical model of an expanding universe, from a very dense state which he called the "primitive atom". The Big Bang theory established a link between the infinitely large and the infinitely small, because to understand the behavior of the Universe in its initial condensed state, it became necessary to apply quantum theory. In addition, the enormous energy densities reached by the Universe as we approached the initial moment of appearance of the Big Bang led to a progressive unification of all the known particles. Thus, paradoxically, cosmology offers the best field of application to the most advanced theories of quantum mechanics. In 1981, the American physicist Alan Guth realized, by applying quantum mechanics methods to an extremely condensed universe, that the fluctuations that occurred during the first moments of cooling after the Big Bang had caused an extremely rapid expansion of the Universe, followed by deceleration. During the initial "inflation" phase, the space expanded at speeds that greatly exceeded the speed of light (the relativity theory limits the speed within the space, but not the expansion velocity of space itself). The first moments of the expansion of the universe are beginning to be better and better known. In particular, it was possible using a microwave radio telescope on the COBE (Cosmic Background Explorer) satellite to record the energy distribution of a cosmic microwave background transmitted by a radiation emitted shortly afterwards. the Big Bang. The study of the cosmic microwave background makes it possible to test and validate inflation models. Following the early work of Alan Guth, more elaborate inflation models were developed, notably by physicists Alexandre Vilenkin and Andreï Linde, who described a phenomenon of expansion accompanied by multiple inflations, generating "bubble-universes" , which multiply indefinitely, each bubble being able to give birth to others. Since the speed of expansion of the Universe has been much greater than the speed of light during the first period of inflation (the theory of relativity limits only the speed within the space), the size of the universe is gigantic and we are able to observe only a small part of it. "The cosmic horizon", which corresponds to the distance traveled by the light since the Big Bang, is 41 billion light-years away. All that lies beyond is inaccessible for us. In particular, the bubble worlds of Vilenkin and Linde's model are totally out of our reach. The physicist Hugh Everett has further assumed that all superimposed quantum states occur in different "parallel worlds", only one of which can be observed by an experimenter living in our macroscopic world. According to this interpretation, performing a measurement on one of the particles belonging to a couple of entangled particles would involve the selection of one of the possible worlds in which they are located. Everett's theory, which had met with little success at the beginning, now seems to appeal to a growing number of physicists. The parallel universes of inflation and Everett's parallel universes are not the only ones. String theory represents elementary particles as tiny, vibrating strings. In addition to the one-dimensional strings, there would also be surfaces or "branes" with a multiple number of dimensions. Our four dimensional universe (three dimensional space and one time dimension) would be contained in a brane and could thus coexist with other universes located on different branes, unfolding in a space provided with an additional number of dimensions. All these parallel universes whose existence is predicted by mathematical models, remain impossible to observe directly. A single Universe replaces a Multiverse with a multiplicity of parallel universes. The hypothesis that "other worlds" exist, to which we do not have access, thus becomes quite plausible. Not only is it no longer scary to most scientists, but it is even considered by a number of them as the one that best captures reality.The physicist Max Tegmark goes even further, admitting that the multiple universes provided by mathematical models are real. A mechanistic and deterministic Universe is thus replaced by a Multiverse, whose multiple horizons remain hidden, perhaps forever. The result is a deeply renewed vision of the Cosmos, all of whose consequences have probably not yet been drawn.

    Alors que pour les Anciens les étoiles étaient immuables, la science a montré à présent qu’elles naissent, vivent et meurent. Les grands télescopes ont révélé l’immensité de l’univers et le nombre vertigineux d’étoiles qu’il comporte. La Voie lactée, la galaxie à laquelle appartient notre Soleil, compte environ cent milliards d’étoiles. L’Univers observable comporte une centaine de milliards de galaxies organisées en amas.  Les étoiles se forment à partir de nuages gazeux d’hydrogène et d’hélium. La gravité tend à comprimer ces nuages dont la densité augmente, au point d’entraîner des réactions de fusion nucléaire, produisant successivement les différents éléments connus. Des éléments de plus en plus lourds, allant jusqu’au fer, sont générés par étapes successives. La fusion des noyaux de fer ne se produisant pas spontanément, les réactions s’arrêtent. L’étoile s’effondre et meurt. Suivant leur masse initiale, les étoiles connaissent des destins différents. Certaines meurent lentement, se transformant en « naine blanche » ou « naine noire », étoile qui devient invisible. Les étoiles les plus massives se transforment en étoiles à neutrons et finissent par exploser brutalement en formant une supernova. L’énorme puissance atteinte au cours de l’explosion d’une supernova conduit à la fusion des éléments plus lourds que le fer. Les observations de supernovae sont relativement rares. Dans une galaxie, elles interviennent environ une fois par siècle. Ce sont donc ces événements exceptionnels qui ont rendu possible la présence sur Terre de l’ensemble des éléments sans lesquels la vie n’aurait pas pu apparaîtreLe monde ne peut plus être conçu comme une gigantesque horloge reproduisant indéfiniment les mêmes mouvements, de façon immuable. L’astronome américain Erwin Hubble ayant observé que les galaxies s’éloignent les unes des autres à une vitesse proportionnelle à leur distance, il en déduisit que l’Univers est en expansion à partir d’un « Big Bang » initial. Il avait été précédé dans cette conclusion par le chanoine belge George Lemaître, qui avait publié en 1927 le modèle mathématique d’un univers en expansion, à partir d’un état très dense qu’il appela l’ « atome primitif ».
       La théorie du Big Bang établissait un lien entre l’infiniment grand et l’infiniment petit, car, pour comprendre le comportement de l’Univers dans son état condensé initial, il devenait nécessaire d’appliquer la théorie quantique. En outre, les énormes densités d’énergie atteintes par l’Univers lorsque l’on se rapprochait de l’instant initial d’apparition du Big Bang conduisaient à une unification progressive de toutes les particules connues. Ainsi, de manière paradoxale, la cosmologie offrait le meilleur champ d’application aux théories les plus avancées de la mécanique quantique. En 1981, le physicien américain Alan Guth se rendit compte, en appliquant les méthodes de la mécanique quantique à un univers extrêmement condensé, que les fluctuations intervenues au cours des premiers instants de refroidissement après le Big bang avaient dû provoquer une expansion extrêmement rapide de l’Univers, suivie d’une décélération. Au cours de la phase d’ « inflation » initiale, l’espace s’est dilaté à des vitesses qui ont largement dépassé la vitesse de la lumière, ce qui ne contredit pas la théorie de la relativité qui limite la vitesse dans l'espace. Les premiers moments de l’expansion de l’univers commencent à être de mieux en mieux connus. En particulier, il a été possible à l’aide d’un radiotélescope à micro-ondes embarqué sur le satellite COBE (Cosmic Background Explorer) de relever la répartition en énergie d’un fond diffus cosmologique transmis par un rayonnement émis peu de temps après le Big Bang. L’étude du fond diffus cosmologique permet ainsi de tester et de valider les modèles d’inflation. Suite aux premiers travaux d’Alan Guth, des modèles d’inflation plus élaborés ont été développés, notamment par les physiciens Alexandre Vilenkin et Andreï Linde, qui ont décrit un phénomène d’expansion accompagné de multiples inflations, générant des « bulles-univers », qui se multiplient indéfiniment, chaque bulle pouvant donner naissance à d’autres. Du fait que la vitesse d’expansion de l’Univers a été très supérieure à la vitesse de la lumière au cours de la première période de l’inflation , la taille de l’univers est gigantesque et nous ne pouvons en observer qu’une faible partie. « L’horizon cosmique », qui correspond à la distance parcourue par la lumière depuis le Big bang, se situe à 41 milliards d’années-lumière de distance. Tout ce qui se situe au-delà nous est inaccessible. En particulier, les univers-bulles du modèle de Vilenkin et Linde sont totalement hors de notre portée.

    dimanche 19 novembre 2017

    La difficile transition électrique/ The difficult electricity power transition



    In a recent book, prefaced by Gérard Mestrallet, Chairman of the Board of Directors of Engie, Jean-Pierre Hansen, former head of Suez and president of Electrabel and Jacques Percebois, professor of energy economics, analyze the difficult conditions in which the electrical transition takes place in Europe. This transition aims, in principle, to create a safer, more economical and more environmentally friendly electricity system. The will to act against global warming leads to favor renewable energies, mainly, wind and solar. The difficulties encountered stem partly from the difficulty of setting up a common policy between countries that do not all share the same interests. It is also due to the fact that the transition was initiated on the basis of rigid principles, which upset the European energy landscape in two successive waves.The first of these waves, which came in the mid-1980s, led to a so-called "deregulation" based on the almost exclusive power of the market. These transformations introduced the principle of a systematic competition of service providers, the dismantling of national companies, the abandonment of long-term contracts and the fixing of prices by the  market. The second wave, which happened in the 1990s, consisted of introducing wind and solar as a priority. Therefore, the generation of energy from renewable energy sources had priority access to the grid at a rate set at a sufficiently high level to make these sources of energy competitive. Such conditions were creating a windfall effect for the industrialists concerned.These two modes of operation (market and priority access to a tariff imposed for renewable energies) were contradictory and led to a series of malfunctions: negative electricity prices at times, higher prices for the end consumer, power plant shutdowns. in favor of coal plants much more polluting, weakening of the actors, most European electricians being in much worse posture than before, like EdF in France. In total, despite the efforts made, there is no strong trend towards reducing CO2 emissions, apart from that caused by the slowdown in economic activities following the 2008 crisis. due to the very important role that continues to play coal, which is by far the most polluting fuel, at the expense of natural gas, which can significantly reduce CO2 emissions. Of course, measures are envisaged to combat these effects, but they should not be inappropriate or arrive too late.The authors of the book advocate public choices, clear, debated and assumed. In a sector like electricity, they doubt that a "mix of competitive principles and regal pushes" can lead to a satisfactory situation. Electricity has become a sector too strategic to be entrusted to the invisible hand of the market.

    Dans un livre récent, préfacé par Gérard Mestrallet, président du Conseil d'administration d'Engie, Jean-Pierre Hansen, ancien dirigeant de Suez et président d'Electrabel  et  Jacques Percebois, professeur d'économie de l'énergie analysent les conditions difficiles dans lesquelles s'effectue la transition électrique en Europe. Cette transition vise, dans son principe, à instaurer un système électrique plus sûr, plus économique et plus respectueux de l'environnement. La volonté d'agir contre le réchauffement climatique conduit à privilégier les énergies renouvelables, principalement, l'éolien et le solaire. Les difficultés rencontrées tiennent pour une part à la difficulté de mettre en place une politique commune entre des pays qui ne partagent pas tous les mêmes intérêts. Elle tient aussi au fait que la transition a été engagée sur des la base de principes rigides, qui ont bouleversé le paysage énergétique européen en deux vagues successives.
    La première de ces vagues qui est arrivée vers le milieu des années 1980  a entraîné une vague de "dérégulation" fondée sur la puissance quasi exclusive du marché. Ces transformations introduisaient le principe d'une mise en concurrence systématique des prestataires, un démantèlement des compagnies nationales, l'abandon des contrats à long terme et la fixation des prix par le marché.
    La deuxième vague, qui est arrivée au cours des années 90, consistait à introduire de façon prioritaire l'éolien et le solaire. Dès lors la génération d'énergie à partir des sources d'énergie renouvelable bénéficiait d'un accès prioritaire sur le réseau à un tarif fixé à un niveau suffisamment élevé pour rendre ces sources d'énergie compétitives. De telles conditions ne pouvaient que susciter un effet d'aubaine pour les industriels concernés.
    Ces deux modes de fonctionnement (marché et accès prioritaire à un tarif imposé pour les énergies renouvelables) étaient contradictoires et ont entraîné une série de dysfonctionnements: prix négatifs de l'électricité à certains moments, hausse des prix pour le consommateur final, arrêt de centrales au gaz au profit de centrales au charbon beaucoup plus polluantes, affaiblissement des acteurs, la plupart des électriciens européens se trouvant en bien plus mauvaise posture qu'auparavant, à l'image d'EdF en France. Au total, en dépit des efforts engagés on n'observe pas de forte tendance à une réduction des émissions de CO2, en dehors de celle qui a été causée par le ralentissement des activités économiques à la suite de la crise de 2008. Cette situation est due au rôle très important que continue à jouer le charbon, qui est de loin le combustible le plus polluant, aux dépens du gaz naturel, qui permet de réduire très sensiblement les émissions de CO2.
    Bien entendu, des mesures sont envisagées pour combattre ces effets, mais il ne faudrait pas qu'elles soient inadaptées ou arrivent trop tard . 
    Les auteurs de l'ouvrage préconisent donc des choix publics, clairs, débattus et assumés. Dans un secteur comme celui de l'électricité, ils doutent qu'un "panaché de principes concurrentiels et de coups de pouce régaliens" puisse aboutir à une situation satisfaisante. L'électricité est devenue un secteur trop stratégique pour être confié à la main invisible du marché.