Ce blog rassemble des informations et des réflexions sur l'avenir qui nous attend.

This blog presents informations and views about the future.

Affichage des articles dont le libellé est digital. Afficher tous les articles
Affichage des articles dont le libellé est digital. Afficher tous les articles

vendredi 19 octobre 2018

La ville intelligente / The smart city


The concept of smart city dates from 2008. The goal was to create new markets, taking advantage of digital developments and in particular the proliferation of connected objects. IBM was one of the first players involved in this field. It was to form a new urban imaginary. GAFA companies have followed the movement by seeing areas of expansion. At first, the solutions adopted revolved around the concept of a control room, as was done in Rio de Janeiro. Such a model is clearly impracticable. Developments in digital technologies, and in particular the proliferation of connected objects, have made it possible to adopt more flexible solutions. Digital technologies have claimed to provide technical solutions to the complex problems facing human societies. By connecting the inhabitants, they can effectively help solve certain problems, facilitate transactions, inform in real time (augmented reality), optimally manage the various infrastructures of the city. They can also promote direct democracy. Unfortunately, there generate also many negative externalities: increased control over the population, lack of confidentiality for personal data, high energy consumption, high investments in equipment that may quickly become obsolete. In addition, the technological and hyperconnected city is reserved for the richest. The city of Masdar is an example of a city designed for a minority in the middle of a desert. The "smart city" can become a kind of contemporary Metropolis, where misery is carefully hidden in the basement. In short, the notion of smart city is blurred. Given the multiple criteria used, the European Commission manages to distinguish 240 smart cities in Europe. In fact, one can conceive opposite models of the smart city. A first type of city is represented by the Quayside neighborhood, Toronto, designed by Sidewalk Labs (Google), which incorporates multiple public facilities automatically controlled based on records transmitted by many sensors. This type of neighborhood is clearly intended for a wealthy population. In contrast, is the project of Red Hook in Brooklyn, which had been heavily affected by drug trafficking in the 1980s, but has since been rehabilitated, becoming a neighborhood of artists. The inhabitants, and especially the younger ones, are invited to become directly involved in the layout and maintenance of the connections. The old cities that enjoyed a certain political freedom were intelligent, because they knew an organic development and were able to implement the economic synergies at the service of the common good (the good government, Siena, Palazzo Pubblico). Democracy is at the heart of urban life (example of leadership by the People's Assembly in Novgorod). The size of the city is a very important factor. It is governed by a set of factors. Beyond a maximum size, its organization becomes too complex to be managed optimally. A population of 600,000 seems to be a good target value. There is currently a trend, particularly in China, of organizing the urban cluster city of small and medium towns. Excessive size generates negative externalities (stress, daily commuting time, isolation). It is necessary to take into account all these externalities, including those generated in the suburban environment. The optimization of the urban system requires modeling that is difficult, because of the complexity of the system and the importance of human factors that escape the modeling by the laws of physics. Increasing the resilience of the city involves consulting the inhabitants, developing the systems of deliberation, and encouraging citizens to generate ideas. The resilience of the city is based on direct democracy. Technical solutions, especially digital solutions, are not enough to solve the city's problems. The human factor is essential. In order to create a smart city, we must first create the conditions that enable society to become intelligent. This involves cultural rather than technological factors.

La notion de smart city date de 2008. Le but était de créer de nouveaux marchés, en profitant des développements du numérique et en particulier de la multiplication des objets connectés. IBM a été l'un des premiers acteurs engagés dans ce domaine. Il s’agissait de former un nouvel imaginaire urbain. Les compagnies GAFA (Google, Apple, Facebook, Amazon) ont suivi le mouvement en y voyant des domaines d'expansion.
   Dans un premier temps, les solutions adoptées ont tourné autour de la notion de salle de contrôle, comme cela a été fait à Rio de Janeiro. Un tel modèle s’avère clairement impraticable. Les développements des technologies numériques et en particulier la multiplication des objets connectés, ont permis d'adopter des solutions plus souples.
 Les technologies numériques ont prétendu apporter des solutions techniques aux problèmes complexes qui se posent aux sociétés humaines.  En connectant les habitants, elles peuvent effectivement aider à régler certains problèmes, faciliter les transactions, informer en temps réel (réalité augmentée), gérer de façon optimale les diverses infrastructures de la ville. Elles peuvent aussi favoriser la démocratie directe.
   Malheureusement, elles génèrent également de nombreuses externalités négatives: contrôle accru sur la population, perte de confidentialité des données, consommation élevée d'énergie, investissements élevés portant sur des équipements qui risquent de se trouver rapidement obsolètes. En outre, la ville technologique et hyperconnectée est réservée aux plus riches. La ville de Masdar est un exemple de ville conçue pour une minorité au milieu d'un désert. La "ville intelligente" peut devenir ainsi uns sorte de Metropolis contemporaine, où la misère est soigneusement cachée dans les sous-sols.
   En définitive, la notion de ville intelligente (smart city) s’avère floue. Compte-tenu des multiples critères utilisés, la Commission Européennes parvient à distinguer 240 villes intelligentes en Europe. En fait, on peut concevoir des modèles opposés de la ville intelligente. Un premier type de ville est représenté par le quartier de Quayside, Toronto, conçu Sidewalk Labs (Google), qui intègre de multiples équipements publics commandés automatiquement en fonction des enregistrements transmis par de nombreux capteurs. Ce type de quartier est manifestement destiné à une population aisée. A l’opposé, se trouve le projet de Red Hook à Brooklyn, qui avait été très affecté par le trafic de drogue dans les années 1980, mais qui a été réhabilité depuis, en devenant un quartier d’artistes. Les habitants, et notamment les plus jeunes, sont invités à s’impliquer directement dans l’aménagement et l’entretien des connexions.
   Les villes anciennes qui jouissaient d’une certaine liberté politique étaient intelligentes, car elles connaissaient un développement organique et étaient capables de mettre en œuvre les synergies économiques au service du Bien commun (Le bon gouvernement, Sienne, Palazzo Pubblico). La démocratie est au cœur de la vie urbaine (exemple de la direction par l’assemblée du peuple à Novgorod).
   La taille de la ville est un facteur très important. Elle est régie par un ensemble de facteurs. Au-delà d’une taille maximale, son organisation devient trop complexe pour être gérée de façon optimale. Une taille de 600 000 habitants paraît constituer une bonne valeur cible. Il existe actuellement une tendance, suivie notamment en Chine, qui consiste à organiser la ville en cluster urbain de villes petites ou moyennes. Une taille excessive génère des externalités négatives (stress, temps de déplacement journalier, isolement). Il est nécessaire de prendre en compte l’ensemble de ces externalités, y compris celles qui sont générées dans le milieu périurbain.
   L’optimisation du système urbain nécessite une modélisation qui est difficile, en raison de la complexité du système et de l’importance des facteurs humains qui échappent à la modélisation par les lois de la physique. Accroître la résilience de la ville implique de consulter les habitants, de développer les systèmes de délibération, d’inciter les citadins à générer des idées. La résilience de la ville repose sur la démocratie directe. Les solutions techniques et en particulier celles qui proviennent du numérique ne suffisent pas pour régler les problèmes de la ville. Le facteur humain est essentiel. Pour parvenir à créer une ville intelligente, il faut en tout premier lieu créer les conditions qui permettent à la société de devenir intelligente. Ceci passe par des facteurs culturels plutôt que technologiques.

samedi 9 septembre 2017

La société des écrans / The society of screens



Today, digital technologies link together almost all of the inhabitants of the planet. At every moment, it is possible to inquire about what is happening in the world and to connect with any of what interlocutor. Jeremy Rifkin does not hesitate to see the advent of a civilization of empathy in this connected world. By connecting each person to a very large community, the internet is supposed to generate empathy among all the inhabitants of the planet. By promoting direct transactions between individuals (peer to peer), this generalized interconnection is going to result, always according to Rifkin, into a new form of capitalism, which he calls "distributed capitalism". However, despite this optimistic analysis, far from leading to a democratization of financial power, recent developments has, instead, concentrated this power in the hands of a very small minority. Undoubtedly, the internet facilitates social relationships and helps to publicize ideas of every web user. However, the exchange established through the web doesn't have the quality of a direct and physical contact. Its main consequence is often to reduce the time spent with loved ones. Facebook 'friends' are generally purely fictitious. In addition, exploitation of private data by holders of social networks provides to them a power that  has become abusive, while the hopes of opening up more democracy have been largely disappointed..Digital technologies have created a screens society. The success achieved by social networks does not seem to coincide with the optimistic vision  of a civilization of empathy. The proliferation of digital connections has often led to a strengthening of the feeling of loneliness.
In the  society of screens, people do not live the actual events, but only their tracks on multiple screens. In most cases, the relationship established through an interposed screen excludes any possibility of a solidarity relationship. The world of finance is the clearest illustration. When a trader looks on his console at thousands of stocks, his decisions cannot, in any way, take into account the situation of the persons concerned by such financial operations. His only concern is to improve his financial score. In practice, he is often replaced in his activity by computers which present the advantage of being much faster than he is.In the same way, triggering a shooting behind a screen is incompatible with an empathic relationship. For somebody who commands a drone, the person to delete is only a goal. The difference between the real world and the virtual world fades and the extermination device management is similar to that of a video game.The idea that the internet would help develop empathic large-scale relationships seems therefore to have little credibility. However, like any new medium, the internet introduced a ferment of dissent. At the time of the Renaissance, the invention of the printing press helped to disseminate ideas that deviated from the dominant thought. The possibility of reading and understanding the Bible was at the origin of the Reform movement. The multiplication of books and labels was the cause of the French Revolution. The internet, which remains open to diverse opinions, could play a similar role in today's world. 

Aujourd’hui, les technologies numériques relient entre eux la quasi-totalité des habitants de la planète. à chaque instant, il est possible de s’informer sur tout ce qui se passe dans le monde et de se connecter avec n’importe quel interlocuteur. Le consultant américain Jeremy Rifkin n’hésite pas à déceler dans ce monde connecté l’avènement d’une civilisation de l’empathie. D’après Jeremy Rifkin, en connectant chaque personne à une très large collectivité, l’internet génère de l’empathie entre tous les habitants de la planète. En favorisant les transactions directes entre individus (peer to peer), cette interconnexion généralisée ferait apparaître, toujours selon Rifkin, une nouvelle forme de capitalisme, le capitalisme distribué. Toutefois, en dépit de ce discours optimiste, loin de conduire à une démocratisation du pouvoir financier, l’évolution récente l’a, au contraire, concentré entre les mains d’une petite minorité. Incontestablement, l’internet facilite l’établissement de multiples liens sociaux et aide à faire connaître les idées de chacun. Toutefois, le contact à distance par internet n’a pas la qualité d’un contact direct et conduit souvent à réduire le temps passé avec ses proche s. Les « amis » de Facebook restent pour la plupart purement factices. En outre, l’exploitation des données privées par les détenteurs des réseaux sociaux leur confère un pouvoir qui est devenu abusif, tandis que les espoirs d’ouverture vers plus de démocratie ont été largement déçus .
En s’interposant dans les échanges, aux dépens d’un contact direct, les technologies numériques ont créé une société des écrans, Malgré les succès remportés par les réseaux sociaux, l’évolution observée ne semble pas coïncider avec la vision optimiste d’une civilisation de l’empathie. La multiplication des connections numériques a conduit bien souvent à un renforcement du sentiment de solitude. La société des écrans ne vit pas les événements réels, mais uniquement leurs traces sur des écrans multiples. Dans la plupart des cas, la relation qui s’établit par écran interposé exclut toute possibilité de relation solidaire. Le monde de la finance en est la plus claire illustration. Quand un trader voit défiler sur sa console des milliers de titres boursiers, les décisions qu’il prend ne peuvent, en aucune façon, tenir compte de la situation des personnes concernées par les opérations effectuées. Sa seule préoccupation consiste à tenter d’améliorer son score financier. D'ailleurs, il est souvent remplacé dans son activité, par des ordinateurs qui sont plus rapides que lui. De la même façon, la guerre menée à travers des écrans établit entre celui qui déclenche le tir et celui qui en est la cible, une distance incompatible avec une relation empathique. Pour celui qui commande un drone, la personne à supprimer n’est qu’un objectif. La différence entre le monde réel et le monde virtuel s’estompe et le pilotage du dispositif d’extermination s’apparente à celui d’un jeu vidéo.
L’idée selon laquelle l’internet aiderait à développer des relations empathiques à grande échelle paraît ainsi peu crédible. Par contre, comme tout nouveau moyen de communication, l’internet introduit un ferment de dissidence dans un monde dominé par la pensée unique. Au moment de la Renaissance, l’invention de l’imprimerie avait permis de diffuser des idées qui s’écartaient de la pensée dominante. La possibilité de lire et comprendre soi-même la Bible a été à l’origine du mouvement de la Réforme. La multiplication des ouvrages et des libelles fut à l’origine de la Révolution française. L’internet, qui reste ouvert à des opinions très variées, pourrait jouer un rôle similaire dans le monde actuel. 

vendredi 12 mai 2017

La transcendance numérique / The digital transcendence


Following Nietzsche, the death of God had already been announced, as Man was considered to have become self-sufficient.  According to the new postliberal order, Man is considered as too vulnerable and not reliable enough and the only supreme reference, which can be accepted, is the super-intelligent computer or the intelligent robot. According to Ray Kurzweil, the acceleration of the pace of progress of the artificial intelligence  will lead, in a not too-distant future, to the appearance of a form of discontinuity, or Singularity, transforming radically the human destiny. Relying on the present rate of progress, Ray Kurzweil estimated that this Singularity might occur by 2045. While Teilhard de Chardin announced an Omega point, as the final destination of the noosphere, Ray Kurzweil is expecting the occurrence of the super-intelligent machine, which will provide the advent of the Singularity. Human beings might remain, at least temporarily, associated with such a machine, in the form of a cyborg, but they are doomed to disappear, as the machine will become self-sufficient. The cyborg represents only a transitional stage of the evolution leading to the supreme robot, which will appear during the next step of the evolutionary process. The further step will be to program the extinction of the human species, as it will become useless.Thus, the  machine becomes the supreme reference, the new horizon of mankind. The construction of an omniscient machine has already been announced by the physicists, Frank Tipler and David Deutsch. According to David Deutsch, it would be possible during a finite amount of time to build a universal Turing machine, able to simulate any  physical or biological process existing within the Universe. Such a machine would be omniscient.The Singularity becomes the only form of transcendence which remains. The omniscient computer becomes the god offered to the veneration of the crowds, to which are assigned the most difficult decisions, including the decisions of justice. The machine designed to govern incorporates the global super-intelligent brain, which is aimed to manage the whole human society. Its decisions are deemed to be irrevocable. Those who are supposed to control ils operation hold the actual power, but they could loose it at any time.

A la suite de Nietzsche, le XXe siècle avait annoncé la mort de Dieu, en considérant que l’Homme se suffisait à lui-même. Dans la vision hégémonique du nouvel ordre postlibéral, l’homme, jugé trop fragile et trop peu fiable, perd, à son tour, sa place comme référence suprême, pour être remplacé par l’ordinateur super-intelligent ou le robot intelligent, dont l’efficacité ne connait aucune borne. Selon Ray Kurzweil, l’accélération du rythme de progression de l’intelligence artificielle va se traduire, dans un avenir relativement proche, par l’apparition d’une forme de discontinuité, ou Singularité, conduisant l’humanité vers un destin totalement différent de son sort actuel. En s’appuyant sur le rythme de progression des ordinateurs, Ray Kurzweill situe vers 2045 le moment où cette Singularité pourrait apparaître. Tandis que Teilhard de Chardin contemplait un point Omega, aboutissement et point de convergence de la noosphère, Ray Kurzweil se situe dans l’attente de la machine super-intelligente, qui permettra l’avènement de la SingularitéL’être humain reste, au moins temporairement, associé à la machine sous forme d’un cyborg, mais en suivant la démarche de Kurzweil, il risque d’apparaître rapidement comme superflu, la machine se suffisant à elle-même. Le cyborg se présente alors comme l’étape transitoire d’une évolution menant au robot supra-humain, qui constitue la nouvelle étape du processus d’évolution. Il ne restera plus alors qu’à programmer l’extinction de la majeure partie de la population humaine.
La machine devient la référence suprême, le nouvel horizon de l’humanité. La réalisation d’une machine omnisciente a été explicitement prévue par les physiciens Frank Tipler et David Deutsch. Selon David Deutsch, il serait possible de réaliser dans un temps fini une machine de Turing universelle, capable de simuler n’importe quel processus physique ou biologique. Une telle machine serait alors omniscienteLa Singularité prend d’autant plus d’importance qu’elle constitue la seule forme de transcendance que reconnaisse le nouvel ordre postlibéral. L’ordinateur omniscient devient le dieu offert à la vénération des foules. C’est à lui que sont confiées les décisions les plus difficiles et en particulier les décisions de justice. La machine à gouverner est conçue sur ce modèle. Le cerveau global qui gère le fonctionnement de toute la société humaine est doté de la super-intelligence numérique. Il est sacrilège de contester ses décisions, qui sont jugées irrévocables. Ceux qui en contrôlent le fonctionnement détiennent le pouvoir effectif, mais celui-ci risque à tout moment de leur échapper.

dimanche 28 août 2011

Vivons-nous dans un monde virtuel?/ Do we live within a virtual world?


We live in a digital age and our representation of the world is more and more digital. It seems possible to represent any process by an algorithm and everything seems derived from information (it from bit). It becomes more and more difficult to distinguish our own world from a vitual world.
For the swedish philosopherNick Bostrom,  it is very likely that our world is virtual.  He derives this conclusion from the observation that, most likely, other advanced civilizations have already existed in the universe and that they were able to generate many virtual worlds such as ours. It is therefore most likely that we are one of them. The only problem is that Nick Bostrom does not seem to make any difference between a vrtual world and a world within which we feel and suffer. For the time being no software is able to create awareness.  Unless of course, we are the hallucinated spectators of a simulation game. What will happen when the game is over?

Les progrès de l’informatique introduisent une nouvelle représentation du monde qui devient de plus « digitale ». On a vu émerger aux Etats-Unis le concept de convergence des NBIC (nanotechnologies, biotechnologies, techniques de l’information et sciences cognitives), suite au rapport rédigé dès 2002 par William Sims Bainbridge et Mihail Roco[1]. Les auteurs de ce rapport revendiquent une vision unifiée de la science et de la technologie. Selon cette vision unifiée, tout processus est analysé comme un algorithme.  Dès lors, que ce soit dans le domaine des nano-assemblages d’atomes ou dans celui de l’ingénierie génétique, il suffit d’identifier l’algorithme à mettre en œuvre pour maîtriser le processus.