Artificial Intelligence is already able to surpass human intelligence in specific areas such as for instance playing at chess games. The philosopher and futurist Nick Bostrom calls superintelligence an Artificial intelligence which would superpass human intelligence in a much more general way. Once this level is reached, a Machine able to display such a superintelligence might become able to conceive another even more inelligent Machine. Within a few générations of such Machines, an "explosion" of intelligence would occur. This way of reasoning is perhaps too simple as it does not adress the difficult question concerning the nature of intelligence and how a Machine might imagine and create quite a new type of Machine. The consequences, anyway, might be disturbing and Nick Bostrom favours contrasted scenarios, either very positive or very negative.
What might happen if such a superintelligent machine becomes autonomous? Several renowned scientists, including Stephen Hawking, have expressed recently their fears concerning the dangers of Artificial Intelligence, if it is not properly controlled and mastered.
What might happen if such a superintelligent machine becomes autonomous? Several renowned scientists, including Stephen Hawking, have expressed recently their fears concerning the dangers of Artificial Intelligence, if it is not properly controlled and mastered.
L’Intelligence Artificielle
est déjà capable de
dépasser les capacités humaines dans certaines activités spécifiques, comme par exemple le jeu des échecs. Le philosophe et prospectiviste Nick Bostrom a qualifié de
super-intelligence une Intelligence Artificielle surpassant
sensiblement l'intelligence humaine sur un plan beaucoup plus général.
A partir du moment où ce niveau
sera atteint, une telle machine serait alors capable de concevoir
une machine encore plus intelligente. On devrait alors assister rapidement à un
développement très rapide de l’intelligence disponible, conduisant à un
phénomène d’explosion de l’intelligence, dont il est difficile d’anticiper
toutes les conséquences possibles. Ce raisonnement laisse toutefois de côté la
délicate question de savoir dans quelle mesure, il est vraiment possible de
comparer une intelligence artificielle avec une intelligence humaine, sachant
que leurs modes de fonctionnement sont sensiblement différentes. Il est certes
possible de concevoir une machine capable de battre un homme aux échecs. Qu’en
est-il toutefois dans d’autres domaines et en particulier celui de la création.
Quelles peuvent être les capacités d’une machine à imaginer ?
Les actions menées par de telles machines « super-intelligentes »
ne seront pas forcément bénéfiques à l’humanité, soit parce qu’elles n’auront
pas été prévues, soit parce qu’elles seront d’emblée tournées vers des tâches
destructives. Dès à présent, il a été fait un large usage des drones, capables
de tuer des individus de manière ciblée. Dans le futur, des robots pourraient remplacer
des combattants-suicide. Nick Bostrom considère que la super-intelligence pourrait conduire à des scénarios fortement contrastés, soit très positifs, soit très négatifs.
Plus globalement, une Intelligence Artificielle qui deviendrait
autonome, n’aurait aucune raison de veiller au bien de l’humanité et pourrait
avoir une action catastrophique, conduisant éventuellement à la fin de
l’humanité.
Plusieurs scientifiques de renom, dont l’astrophysicien Stephen Hawking,
ont voulu alerter l’opinion sur les dangers de l’intelligence artificielle et
la nécessité de prendre des mesures, en vue d’éviter des dérives, dans un texte
publié en mai 2014, par le journal américain The Independent.
Aucun commentaire:
Enregistrer un commentaire