Bien-être & Développement personnel

Discutions amicales
 
AccueilAccueil  S'enregistrerS'enregistrer  Connexion  

Partagez | 
 

 Superintelligence

Voir le sujet précédent Voir le sujet suivant Aller en bas 
AuteurMessage
Admin
Admin
avatar

Messages : 319
Date d'inscription : 16/04/2016

MessageSujet: Superintelligence   Mer 28 Juin - 12:03

Superintelligence

En lisant ce résumé, vous découvrirez qu’une superintelligence pourrait succéder à l’intelligence humaine et qu’elle serait susceptible de faire disparaitre l’humanité. Cette éventualité peut être envisagée aux progrès rapides de la recherche dans le domaine de l’intelligence artificielle et n’est pas un scénario de science-fiction.

Vous découvrirez aussi que :

- la création d’une superintelligence risque de voir le jour prochainement ;

- nous assisterons à une explosion de l’intelligence et non à un lent processus évolutif ;

- le recours immédiat à une pratique déontologique est crucial dans le domaine de l’intelligence artificielle ;

- l’auteur propose des solutions de collaboration internationale pour le développement d’une superintelligence.

Le scientifique et philosophe suédois, Nick Bostrom, présente les voies d’accès au développement d’une superintelligence et explique quelques stratégies pour y parvenir. Il exprime également les dangers d’une telle entreprise et propose des solutions éventuelles qu’il nous invite à explorer.

La superintelligence est un intellect qui dépassera les capacités cognitives de l’Homme et apparaitra probablement dans les décennies à venir

L’auteur définit la superintelligence comme un intellect qui surpassera largement les performances cognitives du cerveau humain dans la plupart des domaines. Il est vraisemblable que cette superintelligence n’aura pas une configuration humanoïde telle qu’elle est représentée dans les œuvres de science-fiction. Elle apparaîtra plutôt sous une forme synthétique et numérique au fur et à mesure des progrès effectués par l’intelligence artificielle.

Depuis les années 50 et encore aujourd’hui, les progrès de l’intelligence artificielle consistent à entrer des commandes de programmation dans des ordinateurs. Les systèmes ainsi créés sont impressionnants, mais extrêmement spécialisés tels les logiciels de jeux, qui peuvent gagner aux échecs ou au jeu de go contre un champion du monde. On se dirige cependant de plus en plus vers des machine learning. On crée des systèmes qui apprennent eux-mêmes en se nourrissant de données brutes, un peu comme le ferait un enfant qui grandit.

Le domaine de l’intelligence artificielle a connu ses envols et ses périodes de creux. Nous sommes en train de vivre un regain d’intérêt dans ce domaine. L’auteur a enquêté auprès de 550 collaborateurs et leur a demandé à quelle date ils pensaient que les scientifiques achèveraient la complétion d’une machine dont l’intelligence égalerait celle d’un humain. 90% ont proposé l’année 2075 avec, selon 75% d’entre eux, l’apparition d’une superintelligence 30 ans plus tard.

L’auteur parle d’une « auto-amélioration récursive » pour expliquer le fait qu’une intelligence artificielle s’auto-améliorerait jusqu’à la création d’une superintelligence. En effet, si une intelligence artificielle atteint un niveau égal à celui d’un cerveau humain, c’est-à-dire un niveau égal à son inventeur, alors cette intelligence artificielle pourra, à son tour, générer un cerveau plus puissant et ainsi de suite, de façon exponentielle. On assistera à une situation explosive. Si des contrôles ne sont pas mis en place antérieurement à l’apparition soudaine de cette intelligente transcendante, cela signifierait que le destin de l’humanité dépendrait de la superintelligence ainsi générée.

Les moyens de créer une superintelligence seront bientôt à notre disposition

Avant de conclure à l’inévitable apparition d’une superintelligence engendrée artificiellement, l’auteur examine quelques conjonctures biologiques pour générer une superintelligence.

Un cerveau humain pourrait être reproduit dans sa totalité, par étape. Une première étape serait la préservation par congélation immédiate d’un cerveau humain post-mortem, ensuite on procèderait à la dissection de ce cerveau en tranches fines, puis au scanning de chaque tranche. Enfin, les données recueillies seraient entrées dans un ordinateur pour reconstruire le réseau neuronal en 3D. Nous obtiendrions par ce processus la création d’une structure neuro-computationnelle sur un ordinateur très sophistiqué. Le résultat serait une reproduction digitale du cerveau. Pour en arriver là, il faut bien entendu davantage de compétences biotechnologiques. Il est cependant plausible qu’un tel cerveau apparaisse d’ici 50 ans.

On peut aussi raisonnablement imaginer que l’augmentation du fonctionnement du cerveau biologique actuel pourrait se faire par la pharmacologie ou par une sélection génétique. À part la question éthique qui mérite d’être soulignée bien entendu, ces procédés sont longs et facilement rattrapables par les progrès technologiques. Le débit de transmission de l’information d’un neurone humain est bien plus faible que sa réplique électronique, autant par sa fréquence que par sa vitesse de transmission.

De plus, le système neuronal biologique est limité par le volume d’une boîte crânienne alors que nous pouvons envisager des ordinateurs aux tailles volumineuses pour contenir des cerveaux électroniques. Une superintelligence obtenue par des moyens non biologiques et associée à des recherches purement instrumentales et mécaniques est sûrement plus efficace et verra le jour plus rapidement.

La superintelligence se présentera sous plusieurs formes

L’auteur différencie trois formes de performances superintelligentes qui seraient susceptibles d’apparaître dans un substrat numérique plutôt que biologique. La première est celle de la rapidité extrême comme lire une thèse de doctorat en moins d’une seconde. Il s’agirait là d’une intelligence humaine, mais qui fonctionnerait 10 000 fois plus rapidement qu’un cerveau humain. La seconde est celle d’une superintelligence collective qui agirait comme un agrégat de nombreuses intelligences très spécialisées communiquant et fonctionnant ensemble. Nous connaissons déjà ce phénomène de segmentation de sous-problèmes pour en résoudre un plus grand par la division du travail, qu’il s’agisse de la construction d’un avion ou d’une collaboration académique. Ce type d’intelligence a évolué historiquement et naturellement. Enfin, la troisième forme serait une superintelligence qualitative dont la vitesse serait égale ou supérieure à celle d’un cerveau humain et sa qualité bien supérieure.

Cette dernière forme engage uniquement la question de la performance. Mais il faut aussi s’interroger sur la dimension éthique présupposée par l’intelligence artificielle. Cela implique l’analyse des motivations qui animeraient une éventuelle superintelligence. Il est important de soulever la question des précautions à prendre face à la menace que cette superintelligence fait peser sur le devenir de notre existence.

L’arrivée d’une superintelligence se fera sous l’aspect d’une déflagration rapide et entrainera des conséquences

Une fois que la machine aura atteint un degré d’intelligence qui égale un cerveau humain, combien de temps faudra-t-il pour atteindre le niveau d’une superintelligence transcendante ? La transition sera-t-elle lente ou serons-nous les témoins d’une déflagration rapide et imprévue de l’intelligence supérieure ? Un essor lent, sur plusieurs décennies, donnerait le temps de mettre en place une déontologie. En revanche, un essor rapide, sur quelques heures, risque de voir la fin de l’humanité si la mise en place d’une éthique d’utilisation n’a pas commencé à un stade bien antérieur à cet essor rapide. Enfin, un essor modéré dans le temps, sur quelques années, donnerait le temps de réagir mais sans une solide mise en place préalable. Ainsi, les conséquences de l’apparition d’une superintelligence varieront grandement selon l’échelle de temps associée à son développement. C’est cet écart-temps qui décidera du danger des risques existentiels.

L’essor de l’intelligence artificielle est une menace pour le futur de notre existence

Bostrom définit le concept de risque existentiel comme un risque qui menace de causer l’extinction de la vie intelligente sur Terre ou de détruire de façon permanente son potentiel pour le développement d’un avenir souhaitable.

Il décrit ce risque de trois façons. La première est que l’apparition d’une superintelligence, par le simple fait qu’elle serait la première et qu’elle serait unique, aurait l’avantage stratégique de décision par rapport à toute autre forme d’intelligence. Cette intelligence autocrate, ce « singleton » comme il l’appelle, serait en position de gérer à son goût, le futur de toute vie intelligente sur Terre. La seconde, ce que Bostrom nomme la « thèse orthogonale », est que, l’objectif d’une superintelligence serait forcément d’avoir, pour sa propre survie, un but absolu qu’elle voudrait résolument accomplir. Par contraste, les intelligences humaines s’accommodent du fait que leurs objectifs et leur propre finalité sont indéterminés, indistincts, mystérieux, c’est d’ailleurs ce qui définit la nature humaine. Or, cette obsession de la finalité risque de ne pas être favorable à l’humanité. La troisième manière est qu’en vue d’une convergence vers un objectif, la superintelligence établirait des stratégies pour mener à bien des sous-objectifs purement instrumentaux et tout aussi nuisibles aux êtres humains.

De ce fait, une superintelligence initiale aurait pour simple objectif d’acquérir des ressources pour accomplir son but ultime et cela impliquerait que nous, humains, pourrions faire partie de ces ressources dont la superintelligence aurait besoin. Même contrôlée, la superintelligence pourrait déraper dangereusement. Au début, une intelligence artificielle peut ne pas poser de menace durant son développement et sa période d’essai. Puis, lorsqu’elle se sent suffisamment puissante, elle pourrait prendre un tournant dangereux, c’est-à-dire décider d’optimiser son environnement de telle manière que cela se transforme en une menace existentielle.

Même si au départ, le but d’une superintelligence n’est pas forcément maléfique, elle pourrait tout de même entrainer la fin de l’humanité. En effet, si une superintelligence « comprenait » par exemple que sa finalité était de produire des trombones ou d’ajouter des décimales au nombre Pi, elle pourrait décider de nous considérer comme une excellente matière première pour sa production de trombones. Elle pourrait alors nous utiliser comme ressources d’atomes, surtout si notre intelligence humaine est une menace à sa frénésie numérique parce qu’elle percevrait parfaitement que nous risquerions éventuellement de mettre fin à sa multiplication inutile de trombones.

Un système de contrôle doit être développé devant les risques existentiels liés à la recherche d’une superintelligence

L’auteur pose la question des motivations d’une superintelligence. Peut-on dès maintenant faire en sorte que ces motivations soient des valeurs semblables aux nôtres et qu’elles le restent au fur et à mesure de l’évolution de la superintelligence ? Il faut trouver des solutions de contrôle avant le développement technologique de l’intelligence artificielle. Cela dit, comment programme-t-on des valeurs humaines, telles que la justice ou l’amour en C++ (langage informatique) ? Très rapidement, on voit que se pose le problème du choix de motivation. Bostrom propose la notion de « normativité indirecte », c’est-à-dire que l’intelligence artificielle ferait ses choix en effectuant le même processus cognitif que nous ferions nous-mêmes. Ainsi, au lieu de se poser la question : quels critères de motivation choisir ? Il faudrait plutôt introduire la question empirique : qu’aurait fait l’humain selon ces circonstances ? Dans ce cas, on obtiendrait une superintelligence qui ferait non pas les « bons choix », mais qui refuserait d’effectuer certaines commandes allant contre le bien commun.

Il faudra aussi considérer une protection physique du système. Une des méthodes de protection pourrait être de calfeutrer cette superintelligence artificielle dans un contenant hyper-sécurisé et de l’utiliser seulement à bon escient. L’auteur conclut que cette solution est simpliste. Il est évident qu’une superintelligence saurait développer des moyens pour échapper à ce confinement.

C’est donc à la genèse de sa conception qu’il faut implanter des moyens de contrôle pour qu’une superintelligence confirmée puisse estimer systématiquement la « validité » d’une commande.

Une prévention des risques liés à l’intelligence artificielle doit se gérer à l’échelle mondial

Il faut éviter l’erreur commise lors du développement de la recherche sur les armes atomiques qui produirait une situation de course compétitive au cours de laquelle chaque entité travaillerait à être la première à découvrir la superintelligence la plus performante. Il faut dès à présent avoir le souci d’une sécurité internationale dans ce domaine. À cet égard, l’auteur cite les exemples du CERN ou de la station spatiale internationale.

Il faut profiter maintenant de notre ignorance technologique pour décider de mettre en place une intelligence artificielle bénéfique, internationale et contrôlée qui aurait pour seul objectif le bien commun. Il serait bon d’établir dès le début que la superintelligence bientôt générée profiterait avant tout à l’humanité. À titre d’exemple, si des profits financiers sont réalisés et après un plafond important d’octroi aux actionnaires, au-delà de ce plafond, les revenus seraient redistribués dans des projets vertueux pour le bienfait de l’humanité. Chaque gouvernement adopterait des lois et des traités en ce sens. Les contributeurs : mathématiciens, philosophes, informaticiens, économistes, mais aussi journalistes et bailleurs de fonds seraient mobilisés autour du projet d’une intelligence artificielle.

Devant la perspective de l’explosion de l’intelligence, les populations sont comme des enfants qui jouent avec une bombe. Un enfant raisonnable poserait doucement la bombe là où il se trouve et irait chercher l’aide d’un adulte. Mais un enfant déraisonnable ? De plus, dans le cas qui nous occupe, il n’y a pas d’adulte à aller chercher. La meilleure attitude est probablement de se déterminer à passer cet examen comme si notre futur dépendait de la réussite à cet examen, puisque c’est le cas.

Conclusion

Nick Bostrom demande que notre priorité morale soit la réduction du risque existentiel lié à l’intelligence artificielle. Il souhaite que l’humanité, lors de son itinéraire civilisationnel, exerce un usage bienveillant et jubilatoire du privilège fondamental offert par notre planète : celui de la vie.

Ce qu’il faut retenir de la lecture de ce résumé :

- la superintelligence est un intellect qui dépassera les capacités cognitives de l’Homme et apparaitra probablement dans les décennies à venir ;

- les moyens de créer une superintelligence seront bientôt à notre disposition ;

- la superintelligence se présentera sous plusieurs formes ;

- l’arrivée d’une superintelligence prendra l’aspect d’une déflagration rapide et entrainera des conséquences ;

- l’essor de l’intelligence artificielle est une menace pour le futur de notre existence ;

- un système de contrôle doit être développé devant les risques existentiels liés à la recherche d’une superintelligence ;

- une prévention des risques liés à l’intelligence artificielle doit se gérer à l’échelle mondiale.
Revenir en haut Aller en bas
http://entraide.forumactif.org
 
Superintelligence
Voir le sujet précédent Voir le sujet suivant Revenir en haut 
Page 1 sur 1

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
Bien-être & Développement personnel :: Salle de lecture :: KOOBER( résumés) de livres-
Sauter vers: