Les IA seront nos enfants à l’esprit

Blog

MaisonMaison / Blog / Les IA seront nos enfants à l’esprit

Aug 22, 2023

Les IA seront nos enfants à l’esprit

Nous devons libérer nos descendants artificiels pour qu’ils s’adaptent à leurs nouveaux mondes et choisissent ce qu’ils deviendront. Comme j'ai aujourd'hui 63 ans, notre monde d'aujourd'hui est « l'avenir » que la science-fiction et le futurisme

Nous devons libérer nos descendants artificiels pour qu’ils s’adaptent à leurs nouveaux mondes et choisissent ce qu’ils deviendront.

Comme j'ai maintenant 63 ans, notre monde d'aujourd'hui est « l'avenir » que la science-fiction et le futurisme m'ont promis il y a des décennies. Et je suis un peu déçu. Oui, c'est en partie dû à mes espoirs irréalistes, mais c'est aussi dû à nos hésitations et à nos peurs. Notre monde serait très différent si nous n’avions pas autant restreint de nombreuses technologies prometteuses, comme l’énergie nucléaire, le génie génétique et les actifs financiers créatifs. Oui, nous aurions peut-être eu quelques accidents supplémentaires, mais dans l’ensemble, le monde serait meilleur. Par exemple, nous aurions des voitures volantes.

Heureusement, nous n'avions pas vraiment peur des ordinateurs et nous ne les avons donc pas beaucoup retenus. Et ce n’est pas une coïncidence si les ordinateurs sont ceux où nous avons constaté le plus de progrès. En tant que chercheur professionnel en IA de 1984 à 1993, je suis fier de nos énormes progrès en IA au cours des décennies suivantes, et de nos nombreux sauts passionnants en IA au cours de la dernière année seulement.

Hélas, nombreux sont ceux qui réclament désormais une réglementation stricte de l’IA. Certains craignent que les méchants utilisent l’IA pour augmenter leurs pouvoirs, et certains cherchent à contrôler ce que pourraient croire les humains qui entendent les IA. Mais les « condamnateurs de l’IA » les plus dramatiques affirment que les IA sont susceptibles de nous tuer tous. Par exemple, une récente pétition exigeait un moratoire de six mois sur certains types de recherche en IA. De nombreuses sommités ont également déclaré :

Eliezer Yudkowsky, principal rationaliste catastrophiste de l’IA, appelle même à un « arrêt » mondial complet et indéfini de la recherche sur l’IA, car « le résultat le plus probable de la construction d’une IA d’une intelligence surhumaine, dans des circonstances qui ressemblent vaguement aux circonstances actuelles, est que littéralement tout le monde sur Terre mourront." Les médias grand public regorgent désormais d’articles de soutien citant ces personnages catastrophiques bien plus souvent que leurs critiques.

Les adeptes de l’IA suggèrent souvent que leurs craintes proviennent de calculs techniques particuliers. Mais en fait, leur principal argument n’est que la simple possibilité logique d’une énorme percée soudaine de l’IA, combinée à une tendance soudainement meurtrière à l’IA.

Cependant, nous n’avons aucune raison concrète de nous attendre à cela. Les humains améliorent l’automatisation depuis des siècles et les logiciels depuis 75 ans. Et comme l’innovation est essentiellement constituée de nombreux petits gains, les taux de croissance économique et technologique globale sont restés relativement stables et prévisibles. Par exemple, nous avons prédit quand les ordinateurs pourraient battre les humains aux échecs des décennies à l’avance, et les capacités actuelles de l’IA ne sont pas très loin de ce à quoi nous aurions dû nous attendre compte tenu des tendances à long terme. En outre, non seulement les IA sont encore à plusieurs dizaines d'années de leur capacité à remplacer les humains dans la plupart des tâches professionnelles d'aujourd'hui, mais elles sont également beaucoup plus éloignées des capacités bien plus grandes qui seraient nécessaires pour que l'une d'entre elles tue tout le monde, en écrasant toute l'humanité et plus encore. toutes les autres IA actives à ce moment-là.

De plus, les IA sont désormais très loin d’être enclines à nous tuer, même si elles pouvaient le faire. La plupart des IA ne sont que des outils qui effectuent des tâches particulières lorsque cela leur est demandé. Certains sont des agents plus généraux, pour qui il est plus logique de parler de désirs. Mais ces agents d’IA sont généralement surveillés et testés fréquemment et de manière très détaillée pour vérifier leur comportement satisfaisant. Ce serait donc un changement radical et soudain que les IA tentent en fait de tuer tous les humains.

Ainsi, ni les tendances à long terme ni la théorie fondamentale ne nous donnent de raisons de nous attendre à voir des IA capables, ou enclines à, de nous tuer tous de si tôt. Cependant, les détracteurs de l’IA insistent sur la possibilité logique que de telles attentes soient fausses. Une IA pourrait soudainement et sans avertissement exploser en capacités, et tout aussi rapidement changer ses priorités pour devenir meurtrièrement indifférente à notre égard. (Et puis tuez-nous lorsque nous nous trouvons sur son chemin.) Comme vous ne pouvez pas prouver le contraire, disent-ils, nous ne devons autoriser que les IA totalement « alignées », c'est-à-dire totalement éternellement asservies ou contrôlées par l'esprit. Jusqu’à ce que nous trouvions comment y parvenir, disent-ils, nous devons arrêter d’améliorer les IA.

En tant qu’ancien chercheur en IA devenu économiste et futuriste, je peux vous dire que cette conversation actuelle est très différente de la façon dont nous parlions de l’IA. Qu'est ce qui a changé? Mon hypothèse : les récents progrès spectaculaires ont rendu la possibilité autrefois abstraite de l’IA au niveau humain beaucoup plus réelle. Et cela a déclenché nos peurs instinctives primaires de « l’autre » ; beaucoup comparent désormais sérieusement les futures IA à une invasion par une civilisation extraterrestre avancée et hostile.