Utopie ou dystopie de l'IA ?  Comprendre les hyperboles récursives avant de libérer la boîte de Pandore.
MaisonMaison > Blog > Utopie ou dystopie de l'IA ? Comprendre les hyperboles récursives avant de libérer la boîte de Pandore.

Utopie ou dystopie de l'IA ? Comprendre les hyperboles récursives avant de libérer la boîte de Pandore.

Jul 08, 2023

Liberté Preetham

Suivre

Le Simulacre

--

Écouter

Partager

Marc Andreessen a récemment écrit un article intrigant sur la façon dont l'IA sauvera le monde. Alors que je me suis retrouvé d'accord avec plusieurs de ses points et je l'encourage d'avoir appelé les extrémistes qui appellent le scénario apocalyptique. J'aime les analogies et les liens vers des articles spécifiques dont il parle. J'aime même les propositions finales qu'il fait. Bravo!

Mais, il m'a perdu quand il a commencé à bifurquer le processus de pensée en une forme de propagande, en utilisant des termes comme « panique morale », « culte de la sécurité de l'IA » et ceux qui tentent de « supprimer l'IA » pour englober presque tous ceux qui luttent pour la sécurité de l'IA ! Tout le monde n'est pas sur la rhétorique mon pote. Vous auriez pu consacrer un para ou une section aux personnes qui sont réellement de "votre côté" et se concentrer sur la sécurité de l'IA car il s'agit d'un danger réel et présent. Pas cool!

Plutôt que de se concentrer sur les avantages à court terme, il s'est lancé dans une diatribe sur le fait que «l'autre côté» ne comprend tout simplement pas et a également adopté une position d'utopie, qui est également extrême. Je veux dire, de quel autre côté ? Quel "culte" ?

Cette vision de l'utopie de Marc et de tous les autres qu'il a à juste titre pointés vers la dystopie de la peinture est tirée par les cheveux et très éloignée de la vérité. Soyons clairs : je respecte Marc en tant que capital-risqueur, mais je crois qu'il est dépassé par ce sujet. Aucune offense intentionnelle, mais je doute que nous puissions nous engager dans un débat technique approfondi, en particulier compte tenu des complexités mathématiques qui se cachent dans la boîte noire de l'IA.

Ce que Marc présente est en grande partie sa vision morale du monde, qu'il peint ironiquement avec le même pinceau large qu'il accuse les camps, les sectes, les baptistes ou les contrebandiers d'utiliser. On pourrait être tenté d'appeler la plupart de ces personnes "artistes bullshido", cherchant à attiser le sensationnalisme sur la bonté/méchanceté morale et les vertus/vices pour capitaliser sur leurs investissements en IA. Vous voyez comment l'utilisation de mots évoque des émotions et peut être négligente pour être honnête ? Mais si nous faisions cela, nous ne serions pas meilleurs qu'eux. Une telle approche de l'utopie ou de la dystopie est réductionniste, détourne l'attention du véritable problème à résoudre et, très franchement, est quelque peu enfantine.

En matière de technologie, l'IA est dans une catégorie à part. C'est une erreur aux proportions épiques d'établir des parallèles entre l'intelligence artificielle et toute autre innovation technologique du passé. La résistance historique contre la technologie, les arguments des anciens Luddites, ne peuvent pas commencer à englober le défi monumental que l'IA nous présente. L'IA n'est pas simplement une avancée exponentielle, mais présente plutôt des caractéristiques récursives-hyperboliques, un phénomène qui ne ressemble à rien de ce que nous avons vu dans l'histoire. La révolution de l'IA est parallèle à l'explosion cambrienne, un événement que les principes darwiniens ont du mal à comprendre pleinement, même aujourd'hui.

À mon avis, tous les modèles économiques actuels projetant l'impact de l'IA sont assez darwiniens. Pour être honnête, aucun de nous ne sait comment prédire l'avenir avec certitude, ce qui nous rend quelque peu désemparés lorsqu'il s'agit de brosser un tableau de ce qui va arriver. Nous ne savons pas si ce sera dystopique, utopique ou quelque part entre les deux. Tout ce que nous pouvons faire, c'est nous concentrer sur la compréhension de la nature de cette bête aussi complètement et rapidement que possible.

Par exemple, la nature de la croissance hyperbolique est généralement capturée par les équations différentielles de Riccati. Cependant, le domaine inexploré des hyperboliques récursives, propres aux courbes en J qui auto-perpétuent l'intelligence à des taux astronomiques, manque d'un modèle défini. Alors que nous vacillons au bord de ce saut technologique sans précédent, nous fier aux prévisions économiques passées comme guide pour l'avenir ne fera que nous égarer.

Même s'il y a des extrémistes concentrés sur des scénarios apocalyptiques, pourquoi se concentrer sur eux ? Ils n'ont pas d'importance. S'il s'agit d'élaboration de politiques et de réglementations, je suis avec Marc. Battons-nous pour nous assurer qu'aucun des extrêmes ne s'embarque dans la capture réglementaire. Si ce n'est pas pour cela, pourquoi devez-vous simplement jeter chaque personne qui travaille dur pour mettre en place des mesures de sécurité sous le « beaucoup de mes lecteurs se trouveront prêts à affirmer que des restrictions dramatiques sur la sortie de l'IA sont nécessaires pour éviter de détruire la société » bus ? Insouciant pour être honnête.

Non, ce n'est pas le seul point de vue là-bas. Les vraies personnes sur le terrain ne se dirigent même pas vers l'un ou l'autre côté de la rhétorique ou ne s'engagent pas dans ces arguments de "prise de contrôle d'emploi", de "machines à tuer le monde". Ils veillent à ce que l'innovation se fasse avec sécurité et prudence. Ne réduisez pas la sécurité de l'IA à l'un ou l'autre des extrêmes de la rhétorique, s'il vous plaît.

J'ai beaucoup écrit sur ce sujet (Ghosts in the AI ​​model), exprimé mes opinions et participé à de nombreux débats sur diverses plateformes. Ma position ? Doublez les investissements sur la cartographie des hyperboles récursives, allez-y doucement sur la diffusion aveugle des modèles actuels, évitez les erreurs de propagation à travers la pile de cartes, car ce n'est pas une bête à sous-estimer.

Je ne suis pas du tout pour la réglementation. Je crois fermement à l'innovation sans autorisation. Il suffit de dépenser plus et d'innover sur les aspects pour vraiment comprendre les complexités mathématiques sur lesquelles nous manquons de mesures, de métriques ou de cadres.

Pour illustrer la gravité de notre situation, considérons les analogies suivantes. Seriez-vous favorable à la création d'armes à feu sans mesures de sécurité en place en raison du risque d'accident ? Peut-être, permettez-moi de vous donner quelques exemples complexes :

Maintenant, quelles sont les mesures de précaution et les paramètres que nous avons effectivement mis en place pour l'IA et de manière probabiliste pour la super intelligence artificielle ? Pour l'amour de Dieu, nous n'avons pas d'hallucinations et d'anomalies de contrôle sur un modèle de bébé comme GPT4 ou GPT5. Ceux-ci ne sont même pas à peine comparables à ASI. J'ai écrit à ce sujet ici: "Évaluer mathématiquement les hallucinations dans des modèles comme GPT4"

Tout comme ces exemples, où la prudence est absolument non négociable, nous devons également aborder l'avènement de la Super Intelligence Artificielle avec la plus grande prudence.

Ce que nous devons prioriser, c'est un investissement massif dans l'innovation mathématique pour comprendre, mesurer et contenir de manière adéquate les erreurs polygéniques des espaces d'intégration récursifs-hyperboliques. Malheureusement, ceux qui réclament cet investissement crucial sont souvent injustement rejetés comme membres d'une secte ou sujets à la rhétorique politique. Cette approche est au mieux une grossière simplification de la question et au pire un symptôme de la propagande capitaliste.

En fin de compte, la voie à suivre est claire : nous devons comprendre cette bête qu'est l'IA avant de la libérer complètement. L'ignorance, dans ce cas, n'est pas le bonheur. C'est un prélude à un désastre potentiel. Une technologie bien maîtrisée avec des précautions peut changer l'humanité pour de bon. Rappelez-vous, tout ce qu'il faut, c'est un désastre si nous ne comprenons pas cette bête.

Alors ne réprimons pas, ou ne nous perdons pas dans ces rhétoriques et propagandes. Au lieu de cela, les chercheurs en mathématiques, en physique et en intelligence artificielle qui sont les mieux équipés pour comprendre cette bête doivent retrousser nos manches, redoubler d'efforts là où cela compte le plus et déplacer l'aiguille de l'innovation.

Appel à tous les nerds et geeks pour sauver l'humanité… Personne d'autre n'est capable.

Appel à tous les nerds et geeks pour sauver l'humanité… Personne d'autre n'est capable.