- Retour au menu
- Retour au menuTarifs
- Retour au menuRecherche
- Retour au menuConsensus
- Retour au menu
- Retour au menu
- Retour au menu
- Retour au menuWebinaires et Événements
Les boosters d'IA sacrifieraient l'humanité pour un simulacre - tant qu'ils ont le contrôle
Le soutien à l’IA et les idées « à long terme » qui y sont associées peuvent constituer une menace pour votre Politique de confidentialité, votre propriété et vos droits civils.
Les humains ont toujours entretenu une relation étrange avec la Technologies. Qu'il s'agisse du feu, de l'écriture ou de l'intelligence artificielle (IA), les choses que nous créons pour nous autonomiser et nous épanouir nous apparaissent souvent comme d'étranges forces extérieures, dont l'impact transformateur sur nos vies et nos esprits est aussi profond et imprévisible que celui de dieux capricieux.
Cet article est extrait de The Node, le résumé quotidien de CoinDesk des sujets les plus importants de l'actualité blockchain et Crypto . Abonnez-vous pour recevoir l'intégralité de l'article. newsletter ici.
Au XXIe siècle, de nombreuses technologies, comme les réseaux sociaux, ont encore du T à absorber leur impact. D'autres, notamment l'intelligence artificielle et les Cryptomonnaie, ne sont pas encore pleinement développées, mais sont susceptibles d'avoir un impact majeur sur nos modes de vie. Cela influence notamment notre façon de concevoir le monde : les groupes Human sont souvent profondément influencés par les biais inhérents aux technologies dont ils dépendent. (Cette relation entre l'humanité et sa Technologies a été au cœur de ma carrière universitaire avant de me tourner vers le journalisme.)
Les cas de l'IA et des Cryptomonnaie sont particulièrement passionnants. Leurs fondements technologiques respectifs renvoient à des idées beaucoup plus vastes sur la société, voire sur la moralité individuelle. Ces deux courants d'idées semblent également, à bien des égards, diamétralement opposés. D' un côté, on trouve les idéologues des Crypto , souvent libertaires ; de l'autre, l'utopisme technologique des promoteurs de l'IA.
Le principe CORE de la technologie blockchain est l'universalité. L'objectif est que chacun, partout, puisse accéder à ces outils et services, que les autorités l'acceptent ou non. Ce principe a pour corollaire une très grande importance accordée à la Politique de confidentialité . Ces valeurs engendrent un chaos considérable, mais l'éthique sous-jacente repose sur la conviction que ce chaos est productif, ou du moins un compromis nécessaire à l'épanouissement Human .
Les communautés de l'intelligence artificielle ont tendance à adopter une vision du monde très différente, étroitement liée à la structure de la Technologies. Le rôle fondamental d'une IA est d'observer le comportement Human puis de le copier, dans toutes ses nuances. Cela a de nombreuses implications, dont les principales incluent la fin à terme du travail Human , la centralisation technique et une tendance à la transparence totale des données.
Ces idées peuvent paraître anodines, voire positives. Mais pour le dire franchement, les conséquences des biais techniques de l'IA semblent bien sombres pour l'humanité. Il est donc d'autant plus fascinant de voir les promoteurs de l'IA non seulement accepter ces sombres implications, mais travailler sans relâche pour les concrétiser.
Tu T plus Human
La manifestation la plus manifestement malveillante de la vision du monde de l'IA pourrait bien ne pas en avoir l' ONE. Worldcoin semble être un projet de Cryptomonnaie conçu pour distribuer un « revenu de base universel » (RBU) en échange de récolte de données biométriques ultra-sensiblesissus de populations vulnérables.
Mais bien qu'il s'agisse d'une « Crypto» en apparence, Worldcoin est en réalité un projet d'IA. Il est né de l'imagination de Sam Altman, également fondateur d'OpenAI. Son objectif, identifier les individus et leur fournir un revenu de base universel, repose sur un avenir où l'intelligence artificielle prendra le relais de tous les emplois Human , nécessitant une redistribution centralisée des richesses générées par l'IA.
Voir aussi :Pourquoi tout le monde est en colère contre le Worldcoin de Sam Altman(2021)
On oublie souvent que, dans le futur, des gens comme Sam Altman conserveront un travail enrichissant et une liberté individuelle, car ce sont eux qui feront fonctionner les machines. Le reste d'entre nous, semble-t-il, devra subsister grâce aux Worldcoin.
Si cela semble déshumanisant, essayez ceci pour voir votre taille : droits de Human pour les machinesDans un essai publié dans The Hill le 23 mars, la collaboratrice Jacy Reese Anthis a déclaré : « Nous avons besoin d’un mouvement pour les droits de l’IA. » Comme beaucoup l’ont souligné, c’est philosophiquement suspect, car il n’existe aucune preuve convaincante que les intelligences artificielles auront ou pourront un jour avoir une expérience subjective, ou connaître la souffrance d’une manière qui nécessiterait une protection.
Les promoteurs de l'IA ont déployé des efforts considérables pour obscurcir cette question de la conscience subjective. Ils ont lancéun ensemble d'arguments trompeurs et malveillantsque les IA – y compris, de manière absurde, les modèles de langage existants actuellement – possèdent une certaine forme de conscience, ou l’expérience subjective d’être dans le monde.La conscience et ses originesfont partie des plus grands mystères de l’existence, mais les défenseurs de l’IA semblent souvent avoir une compréhension superficielle du problème, ou même de ce que signifie le mot « conscience ».
Anthis, cofondateur de ce qu’on appelle le Sentience Institute, répète dans son essai l’erreur logique cardinale de nombreuses recherches erronées sur l’IA : accepter sans esprit critique le résultat visible de l’IA comme un signe direct d’une expérience subjective interne.
Aussi fou que soit l'appel aux droits de l'IA, nous T encore abordé les limites du battage médiatique malavisé autour de l'IA. Fin mars, Eleizer Yudkowsky, aspirant philosophe-roi, a suggéré que ses disciples devraient se préparer àcommettre des attaques violentes sur des fermes de serveursafin de ralentir ou d’arrêter l’avancée de l’IA.
Certains pourraient être surpris que j'inclue Yudkowsky parmi les partisans de l'IA. Yudkowsky est le leader du mouvement « Sécurité de l'IA », né de son blog « rationaliste » LessWrong, et affirme que l'IA pourrait potentiellement conquérir le monde et détruire l'humanité. La validité de ces idées est sujette à débat, mais l'important ici est que Yudkowsky et ses pairs soi-disant rationalistes ne s'opposent T à l'intelligence artificielle. Les partisans de Yudkowsky croient que l'IA peut engendrer une utopie (une utopie dont ils seraient responsables), mais qu'elle comporte de sérieux risques. Ce sont fondamentalement des défenseurs de l'IA déguisés en sceptiques.
Cela contraste avec le scepticisme plus authentique et fondé de personnalités telles que Timnit Gebru etCathy O’NeilCes chercheurs, loin d'avoir autant d'adeptes que Yudkowsky, T d'une apocalypse lointaine. Leur préoccupation est un danger clair et présent : les algorithmes entraînés sur le comportement Human reproduisent également les défauts de ce comportement, comme la discrimination raciale et autres. Gebru était notoirement connu.renvoyé de Googlepour avoir eu la témérité designalerproblèmes avec l'IAqui menaçait le modèle économique de Google.
Vous remarquerez peut-être la similitude ici avec d’autres mouvements idéologiques, en particulier les idées connexes de« altruisme efficace » et « vision à long terme ».Emile P. Torres, philosophe basé à l'Université Leibniz en Allemagne, fait partie de ceux qui décrivent l'alignement profond et les affiliations entre les yudkowskystes, les « transhumanistes », les altruistes efficaces et les partisans du long terme, sous l'acronymeTESCREAL. Pour ne citer ONE petit exemple de cet alignement, FTX, la plateforme d'échange de Crypto frauduleuse composée en grande partie d'altruistes efficaces et dirigée par un homme qui prétendait en être un, a fait d'importants dons (en utilisant des fonds prétendument volés) àSécurité de l'IAgroupes, ainsi que d’autres causes à long terme.
Cet ensemble de visions du monde, soutient Torres, se résume à «coloniser, subjuguer, exploiter et maximiser.” Dans Worldcoin en particulier, nous voyons un aperçu de l’autoritarisme implacable d’un monde où les machines copient sans cesse les comportements Human et les remplacent – à l’exception de la poignée d’humains qui ont les mains sur la barre.
Voir aussi :L'intersection de l'IA et de la Crypto| L'argent réinventé
Il y aurait encore beaucoup à dire ici, mais pour les acteurs du monde des Crypto , une déclaration de l'axe TESCREAL mérite une attention particulière. Dans un essai très récent, Yudkowsky a déclaré que la menace future d'une intelligence artificielle dangereuse pourrait nécessiter une « surveillance mondiale très stricte, incluant briser tout cryptage, pour empêcher tout comportement hostile de l'AGI.
En d'autres termes, pour ces personnes, la Politique de confidentialité et l'autonomie des humains doivent être abandonnées au profit de la création des conditions d'une expansion sûre et continue de l'intelligence artificielle. Je vous laisse décider si c'est un avenir, ou un présent, que chacun devrait souhaiter.
Примітка: Погляди, висловлені в цьому стовпці, належать автору і не обов'язково відображають погляди CoinDesk, Inc. або її власників та афіліатів.
David Z. Morris
David Z. Morris était chroniqueur en chef chez CoinDesk. Il écrit sur les Crypto depuis 2013 pour des médias tels que Fortune, Slate et Aeon. Il est l'auteur de « Bitcoin is Magic », une introduction à la dynamique sociale du Bitcoin. Ancien sociologue universitaire spécialisé dans les Technologies , il est titulaire d'un doctorat en études des médias de l'Université de l'Iowa. Il détient des Bitcoin, des Ethereum, des Solana et de petites quantités d'autres Crypto .
