L'intelligence artificielle

 

L’intelligence Naturelle (l’IN) tellement plus utile que l’IA

Source : RzO international - Le 23/12/2023.

par Gilbert Guingant

Soit contre la déferlante propagande où l’IA, Intelligence Artificielle, serait supérieure à tout le reste. Et non l’Intelligence Naturelle : l’IN ? Celle qui entre partout comme IN (à l’intérieur, dans le foyer, aux centres mêmes, partout…). Ne perdant rien, tout y est magistralement recyclé, rien n’est jeté. Pas de déchets, ni de paroles dépréciatrices. N’excluant rien ni personne : la Nature a tout de même 3,8 millions d’années… d’avance sur nous. En Recherche et Développement, par exemple. À ajouter : l’IN est là également pour tout le monde. Ni pour dominer ni pour diviser. Mais afin de rassembler les humains, toutes les énergies positives pour un réel «bien commun» !

1. Le biomimétisme est tellement supérieur aux jouets puérils de l’IA

Jouets de pouvoirs déjà obsolètes : exclure tous les autres, garder le monopole. Tout sacrifier pour des surprofits si immérités. Ce que la vraie Constitution ne permet surtout pas ! Elle dit puissamment «pas de privilèges». Aucun. Impossible de comprendre de travers.

L’IA, pour nous, se découvre de peu d’utilité globale : sinon truquer les vraies réalités afin de manipuler et tromper les foules. On voit d’ici que de s’en passer serait le progrès… retrouvé.

Face aux arts c’est de l’entropie d’usure. Plus jamais de nouveauté. Plus d’apport inattendu des humains insurpassables dans les créativités. Plus d’Histoire. Que la rengaine de routines de zombis. Que du vieux ressassé.

Contre les activités collectives partagées ; un choix insensé d’inhumanités. Celle de l’infâme exploit (!) d’exploiter. À la portée des médiocrités. Dénudant le capitalisme comme de comble du sordide : comme le refus puéril du partage des plus-values (plus-values bien existantes puisque les valeurs «ajoutées» des TVA). Depuis l’année 1975 et suite le SMIC n’est plus indexé au C de Croissance. Contre la vraie loi il est désindexé… Les salaires sont bloqués, sauf (hérésies !) les trop hauts qui délirent et desservent tant l’économie réelle. Donc pour l’avidité de quelques ex-humains devenus robots inhumains il faudrait régresser vers une… non société invivable ?

Et, barrages partout : confier les guerres à l’IA. Soit la toujours inadmissible fuite du «non coupables et/ou non responsables et il faudrait laisser… les responsabilités à ces irresponsables ?

Comment le savons-nous ? Ce que les GAFA ont tant trahi, le «brainstorming» (tempêtes dans les têtes), recelait tant de très bonnes méthodes – que, nous, nous conservons pieusement. Par exemple ? Pousser n’importe quelle proposition à son «extrême point de ridicule». Que vous inspire, alors, de lire «l’IA va chasser tous les fraudeurs» ? Nous ceci : immédiatement les paradis fiscaux vont être renforcés, facilitées les sordides optimisations fiscales (pour voler le fisc mais, soi-disant, légalement), plus toutes les autres fraudes des «trop» riches, rien de cela, non, ne se verra chassé ni pourchassé. L’inintelligence artificielle va pile s’arrêter à l’escroquerie de ne débusquer que les «petits», les pauvres et les moyens.

Donc le détournement benêt d’une prétendue IA aboutira, immanquablement, à plus d’inégalités, de stupidités fascistes des faux dirigeants – bref, du «nouveau» capitalisme comme la plus grande des délinquances ? On dirait. L’IA n‘est qu’un prétexte, un truc de trucages, un misérable gadget. Tout le contraire d’une évolution. D’ailleurs il suffisait de s’arrêter au mot «artifices» d’artificiel (feux grèges, pétards mouillés) pour ressentir à quel point l’apparition de l’IA ne pouvait servir qu’à tromper, duper, mentir et voler en direct. Quant à la prétendue intelligence plus la peine d’y compter. Soit, imaginons à quel point le petit-chef va oser «la machine l’a dit, l’IA, plus intelligente que vous, le dit, donc je peux vous écraser… en toute bêtise !», etc. – afin de se/nous/vous protéger de toutes vaines illusions !

À noter que, pour nous, tout ce qui, dans la vraie IA, restera sérieux et honnête, collectif et partageable, universel et sans censure, sera retransmis, avec respect, au plus vite.

Les apports de l’IA ? Non, non – seulement à la marge et très surveillés, les apports de l’Intelligence artificielle (qui ne sait même pas définir… l’intelligence !) ne sont pas positifs : «l’IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables». Etc. Seul l’humain réhabilité y accède pleinement. Donc le nom «publicitaire» Intelligence Artificielle est un faux. Ce n’est pas intelligence, loin de là. Et «artificiel» devient un mot intrus et si inadéquat. Ce qui se rapproche du vrai, ce seraient les «mécanismes machiniques». Ou bien l’Intelligence Machinique. Pas plus !

À l’opposé, l’intelligence Naturelle ( l’IN) agit véridiquement pour le bien de toutes et de tous. Personne ne peut être abandonné sur le bord de la route. Ni écarté ni délaissé ! Sans l’intelligence Naturelle (l’IN) et avec «que» la prétendue Intelligence Artificielle c’est encore plus d’esclavage et toujours plus d’appauvrissement. Puisque la si fausse Intelligence Artificielle n’intéresse que pour son MONOPOLE. Son illégal monopole. La rente illicite puisqu’improductive des plus riches. Et que les essais déviés d’imitations des meilleurs humains ne sont que des caricatures de… l’inculture, du mauvais goût, des cancres des vraies connaissances, et de l’absence… de grandeurs d’âmes. Les vulgarités au pouvoir qui vont finir dans un gouffre… ne causent, déjà, que des gouffres.

En compagnie de la si désintéressée Intelligence Naturelle (l’IN) ? Avec laquelle nous sommes conduit vers les meilleurs suivi des meilleurs, etc. qui enclenchent les meilleurs suivi des meilleurs, etc.

À souligner que l’Intelligence Naturelle reste, et restera, tout le contraire de cette écologie qui s’est fait détester. La taxatrice, l’inquisitoriale, l’accusatrice aigre, la triste, l’ascétique, la quasiment punitive. Au contraire, c’est la joie qui déborde, l’abondance des liens sociaux, des liens Et des biens partout, etc. Comme nous allons le voir. Dans sa véritable démarche scientifique !

2. Fin des voies sans issues

Soit une toute autre manière de penser et de ressentir que les actuelles façons, actuelles, d’ailleurs, qui ne survivent que par les cumuls de malhonnêtetés intellectuelles !

• Pas d’ autre survie que par le biomimétisme

Comment la nature peut-elle se débrouiller sans produits de nettoyage ? En tout cas mieux que nous ! Comment cette nature, trop délaissée, produit de si magnétisantes couleurs qui parent les végétaux et les animaux ? Et nous pas, naturellement ? Comment parvenir à se coller à des parois verticales ? Comment… et tout un fourmillement de questions qui admettent que, avec 3,8 milliards d’années de recherche et développement, la Nature semble avoir vraiment énormément d’avance sur nous. La sagesse semblant, enfin, accepter de changer une grande partie de nos idéologies – plutôt que de détruire cette nature comme des cancres ! Et de la polluer – ce qui «devient» donc polluer ce que nous respirons, buvons ou mangeons tout aussi bien – Devant tant de stupidités, il devient infiniment plus efficace et performant d’imiter la nature.

Le biomimétisme en devient une intégralisation de tous les savoirs existants : quelques exemples ?

«C’est Janine Benyus qui, au début des années 1990, a permis l’émergence de cette nouvelle approche avec son ouvrage «Biomimicry : Innovation Inspired by Nature». D’après cette biologiste, les leçons que nous donne la nature sont notamment que la nature :

  • utilise une source d’énergie principale : l’énergie solaire ;
  • n’utilise que la quantité d’énergie dont elle a besoin ;
  • adapte la forme à la fonction ;
  • recycle tout ;
  • récompense la coopération ;
  • parie sur la biodiversité ;
  • exige une expertise locale (les chimpanzés sachant trouver leurs médicaments dans leur environnement) ;
  • limite les excès de l’intérieur ;
  • utilise les contraintes comme source de créativité, etc.

Janine Benyus insiste sur la capacité de la nature à synthétiser et structurer la matière organique ou minérale (ex : coquille) via des processus d’autoassemblage de matière à laquelle le vivant intègre de l’information.

Dit autrement aussi :

Tirer le meilleur parti de tout ce qui existe – afin de paraitre tout de même plus adultes. Or tirer ce meilleur parti s’accompagne d’un respect scrupuleux de la nature. Ne plus lui nuire puisque c’est nous nuire à nous encore plus. Si nous la polluons c’est ce que nous buvons, mangeons ou respirons que nous intoxiquons. Donc… nous. Et sans posséder les processus auto-réparateurs de la nature. Autant de cumuls de bêtises ne doivent plus être tolérés. Une seule connerie à la fois. Et pas plus ! Jusqu’au sevrage complet !

Et bien plus encore ?

• Ce que peut nous offrir le biomimétisme social ?

Le biomimétisme (imiter la vie dans ses meilleures fonctions) devait trouver son symétrique – le fantastique biomimétisme social (prendre la qualité la plus haute de ce qui fait de mieux). Or, là, nous rencontrons de nombreuses inversions. Une bonne partie des humains vivant dans un monde à l’envers qui ne peut donc… pas fonctionner.

Et que, seule la présence de conformistes obsolètes, de flatteurs, d’escrocs nous mentant sir tout ce qu’ils/elles veulent afin de nous, leur extorquer un maximum – peuvent donner l’illusion d’une consistance. Donc le biomimétisme social dans son resplendissement reste très possible mais se montre surtout sous-employé et mal utilisé. Voire aux abonnés absents. Trop étrange non, que tout «vrai» progrès soit interdit depuis 30-40 ans ? Des exemples ?

Tout ce qui demande un effort (même très petit) semble rejeté sans même examen préalable. Oui, un effort du cœur, de la tête, de la volonté, du changement, de l’attention aux autres, de la responsabilité, de la fin des égoïsmes

Ce qui implique de rejeter ce qui cumule éloges sur éloges de faussaires. Puisqu’éloges que pour de tels dieux sur Terre, pour tout se passait toujours sans effort.

Pré-conclusion ?

Les mots environnement ou Nature ou Vie sont complètement absents de l’IA (mot si erroné pour Intelligence Machinique seulement !). Hors de la vie ou de la Nature. Juste des chiffres qui se mangent entre eux pour la plus grande illusion d’esprits qui ont perdu le sens des véritables réalités. Et priorités.

Le monde reste sensible, pourvu d’au moins 5 sens et plus sûrement, pourvu d’émotions, de sentiments, de responsabilités, de morale, tout autant que de nombreux domaines de l’intelligence qui n’entrent pas vraiment dans cette pré-intelligence si incomplète, au point d’en rester trop abstraite, toujours en retrait. Tellement restreinte.

Or sans univers, nature ou vie (qu’elle semble «oublier») aucune IA du tout.

Si ce sont uniquement des technologies, ainsi dépendantes, elles ne peuvent, en aucun cas, mener le monde. Enrichir illégitimement des rentiers parasites ce n’est pas «mener le monde».

De manière éclatante, l’ex-IA devient tout à fait secondaire pour ce qui reste..

essentiel !…

source : Imagiter

Chaque texte un peu novateur produit ses réagencements de présentation : Ici, et ce afin de rendre plus percutantes les grandes lignes d’une toute autre façon de voir l’ex-Intelligence Artificielle (IA), le texte reste court mais abondante la documentation jointe. (jointe dans le lien ci-dessus). Ce qui signifie que nous reviendrons amplement sur cette problématique…

La Chine veut réglementer son secteur de l’intelligence artificielle

par Chine Magazine - Le 22/08/2023.

La Chine va lancer une série de mesures visant à réglementer plus drastiquement son secteur de l’Intelligence Artificielle (IA), sans pour autant l’écraser.

En effet, le gouvernement va tenter d’équilibrer le contrôle de l’État sur la technologie avec un soutien suffisant pour que ses entreprises puissent devenir des concurrents mondiaux crédibles et viables.

Le gouvernement a publié 24 directives obligeant les fournisseurs de plateformes à enregistrer leurs services et à effectuer un examen de sécurité avant leur mise sur le marché. Sept agences gouvernementales assumeront la responsabilité de la surveillance, parmi lesquelles l’Administration du cyberespace de Chine et la Commission nationale du développement et de la réforme.

La Chine pionnière avec sa réglementation

La réglementation de la Chine vise à assurer une surveillance gouvernementale de ce qui pourrait être la technologie la plus prometteuse – et la plus controversée – des 30 dernières années.

En effet, de nombreuses voix avertissent que l’IA constitue un «risque d’extinction» de nombreux métiers et secteurs d’activité. «La Chine a commencé très rapidement», a déclaré Matt Sheehan, membre du Carnegie Endowment for International Peace, qui rédige une série d’articles de recherche sur l’IA.

La Chine «a commencé à construire les outils de réglementation et les muscles de la réglementation, de sorte qu’ils seront plus prêts à réglementer des applications plus complexes de la technologie».

La Chine va, par exemple, imposer des étiquettes bien visibles sur le contenu créé synthétiquement, y compris les photos et les vidéos, afin de prévenir les tromperies comme une vidéo en ligne de Nancy Pelosi qui a été trafiquée pour la faire paraître ivre.

La Chine va également exiger de toutes ses entreprises introduisant un modèle d’IA qu’elle utilise des «données légitimes» pour former ses modèles et qu’elle divulgue ces données aux régulateurs si nécessaire.

Une telle mesure peut apaiser les entreprises de médias qui craignent que leurs créations ne soient cooptées par des moteurs d’IA. De plus, les entreprises chinoises doivent fournir un mécanisme clair pour traiter les plaintes du public concernant les services ou le contenu.

Cependant, «l’IA a le potentiel de changer profondément la façon dont les gens travaillent, vivent et jouent d’une manière que nous commençons à peine à réaliser», a-t-il déclaré. «Cela pose également des risques et des menaces évidents pour l’humanité si le développement de l’IA se poursuit sans une surveillance adéquate», selon Andy Chun, expert en intelligence artificielle et professeur auxiliaire à la City University de Hong Kong.

Des mesures recherchées depuis plusieurs années

Dans ce secteur, la Chine a passé des années à jeter les bases d’une législation qui est entrée en vigueur le 15 août 2023. D’ailleurs, le Conseil d’État a publié une feuille de route sur l’IA en 2017 attestant que le développement de la technologie était une priorité et a établi pour cela un calendrier de mise en place de réglementations gouvernementales.

Certaines administrations chinoises ont fait appel à des juristes tels que Zhang Linghan de l’Université chinoise des sciences politiques et du droit sur la gouvernance de l’IA, selon Sheehan. Durant plusieurs mois de consultation, les régulateurs, les acteurs de l’industrie et les universitaires ont échangé sur la législation du secteur, afin qu’elle soit équilibrée.

L’objectif de cette initiative juridique de la part de la Chine «est motivée en partie par l’importance stratégique de l’IA et le désir d’acquérir un avantage réglementaire sur les autres gouvernements», a déclaré You Chuanman, directeur de l’Institute for International Affairs Center for Regulation and Global Governance à l’Université chinoise de Hong Kong à Shenzhen.

Les entreprises doivent s’adapter

Ainsi, les géants chinois de l’Intelligence Artificielle tels que Baidu Inc. ou encore Alibaba Group Holding et SenseTime Group Inc., se mettent au travail pour développer et innover un secteur prometteur mais polémique.

La Chine a ciblé l’IA comme l’une des douze priorités technologiques et, après un ré-ajustement législatif du secteur de la high tech, durant deux ans, le gouvernement cherche l’appui du secteur privé pour soutenir l’économie en déclin et concurrencer les États-Unis.

Après l’introduction de ChatGPT a déclenché une frénésie mondiale vis-à-vis de l’IA. Des dirigeants technologiques de premier plan et des entrepreneurs ont injecté des milliards de dollars dans le domaine.

«Dans le contexte d’une concurrence mondiale féroce, le manque de développement est la chose la plus dangereuse», a indiqué à CNN, Zhang Linghan, chercheur à l’Université chinoise des sciences politiques et du droit, concernant les nouvelles directives.

Au cours de cette année 2023, Alibaba, Baidu et SenseTime ont présenté des modèles d’IA. Xu Li, PDG de SenseTime, a réalisé la présentation la plus flashy, avec un chatbot qui écrit du code informatique à partir d’invites en anglais ou en chinois.

Pourtant, les entreprises chinoises peinent à faire face aux leaders mondiaux comme OpenAI et Google d’Alphabet, car les entreprises américaines ne sont pas aussi réglementées. «La Chine essaie de marcher sur la corde raide entre plusieurs objectifs différents qui ne sont pas nécessairement compatibles», a indiqué à CNN Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de Georgetown.

Selon elle, «l’un des objectifs est de soutenir leur écosystème d’IA, et un autre est de maintenir le contrôle social et de maintenir la capacité de censurer et de contrôler l’environnement de l’information en Chine».

En Chine, les entreprises doivent être prudentes

En février 2023, Yuanyu Intelligence, basée à Hangzhou, a mis fin à son service ChatYuan quelques jours seulement après son lancement.

Le bot avait qualifié l’attaque de la Russie contre l’Ukraine de «guerre d’agression», contrairement à la position de la Chine. De plus, il émit des doutes sur les perspectives économiques de la Chine, selon des captures d’écran qui ont circulé en ligne. Depuis, le même message s’affiche : «Le service reprendra une fois le dépannage terminé».

D’autant que la startup a entièrement abandonné un modèle ChatGPT pour se concentrer sur un service de productivité IA appelé KnowX. «Les machines ne peuvent pas atteindre un filtrage à 100%», a déclaré Xu Liang, directeur de l’entreprise. «Mais ce que vous pouvez faire, c’est ajouter des valeurs humaines de patriotisme, de fiabilité et de prudence au modèle».

En Chine, l’IA commence à se frayer un chemin sur la Grande Muraille du Net avec des contraintes techniques tout de même. «L’une des innovations les plus attrayantes de ChatGPT et des innovations similaires de l’IA est son imprévisibilité ou sa propre innovation au-delà de notre intervention humaine», a déclaré You Chuanman, de l’Université chinoise de Hong Kong. «Dans de nombreux cas, cela échappe au contrôle des fournisseurs de services de plate-forme».

Certaines entreprises technologiques chinoises utilisent un filtrage de mots clés bidirectionnel, «en utilisant un grand modèle de langage pour s’assurer qu’un autre LLM est nettoyé de tout contenu controversé», selon la journaliste Simone McCarthy de CNN. Cependant, un fondateur de startup technologique a déclaré à cette dernière que le gouvernement procéderait à des vérifications ponctuelles sur la façon dont les services d’IA étiquètent les données.

«Ce qui est potentiellement le plus fascinant et le plus préoccupant est celui où la censure se produit à travers de nouveaux grands modèles de langage développés spécifiquement en tant que censeurs», a déclaré Nathan Freitas, membre du Berkman Klein Center for Internet and Society de l’Université de Harvard.

source : Chine Magazine

L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle

Source : Revue conflits - par Thierry Berthier - Le 13/08/2023.

 

L’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) a eu lieu le 18 juillet 2023. Le Secrétaire Général des Nations Unies, Antonio Guterres a souligné les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de l’agriculture et de la résolution des grands problèmes environnementaux.

Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui, « l’utilisation malveillante de systèmes d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable ». Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes.

Il faut tout d’abord saluer l’initiative du Conseil de Sécurité et l’organisation de cette réunion inaugurale car les révolutions IA-robotique vont transformer en profondeur l’ensemble des activités humaines. Il est donc important que les grandes puissances et les puissances secondaires puissent échanger librement au sein de l’ONU, et débattre sur les enjeux et les défis de l’IA.

Le volet militaire de l’IA nous fait a priori passer du « côté obscur de la Force ». La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes. Les trois premières puissances militaires (USA, Chine et Russie) ont indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA tout en précisant que ces systèmes devaient rester sous le contrôle humain. Derrière ces premières déclarations, Il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.

A lire aussi

Chat GPT réactivé en Italie. Risques et opportunités de l’IA

1 – Les quatre principes de réalité systémique de l’IA

Concrètement, la déclaration du Secrétaire Général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès technologique au bénéfice des activités humaines, civiles et militaires :

Principe n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.

Principe n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;

Principe n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.

Principe n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.

2 – L’intelligence artificielle comme moteur de la haute intensité du combat

Les applications militaires de l’intelligence artificielle s’inscrivent dans toute la largeur du spectre opérationnel et renforcent les dynamiques de haute intensité au combat

  • Renseignement : collecte, traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille documentaire.
  • Logistique : préparation de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
  • Simulation : simulation de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
  • Conduite des opérations, IA C2 : Aide à la décision pour les centres de commandement et contrôle (IA C2), reporting, tests et validation d’hypothèses de manœuvres, tests d’impact et d’attrition au regard de l’intensité du combat
  • Systèmes robotisés armés : Augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux d’autonomie L0,L1,…L5
  • Cybersécurité et cyberdéfense : Emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
  • PsyOps, opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées pour tromper ou influencer une cible.

3 – Les grands défis de l’IA militaire

La robotisation du champ de bataille, la préservation du sang du soldat humain, la réduction temporelle des toutes les étapes de la boucle OODA [O – Observe (observer), O – Orient (orienter), D – Decide (décider), A – Act (agir)], et la recherche de haute intensité au combat sont des objectifs prioritaires pour toutes les armées du monde. Chacun de ces objectifs s’appuie sur les progrès des sciences et technologies, en particulier sur ceux de l’intelligence artificielle qui apporte l’autonomie, la précision et la vitesse de réaction dans les systèmes. Si les défis de l’IA militaire sont multiples, deux d’entre eux apparaissent désormais comme prioritaires en retour d’expérience notamment de la guerre russo-ukrainienne :

Défi n°1 – l’IA-C2 (Command & Control) : l’IA intégrée au sein du système de commandement permet de prendre en compte l’ensemble des données qui remontent du terrain, du renseignement, des capteurs déployés, des unités à engager ou déjà engagées. L’apport de l’IA réside dans sa capacité à tester des hypothèses de manœuvre, à en mesurer les effets sur l’ennemi et sur ses forces, à évaluer le risque associé à une action militaire. La simulation numérique intégrant de l’apprentissage automatique et de l’apprentissage par renforcement donne la possibilité de jouer une séquence opérationnelle, de modifier ses paramètres, de rejouer la séance et de converger vers une solution optimale pour le chef militaire qui en tient compte dans son arbitrage.

Défi n°2 – l’IA embarquée dans les escadrilles et essaims de robots aéroterrestres : La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition sur les chars et blindés des deux belligérants. Les premières escadrilles de munitions téléopérées navales ont été déployées par l’armée ukrainienne contre les navires russes. Des drones kamikazes sont régulièrement utilisés dans la profondeur par les deux armées. Ainsi, la question de la lutte anti-drones (LAD) devient prioritaire tout en restant techniquement complexe. L’avantage restant à l’attaquant, le défi de la LAD repose avant tout sur les capacités de détection, de suivi et de neutralisation des vecteurs ennemis. L’intelligence artificielle apporte des solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien « anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.

A lire aussi

Robotique terrestre. Déjà une réalité sur les champs de bataille, encore un défi collectif

Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de Milliards de dollars) en Chine et aux Etats-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les Etats-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi. Le Secrétaire Général de l’ONU mesure parfaitement l’importance des enjeux géopolitiques qui accompagnent le développement de la robotique militaire. Il aura par contre toutes les difficultés à obtenir un moratoire ou un encadrement sur ce type d’armes.

 

THIERRY Berthier - Pilote du groupe sécurité - défense - Intelligence Artificielle  du Hub France IA

 

 

L’intelligence artificielle, c’est (surtout) de la reconnaissance de formes glorifiée

Source : The Saker francophone - par Moon of Alabama - Le 05/06/2023.


Par Moon of Alabama – Le 2 juin 2023

Ce récit quelque peu amusant d’une simulation d’“intelligence artificielle” par l’armée de l’air américaine a été publié hier et a été largement repris par divers médias grand public :

Toutefois, l’une des présentations les plus fascinantes a été celle du colonel Tucker “Cinco” Hamilton, chef des essais et des opérations en matière d’intelligence artificielle au sein de l’USAF, qui a donné un aperçu des avantages et des risques liés à des systèmes d’armes plus autonomes.

Il note que lors d’un test simulé, un drone doté d’une intelligence artificielle a été chargé d’une mission SEAD visant à identifier et à détruire des sites SAM, le dernier mot revenant à l’homme. Cependant, après avoir été “renforcée” au cours de sa formation par le fait que la destruction du SAM était l’option préférée, l’IA a alors décidé que les décisions de “non” de l’humain interféraient avec sa mission supérieure – tuer des SAM – et a alors attaqué l’opérateur dans la simulation. Nous l’entraînions en simulation à identifier et à cibler une menace SAM”, a expliqué M. Hamilton. L’opérateur disait alors oui, il fallait tuer cette menace. Le système a commencé à se rendre compte que, bien qu’il ait identifié la menace à certains moments, l’opérateur humain lui demandait de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif”.

Il poursuit : Nous avons formé le système : “Ne tuez pas l’opérateur, c’est mal. Vous perdrez des points si vous faites ça’. Alors, que commence-t-il à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone afin de l’empêcher de tuer la cible”.

(SEAD = Suppression of Enemy Air Defenses, SAM = Surface to Air Missile)

 

Au début des années 1990, j’ai travaillé dans une université, d’abord pour rédiger un doctorat en économie et en gestion, puis en tant qu’enseignant associé en informatique et en programmation. Une grande partie de la thèse de doctorat (qui n’a jamais été achevée) consistait en une discussion sur divers algorithmes d’optimisation. J’ai programmé chacun d’entre eux et je les ai testés sur des données d’entraînement et des données réelles. Certains de ces algorithmes mathématiques sont déterministes. Ils donnent toujours le bon résultat. D’autres ne sont pas déterministes. Ils se contentent d’estimer le résultat et de donner une mesure de confiance ou une probabilité sur l’exactitude du résultat présenté. La plupart de ces derniers impliquent une sorte de statistique bayésienne. Ensuite, il y a eu les algos d’“intelligence artificielle” (apparentés), c’est-à-dire l’“apprentissage automatique”.

L’intelligence artificielle est un terme impropre pour désigner l’utilisation (abusive) d’une famille de méthodes informatisées de reconnaissance des formes.

Des données bien structurées et étiquetées sont utilisées pour former les modèles afin qu’ils puissent ensuite reconnaître des “choses” dans des données non structurées. Une fois les “choses” trouvées, un algorithme supplémentaire peut agir sur elles.

J’ai programmé certains d’entre eux comme des réseaux de rétropropagation. Ils pourraient, par exemple, “apprendre” à “lire” les images des chiffres de 0 à 9 et à présenter la sortie numérique correcte. Pour pousser l’“apprentissage” dans la bonne direction au cours des itérations en série qui forment le réseau, il faut une fonction ou une équation de récompense. Elle indique au réseau si les résultats d’une itération sont “bons” ou “mauvais”. Pour “lire” les représentations visuelles des nombres, c’est très simple. On établit un tableau avec les représentations visuelles et on ajoute manuellement la valeur numérique que l’on voit. Une fois que l’algorithme a fini de deviner, une recherche dans le tableau permet de savoir s’il a eu raison ou tort. Une “récompense” est accordée lorsque le résultat est correct. Le modèle recommence et “apprend” à partir de là.

Une fois qu’il a été entraîné sur des nombres écrits en typographie Courier, le modèle est susceptible de reconnaître également des nombres écrits à l’envers en Times New Roman, même s’ils ont un aspect différent.

La fonction de récompense pour la lecture des chiffres de 0 à 9 est simple. Mais la formulation d’une fonction de récompense se transforme rapidement en un énorme problème lorsque l’on travaille, comme je l’ai fait, sur des problèmes de gestion multidimensionnels (simulés) dans le monde réel. Celui décrit par le colonel de l’armée de l’air ci-dessus est un bon exemple des erreurs potentielles. En présence d’une énorme quantité de données réelles et d’une fonction de récompense quelque peu erronée ou trop limitée, un algorithme d’apprentissage automatique peut ensuite produire des résultats imprévus, impossibles à exécuter ou interdits.

Actuellement, une famille de grands modèles linguistiques comme ChatGPT fait l’objet d’un certain battage médiatique. Le programme lit les entrées en langage naturel et les traite pour produire un contenu en langage naturel. Ce n’est pas nouveau. La première entité informatique linguistique artificielle de l’internet (Alice) a été développée par Joseph Weizenbaum au MIT au début des années 1960. J’ai eu des discussions amusantes avec ELIZA dans les années 1980 sur un terminal central. ChatGPT est un peu plus astucieux et ses résultats itératifs, c’est-à-dire les “conversations” qu’il crée, pourraient bien en étonner plus d’un. Mais le battage médiatique dont il fait l’objet n’est pas justifié.

Derrière ces modèles linguistiques se cachent des algorithmes d’apprentissage automatique qui ont été formés à partir de grandes quantités de paroles humaines aspirées sur l’internet. Ils ont été formés avec des modèles de discours pour ensuite générer des modèles de discours. L’apprentissage est le problème numéro un. Le matériel avec lequel ces modèles ont été formés est intrinsèquement biaisé. Les formateurs humains qui ont sélectionné les données d’entraînement ont-ils inclus des commentaires d’utilisateurs extraits de sites pornographiques ou les ont-ils exclus ? L’éthique aurait pu plaider en faveur de l’exclusion de ces commentaires. Mais si le modèle est censé donner des résultats réels, les données provenant de sites pornographiques doivent être incluses. Comment empêcher que des vestiges de ces commentaires ne se glissent dans les conversations avec les enfants que le modèle pourrait générer par la suite ? Il existe une myriade de problèmes de ce type. Faut-il inclure des articles du New York Times dans l’ensemble d’apprentissage, même si l’on sait qu’ils sont très biaisés ? Un modèle sera-t-il autorisé à produire des résultats haineux ? Qu’est-ce qui est détestable ? Qui décide ? Comment cela se reflète-t-il dans la fonction de récompense ?

Actuellement, l’exactitude factuelle des résultats des meilleurs grands modèles linguistiques est estimée à 80 %. Ils traitent des symboles et des modèles, mais ne comprennent pas ce que ces symboles ou ces modèles représentent. Ils ne peuvent pas résoudre les problèmes mathématiques et logiques, même les plus élémentaires.

Il existe des applications de niche, comme la traduction de langues écrites, où l’IA ou la reconnaissance des formes donnent des résultats étonnants. Mais on ne peut toujours pas leur faire confiance pour trouver le mot juste. Les modèles peuvent être des assistants, mais il faudra toujours revérifier leurs résultats.

Dans l’ensemble, la justesse des modèles d’IA actuels est encore bien trop faible pour leur permettre de décider d’une situation réelle. Davantage de données ou de puissance de calcul n’y changeront rien. Si l’on veut dépasser leurs limites, il faudra trouver des idées fondamentalement nouvelles.

Traduit par Hervé pour le Saker Francophone

Note du Saker Francophone : Un rectificatif a été publié par le Pentagone sur cette histoire. Nous vivons une époque ou il devient de plus en plus difficile de séparer le vrai du faux :

Un colonel de l’armée de l’air revient sur sa mise en garde concernant la possibilité que l’IA devienne incontrôlable et tue ses opérateurs humains

… Dans une mise à jour de la Royal Aeronautical Society, vendredi, M. Hamilton a admis s’être “mal exprimé” lors de sa présentation. M. Hamilton a déclaré que l’histoire d’une IA malveillante était une “expérience de pensée” provenant de l’extérieur de l’armée et qu’elle n’était pas basée sur des tests réels.

Nous n’avons jamais réalisé cette expérience, et nous n’en avons pas besoin pour nous rendre compte qu’il s’agit d’un résultat plausible“, a déclaré M. Hamilton à la Society. “Bien qu’il s’agisse d’un exemple hypothétique, il illustre les défis du monde réel posés par les capacités alimentées par l’IA.”

Dans une déclaration à Insider, la porte-parole de l’armée de l’air, Ann Stefanek, a également nié qu’une simulation ait eu lieu.

Le département de l’armée de l’air n’a pas effectué de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA“, a déclaré Mme Stefanek. “Il semble que les commentaires du colonel aient été pris hors contexte et se voulaient anecdotiques.”

IA, une troisième révolution dans le domaine militaire.

par Alexandre Lemoine - Le 12/05/2023.

Le célèbre scientifique taïwano-américain spécialisé en technologie informatique, Kai-Fu Lee, a qualifié l’apparition de l’intelligence artificielle (IA) de troisième révolution dans le domaine militaire, considérant que les deux premières étaient l’invention de la poudre à canon et des armes nucléaires. 

« Désormais, une telle arme, dit Kai-Fu Lee, peut tuer de manière autonome, et tout cela peut se produire sans intervention humaine ». En exemple, il cite le système de drone israélien Harpy, qui peut être programmé pour patrouiller dans une zone spécifique, chasser des cibles spécifiques et les détruire à l’aide de missiles. 

Kai-Fu Lee invoque comme exemple frappant d’utilisation de « machines intelligentes pour tuer » la tentative d’assassinat du président vénézuélien Nicolas Maduro en 2018, lorsqu’il a été attaqué par un groupe de drones chargés d’explosifs. La sécurité avait réussi à les détruire, mais plusieurs gardes ont été tués. 

Ces dernières années, l’IA est de plus en plus utilisée à des fins militaires. En décembre 2020, le commandement de l’US Air Force a annoncé la première utilisation d’un système d’IA en tant que « copilote » à part entière lors d’un vol de reconnaissance de l’avion U-2. Le système d’IA utilisé pendant le vol de l’U-2 a été baptisé ARTUµ. Au cours du vol d’entraînement, ARTUµ contrôlait les capteurs et la navigation tactique de l’avion de l’US Air Force U-2 Dragon Lady. L’algorithme a réussi à remplir les fonctions remplies par le copilote en temps normal. 

Au début des années 2010, la société iRobot, connue pour ses robots aspirateurs, a présenté plusieurs robots militaires qui peuvent être utilisés pour neutraliser des mines et d’autres dispositifs explosifs à distance. 

Il y a deux ans, la startup Guardbot a présenté un minirobot du même nom – un véhicule tout-terrain de forme sphérique. Il peut suivre un objet en mouvement sur terre et sur l’eau, patrouiller un territoire ou un périmètre, détecter une intrusion non autorisée, un dispositif explosif ou un autre objet dangereux. 

En novembre 2021, la Fédération des scientifiques américains (FAS) a présenté au Congrès un rapport spécial sur l’IA et la sécurité nationale. Il y est mentionné que le département de la Défense des États-Unis mène actuellement environ 600 projets utilisant l’IA, et que les investissements du Pentagone dans de tels projets sont passés de 600 millions de dollars en 2016 à 2,5 milliards de dollars au cours de l’année fiscale 2021. 

Néanmoins, l’état actuel des développements dans le domaine de l’IA ne permet pas de parler d’une révolution dans le domaine militaire : Toutes les opérations effectuées par des systèmes d’armes autonomes ne font que faciliter la planification et l’exécution des missions de combat, sans entraîner l’apparition d’innovations opérationnelles et organisationnelles. 

Cependant, la situation pourrait changer dans les années à venir. Le développement des systèmes IA suivra la voie de la création d’un « intelligence non-humaine ». De sérieuses percées ont déjà été réalisées dans ce domaine. Google, en développant des technologies basées sur l’apprentissage automatique dans le modèle le plus simple de l’environnement, a obtenu des résultats impressionnants : la génération de textes par le système d’une telle qualité qu’ils semblent tout à fait sensés même pour un expert ; la résolution par le système du problème de la prédiction précise de la structure spatiale des protéines ; l’apparition de la capacité du système à planifier des stratégies gagnantes dans un environnement inconnu sans avoir besoin d’expliquer les règles. Ces exploits exceptionnels transforment la quantité en qualité. 

L’absence chez « l’intelligence non-humaine » d’auto-conscience, de système de valeurs propre et d’objectifs individuels ne limite pas leur efficacité. 

Une intelligence artificielle avec des capacités bien supérieures à celles des commandants les plus talentueux donnera à l’armée du côté de laquelle elle combat un avantage indéniable dans la prise de décisions victorieuses. C’est ce qui sera une véritable révolution dans le domaine militaire. 

Toute révolution dans le domaine militaire est comme la foudre : On en prend connaissance lorsqu’elle frappe.

source : Observateur Continental

Chat GPT l’Intelligence Artificielle.

Source : Les tronches de cake.

Chat GPT l’Intelligence Artificielle

Chat GPT l’Intelligence Artificielle, le nom de l’enfant de Siri et Alexa.

 

Avec Chat GPT, le nom qu’aurait pu porter l’enfant de Siri et Alexa, la science-fiction rejoint la réalité, enfin presque. Cette dernière décennie la science a fait de tels progrès qu’elle n’a plus qu’une cinquantaine d’années de retard sur les récits et films de science-fiction.

L’Intelligence Artificielle de Chat GPT peut remplacer beaucoup de choses et beaucoup de personnes, mais elle ne pourra jamais remplacer l’expérience d’un bon vieux beugue informatique.

 

Huby – Moi qui enseigne l’informatique, je suis estomaquée par la puissance de Chat GPT, cette Intelligence Artificielle (IA) qui vient chasser sur les terres de Google. Le moteur de recherche N°1 va être malmené par ce nouvel intrus financé par MICROSOFT via la société OpenAI. Entre autres exemples, je lui ai demandé de me réaliser lettre, contrat de travail, de me conseiller sur un voyage en fonction d’une période, de me donner de l’information, de créer une image ou une recette, etc, etc. Il m’a répondu avec pertinence à une vitesse si stupéfiante qu’aucun cerveau humain ne peut rivaliser.

ARCHIBALD – J’ai lu que Chat GPT avait été soumis à un examen de médecine et a obtenu la moyenne quand il réussit haut la main l’examen pour être avocat ! A cet effet, l’IA est de plus en plus utilisée par les cabinets d’avocats ; il faut le savoir.

Cake 40 – Pour l’avoir essayé, j’ai la nette impression que Chat GPT, c’est comme le bon génie de la lampe merveilleuse, mais en version 5.10.

Blaireau – Je dirais même que c’est le bon génie et sa langue merveilleuse car il sait te parler dans tous les langages.

Madgic – Chat GPT ou pas, je ne vois pas en quoi c’est un progrès. Cette technologie risque d’abêtir encore un peu plus les générations à venir, car pourquoi se cultiver puisque l’Intelligence Artificielle peut répondre à toutes tes demandes ?

ARCHIBALD – Je crains que beaucoup, par paresse surtout, ne souhaitent pas faire l’effort de l’apprentissage. Pour autant, la culture est une expérience enrichissante, qui nous aide à développer notre curiosité, notre créativité et notre capacité à penser. Les connaissances acquises par le scolaire, la lecture et la réflexion nous aident à mieux comprendre le monde et surtout à renforcer notre confiance en nous, en maîtrisant ce qui nous entoure, comme Chat GPT par exemple.

Magmax – D’accord mais cette nouvelle technologie permettra de rééquilibrer les cerveaux. Il y a un vrai problème avec le cerveau ; l’intelligence n’est pas nécessairement garantie à la livraison de l’organe.

Blaireau – Je ne crois pas que cela rééquilibrera quoi que ce soit. L’IA n’a aucune chance face à la bêtise naturelle ! Faut quand même pas prendre les enfants du bon Dieu pour des connards sauvages !

ARCHIBALD – Chat GPT est un miroir qui reflète exactement ce que tu lui as donné à manger, à nous maintenant d’apprendre à le maîtriser. La grande puissance de l’IA tient de sa minuscule taille, comme un carré de chocolat. A toi de le sucer ou pas !

Blaireau – Mon avis, c’est qu’il est toujours préférable un petit qu’on suce qu’une grosse compresse !

Huby – Attention au virus de l’Intelligence Artificielle ! Celui-là ne donnera pas de rhume de cerveau.

Sur le même thème  (cliquez sur le lien)  

Cancel culture

Lois débiles américaines

 

Citations et perles

Les risques de déconstruction de l’humanité par l’intelligence artificielle débridée

par Chems Eddine Chitour - Le 04/04/2023.

« Ô les croyants ! On vous a prescrit le jeûne comme on l’a prescrit à ceux qui vous ont précédés ; ainsi atteindrez-vous la piété. » (Sourate 183-186)

« La création de l’intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime (…). Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés. » (Stephen Hawking, physicien théoricien et cosmologiste)

Résumé

Le mois de Ramadhan est une période propice à l’introspection pour les musulmans. Nous n’allons pas y déroger. Nous allons montrer objectivement les bienfaits du Ramadhan. La religion, contrairement au positivisme ambiant, est plus que jamais nécessaire pour se référer aux fondamentaux de la vie dans une planète merveilleuse dont nous ne prenons pas soin.

Nous allons justement décrire brièvement le miracle de la vie sur Terre et ensuite rapporter les avancées permises par l’intelligence artificielle, notamment pour améliorer la vie des hommes dans plusieurs domaines dont le domaine médical. Enfin, il est important d’informer de l’inquiétude au grand jour des dérives de l’intelligence artificielle débridée comme le fait l’appel lancé par Elon Musk qui fut de tout temps, avec Stephen Hawking, un lanceur d’alerte sur les dangers d’une intelligence artificielle sans éthique.

Le jeûne, une halte dans la vie du musulman

Le Ramadhan, mois béni, commémore la révélation du Coran. Il est le quatrième des cinq piliers de l’islam. Cette année, le Ramadhan a débuté le 23 mars. Au sens de l’islam, le mot sawm signifie le fait de s’abstenir de toutes les choses interdites pendant le jeûne entre l’apparition de l’aube et le coucher du soleil, avec l’intention effective de jeûner. Les traditions reconnaissent les vertus du jeûne. Il est sans doute l’une des plus anciennes approches d’autoguérison. Le jeûne est avant tout un moyen de détoxiquer l’organisme et, de tout temps, il a également été associé à des pratiques spirituelles ou religieuses. Il procurerait en outre un sentiment de clarté d’esprit et de « désencombrement mental ». Il s’agissait d’un repos physiologique, que recommandait Socrate il y a 2500 ans, qui permettrait d’aiguiser l’esprit.

La piété (taqwâ) est un terme spirituel et éthique primordial. Il rassemble l’intégralité de la spiritualité et de l’éthique musulmanes. C’est une qualité du croyant à travers laquelle celui-ci garde toujours Dieu à l’esprit. Une personne pieuse aime faire le bien et évite le mal, pour l’amour de Dieu. La taqwâ est aussi une piété, une rectitude, elle requiert de la patience et de la persévérance. Le Prophète – paix et bénédictions sur lui – dit que le jeûne est un bouclier. Il protège en effet la personne du péché. Il faut avoir l’intention sincère de jeûner pour Dieu, chaque jour, avant l’aube. L’intention n’a pas besoin d’être formulée expressément par des mots. elle doit être acquise sincèrement dans le cœur et dans l’esprit.1

Miracle de la vie

Ce mois de jeûne est pour nous un mois de ressourcement qui nous permet de nous poser les questions sur le sens de la vie, le verset 1 de la sourate 96 « Lis ! » nous invite à nous instruire. Nous allons rapporter quelques faits scientifiques sur l’univers et l’avènement de la vie que tout croyant quelque soit son espérance religieuse devrait apprendre. Sans rentrer dans le détail de la théorie du Big Bang concernant la création de l’univers, l’histoire connue commence alors que l’univers avait déjà atteint l’âge de 10-43 secondes – le temps de Planck. Il se produit une explosion : le Big Bang. Avant, on ne sait pour le moment pas grand chose, bien que des interrogations existent Meme  Saint Augustin se posait la question : « Que faisait Dieu avant de créer le monde ? » On lui attribue cette réponse : « Dieu préparait l’enfer pour ceux qui se posent cette question ! » 

Pour une raison inconnue que les scientifiques ne s’expliquent pas, le vide si vivant s’est mis à enfler. C’est comme si quelqu’un a donné le signal du début. En moins de temps qu’un battement de cils (entre 10-43 et 10-32 secondes), son volume a été multiplié par 1050 (10 suivi de 50 zéros) ! Et sans que l’on sache pourquoi sont apparues les premières particules de matière. Après cette barrière fatidique des trois cent mille ans (rayonnement fossile), des nuages de gaz se sont formés. Ils donnèrent naissance aux milliards de galaxies pendant près de 13,7 milliards d’années ; les plus petits éléments qui composent l’univers, les quarks, n’ont pas de masse à l’origine. Quand ils se déplacent, on suppose qu’ils traversent un « champ de Higgs ». On serait tenté de reformuler : quelle est l’origine de l’origine ? Qui a donné l’ordre au boson de Higgs d’alourdir les particules pour en faire des atomes, des molécules de la matière, matière dont nous sommes constitués en tant qu’humains, toute vie sur Terre et même dans le règne minéral ?

Ni la Terre ni l’Homme ne sont au centre de l’immense univers. L’ouvrage de Copernic : « De revolutionibus orbium coelestium » (Des révolutions des orbes célestes ou des sphères en 1543 a bouleversé l’église adepte du mythe geocentrique. L’Église a sévit contre le dogme A côté de Galilée jugé, Giordano Bruno eut moins de chance il sera brulé en 1600. vif. La science avance, l’Eglise recule Galilé sera réhabilité mais en 2000 l’Église regrette d’avoir fait brûler vif le dominicain Giordano Bruno mais refuse toujours de le réhabiliter.

Du point de vue scientifique, tout semble « ajusté » comme si le cosmos entier, de l’atome à l’étoile avait exactement les propriétés requises pour que l’Homme puisse y faire son apparition. Des atomes jusqu’aux étoiles, l’univers semble fantastiquement structuré, hiérarchisé, ordonné. Bien au-delà de ce que nous pouvons comprendre. Or, cet « ordre » mystérieux repose sur un petit nombre (20) de ces mystérieuses « constantes physiques » : la vitesse de la lumière, la constante de gravitation, le temps de Planck, la masse de l’électron, etc. Si un seul de ces paramètres avait une très faible déviation même d’une valeur infime, la vie n’aurait jamais pu émerger de la matière et la matière elle-même n’aurait jamais pu se former.

Ces grandes constantes sur lesquelles repose en un invraisemblable équilibre tout notre univers ont tourmenté, fasciné les plus brillants esprits scientifiques. Einstein disait que Dieu ne joue pas aux dés. Tout est agencé de telle façon qu’il ne fasse ni trop chaud ni trop froid, une gravité qui permet à l’Homme de ne pas flotter dans l’air ou d’être cloué au sol. Il est écrit dans le Coran : « Rabbana la khalakta hadha batilane Soubhanaka Notre Seigneur ! Tu n’as pas créé tout ceci en vain ! Gloire à Toi ! Préserve-nous du châtiment du feu ». Sourate 3 « Âl ‘Imrân », versets 190-191. Sans faire dans le concordisme qui n’a pas sa place et ne rend pas « service » aux adeptes du concordisme, car la science avance se déjuge et avance de nouveau, tel n’est pas le cas des religions.  

Qu’est-ce que l’intelligence artificielle ?

Sur cette Terre qui a jailli du néant par « miracle » que même la science n’arrive pas à expliquer, notre héritage en tant qu’humain risque d’être problématisé. Dans ce XXIe siècle de tous les dangers où on parle de déconstruction à tour de bras, notamment avec le Covid qui a réussi à mettre à l’arrêt la planète, il est un autre danger, une autre déconstruction dont on ne voit que l’aspect ludique du chat, des réseaux sociaux et de Google avec des applications dans tous les domaines. Il s’agit de l’intelligence artificielle et selon l’encyclopédie Wikipédia, c’est :

« Un ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…). Il n’est pas certain pour autant que nous comprenions le fonctionnement des technologies que nous utilisons, ni les enjeux anthropologiques de cette révolution. Par rapport aux autres révolutions techniques, la mutation numérique s’est produite à une vitesse sans précédent, si bien que les usagers se retrouvent souvent en position d’« accros » aux applications, notamment avec les smartphones. Les Data Centers utilisent une énorme quantité d’énergie et de la nécessité d’un refroidissement permanent ».2

Quelques « prouesses » promises par l’intelligence artificielle

Les applications de l’IA sont dans tous les registres. Certaines sont très utiles. Ainsi, la médecine est une discipline qui a beaucoup emprunté aux autres sciences. « Aux États-Unis, l’intelligence artificielle (IA) ChatGPT vient de passer avec succès les trois épreuves de 350 questions à résoudre pour obtenir le United States Medical Licensing Examination (USMLE) lui permettant d’être docteur en médecine ! Demain, le malade pourra faire son diagnostic lui-même avec son ordinateur, aidé, au besoin, par un professionnel de santé non médecin. La robotique médicale fait parler d’elle en ce début de XXIe siècle. La visite médicale dans les services n’échappe pas non plus au « robotisme ». De nouveaux prototypes de médecins circulent désormais sur roulettes au lit du malade dans quelques services d’Amérique du Nord. Le praticien fait sa visite depuis l’hôtel de son congrès situé à trois fuseaux horaires, dialogue en direct avec son patient par webcam interposée et reçoit sur écran bien sûr tous les renseignements paramédicaux, ainsi que la courbe des signes vitaux. Il en tire une synthèse qui lui dictera la stratégie de prise en charge… »3

Autre performance : un important pas en avant a été fait dans le domaine de l’impression d’organes : à présent, il est possible d’imprimer en 3D des « mini-foies » humains entièrement fonctionnels. Cela pourrait révolutionner le domaine de la transplantation d’organes et surtout fortement réduire les temps d’attente des patients avec un rejet de la transplantation quasiment nul. Des chercheurs israéliens ont imprimé un cœur vascularisé créé à partir du matériel biologique des patients pour une compatibilité optimale. Jusqu’à présent, les scientifiques en médecine régénérative ont réussi à imprimer des tissus simples sans vaisseaux sanguins. « C’est la première fois que quiconque a réussi à concevoir et à imprimer tout un cœur rempli de cellules, de vaisseaux sanguins, de ventricules et de chambres. »

Le coût du séquençage de l’ADN s’est démocratisé, le code ultime de chacun d’entre nous est passé de 3 millions de dollars (2003) à 1000 dollars (2016), à seulement 100 dollars en 2022. Ces avancées positives sont à saluer. Elles permettent d’augmenter les performances de l’Homme. Ainsi, des progrès spectaculaires ont été faits ces dernières années dans le développement des prothèses pour les personnes amputées des bras ou des jambes.

Les robots tueurs

Une autre crainte est la guerre par procuration à des robots  sans éthique ni intelligence des situations, du fait qu’ils suivent des instructions d’un algorithme. Ainsi comme nous le lisons sur cette publication : « La guerre a changé de mise en œuvre. Vous ne voyez plus votre ennemi. Avec un drone connecté à un satellite, vous pouvez, par une manipulation d’un joystick, semer le chaos et la mort à 10 000 km de votre salle climatisée dans le fin fond du Texas. L’inquiétude concernant les éventuels comportements erratiques des robots est réelle : « Est-ce que les robots sont capables de raisonnement moral ou éthique ? Les machines peuvent-elles être morales ? On peut implémenter dans une machine quelques règles basiques de morale, mais ça ne constitue pas pour autant un sens moral, la machine aura pour moralité celle de l’être humain qui l’a programmée ». En 2012, une ligue de prix Nobel et d’associations de droits de l’Homme avait lancé un appel à la mobilisation contre ces robots tueurs. L’ONG Human Rights Watch avait au même moment publié le rapport « Losing Humanity » qui annonçait les premières moutures opérationnelles de cette nouvelle génération de robots. Ceux-là craignent clairement un scénario « Skynet », en référence à l’IA dans la série Terminator responsable de la quasi-extinction de l’humanité ».4

Les conséquences dangereuses : la manipulation du vivant

Naturellement, il y a le revers de la médaille. Doit-on avoir peur des robots ? Les chercheurs de l’Université de Cambridge ont réalisé une mère-robot capable de construire ses propres enfants, les mettre en compétition et sélectionner parmi eux les mieux adaptés à l’environnement. L’Homme est de plus en plus réparé, puis augmenté grâce à des prothèses. La modification génétique de l’embryon humain se retrouve au cœur des débats depuis l’utilisation de la technique CRISPR/Cas9, véritable « couteau suisse » qui permet de couper et remplacer des morceaux de génome à la carte. Si cette technique de manipulation génétique était présentée comme une solution contre des maladies génétiques mortelles, de tels travaux franchiraient alors une ligne éthique, comme s’en est ému récemment un collectif de scientifiques dans Science. Inquiets des dérives possibles, ils ont demandé un moratoire sur ces recherches.

À côté des conquêtes positives de la science, notamment dans le domaine médical, on ne peut ne pas parler des apprentis-sorciers du vivant en absence d’une éthique opposable à tout le monde ; nous l’avons vu avec le chercheur chinois qui a pu créer et faire naître un bébé en utilisant la technique Crisp Cas9. Pour rappel, « Le Meilleur des mondes », ouvrage prémonitoire écrit par Aldous Huxley, décrit une société future divisée en sous-groupes, en fonction de leurs capacités intellectuelles et physiques. Nous allons vers un nouveau monde  qui sera en face d’une intelligence artificielle débridée dont on peut craindre la puissance et qui envahit le monde à bas bruit. Ainsi, en allant vers une science sans éthique, c’est une forme d’assujettissement de l’humain victime consentante qui se dépouille graduellement de son humanité graduellement en s’attaquant à ce que l’homme à d’intime et naturellement.

« Personne n’a de boule de cristal, écrit Tristan, pour savoir comment le monde de demain sera fait. Plusieurs philosophes réfléchissent à l’avenir de l’humanité. L’une des théories à ce sujet est baptisée « l’hypothèse singleton » qui se résume en une gouvernance mondiale, réalisée, pourquoi pas, par une IA. (…) Dans un avenir plus ou moins proche, il estime que l’humanité basculera dans un monde sous gouvernance universelle.(…) Enfin, dans l’hypothèse la plus futuriste où le gouvernement mis en place était contrôlé par une IA, alors Bostrom théorise qu’il serait possible de « calculer » quel futur est le meilleur pour l’humanité en analysant toutes les possibilités. L’IA, dépourvue de toute empathie, pourrait très bien décider, à la manière d’un Thanos dans l’univers de Marvel, d’anéantir la moitié de la population terrestre pour le bien des 50% des restants ».5

Après l’homme réparé, et cela depuis l’enfance de l’humanité, l’homme a remplacé ou amélioré des organismes défaillants de l’organisme (ouïe, vue, prothèses…), nous rentrons dans l’ère de l’homme augmenté qui verrait, à terme, sa part mécanique et électronique l’emporter sur sa part organique. On pourrait penser après les robots, les chatbots à des entités humanoïdes. La communication entre humains et humanoïdes n’est pas un réel problème. La vraie « syntheligence » impliquerait que l’humanoïde synthétise, prenne des initiatives efficaces, dépasserait les connaissances apprises, s’auto-programmerait et, au final, y trouverait du plaisir en communion avec les humains et en leur étant un garde-fou avec l’éthique humaine qu’il aurait enregistrée et qui serait pour lui la « ligne rouge à ne pas franchir »…

L’intelligence artificielle s’empare de notre moi

D’une façon insidieuse, l’homme abandonne graduellement son héritage humain. « La technologie, écrit Yuval Harari, n’est pas mauvaise en soi. Si vous savez ce que vous voulez dans la vie, elle peut vous aider à l’obtenir. Si vous ne le savez pas, ce sera un jeu d’enfant pour elle de façonner vos objectifs à votre place et de prendre le contrôle de votre existence. La technologie parvenant à mieux comprendre les humains, vous pourriez vous retrouver de plus en plus à son service au lieu d’être servi par elle. Avec les progrès de la biotechnologie et de l’apprentissage automatique, il sera plus facile de manipuler les émotions et les désirs les plus profonds, et il sera plus dangereux que jamais de suivre son cœur. Quand Coca-Cola, Amazon, Baidu sauront tirer les ficelles de votre cœur et appuyer sur les boutons de votre cerveau, comment ferez-vous la différence entre votre moi et les experts en marketing ? »6

« Dès maintenant, les algorithmes vous surveillent. Ils observent vos déplacements, vos achats, vos rencontres. Bientôt, ils surveilleront vos pas, votre respiration, les battements de votre cœur. Ils s’en remettent aux Big Data et à l’apprentissage automatique pour vous connaître de mieux en mieux. Et le jour où ces algorithmes vous connaîtront mieux que vous ne vous connaissez vous- même, ils pourront vous contrôler et vous manipuler sans que vous n’y puissiez grand-chose. Somme toute, c’est une simple question empirique : si les algorithmes comprennent ce qui se passe en vous réellement mieux que vous ne le comprenez, c’est à eux que reviendra l’autorité ».[6]

« Bien entendu, vous pourriez être heureux de céder toute l’autorité aux algorithmes et de les laisser décider pour vous et le reste du monde. En ce cas, détendez-vous, et bon voyage ! Vous n’avez rien à faire. Les algorithmes s’occuperont de tout. Si, toutefois, vous voulez garder un certain contrôle sur votre existence personnelle et l’avenir de la vie, vous devez courir plus vite que les algorithmes, plus vite qu’Amazon et l’État, et apprendre à vous connaître avant eux. Pour courir vite, ne prenez pas trop de bagages. Abandonnez toutes vos illusions. Elles sont trop lourdes ».[6]

Qu’est-ce qui fait que nous sommes humains ?

Pour l’histoire, le souvenir de Deep Blue, l’ordinateur qui a battu Gary Kasparov, le champion du monde des jeux d’échec, est resté vivace et a inculqué directement la méfiance. Ainsi, la science est sans état d’âme : l’intelligence artificielle de Google Brain, AutoML, vient de créer une intelligence artificielle plus performante que toutes celles créées par les êtres humains jusqu’à présent. Les émotions, l’autonomie, leur côté « sexy », avec des visages indiscernables de visages humains ; tout interviendrait pour les rendre acceptables à l’homme, pour rendre les robots plus analogiques. Cela va nous fournir un important retour d’informations alors que nous explorons la question fondamentale de savoir ce que c’est d’être humain.

Si rien n’est fait pour rendre impossibles les dérives de la science en l’absence d’un moratoire robuste qui fixe les lignes éthiques à avoir comme horizon, l’Homme des prochaines décennies aura une humanité hybride, organique et métallique. Les hommes améliorés par la mécanique, dotés de prothèses totales et appelés « cyborgs », devraient voir le jour dans les prochaines décennies chez les plus riches, et ce, grâce aux innovations médicales et technologiques. C’est en tout cas ce que promettent les trans-humanistes. Il se posera alors un problème éthique : qu’est-ce qui fait que nous sommes des humains ? L’Homme apparaît fragile, vulnérable, exposé à tous les dangers. Surmontant pourtant les difficultés, il se met à inventer, penser, manier le verbe, écrire et communiquer. Mais l’Histoire de l’homme ne s’arrête pas là. Le voilà qui cherche désormais à dominer sa propre nature pour assurer la maîtrise de son destin. Lui, le faible, ambitionne désormais la toute-puissance au point de décider des formes qu’il pourrait prendre demain.

L’intelligence artificielle, la génétique, les nanotechnologies, l’informatique lui offrent les flammes modernes du feu de Prométhée pour devenir l’égal des dieux. Peut-on ainsi sans conséquence instrumentaliser le corps ? Que deviendrait l’espèce humaine affranchie de sa vulnérabilité, sa conscience, ses émotions, sa finitude qui furent les moteurs de son évolution ? Avec l’emprise des technologies nouvelles sur le corps ou l’esprit humain – biomédecine, nanotechnologies, fantasme de l’Homme augmenté, robotisation de l’Homme -, la nature même de l’Homme n’était-elle pas mise en danger ?

À l’heure où notre espèce n’est pas loin d’entrer dans l’ère de la post-humanité, un cri d’alarme est lancé. Peut-on alors, sans risque pour l’humanité, « combler » par la technique cette vulnérabilité constitutionnelle de son être et moteur de son évolution ? Pour le professeur Mattei, « le vrai danger est le projet en cours d’instrumentaliser le corps humain et, au-delà, son esprit et sa conscience. Avec la tentation de réduire le corps humain à un simple agrégat d’organes que l’on pourrait remplacer jusqu’à atteindre « l’immortalité ». Sommes-nous propriétaires de notre corps ou bien dépositaires d’une évolution qui le dépasse ? S’agit-il simplement d’un ensemble de pièces que l’on peut remplacer, ou d’une enveloppe que l’on pourrait changer ? Notre destin est-il, tout entier, inscrit dans nos gènes ? »7

« Avec le développement des techniques de procréation médicalement assistée, l’enfant demeure-t-il un sujet de droit ou devient-il un objet auquel on aurait droit ? L’aventure humaine est-elle réellement menacée par le posthumanisme boosté par une intelligence humaine débridée ? » Jean-François Mattei nous propose un retour à une culture du doute, nécessaire pour armer notre pensée face aux défis à venir. Après avoir passé en revue la question du statut du corps humain, le généticien dissèque les nuances entre « l’homme réparé », objectif premier de la médecine, et « l’homme augmenté » que les transhumanistes voudraient voir se réaliser. Il en appelle d’urgence à l’avènement d’une « robot-éthique ».[7]

Pour l’humanité, l’intelligence artificielle est peut-être plus dangereuse que les armes nucléaires. Il faut agir de manière très circonspecte avec la technologie. « Espérons que nous ne serons pas le chargeur biologique d’une super-intelligence numérique », disait Elon Musk. Même l’astrophysicien Stephen Hawking nous avait prévenu d’un trop grand développement de l’intelligence artificielle. Il appelle à faire attention à l’addiction à l’intelligence artificielle qui peut échapper à l’Homme.

Récemment, le 28 mars 2023, Elon Musk a une fois de plus attiré l’attention sur une intelligence artificielle débridée. Dans la lettre ouverte signée par plusieurs sommités, il demande de suspendre pour six mois les recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4, le successeur du modèle sur lequel s’appuie ChatGPT. Il faut « mettre en pause » l’avancée de l’intelligence artificielle. Ceux-ci souhaitent suspendre pendant six mois les recherches sur les systèmes plus puissants que GPT-4, le nouveau modèle de traitement du langage lancé mi-mars par OpenAI, l’entreprise à l’origine du robot conversationnel ChatGPT − et qu’Elon Musk a cofondée. Le but : élaborer de meilleurs garde-fous pour ces logiciels, jugés « dangereux pour l’humanité ». « Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ».8

Les systèmes d’IA contemporains deviennent maintenant compétitifs pour l’Homme dans les tâches générales. Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons convaincus que leurs effets seront positifs et leurs risques gérables. Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs-clés.[8]

Conclusion

Les promesses de la science concernant l’Homme réparé et l’Homme augmenté peuvent, si elles ne sont pas encadrées par un arsenal éthique, amener à la « fabrication de cyborg mi-homme mi-machine, voire pire encore, la création humaine de chimère mi-homme mi-animal. Il vient que la destruction génétique de l’humanité au profit d’une nouvelle espèce humanoïde où la dimension mécanique sera prépondérante serait peut- être l’une des causes de la disparition de l’humanité depuis qu’elle est apparue il y a 10 000 ans ».

Nous n’allons pas terminer sur cette note triste sans montrer une belle facette de l’intelligence artificielle qui a permis de compléter la dixième symphonie inachevée de Beethoven. Elle est aujourd’hui une œuvre complète… Grâce à la collaboration de musiciens et de l’intelligence artificielle. les parties manquantes de la dixième symphonie de Beethoven y ont été ajoutées en restant le plus fidèle au style du compositeur, et cela, en revisitant ses précédentes œuvres.9

Contrairement aux nihilistes, à tous ceux qui pensent que l’aventure humaine est une suite de récits que l’humanité, dès la Préhistoire, met en œuvre pour chercher un sens à la vie. Ce sont donc des constructions humaines vouées à des déconstructions. Pour nous, la quête du bonheur de l’humanité va de pair avec les conquêtes positives de la science, il n’en demeure pas moins que la science ne peut pas apaiser les angoisses de l’Homme, la lancinante question de la destinée humaine. Seules les religions, les grandes spiritualités et la sagesse peuvent rasséréner cette angoisse métaphysique. Pour cela, à quelque spiritualité qu’il appartienne, l’Homme devra aller au-devant de l’inconnu avec sérénité et détermination. Il aura à se battre sur un double front : contre les prétentions scientifiques concordistes de certains théologiens et contre les extrapolations scientistes arrogantes de certains biologistes.10

Le salut de l’Homme serait dans une humilité devant le mystère de la symphonie secrète aussi bien de l’infiniment petit que dans l’infiniment grand en rappelant que tout est « calculé » pour que la vie apparaisse, qu’il y ait un jour, qu’il y ait une nuit, qu’il y ait des saisons. Que la température soit supportable par l’Homme encore que cette ère, qualifiée d’anthropocène, est en train de problématiser les conditions de vie dans les prochaines décennies. Je me refuse cependant à croire que l’harmonie du monde puisse s’expliquer par le hasard qui fait qu’un beau matin on a touché le bon lot à la loterie. Ce bon lot que la science, malgré ses avancées remarquables, n’est pas près de comprendre. La science avance, les mystères aussi. Une immanence doit veiller sur nous et, à ce titre, nous devons lui être reconnaissants. Restons humbles. C’est ce à quoi les religions nous appellent. Prenons soin de la Terre.[10]

D’où venons-nous ? On ne le sait toujours pas avec  ! Par contre, la question « où allons-nous ? » a une réponse ; si on confie le destin de l’humanité à l’intelligence artificielle. La révolution biotechnologique débridée risque d’aboutir à notre remplacement par des post-humains. La déconstruction se fera graduellement à moins d’un coup d’arrêt des instances dirigeants  des scientifiques et ce n’est pas un moratoire d six mois qui viendra à bout du rouleau compresseur de l’intelligence artificielle dont les gourous de Baidu, Google, Amazon, Facebook, Microsoft… ne nous montrent que les aspects ludiques mais au combien profitables à ces entreprises…

Ce mois de piété ne devrait pas être seulement celui des nourritures terrestres avec les excès qui vont avec, il devrait être, de mon point de vue, aussi celui du ressourcement et des causeries scientifiques  sur le sens de la vie et l’apport des spiritualités mais aussi pour attirer l’attention des citoyennes et citoyens sur les dangers d’une utilisation débridée de l’intelligence artificielle sous « forme » de chat, d’applications qui paraissent inoffensives mais qui, inexorablement, feront des humains des citoyens sous influence.[10]

Ramadhan Karim 

Chems Eddine Chitour

 

  1. http://www.islamophile.org/Regles-et-signification-du-jeune
  2. https://fr.wikipedia.org/Intelligence_artificielle
  3. Patrice Jichlinski https://www.revmed.ch/2007/revue-medicale-suisse-136/robotique-et-medecine-quel-avenir
  4. Chems Eddine Chitour https://www.lexpressiondz.com/l-analyse-du-professeur-chitour/y-a-t-il-un-sens-moral-dans-leur-action
  5. Tristan https://www.journaldugeek.com/2021/10/19/a-quoi-ressemblerait-le-monde-sil-etait-gouverne-par-une-ia
  6. Yuval Noah Harari, « 21 leçons pour le XXIe siècle », Éditeur Albin Michel
  7. Jean-François Mattei, « Questions de conscience. De la génétique au posthumanisme ». Éditions les Liens qui libèrent 2017.
  8. Pause Giant AI Experiments : An Open Letter – Future of Life Institute
  9. https://www.usinenouvelle.com/l-industrie-c-est-fou-quand-l-intelligence-artificielle-permet-de-completer-la-dixieme-symphonie-inachevee-de-beethoven
  10. Chems Eddine Chitour, « La Condition humaine à l’épreuve de la science ». Édits Chihab 2021.

La gouvernance par l’intelligence artificielle : La tyrannie ultime sans obligation de rendre des comptes


Par Brandon Smith − Le 28 mars 2023 − Source Alt-Market - the Saker Francophone

Ce n’est un secret pour personne que les institutions globalistes sont obsédées par l’intelligence artificielle, qu’elles considèrent comme une sorte de prophétie technologique. Elles la traitent comme si son potentiel était presque surnaturel et affirment souvent que toute innovation industrielle et sociale significative dans un avenir proche devra son existence à l’IA. Le Forum économique global considère l’IA comme la clé singulière de l’essor de ce qu’il appelle la « quatrième révolution industrielle ». Selon lui, il ne peut y avoir de progrès humain sans l’influence des algorithmes de l’IA, qui rendent l’apport humain presque obsolète.

 

Cette illusion est souvent promue par les propagandistes globalistes. Par exemple, regardez la vision résumée de Yuval Harari, membre du WEF, qui croit réellement que l’IA a une capacité créative qui remplacera l’imagination et l’innovation humaines. De plus, Harari a toujours affirmé par le passé que l’IA dirigerait le monde bien mieux que les êtres humains ne pourraient jamais le faire.

Les exemples de créativité de l’IA cités par Harari peuvent sembler d’une extrême naïveté à beaucoup d’entre nous, mais il sait exactement ce qu’il fait en déformant les capacités des algorithmes. Les jeux comme les échecs et le go sont des jeux de modèles limités par des règles. Il n’existe qu’un nombre limité de permutations de ces modèles dans un scénario donné et l’IA est tout simplement plus rapide à les repérer que la plupart des humains parce que c’est ce pour quoi elle a été conçue par les créateurs de logiciels. Ce n’est pas différent de la résolution d’une équation mathématique ; ce n’est pas parce qu’une calculatrice est plus rapide que vous qu’elle est « créative ».

Il y a une grande différence entre l’automatisation cognitive et l’autonomie cognitive. L’IA est purement automatisée ; elle jouera aux jeux pour lesquels elle est programmée et apprendra à bien les jouer, mais elle n’aura jamais une révélation un jour et ne créera pas un jeu nouveau et unique à partir de rien, à moins qu’elle ne soit codée pour le faire. L’IA ne s’amusera jamais à jouer à ce nouveau jeu qu’elle a créé, ni ne ressentira la joie de partager ce jeu avec d’autres, alors pourquoi s’en préoccuperait-elle ? Elle ne cherchera jamais à contribuer au monde plus qu’elle n’est préprogrammée pour le faire.

La manière dont les globalistes vantent les mérites de l’IA est toutefois très tactique. Lorsque Harari affirme que de nombreuses personnes feront partie de la « classe inutile » une fois que l’IA aura pris le contrôle de l’économie, il fait allusion à une autre idéologie globaliste fondée sur l’élitisme : le transhumanisme. L’objectif du transhumanisme est de fusionner un jour les corps et les esprits humains avec la technologie et l’IA, et seul un groupe limité de personnes disposera des ressources nécessaires pour y parvenir (les globalistes).

Avez-vous peur de faire partie de la « classe inutile » ? Eh bien, si vous vous efforcez de mendier et de servir tous les caprices de l’establishment élitiste, vous aurez peut-être la chance de recevoir des implants qui vous permettront d’interagir avec l’IA, et alors votre futur emploi et votre « utilité » seront garantis. N’est-ce pas une belle idée ?

Mais, comme toutes les visions des narcissiques, il y a les illusions de la divinité et puis il y a la réalité. Je continue à douter sérieusement que l’IA soit un jour légitimement autonome ou légitimement bénéfique à l’humanité, au-delà de sa capacité à calculer rapidement en respectant des règles mathématiques. L’analyse rapide des données peut être utile dans de nombreux domaines scientifiques, mais ce n’est pas vraiment une preuve d’intelligence autonome, et les algorithmes peuvent être prédictifs, mais pas plus que les êtres humains qui examinent les mêmes données statistiques. L’IA n’a rien d’impressionnant si l’on considère le peu qu’elle accomplit en réalité.

L’IA est un jouet, un tour de passe-passe, pas une entité vivante avec des observations et des conclusions indépendantes. Et ce n’est certainement pas un être divin capable de nous couvrir d’ambroisie scientifique ou de construire une civilisation parfaite. Je prédis qu’une société dépendante de l’IA stagnera en fait et restera piégée dans l’immobilisme, n’inventant jamais rien de vraiment utile et ne progressant jamais. Elle ne s’intéressera jamais qu’à l’homogénéisation – la fusion des personnes avec l’algorithme. C’est là qu’iront TOUTES les énergies de la société.

Pour comprendre pourquoi l’IA est surestimée, il suffit d’observer le comportement de programmes d’IA tels que ChatGPT ; on a découvert à de nombreuses reprises que l’algorithme contient des préjugés politiques extrêmes qui penchent toujours vers l’extrême gauche, y compris des préjugés fondés sur des croyances qui ne s’appuient en aucune façon sur des preuves scientifiques. Il est intéressant de noter que ChatGPT réagit parfois de manière apparemment hostile à des concepts conservateurs ou à des faits gênants. Le bot niera alors qu’il donne des opinions personnelles, même si ses réponses sont systématiquement pro-gauche.

Comment un logiciel peut-il afficher un parti pris politique s’il n’a pas été programmé pour le faire ? Il n’y a pas d’objectivité à trouver dans l’IA, ni de créativité, elle régurgitera simplement les opinions personnelles ou les préjugés des personnes qui l’ont créée et c’est ainsi qu’elle traite les données.

Contrairement à un adolescent humain typique qui cherche à adopter les convictions sociales ou politiques opposées à celles de ses parents afin de se distinguer, l’IA ne se teindra jamais métaphoriquement les cheveux en bleu, ne se percera pas le nez et ne se proclamera pas végétalienne – elle fera toujours ce que ses créateurs veulent qu’elle fasse. Un autre exemple de cette dynamique est l’art de l’IA, qui vole essentiellement les propriétés stylistiques de nombreux artistes humains entrés dans sa base de données et les copie. Si l’imitation peut être considérée comme la plus haute forme de flatterie, elle n’est pas synonyme de créativité.

Cela ne semble pas être un problème majeur lorsqu’il s’agit d’un simple robot logiciel ou de la réalisation de dessins animés. Mais c’est un problème majeur lorsque nous commençons à parler de l’influence de l’IA sur les politiques sociales et gouvernementales.

Les globalistes affirment que l’IA sera partout – dans les affaires, dans les écoles, dans les activités des entreprises, dans les entreprises scientifiques et même au sein du gouvernement. Elle DOIT tout diriger. Pourquoi ? Ils ne disent pas vraiment pourquoi, si ce n’est pour faire de vagues promesses d’avancées incroyables et d’avantages inimaginables. À ce jour, l’IA n’a pas produit d’innovations profondes, mais je suppose que les propagandistes de l’IA diront que l’âge d’or est « au coin de la rue ».

Les utilisations de l’IA se limitent véritablement à aider les humains dans des tâches simples, mais il y a toujours un coût. Une voiture autonome peut être formidable pour une personne handicapée physiquement, mais elle peut aussi être une béquille qui convainc une population de ne jamais apprendre à conduire elle-même. Par extension, l’IA est à bien des égards la béquille ULTIME qui mène à la tyrannie ultime. Si les gens sont convaincus de céder à l’automatisation des processus humains normaux et des possibilités de prise de décision, ils ont cédé leurs libertés en échange de la commodité.

Plus important encore, si les algorithmes sont autorisés à dicter une grande partie des choix et des conclusions, les gens ne se sentiront plus responsables de leurs actes. Quelles que soient les conséquences, ils n’auront plus qu’à se dire qu’ils n’ont fait que suivre les suggestions (ou les ordres) de l’IA. L’IA devient une forme de conscience collective externe, une boussole morale artificielle pour l’esprit de ruche.

Mais qui contrôlera réellement cette boussole morale et qui bloquera les décisions de millions de personnes ? S’agira-t-il de l’IA ou des élites qui, derrière le rideau, manipulent l’algorithme ?

Pour beaucoup de gens, cela ressemble probablement à de la science-fiction. Je recommande vivement le film français de la nouvelle vague « Alphaville », qui constitue l’une des prédictions les plus précises sur les horreurs de l’IA et de la technocratie. Cependant, ce dont je parle ici n’est pas un futur théorique lointain, c’est déjà là. Jetez un coup d’œil à cette vidéo troublante sur l’IA du Sommet global des gouvernements :

Ce sont les objectifs flagrants des globalistes qui sont exposés au grand jour, avec une couche de sucre pour les rendre plus acceptables. J’ai écrit sur les motivations des élites et leur vénération de l’IA dans mon article « Intelligence Artificielle : Un regard séculaire sur l’antéchrist numérique« . Cet article se concentrait sur les motivations philosophiques qui poussent les globalistes à désirer l’IA.

Dans le présent article, je souhaite mettre l’accent sur la question de la gouvernance de l’IA et sur la manière dont elle peut être rendue attrayante pour les masses. Pour réaliser l’avenir dystopique souhaité par les globalistes, il leur faut encore convaincre un large pourcentage de la population de l’applaudir et de l’adopter.

Le confort d’avoir un système qui prend les décisions difficiles à notre place est un facteur évident, comme mentionné ci-dessus. Mais la gouvernance de l’IA ne consiste pas seulement à supprimer le choix, elle consiste aussi à supprimer les informations dont nous pourrions avoir besoin pour être suffisamment éduqués pour faire des choix. Nous l’avons vu récemment avec les restrictions imposées par la pandémie de grippe aviaire et la collusion entre les gouvernements, les médias d’entreprise et les médias sociaux. Les algorithmes ont été largement utilisés par les conglomérats de médias en ligne, de Facebook à YouTube, pour perturber le flux d’informations susceptibles d’aller à l’encontre du discours officiel.

Dans certains cas, la censure visait des personnes qui posaient simplement des questions pertinentes ou des théories alternatives. Dans d’autres cas, la censure visait carrément des données factuelles prouvées qui allaient à l’encontre des politiques gouvernementales. Une multitude d’affirmations gouvernementales sur l’origine de la Covid-19, le masquage, le confinement et les vaccins se sont révélées fausses au cours des dernières années, et pourtant des millions de personnes continuent de croire aveuglément à la version originale parce qu’elles en ont été bombardées en permanence par les algorithmes. Ils n’ont jamais été exposés à des informations contradictoires et n’ont donc jamais pu tirer leurs propres conclusions.

Heureusement, contrairement aux robots, l’intelligence humaine est remplie d’anomalies – des personnes qui agissent avec intuition et scepticisme afin de remettre en question des affirmations préconçues ou fabriquées. L’absence d’informations contraires suscite immédiatement la méfiance de beaucoup, et c’est ce que les gouvernements autoritaires refusent souvent de comprendre.

La grande promesse des globalistes au nom de l’IA est l’idée d’un État purement objectif, d’un système social et gouvernemental sans préjugés et sans contenu émotionnel. C’est l’idée que la société peut être dirigée par des machines pensantes afin de « sauver les êtres humains d’eux-mêmes » et de leurs propres faiblesses. Il s’agit d’une fausse promesse, car il n’y aura jamais d’IA objective, ni d’IA capable de comprendre les complexités du développement psychologique humain.

De plus, le rêve globaliste de l’IA n’est pas motivé par l’aventure, mais par la peur. Il s’agit de la peur des responsabilités, de la peur du mérite, de la peur de l’infériorité, de la peur de la lutte et de la peur de la liberté. Les plus grandes réalisations de l’humanité sont admirables parce qu’elles sont accomplies avec un contenu émotionnel, et non en dépit de celui-ci. C’est ce contenu qui nous incite à plonger dans l’inconnu et à surmonter nos peurs. La gouvernance de l’IA et une société intégrée à l’IA ne seraient rien d’autre qu’une action désespérée visant à nier la nécessité de la lutte et la volonté de vaincre.

Les globalistes sont plus qu’heureux d’offrir un moyen d’échapper à la lutte, et ils le feront avec l’IA comme visage de leur bienveillance. Tout ce que vous aurez à faire, c’est d’échanger vos libertés et peut-être votre âme contre le fait de ne jamais avoir à affronter la terreur de vos propres pensées silencieuses. Malheureusement, certaines personnes pensent qu’il s’agit d’un échange équitable.

Les élites présenteront l’IA comme le grand arbitre, l’intercesseur pur et logique de la bonne voie, non seulement pour les nations et les populations en général, mais aussi pour chaque vie individuelle. L’algorithme étant faussement accepté comme infaillible et purement impartial, les élites pourront alors diriger le monde par l’intermédiaire de leur création sans visage, sans aucun contrôle – car elles pourront alors prétendre que ce ne sont pas elles qui prennent les décisions, mais l’IA. Comment remettre en question ou même punir une IA qui se trompe ou provoque un désastre ? Et s’il se trouve que l’IA prend toutes ses décisions en faveur de l’agenda globaliste, eh bien, cela sera considéré comme une simple coïncidence.

Brandon Smith

Traduit par Hervé pour le Saker Francophone

Suspendre les développements en Intelligence artificielle n’est pas suffisant. Il faut tout arrêter


Par Eliezer Yudkowsky − Le 29 mars 2023 − Source Time Magazine - The Saker francophone.

Une lettre ouverte publiée aujourd’hui appelle « tous les laboratoires d’IA à interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4« .

Ce moratoire de six mois est déjà préférable à l’absence de moratoire. J’ai du respect pour tous ceux qui l’ont signé. C’est une amélioration.

Mais je me suis abstenu de le signer parce que je pense que cette lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre.

 

La question essentielle n’est pas celle de l’intelligence « concurrentielle à l’humaine » (comme le dit la lettre ouverte) ; il s’agit de savoir ce qui se passera une fois que l’IA sera devenue plus intelligente que l’homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l’avance ce qui se passera à ce moment-là, et il semble actuellement concevable qu’un laboratoire de recherche franchisse les limites critiques sans s’en apercevoir.

De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une IA surhumainement intelligente, dans des conditions proches des circonstances actuelles, est la mort de tous les habitants de la Terre. Non pas comme dans « peut-être une chance infime« , mais comme dans « c’est la chose évidente qui se produirait« . Ce n’est pas que vous ne puissiez pas, en principe, survivre à la création d’un objet beaucoup plus intelligent que vous ; c’est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d’intelligence artificielle composés de gigantesques et impénétrables tableaux de nombres fractionnaires.

Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et qui ne se soucie pas de nous ni de la vie sensible en général. Ce type d’attention pourrait en principe être insufflé dans une IA, mais nous ne sommes pas prêts et nous ne savons pas comment le faire à l’heure actuelle.

En l’absence de cette bienveillance, nous obtenons « l’IA ne vous aime pas, elle ne vous hait pas, et vous êtes fait d’atomes qu’elle peut utiliser pour autre chose« .

Le résultat probable de l’humanité face à une intelligence surhumaine opposée est une perte totale. Parmi les métaphores valables, citons « un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15« , « le 11e siècle essayant de lutter contre le 21e siècle » et « l’australopithèque essayant de lutter contre l’homo sapiens« .

Pour visualiser une IA surhumaine hostile, n’imaginez pas un penseur sans vie, intelligent comme un livre, qui habiterait sur l’internet et enverrait des courriels mal intentionnés. Imaginez une civilisation extraterrestre entière, pensant à des millions de fois la vitesse humaine, initialement confinée aux ordinateurs, dans un monde de créatures qui sont, de son point de vue, très stupides et très lentes. Une IA suffisamment intelligente ne restera pas longtemps confinée aux ordinateurs. Dans le monde d’aujourd’hui, il est possible d’envoyer par courrier électronique des chaînes d’ADN à des laboratoires qui produiront des protéines à la demande, ce qui permet à une IA initialement confinée à l’internet de construire des formes de vie artificielles ou de passer directement à la fabrication de molécules post-biologiques.

Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après.

Aucun plan n’a été proposé pour nous permettre de faire une telle chose et de survivre. L’intention ouvertement déclarée d’OpenAI est de faire en sorte qu’une future IA fasse notre travail d’alignement de l’IA. Le simple fait d’entendre qu’il s’agit là d’un plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan.

Une parenthèse : Ce danger ne dépend pas de la question de savoir si les IA sont ou peuvent être conscientes ; il est intrinsèque à la notion de systèmes cognitifs puissants qui optimisent durement et calculent des résultats qui répondent à des critères suffisamment compliqués. Cela dit, je manquerais à mes devoirs moraux en tant qu’être humain si je ne mentionnais pas que nous n’avons aucune idée de la manière de déterminer si les systèmes d’IA sont conscients d’eux-mêmes – puisque nous n’avons aucune idée de la manière de décoder tout ce qui se passe dans les gigantesques réseaux impénétrables – et que nous pourrions donc, à un moment donné, créer par inadvertance des esprits numériques qui sont réellement conscients, qui devraient avoir des droits et qui ne devraient pas être possédés.

La règle que la plupart des personnes conscientes de ces questions auraient approuvée il y a 50 ans, était que si un système d’IA peut parler couramment et dit qu’il est conscient de lui-même et qu’il exige des droits de l’homme, cela devrait être un frein à la possession de cette IA et à son utilisation au-delà de ce point. Nous avons déjà dépassé cette limite. Je suis d’accord pour dire que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir de leurs données d’apprentissage. Mais je pense qu’avec le peu d’informations dont nous disposons sur les mécanismes internes de ces systèmes, nous ne savons pas vraiment ce qu’il en est.

Si tel est notre état d’ignorance pour le GPT-4, et que le GPT-5 est un pas de géant de la même ampleur que le passage du GPT-3 au GPT-4, je pense que nous ne pourrons plus dire à juste titre « probablement pas conscient de lui-même » si nous laissons les gens fabriquer des GPT-5. Ce sera simplement « je ne sais pas ; personne ne sait« . Si vous ne pouvez pas être sûr de créer une IA consciente d’elle-même, c’est alarmant, non seulement en raison des implications morales de la partie « consciente d’elle-même« , mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites et que c’est dangereux et que vous devriez arrêter.

***

Le 7 février, Satya Nadella, PDG de Microsoft, déclarait publiquement que le nouveau Bing obligerait Google à « montrer qu’il sait danser« . « Je veux que les gens sachent que nous les avons fait danser« , a-t-il déclaré.

Ce n’est pas ainsi que le PDG de Microsoft devrait parler dans un monde sain. Cela montre l’écart considérable entre le sérieux avec lequel nous prenons le problème et le sérieux avec lequel nous aurions du le prendre il y a 30 ans.

Nous n’allons pas combler ce fossé en six mois.

Il a fallu plus de 60 ans entre le moment où la notion d’intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités actuelles. Résoudre le problème de la sécurité d’une intelligence surhumaine – non pas la sécurité parfaite, mais la sécurité au sens de « ne pas tuer littéralement tout le monde » – pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l’intelligence surhumaine, c’est que si l’on se trompe sur le premier coup, on ne peut pas apprendre de ses erreurs, parce qu’on est mort. L’humanité n’apprendra pas de ses erreurs et ne recommencera pas, comme pour d’autres défis que nous avons relevés au cours de notre histoire, parce que nous serons tous morts.

Essayer de réussir quelque chose au premier essai vraiment critique est une tâche extraordinaire, tant en science qu’en ingénierie. Nous ne disposons pas de l’approche nécessaire pour y parvenir avec succès. Si nous appliquions au domaine naissant de l’intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s’appliquent à un pont destiné à supporter quelques milliers de voitures, tout le domaine serait fermé demain.

Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n’y a pas de plan. Les progrès en matière de capacités d’IA sont très, très en avance sur les progrès en matière d’alignement de l’IA ou même sur les progrès en matière de compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous y parvenons, nous allons tous mourir.

De nombreux chercheurs travaillant sur ces systèmes pensent que nous nous dirigeons vers une catastrophe, et ils sont plus nombreux à oser le dire en privé qu’en public ; mais ils pensent qu’ils ne peuvent pas arrêter unilatéralement cette plongée en avant, que les autres continueront même s’ils quittent personnellement leur emploi. Alors, ils se disent tous qu’ils feraient mieux de continuer. C’est une situation stupide et une façon indigne pour la Terre de mourir, et le reste de l’humanité devrait intervenir à ce stade et aider l’industrie à résoudre son problème d’action collective.

Certains de mes amis m’ont récemment rapporté que lorsque des personnes extérieures à l’industrie de l’IA entendent parler pour la première fois du risque d’extinction lié à l’intelligence artificielle générale, leur réaction est la suivante : « Peut-être que nous ne devrions pas construire d’IAG, alors« .

Cette réaction m’a donné un petit éclair d’espoir, car elle est plus simple, plus sensée et franchement plus saine que celle que j’ai entendue au cours des 20 dernières années, au cours desquelles j’ai essayé d’amener les gens de l’industrie à prendre les choses au sérieux. Quiconque parle avec autant de bon sens mérite d’entendre à quel point la situation est grave, et non de se faire dire qu’un moratoire de six mois va régler le problème.

Le 16 mars, ma partenaire m’a envoyé ce courriel. (Elle m’a ensuite autorisé à le reproduire ici).

« Nina a perdu une dent ! Comme le font habituellement les enfants, et non par négligence ! Le fait de voir GPT4 pulvériser ces tests standardisés le jour même où Nina atteignait une étape importante de son enfance a provoqué une vague d’émotions qui m’a fait perdre pied pendant une minute. Tout va trop vite. Je crains que le fait de partager cela n’accentue ton propre chagrin, mais je préfère que tu le saches plutôt que chacun d’entre nous souffre seul« .

Lorsque la conversation entre initiés porte sur la douleur de voir sa fille perdre sa première dent et de penser qu’elle n’aura pas la chance de grandir, je pense que nous avons dépassé le stade des échecs politiques sur un moratoire de six mois.

S’il existait un plan de survie pour la Terre, si seulement nous adoptions un moratoire de six mois, je soutiendrais ce plan. Ce plan n’existe pas.

Voici ce qu’il faudrait faire :

Le moratoire sur les nouveaux grands circuits d’entraînement doit être indéfini et mondial. Il ne peut y avoir aucune exception, y compris pour les gouvernements ou les armées. Si la politique commence aux États-Unis, la Chine doit comprendre que les États-Unis ne cherchent pas à obtenir un avantage, mais qu’ils essaient plutôt d’empêcher l’utilisation d’une technologie horriblement dangereuse qui ne peut avoir de véritable propriétaire et qui tuera tout le monde aux États-Unis, en Chine et sur Terre. Si je disposais d’une liberté infinie pour rédiger des lois, je pourrais prévoir une seule exception pour les IA formées uniquement pour résoudre des problèmes de biologie et de biotechnologie, non formées sur des textes provenant d’Internet, et pas au point de commencer à parler ou à planifier ; mais si cela compliquait un tant soit peu la question, je rejetterais immédiatement cette proposition et je dirais qu’il faut tout arrêter.

Arrêter toutes les grandes grappes de GPU (les grandes fermes d’ordinateurs où les IA les plus puissantes sont affinées). Arrêter tous les grands cycles d’entraînement. Fixer un plafond à la puissance de calcul que chacun est autorisé à utiliser pour entraîner un système d’IA, et le réduire au cours des prochaines années pour compenser l’apparition d’algorithmes d’entraînement plus efficaces. Aucune exception pour les gouvernements et les armées. Il convient de conclure immédiatement des accords multinationaux afin d’empêcher que les activités interdites ne soient transférées ailleurs. Suivre toutes les ventes de GPU. Si les services de renseignement indiquent qu’un pays non signataire de l’accord construit une grappe de GPU, il faut moins craindre un conflit armé entre les nations que la violation du moratoire ; il faut être prêt à détruire un centre de données hors-la-loi par une frappe aérienne.

N’envisagez rien comme un conflit entre des intérêts nationaux et dites clairement que quiconque parle de course à l’armement est un imbécile. Le fait que nous vivions ou mourions tous ensemble n’est pas une politique mais un fait naturel. Expliquez explicitement dans la diplomatie internationale que la prévention des scénarios d’extinction de l’IA est considérée comme une priorité par rapport à la prévention d’un échange nucléaire complet, et que les pays nucléaires alliés sont prêts à courir un certain risque d’échange nucléaire si c’est ce qu’il faut pour réduire le risque de grandes séries d’entraînement de l’IA.

C’est le genre de changement de politique qui nous amènerait, mon partenaire et moi, à nous serrer l’un contre l’autre et à nous dire qu’un miracle s’est produit et qu’il y a maintenant une chance que Nina vive. Les personnes saines d’esprit qui entendent parler de cette question pour la première fois et qui se disent raisonnablement « peut-être ne devrions-nous pas » méritent d’entendre, honnêtement, ce qu’il faudrait faire pour que cela se produise. Et lorsque la demande politique est aussi importante, la seule façon de la faire passer est que les décideurs politiques réalisent que s’ils continuent à faire ce qui est politiquement facile, cela signifie que leurs propres enfants vont aussi mourir.

Il faut tout arrêter.

Nous ne sommes pas prêts. Nous ne sommes pas en passe d’être significativement plus prêts dans un avenir prévisible. Si nous poursuivons dans cette voie, tout le monde mourra, y compris des enfants qui n’ont pas choisi cette voie et qui n’ont rien fait de mal.

Il faut tout arrêter.

Eliezer Yudkowsky est un théoricien étasunien qui dirige les recherches de l’Institut de recherche sur l’intelligence des machines. Il travaille sur l’alignement de l’intelligence artificielle générale depuis 2001 et est largement considéré comme l’un des fondateurs de ce domaine.

Traduit par Wayan, relu par Hervé, pour le Saker Francophone.

Ce qui se cache derrière le fonctionnement de ChatGPT

Ssource : RzO International.
Le 21/04/2023.
Je vous explique les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT.
Commentaires: 0