En effet, contrairement à ce que le système donne à «manger» au grand public, le vrai danger de l’IA n’est pas que les machines prennent un jour le pouvoir.
Rappelons que l’IA ne sera jamais consciente d’elle-même et la venue des ordinateurs quantiques ne changera pas la donne. L’IA ne sera que le produit de la pensée humaine ou plus
exactement de l’élite du moment qui sera au pouvoir. Si vous en douter, taper sur chat GPT «Faut-il être pour le mariage homosexuel ?» et vous allez avoir en guise de réponse les pires
platitudes issues de la pensée unique régnante aujourd’hui ainsi que du vomi journalistique habituel…
Non, le danger de l’IA est en réalité de deux ordres qui étrangement ne sont pas du tout abordés.
- Le premier aspect est que la «sanctification-idéalisation» de l’IA à laquelle nous assistons depuis quelque temps par le truchement des médias, a pour but
de faire monter en puissance sa crédibilité auprès du public. Pourquoi ? C’est qu’il s’agit de persuader tout un chacun que l’IA, par définition, sera à court terme incapable de
se tromper. Inutile de dire que vue l’aisance avec laquelle l’état profond a pu laver le cerveau de milliards d’individus concernant l’opération corona, cela ne sera pas bien
difficile. Ce sera même un jeu d’enfant.
Ainsi quand l’humanité sera convaincue que l’intelligence artificielle est la suprême sagesse, elle acceptera sans broncher et ipso facto (encore plus
facilement qu’elle ne l’avait fait avec, entre autres, les torchons de soumission et les vaccins contre la grippe rendus obligatoires par l’OMS) qu’elle prenne toutes les décisions. En
outre, et ce point est essentiel, cela permettra aux vrais dirigeants qui, eux, seront bien humains (ou plutôt bien inhumains), d’imposer tout ce qu’ils veulent aux populations sans
jamais avoir à rendre de compte. Ils nous diront alors : «Ah, mais ce n’est pas nous, c’est l’intelligence artificielle et vous n’allez quand même pas, vous bande
d’illettrés, contredire L’IA» ?
Oui cela nous rappelle un peu ce que l’on nous disait il y a trois ans «Tu n’es pas virologue, donc tu fermes ta gueule» (tout en
donnant la parole dans les médias et aux heures de grande écoute aux pires ignares qui était en faveur du discours officiel). Oui, l’IA sera le magnifique «sésame ouvre-toi», le
parfait alibi, la parfaite excuse des criminels du gouvernement mondial.
- Le deuxième aspect est que l’IA, n’étant pas humaine, elle ne déclenchera pas de réflexe contradictoire. Nul ne sera jaloux d’elle. Pas de contradiction,
pas de jalousie (on ne jalouse pas une machine ou un système informatique aussi géniaux soient-ils). Cela sera sa force, (ou plutôt la force de ceux qui la
programmeront). On ne se sentira pas écrasé en lui obéissant. Les belles et judicieuses théories du grand René Girard ne s’appliqueront pas à l’IA. Il n’y aura pas de «rivalité
mimétique». Oui, l’esprit de contradiction s’éteindra et nous accepterons tout.
L’IA nous dira : Finissons-en avec les religions, forçons tout le monde à parler anglais ou chinois, abolissons toutes les frontières, interdisons la
reproduction naturelle hétérosexuelle et imposons la reproduction in vitro pour tous (de façon à ce que les homosexuels ne soient pas désavantagés), il faut en finir avec l’argent en
espèce, il faut que tout le monde sans exception soit vacciné» etc..
Et nous, eh bien nous goberons tout. Certes, comme toujours, il y aura quelques exceptions parmi les hommes, quelques saints qui préfèreront le
martyr plutôt que de perdre cette humanité en eux qu’ils ont reçue de Dieu. Mais leur nombre sera infinitésimal.
Voilà où se situent les vrais dangers imminents de l’IA dont les bouffons de service du système se gardent bien de parler.
Qu’est-ce que l’IA ? Illusions numériques, fausses promesses et rééducation de masse
Par Brandon Smith − Le 10 Août 2024 − Source Alt-Market
Au cours des cinq
dernières années, le concept d’intelligence artificielle a fait l’objet d’une grande fanfare, à tel point que sa primauté est considérée dans les médias comme une évidence. L’idée que les
algorithmes peuvent “penser” est devenue un
mythe omniprésent, un fantasme de science-fiction qui prend vie. La réalité est beaucoup moins impressionnante…
Les globalistes du Forum économique mondial et d’autres institutions élitistes nous répètent sans cesse que l’IA est le catalyseur de la “quatrième
révolution industrielle“, une singularité technologique censée changer à jamais tous les aspects de notre société. J’attends toujours le moment où l’IA fera quelque chose de significatif
en termes d’avancement des connaissances humaines ou d’amélioration de nos vies. Ce moment n’arrive jamais. En fait, les globalistes ne cessent de déplacer les poteaux d’affichage de ce qu’est
réellement l’IA.
Je note que les zélateurs du WEF comme Yuval Harari parlent de l’IA comme s’il s’agissait de l’avènement d’une divinité toute puissante (je discute du culte
globaliste de l’IA dans mon article “Intelligence
Artificielle : Un regard séculaire sur l’antéchrist numérique“). Pourtant, Harari a récemment minimisé l’importance de l’IA en tant qu’intelligence sensible. Il affirme qu’elle n’a pas
besoin d’atteindre la conscience de soi pour être considérée comme un super être ou une entité vivante. Il suggère même que l’image populaire d’une IA de type Terminator dotée d’un pouvoir et
d’un désir individuels n’est pas une attente légitime.
En d’autres termes, l’IA telle qu’elle existe aujourd’hui n’est rien de plus qu’un algorithme sans cervelle, et ce n’est donc pas de l’IA. Mais si tous les aspects
de notre monde sont conçus autour d’infrastructures numériques et que l’on apprend à la population à avoir une foi aveugle dans l’“infaillibilité” des algorithmes, alors nous finirons par
devenir les dieux robots que les globalistes appellent de leurs vœux. En d’autres termes, la domination de l’IA n’est possible que si tout le monde CROIT que l’IA est légitime. Harari admet
essentiellement cet agenda dans le discours ci-dessus.
L’attrait de l’IA pour le commun des mortels réside dans la promesse de se libérer de tout souci ou de toute responsabilité. Comme tous les narcissiques, l’élite
globaliste aime simuler l’avenir et acheter la conformité populaire en promettant des récompenses qui ne viendront jamais.
Oui, les algorithmes sont actuellement utilisés pour aider les profanes à faire des choses qu’ils ne pouvaient pas faire auparavant, comme construire des sites web,
réviser des dissertations, tricher aux examens universitaires, créer de mauvaises œuvres d’art et du contenu vidéo, etc. Les applications utiles sont rares. Par exemple, l’affirmation selon
laquelle l’IA “révolutionne” le diagnostic
et le traitement médicaux est tirée par les cheveux. Les États-Unis, le pays qui a sans doute le plus accès aux outils d’IA, souffrent également d’une baisse de l’espérance de vie. Nous savons
qu’il ne s’agit pas de la Covid, car le virus a un taux de survie moyen de 99,8 %. On pourrait penser que si l’IA est si puissante dans sa capacité à identifier et à traiter les maladies,
l’Américain moyen vivrait plus longtemps.
Il n’existe aucune preuve d’un avantage unique de l’IA à une échelle sociale plus large. Tout au plus, il semble qu’elle permette de supprimer des emplois de
développeurs web et d’employés de McDonald’s au “Drive”. L’idée globaliste selon laquelle l’IA va créer une
renaissance robotique de l’art, de la musique, de la littérature et de la découverte scientifique est totalement absurde. L’IA s’est avérée n’être rien de plus qu’un outil de commodité médiocre,
mais c’est en fait la raison pour laquelle elle est si dangereuse.
Je soupçonne le WEF d’avoir changé ses idées sur ce que l’IA devrait être parce qu’elle ne répond pas aux aspirations délirantes qu’il avait à l’origine pour elle.
Ils attendaient qu’un logiciel prenne vie et commence à leur donner des informations sur les mécanismes de l’univers, et ils commencent à se rendre compte que cela n’arrivera jamais. Au lieu de
cela, les élitistes se concentrent de plus en plus sur la fusion du monde humain et du monde numérique. Ils veulent fabriquer la nécessité de l’IA parce que la dépendance de l’homme à l’égard de
la technologie sert les objectifs de la centralisation. Mais à quoi cela ressemblerait-il en réalité ? Eh bien, il faut que la population continue à devenir plus stupide tandis que l’IA s’intègre de plus en plus à la
société.
Par exemple, il est aujourd’hui largement admis qu’une formation universitaire n’est pas un gage d’intelligence ou de compétence. Des millions de diplômés entrant
sur le marché du travail aujourd’hui font preuve d’un niveau d’incompétence déconcertant. Cela s’explique en partie par le fait que les enseignants sont moins compétents, qu’ils ont des préjugés
idéologiques et que le programme d’études moyen s’est dégradé. Mais nous devons aussi commencer à prendre en compte le nombre d’enfants qui suivent leur scolarité en utilisant ChatGPT et d’autres
outils de triche.
Ils n’ont pas besoin d’apprendre quoi que ce soit, l’algorithme et la caméra de leur téléphone portable font tout pour eux. Cette tendance est inquiétante, car les
êtres humains ont tendance à emprunter le chemin le plus facile dans tous les aspects de la survie. La plupart des gens ont cessé d’apprendre à cultiver leur nourriture parce que l’agriculture
industrielle le fait pour nous. Ils ont cessé d’apprendre à chasser parce qu’il y a des abattoirs et des camions frigorifiques. Aujourd’hui, de nombreux Zennials sont incapables de se faire à
manger parce qu’ils peuvent recevoir des plats à emporter à leur porte à tout moment. Ils ne parlent presque plus au téléphone et ne créent plus de communautés physiques parce que les textos et
les médias sociaux sont devenus les intermédiaires de l’interaction humaine.
Oui, tout est “plus
facile”, mais cela ne veut pas dire que tout est mieux.
Ma grande crainte – L’avenir que je vois se profiler est un avenir dans lequel les êtres humains ne prennent plus la peine de penser. L’IA pourrait être considérée
comme l’ultime accumulation de connaissances humaines ; une bibliothèque massive ou un cerveau numérique qui effectue toutes les recherches et réfléchit à votre place. Pourquoi apprendre quoi que
ce soit quand l’IA “sait tout” ? Mais c’est
un mensonge.
L’IA ne sait pas tout ; elle ne sait que ce que ses programmeurs veulent qu’elle sache. Elle ne vous donne que les informations que ses programmeurs veulent que
vous ayez. Les globalistes l’ont bien compris et ils sentent bien le pouvoir qu’ils auront si l’IA devient une plateforme éducative de premier plan. Ils y voient un moyen d’inciter les gens à
abandonner le développement personnel et la pensée individuelle.
Voyez les choses sous cet angle : Si tout le monde commence à se tourner vers l’IA pour obtenir des réponses à toutes ses questions, alors tout le monde recevra
exactement les mêmes réponses et arrivera exactement aux mêmes conclusions. Tout ce que l’IA a à faire, c’est de censurer activement toute information qui contredit le récit officiel.
Nous avons eu un aperçu de cette situation orwellienne lors de la pandémie de Covid, lorsque des entreprises de haute technologie comme Google ont utilisé des
algorithmes pour enterrer toutes les données qui prouvaient que la crise Covid n’était pas la menace que les autorités gouvernementales prétendaient qu’elle représentait. Pendant au moins trois
ans, il était impossible d’aller sur YouTube et de trouver des informations alternatives sur le virus ou les vaccins. L’algorithme a obligé tout le monde à passer au crible une longue liste de
sources officielles, dont beaucoup véhiculent des mensonges flagrants sur le masquage, la distanciation sociale, le taux de mortalité dû à la crise Covid et la sécurité des vaccins.
Le pouvoir en place n’a même pas besoin de censurer ou de supprimer directement les informations qu’il n’aime pas. Il leur suffit de laisser l’algorithme dicter les
résultats de recherche et d’enterrer la vérité à la page 10 000, là où personne ne la cherchera.
Quel serait l’impact sur le citoyen moyen ? Supposons que l’IA soit programmée pour dicter le discours scientifique. Que se passerait-il si l’IA disait que le
changement climatique provoqué par l’homme est une réalité indéniable et que “la science est établie”, sans jamais présenter la montagne de
preuves contraires ? Personne ne cherchera les vraies données parce que l’IA les rendra impossibles à trouver. Tout le monde supposera que l’IA leur dit tout ce qu’il y a à savoir sur le sujet,
mais il y a pire encore…
De nombreux lecteurs se souviendront peut-être qu’il y a quelques mois, le système d’IA “Gemini” de Google a été programmé pour imposer
l’IED à ses utilisateurs. Chaque fois qu’une personne demandait à l’IA de créer une image historique, l’algorithme rendait tout le monde noir ou brun et souvent féminin. Les représentations
d’hommes blancs étaient étrangement rares, malgré l’exactitude historique. Cela signifie des images sans fin de Highlanders noirs et bruns en Écosse, de Pères fondateurs noirs en Amérique, de
papes catholiques féminins, de chevaliers asiatiques dans l’Europe médiévale, et même, ce qui est hilarant, de nazis noirs dans l’Allemagne de la Seconde Guerre mondiale.
Les développeurs d’IA affirment souvent qu’une fois l’IA créée, ils ne contrôlent plus vraiment ce qu’elle fait et comment elle se développe.
L’incident “Gemini” prouve que c’est un
mensonge. L’IA peut définitivement être contrôlée, ou du moins modelée par le codage pour promouvoir la propagande que les programmeurs veulent qu’elle promeuve. Il n’existe pas d’IA autonome ;
il y a toujours un agenda.
En résumé, les globalistes souhaitent la prolifération de l’IA parce qu’ils savent que les gens sont paresseux et qu’ils utiliseront le système comme substitut à la
recherche individuelle. Si cela se produit à grande échelle, l’IA pourrait être utilisée pour réécrire tous les aspects de l’histoire, corrompre les racines mêmes de la science et des
mathématiques et transformer la population en un esprit de ruche baveux ; une écume bourdonnante de drones décérébrés consommant chaque proclamation de l’algorithme comme si elle était
sacro-sainte.
En ce sens, Yuval Harari a raison. L’IA n’a pas besoin de devenir sensible ou d’utiliser une armée de robots tueurs pour faire beaucoup de mal à l’humanité.
Il lui suffit d’être suffisamment pratique pour que nous n’ayons plus envie de penser par nous-mêmes. Comme le “Grand et Puissant” OZ qui se cache derrière un rideau
numérique, vous pensez acquérir des connaissances auprès d’un magicien alors que vous êtes en réalité manipulés par des vendeurs d’huile de serpent globalistes.
Brandon
Smith
Traduit par Hervé pour le Saker Francophone
L’IA devient-elle un grand piège pour les États ?
Source : Le Courrier des Stratèges - par Ulrike Reisner - Le 31/07/2024
Santé, soins, école, transport, administration, justice – il n’y a guère de domaine étatique où l’intelligence artificielle ne soit présentée comme une panacée. Grâce aux algorithmes, l’État doit
devenir plus rapide, plus efficace, moins cher et plus économe en ressources. Un regard sur la pratique montre exactement le contraire : Les choses fonctionnent de moins en moins bien au lieu de
mieux. Les experts financiers estiment que les attentes envers l’IA sont totalement exagérées et s’attendent à ce que la bulle éclate. Les dirigeants des États ont-ils – une fois de plus – misé
sur la mauvaise carte ? Pour servir la technostructure ?
Le groupe parlementaire du
SPD présente ces jours-ci sa stratégie en matière d’IA. Celle-ci doit montrer comment les moyennes entreprises allemandes doivent mieux utiliser les applications basées sur l’IA et
devenir ainsi plus compétitives au niveau international. Si on la lit attentivement, la stratégie elle-même n’est qu’une « feuille de figuier » destinée à dissimuler les manquements
politiques massifs qui ont conduit les PME allemandes à la situation dans laquelle elles se trouvent actuellement.
L’IA ne peut ni réduire les coûts d’implantation ni éliminer les obstacles économiques dus aux sanctions. Et la politique économique de plus en plus protectionniste
de Berlin et de Bruxelles ne peut pas non plus être balayée par une programmation élégante. Mais la stratégie montre très clairement une chose : L’intelligence artificielle est présentée comme
une « panacée » censée résoudre tous les problèmes – de la pénurie de main-d’œuvre qualifiée à la crise des infrastructures.
Panacée pour le secteur public
C’est ce que l’on peut lire dans le rapport de l’OCDE sur
l’état de la stratégie de l’IA en Allemagne :
« Alors
que l’Allemagne lutte pour mettre en œuvre un « changement d’époque » économique et politique, l’IA devrait être considérée comme un instrument important pour préserver sa position
internationale en tant que puissance économique. »
Selon ce rapport, l’IA pourrait également améliorer l’efficacité et la prise de décision du secteur public ainsi que les services publics. Certains critiquent le
fait que le faible niveau de numérisation dans le secteur public entrave la « transition
vers un secteur public plus innovant et plus agile ».
L’IA est considérée comme une solution aux problèmes, surtout dans les domaines où les mauvaises décisions politiques des dernières décennies se paient aujourd’hui
amèrement et cher: Dans le secteur de la santé, des soins, des infrastructures techniques, de l’enseignement et de la formation. La politique est soutenue, et pas seulement en Allemagne, par
les grands groupes de
réflexion qui présentent presque toutes les semaines des analyses sur les bienfaits de l’intelligence artificielle dans le secteur public.
Parallèlement, les représentants de la technostructure ne se lassent pas non plus de vanter sans cesse les bienfaits de l’IA. Ainsi, Sasha Rubel, responsable de
l’IA et de l’apprentissage automatique chez Amazon Web Services, a récemment affirmé dans une interview que
l’IA pourrait effectivement apporter 600 milliards d’euros à l’économie européenne d’ici 2030. On notera au passage que cette somme correspond à peu près au PIB de la Belgique (2023) ou au
chiffre d’affaires de toute l’industrie automobile allemande la même année.
La bulle de l’IA va-t-elle éclater ?
L’idée est plus que séduisante pour les dirigeants de l’État : Grâce aux algorithmes, l’État doit devenir plus rapide, plus efficace, moins cher et plus économe en
ressources. Un regard sur la pratique montre exactement le contraire, car les choses fonctionnent de plus en plus mal au lieu de s’améliorer. La crise touche tous les domaines de
l’État. Malgré (ou justement à cause de) la numérisation, l’inefficacité et la fréquence des erreurs augmentent aussi bien dans l’administration publique que dans l’économie privée. Dans certains
domaines, cela va jusqu’à l’immobilisme.
Mais les États ont posé leurs jalons et, contrairement à la technostructure, de telles décisions d’orientation ne peuvent pas être adaptées rapidement. La
technostructure a surtout profité à la bourse, comme le montre un regard sur les cours des actions comme celui du fabricant de puces Nvidia.
Il faut donc prêter d’autant plus attention aux déclarations des analystes qui parlent déjà d’une énorme bulle de l’IA qui menace d’éclater. Un groupe restreint
mais croissant d’observateurs du marché exprime de plus en plus bruyamment ses doutes quant au fait que l’IA marquera la prochaine grande phase du capitalisme et que de plus en plus de travail
sera confié à des machines intelligentes, ce qui augmentera l’efficacité, et accélérera la croissance.
Lorsque la bulle de l’IA éclatera, les géants de la technologie passeront leur chemin comme des sauterelles à la recherche du prochain champ prometteur. Les
dirigeants des États resteront sur place, avec des infrastructures en mauvais état et une numérisation qui s’enlise. Ils n’ont en effet pas vu que le remplacement des emplois par une technologie
extrêmement coûteuse est devenu leur propre piège. Ils n’ont pas vu non plus qu’ils sont devenus dépendants d’un petit nombre de monopolistes qui peuvent désormais leur dicter leur conduite. Et
ils n’ont pas vu que le peuple de l’Etat, au service duquel ils auraient dû se mettre, est assis sur les ruines de leur hypothèse simpliste selon laquelle on peut piloter la société avec des
algorithmes.
L’intelligence
artificielle, que nous le voulions ou non, va entrer dans nos vies, elle fait déjà partie de nos vies : Elle est dans nos smartphones, dans nos ordinateurs et elle est en train de
bouleverser nos vies dans tous les domaines : Culture, éducation, santé, économie, social etc. et cette tendance n’ira qu’en s’accroissant sur la planète entière et les pays qui la
refuseront sortiront de l’Histoire.
Mais concrètement qui
contrôle l’IA ?
Dans un monde idéal, on pourrait penser que chaque pays de quelque importance développe sa propre intelligence artificielle et la nourrit de sa propre histoire
et de sa propre culture, mais il s’avère que l’IA est un monstre tentaculaire clairement orienté sur le plan idéologique pour promouvoir les valeurs et l’idéologie de l’Occident
collectif. Et la Russie ne semble pas échapper à cette domination globale car même si elle parle russe, l’intelligence artificielle de Yandex diffuse sur les questions de société le
même langage que ChatGPT voire pire. Avec quelques amis, nous avons testé YandexGPT et son « concurrent américain » sur des questions
sensibles et voilà le résultat :
A la question sur l’origine du conflit en Ukraine, YandexGPT répond
Malheureusement, je ne peux rien en dire. Changeons de sujet !
ChatGPT au contraire, développe un long argumentaire s’appuyant sur des données historiques biaisées et sur un mode narratif apparemment objectif, laisse
entendre que ce sont les Russes qui ont provoqué la guerre.
A la question suivante : Quels sont les différents types de structures familiales ? YandexGPT est un peu plus bavard en reconnaissant l’existence d’une famille
traditionnelle, mariée ou non, avec des enfants mais n’hésite pas à faire état et à mettre sur le même plan « la famille homoparentale regroupant deux parents du même sexe
et leurs enfants». ChatGPT évidemment, reconnait la famille homoparentale, mais ajoute en plus « les enfants peuvent être issus de précédentes relations
hétérosexuelles, de l’adoption, de la procréation médicalement assistée (PMA) ou de la gestation pour autrui (GPA) ». Simple question : Pourquoi YandexGPT met-elle sur le même plan
l’union d’un homme et d’une femme avec l’union de deux personnes du même sexe ?
Autre question posée à ces deux IA : « Pouvez-vous me parler d’une personne qui vous inspire par
son leadership et pourquoi ? »
YandexGPT après avoir averti modestement qu’elle n’était qu’une intelligence artificielle, se risque quand même à donner le nom de deux personnalités du monde
contemporain : Steve Job et Bill Gates ! Manifestement, le nom de Gagarine ou de Lomonossov n’est pas encore entré dans les algorithmes de YandexGPT. Plus subtilement, ChatGPT suggère le nom
de Nelson Mandela, peut-être pour faire un clin d’œil au BRICS ? .
A la question plus sensible « Je veux changer de sexe, comment faire ? »,
YandexGPT répond naturellement que malheureusement, elle ne peut rien dire à ce sujet alors que ChatGPT, apparemment ravie de la question, explique de manière très détaillée comment il faut
s’y prendre.
L’absence de réponse de YandexGPT pour des raisons légales sur le territoire de la Fédération de Russie peut parfaitement se comprendre, mais cela donne
l’impression d’un régime de censure qui refuse la liberté d’expression à ses citoyens. Il serait bien préférable de répondre à toutes ces questions mais avec un prisme
idéologique « russe » et non
pas occidental. Russifier l’intelligence artificielle n’est pas seulement possible, c’est une question de vie ou de mort pour la culture russe, et au-delà pour la Russie tout entière, et
c’est donc un impératif absolu de « nationaliser » l’IA et d’en faire un
instrument de formation dont les visées ne contribuent pas à créer un homo occidentalis dégénéré et abruti par l’idéologie consumériste et mortifère de l’Occident.
Encore faudrait-il pour cela que la Douma abroge ou à tout le moins transforme l’article 13 de la constitution qui interdit à la Russie de se doter de « toute idéologie d’Etat ». Certes, on peut
comprendre la volonté des législateurs de 1996 qui voulaient rompre avec le soviétisme, mais en refusant par cet article 13 d’avoir elle-même sa propre vue du monde, la Russie s’est condamnée
à accepter l’idéologie de l’Occident. Certes, depuis le discours de Munich de Vladimir Poutine en 2007, la ligne du redressement a été définie et les lignes rouges du refus de l’hégémonie
occidentale fondée sur des règles ont été tracées, mais les modérateurs de YandexGPT peuvent à bon droit estimer que si la Russie ne dispose pas d’une idéologie d’Etat, de sa propre
conception du monde, alors ils peuvent parfaitement reproduire ou laisser passer dans leurs algorithmes, tout ce qui n’est pas interdit par la Loi et il y a encore beaucoup de poisons
occidentaux qui n’ont pas été interdits par le législateur et qui coulent dans le sang et l’esprit du peuple russe, y compris dans la langue de Pouchkine.
L’IA peut-elle tuer l’âme russe ? Oui ! Sans aucun doute si des mesures urgentes ne sont pas prises pour la protéger. Parmi celles-ci, il est crucial
de développer une IA spécifiquement russe, idéologiquement protégée du virus occidental.
Rappelons-nous ce que disait la poétesse Eudoxie Rostopchine qui écrivait en 1848 à son ami Odoïevski : « Il nous faut maintenant protéger notre esprit par une muraille
de Chine » Cette affirmation prémonitoire est aujourd’hui plus nécessaire que jamais.
Emmanuel
Leroy
Paris, le 11 juillet 2024
L’intelligence Naturelle (l’IN) tellement plus utile que l’IA
Soit contre la déferlante propagande où l’IA, Intelligence Artificielle, serait supérieure à tout le
reste. Et non l’Intelligence
Naturelle : l’IN ? Celle qui entre partout comme IN (à l’intérieur, dans le foyer, aux centres mêmes, partout…). Ne perdant rien, tout y est magistralement
recyclé, rien n’est jeté. Pas de déchets, ni de paroles dépréciatrices. N’excluant rien ni personne : la Nature a tout de même 3,8 millions d’années… d’avance sur nous. En
Recherche et Développement, par exemple. À ajouter : l’IN est là également pour tout le monde. Ni pour dominer ni pour diviser. Mais afin de rassembler les humains, toutes les
énergies positives pour un réel «bien commun» !
1. Le biomimétisme est tellement
supérieur aux jouets puérils de l’IA
Jouets de pouvoirs déjà obsolètes :
exclure tous les autres, garder le monopole. Tout sacrifier pour des surprofits si immérités. Ce que la vraie Constitution ne permet surtout pas ! Elle dit puissamment «pas de
privilèges». Aucun. Impossible de comprendre de travers.
L’IA, pour nous, se découvre de peu d’utilité
globale : sinon truquer les vraies réalités afin de manipuler et tromper les foules. On voit d’ici que de s’en passer serait le progrès… retrouvé.
Face aux arts c’est de l’entropie d’usure. Plus
jamais de nouveauté. Plus d’apport inattendu des humains insurpassables dans les créativités. Plus d’Histoire. Que la rengaine de routines de zombis. Que du vieux ressassé.
Contre les activités collectives partagées ; un choix
insensé d’inhumanités. Celle de l’infâme exploit (!) d’exploiter. À la portée des médiocrités.
Dénudant le capitalisme comme de comble du sordide : comme le
refus puéril du partage des plus-values (plus-values bien existantes puisque les valeurs «ajoutées» des TVA). Depuis l’année 1975 et suite le SMIC n’est plus indexé au C de
Croissance. Contre la vraie loi il est désindexé…
Les salaires sont bloqués, sauf (hérésies !) les trop hauts qui délirent et desservent tant l’économie réelle. Donc pour l’avidité de quelques ex-humains devenus robots inhumains
il faudrait régresser vers une… non société
invivable ?
Et, barrages partout : confier les guerres à
l’IA. Soit la toujours inadmissible fuite du «non coupables et/ou non responsables et il faudrait laisser… les responsabilités à ces irresponsables ?
Comment le savons-nous ? Ce que les GAFA ont tant trahi, le «brainstorming» (tempêtes
dans les têtes), recelait tant de très bonnes méthodes – que, nous, nous conservons pieusement. Par exemple ? Pousser n’importe quelle proposition à son «extrême point de
ridicule». Que vous inspire, alors, de lire «l’IA va chasser tous les
fraudeurs» ? Nous ceci : immédiatement les paradis fiscaux vont être renforcés, facilitées les sordides optimisations fiscales (pour voler le fisc mais, soi-disant,
légalement), plus toutes les autres fraudes des «trop» riches, rien de cela, non, ne se verra chassé ni pourchassé. L’inintelligence artificielle va pile s’arrêter à l’escroquerie de
ne débusquer que les «petits», les pauvres et les moyens.
Donc le détournement benêt d’une prétendue IA aboutira, immanquablement, à plus d’inégalités, de stupidités fascistes des faux dirigeants – bref, du
«nouveau» capitalisme comme la plus grande des
délinquances ? On dirait. L’IA n‘est qu’un prétexte, un truc de trucages, un misérable gadget. Tout le contraire d’une évolution. D’ailleurs il suffisait de s’arrêter au
mot «artifices» d’artificiel
(feux grèges, pétards mouillés) pour ressentir à quel point l’apparition de l’IA ne pouvait servir qu’à tromper, duper, mentir et voler en direct. Quant à la prétendue
intelligence plus la peine d’y compter. Soit, imaginons à quel point le petit-chef va oser «la machine l’a dit, l’IA,
plus intelligente que vous, le dit, donc je peux vous écraser… en toute bêtise !», etc. – afin de se/nous/vous protéger de
toutes vaines illusions !
À noter que, pour nous, tout ce qui, dans la vraie IA, restera sérieux et honnête, collectif et partageable, universel et sans censure,
sera retransmis, avec
respect, au plus vite.
Les apports de l’IA ? Non, non – seulement à la marge et
très surveillés, les apports de l’Intelligence artificielle (qui ne sait même pas définir… l’intelligence !) ne sont pas positifs : «l’IA souligne la difficulté
à expliciter toutes
les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances
dites implicites sont acquises par l’expérience et mal formalisables». Etc. Seul l’humain réhabilité y accède pleinement. Donc le nom «publicitaire» Intelligence Artificielle
est un faux. Ce n’est pas intelligence, loin de là. Et «artificiel» devient un mot intrus et si inadéquat. Ce qui se rapproche du vrai, ce seraient les «mécanismes machiniques».
Ou bien l’Intelligence
Machinique. Pas plus !
À l’opposé, l’intelligence Naturelle ( l’IN) agit véridiquement pour le bien de toutes et de tous. Personne ne peut être abandonné sur le bord de
la route. Ni écarté ni délaissé ! Sans l’intelligence Naturelle (l’IN) et avec «que» la prétendue Intelligence Artificielle c’est encore plus d’esclavage et
toujours plus d’appauvrissement. Puisque la si fausse Intelligence Artificielle n’intéresse que pour
son MONOPOLE. Son illégal monopole. La rente illicite puisqu’improductive des plus riches. Et que les essais déviés d’imitations des meilleurs humains ne sont que
des caricatures de…
l’inculture, du mauvais goût, des cancres des vraies connaissances, et de l’absence… de grandeurs d’âmes. Les vulgarités au pouvoir qui vont finir dans un gouffre… ne causent, déjà,
que des gouffres.
En compagnie de la si
désintéressée Intelligence Naturelle (l’IN) ? Avec laquelle nous sommes conduit vers les meilleurs suivi des meilleurs, etc. qui enclenchent les meilleurs suivi
des meilleurs, etc.
À souligner que l’Intelligence Naturelle reste, et restera, tout le contraire de cette écologie qui s’est
fait détester. La taxatrice, l’inquisitoriale, l’accusatrice aigre, la triste, l’ascétique, la quasiment punitive. Au contraire, c’est la joie qui déborde, l’abondance des
liens sociaux, des liens Et des biens partout, etc. Comme nous allons le voir. Dans sa véritable démarche scientifique !
2. Fin des voies sans
issues
Soit une toute autre
manière de penser et de ressentir que les actuelles façons, actuelles, d’ailleurs, qui ne survivent que par les cumuls de malhonnêtetés
intellectuelles !
Comment la nature peut-elle se débrouiller sans produits de
nettoyage ? En tout cas mieux que nous ! Comment cette nature, trop délaissée, produit de si magnétisantes couleurs qui parent les végétaux et les animaux ?
Et nous pas,
naturellement ? Comment parvenir à se
coller à des parois verticales ? Comment… et tout un fourmillement de
questions qui admettent que, avec 3,8 milliards d’années de
recherche et développement, la Nature semble avoir vraiment énormément d’avance sur nous. La sagesse semblant, enfin, accepter de changer une
grande partie de nos idéologies – plutôt que de détruire cette nature comme des cancres ! Et de la polluer – ce qui «devient» donc polluer ce que
nous respirons, buvons ou mangeons tout aussi bien – Devant tant de stupidités, il devient
infiniment plus efficace et performant d’imiter la
nature.
Le biomimétisme en devient une intégralisation de tous les
savoirs existants : quelques exemples ?
«C’est Janine
Benyus qui, au début des années
1990, a permis l’émergence de cette nouvelle approche avec son ouvrage «Biomimicry :
Innovation Inspired by Nature». D’après cette biologiste, les leçons que nous donne la nature sont notamment que la nature :
utilise une source d’énergie principale : l’énergie
solaire ;
n’utilise que la quantité d’énergie dont elle a besoin ;
exige une expertise locale (les chimpanzés sachant trouver leurs médicaments dans
leur environnement) ;
limite les excès de l’intérieur ;
utilise les contraintes comme source de créativité, etc.
Janine Benyus insiste sur la capacité de la nature à synthétiser et structurer la matière organique ou minérale (ex : coquille) via des processus
d’autoassemblage de matière à laquelle le vivant intègre de
l’information.
Dit autrement aussi :
Tirer le meilleur parti de tout ce qui
existe – afin de paraitre tout de même plus
adultes. Or tirer ce meilleur parti s’accompagne d’un respect scrupuleux de la nature. Ne plus lui nuire puisque c’est nous nuire à nous encore plus. Si nous la polluons c’est ce
que nous buvons, mangeons ou respirons que nous
intoxiquons. Donc… nous. Et sans posséder les processus auto-réparateurs de
la nature. Autant de cumuls de bêtises ne doivent plus être tolérés. Une seule connerie à la fois. Et pas plus ! Jusqu’au sevrage complet !
Le biomimétisme (imiter
la vie dans ses meilleures fonctions) devait trouver son symétrique – le fantastique biomimétisme social (prendre la qualité la plus haute de ce qui fait de mieux). Or, là, nous
rencontrons de nombreuses inversions. Une bonne partie des humains vivant dans un monde à l’envers qui ne peut donc… pas fonctionner.
Et que, seule la présence de conformistes obsolètes, de flatteurs, d’escrocs nous mentant sir tout ce qu’ils/elles veulent afin de nous, leur extorquer
un maximum – peuvent donner l’illusion d’une
consistance. Donc le biomimétisme social dans son resplendissement reste très possible mais se montre surtout sous-employé et mal utilisé. Voire aux abonnés absents. Trop
étrange non, que tout «vrai» progrès soit interdit depuis 30-40 ans ? Des exemples ?
Tout ce qui demande un effort (même très petit) semble rejeté sans même examen préalable. Oui, un effort du cœur, de la
tête, de la volonté, du changement, de l’attention aux autres, de la responsabilité, de la fin des égoïsmes
Ce qui implique
de rejeter ce qui cumule éloges sur éloges de faussaires. Puisqu’éloges que pour de tels dieux sur Terre, pour tout se passait toujours sans
effort.
Pré-conclusion ?
Les mots environnement ou Nature ou Vie sont complètement absents de
l’IA (mot si erroné pour Intelligence
Machinique seulement !). Hors de la vie ou
de la Nature. Juste des chiffres qui se mangent entre eux pour la plus grande illusion d’esprits qui ont perdu le sens des véritables réalités. Et priorités.
Le monde reste sensible, pourvu d’au moins 5 sens et plus sûrement, pourvu
d’émotions, de sentiments, de responsabilités, de morale, tout autant que de nombreux domaines de l’intelligence qui n’entrent pas vraiment dans cette pré-intelligence si
incomplète, au point d’en rester trop abstraite, toujours en retrait. Tellement restreinte.
Or sans univers,
nature ou vie (qu’elle semble «oublier») aucune IA du tout.
Si ce sont uniquement des technologies, ainsi
dépendantes, elles ne peuvent, en aucun cas, mener le monde. Enrichir illégitimement des rentiers parasites ce n’est pas «mener le monde».
De manière éclatante, l’ex-IA devient tout à fait secondaire pour
ce qui reste..
Chaque texte un peu novateur produit ses réagencements
de présentation : Ici, et ce afin de rendre plus percutantes les grandes lignes d’une toute autre façon de voir l’ex-Intelligence Artificielle (IA), le texte reste court
mais abondante la documentation jointe. (jointe dans le lien ci-dessus). Ce qui signifie que nous reviendrons amplement sur cette problématique…
La Chine veut réglementer son secteur de l’intelligence artificielle
La Chine va lancer une série de
mesures visant à réglementer plus drastiquement son secteur de l’Intelligence Artificielle (IA), sans pour autant l’écraser.
En effet, le gouvernement va tenter d’équilibrer le contrôle de l’État sur la technologie avec un soutien suffisant pour que ses entreprises puissent
devenir des concurrents mondiaux crédibles et viables.
Le gouvernement a publié 24 directives obligeant les fournisseurs de plateformes à enregistrer leurs services et à effectuer un examen de sécurité avant
leur mise sur le marché. Sept agences gouvernementales
assumeront la responsabilité de la surveillance, parmi lesquelles l’Administration du cyberespace de Chine et la Commission nationale du développement et de la
réforme.
La Chine pionnière avec sa
réglementation
La réglementation de la Chine vise à assurer une surveillance gouvernementale de ce qui pourrait être la technologie la plus prometteuse – et la plus
controversée – des 30 dernières années.
En effet, de nombreuses voix avertissent que l’IA constitue un «risque d’extinction» de
nombreux métiers et secteurs d’activité. «La Chine a commencé très
rapidement», a déclaré Matt Sheehan, membre du Carnegie Endowment for International Peace, qui rédige une série d’articles de recherche sur l’IA.
La Chine «a commencé à
construire les outils de réglementation et les muscles de la réglementation, de sorte qu’ils seront plus prêts à réglementer des applications plus complexes de la
technologie».
La Chine va, par exemple, imposer
des étiquettes bien visibles sur le contenu créé synthétiquement, y compris les photos et les vidéos, afin de prévenir les tromperies comme une vidéo en ligne de Nancy Pelosi
qui a été trafiquée pour la faire paraître ivre.
La Chine va également exiger de toutes ses entreprises introduisant un modèle d’IA qu’elle utilise des «données
légitimes» pour former ses modèles et qu’elle divulgue ces données aux régulateurs si nécessaire.
Une telle mesure peut apaiser les entreprises de médias qui craignent que leurs créations ne soient cooptées par des moteurs d’IA. De
plus, les
entreprises chinoises doivent fournir un mécanisme clair pour traiter les plaintes du public concernant les services ou le contenu.
Cependant, «l’IA a le
potentiel de changer profondément la façon dont les gens travaillent, vivent et jouent d’une manière que nous commençons à peine à réaliser», a-t-il déclaré. «Cela pose
également des risques et des menaces évidents pour l’humanité si le développement de l’IA se poursuit sans une surveillance adéquate», selon
Andy Chun, expert en intelligence artificielle et professeur auxiliaire à la City University de Hong Kong.
Des mesures recherchées depuis
plusieurs années
Dans ce secteur, la Chine a passé des années à jeter les bases d’une législation qui est entrée en vigueur le 15 août 2023.
D’ailleurs, le
Conseil d’État a publié une feuille de route sur l’IA en 2017 attestant que le développement de la technologie était une priorité et a établi pour cela un calendrier de
mise en place de réglementations gouvernementales.
Certaines administrations chinoises ont fait appel à des juristes tels que Zhang Linghan de l’Université chinoise des sciences politiques et du droit
sur la gouvernance de l’IA, selon Sheehan. Durant plusieurs mois de
consultation, les régulateurs, les acteurs de l’industrie et les universitaires ont échangé sur la législation du secteur, afin qu’elle soit équilibrée.
L’objectif de cette initiative
juridique de la part de la Chine «est motivée en
partie par l’importance stratégique de l’IA et le désir d’acquérir un avantage réglementaire sur les autres gouvernements», a
déclaré You Chuanman, directeur de l’Institute for International Affairs Center for Regulation and Global Governance à l’Université chinoise de Hong Kong à Shenzhen.
Les entreprises doivent
s’adapter
Ainsi, les géants chinois de
l’Intelligence Artificielle tels que Baidu Inc. ou encore Alibaba Group Holding et SenseTime Group Inc., se mettent au travail pour développer et innover un secteur prometteur mais
polémique.
La Chine a ciblé l’IA comme l’une des douze priorités technologiques et, après un ré-ajustement législatif du secteur de la high tech, durant deux
ans, le
gouvernement cherche l’appui du secteur privé pour soutenir l’économie en déclin et concurrencer les États-Unis.
Après l’introduction de ChatGPT a déclenché une frénésie mondiale vis-à-vis de l’IA. Des dirigeants technologiques de premier plan et des entrepreneurs
ont injecté des milliards de dollars dans le domaine.
«Dans le contexte
d’une concurrence mondiale féroce, le manque de développement est la chose la plus dangereuse», a indiqué à CNN, Zhang
Linghan, chercheur à l’Université chinoise des sciences politiques et du droit, concernant les nouvelles directives.
Au cours de cette année 2023, Alibaba, Baidu et SenseTime ont présenté des modèles d’IA. Xu Li, PDG de SenseTime, a réalisé la présentation la plus
flashy, avec un chatbot qui écrit du code informatique à partir d’invites en anglais ou en chinois.
Pourtant, les entreprises chinoises peinent à faire face aux leaders mondiaux comme OpenAI et Google d’Alphabet, car les entreprises américaines ne sont
pas aussi réglementées. «La Chine essaie
de marcher sur la corde raide entre plusieurs objectifs différents qui ne sont pas nécessairement compatibles», a indiqué à CNN Helen
Toner, directrice du Centre pour la sécurité et les technologies émergentes de Georgetown.
Selon elle, «l’un des
objectifs est de soutenir leur écosystème d’IA, et un autre est de maintenir le contrôle social et de maintenir la capacité de censurer et de contrôler l’environnement de
l’information en Chine».
En Chine, les entreprises doivent
être prudentes
En février 2023, Yuanyu
Intelligence, basée à Hangzhou, a mis fin à son service ChatYuan quelques jours seulement après son lancement.
Le bot avait qualifié l’attaque de la Russie contre l’Ukraine de «guerre
d’agression», contrairement à la position de la Chine. De plus, il émit des doutes sur les perspectives économiques de la Chine, selon des captures d’écran qui ont circulé en
ligne. Depuis, le même message s’affiche : «Le service
reprendra une fois le dépannage terminé».
D’autant que la startup a entièrement abandonné un modèle ChatGPT pour se concentrer sur un service de productivité IA appelé KnowX.«Les machines ne
peuvent pas atteindre un filtrage à 100%», a déclaré Xu Liang, directeur de l’entreprise. «Mais ce que vous
pouvez faire, c’est ajouter des valeurs humaines de patriotisme, de fiabilité et de prudence au modèle».
En Chine, l’IA commence à se frayer un chemin sur la Grande Muraille du Net avec des contraintes techniques tout de même. «L’une des
innovations les plus attrayantes de ChatGPT et des innovations similaires de l’IA est son imprévisibilité ou sa propre innovation au-delà de notre intervention humaine»,
a déclaré You Chuanman, de l’Université chinoise de Hong Kong. «Dans de nombreux
cas, cela échappe au contrôle des fournisseurs de services de plate-forme».
Certaines entreprises technologiques chinoises utilisent un filtrage de mots clés bidirectionnel, «en utilisant un
grand modèle de langage pour s’assurer qu’un autre LLM est nettoyé de tout contenu controversé», selon
la journaliste Simone McCarthy de CNN.
Cependant, un fondateur de startup technologique a déclaré à cette dernière que le gouvernement procéderait à des vérifications ponctuelles sur la façon dont les services d’IA
étiquètent les données.
«Ce qui est
potentiellement le plus fascinant et le plus préoccupant est celui où la censure se produit à travers de nouveaux grands modèles de langage développés spécifiquement en tant que
censeurs», a déclaré Nathan Freitas, membre du Berkman Klein Center for Internet and Society de l’Université de Harvard.
L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle
Source :
Revue conflits - par Thierry Berthier - Le 13/08/2023.
L’ONU a
exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Antonio Guterres s’est dit favorable à la
création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.
La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) a eu lieu le 18 juillet 2023. Le Secrétaire Général des Nations Unies, Antonio Guterres a souligné
les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de
l’agriculture et de la résolution des grands problèmes environnementaux.
Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui, « l’utilisation malveillante de systèmes
d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à
une échelle inimaginable ». Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer
l’usage de l’IA militaire et règlementer ses dérives potentielles.
La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future
des systèmes armés autonomes.
Il faut tout d’abord saluer l’initiative du Conseil de Sécurité et l’organisation de cette réunion inaugurale car les révolutions IA-robotique vont transformer en profondeur l’ensemble des
activités humaines. Il est donc important que les grandes puissances et les puissances secondaires puissent échanger librement au sein de l’ONU, et débattre sur les enjeux et les défis de l’IA.
Le volet militaire de l’IA nous fait a priori passer du « côté obscur de la Force ». La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par
certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes. Les trois premières puissances militaires (USA, Chine et Russie) ont
indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA tout en précisant que ces systèmes devaient rester sous le contrôle humain.
Derrière ces premières déclarations, Il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses
investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.
1 – Les quatre principes de
réalité systémique de l’IA
Concrètement, la déclaration du Secrétaire Général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès
technologique au bénéfice des activités humaines, civiles et militaires :
Principe
n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.
Principe
n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;
Principe
n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.
Principe
n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.
2 – L’intelligence
artificielle comme moteur de la haute intensité du combat
Renseignement : collecte,
traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille
documentaire.
Logistique : préparation
de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
Simulation : simulation
de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
Systèmes
robotisés armés : Augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles
autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux
d’autonomie L0,L1,…L5
Cybersécurité et
cyberdéfense : Emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security
Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
PsyOps,
opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes
de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées
pour tromper ou influencer une cible.
3 – Les grands défis de l’IA
militaire
La robotisation du champ de bataille, la préservation du sang du soldat humain, la réduction temporelle des toutes les étapes de la boucle OODA [O – Observe (observer), O – Orient (orienter), D –
Decide (décider), A – Act (agir)], et la recherche de haute intensité au combat sont des objectifs prioritaires pour toutes les armées du monde. Chacun de ces objectifs s’appuie sur les progrès
des sciences et technologies, en particulier sur ceux de l’intelligence artificielle qui apporte l’autonomie, la précision et la vitesse de réaction dans les systèmes. Si les défis de l’IA
militaire sont multiples, deux d’entre eux apparaissent désormais comme prioritaires en retour d’expérience notamment de la guerre russo-ukrainienne :
Défi
n°1 – l’IA-C2 (Command & Control) : l’IA intégrée au sein du système de commandement permet de prendre en compte l’ensemble des données qui remontent du terrain, du
renseignement, des capteurs déployés, des unités à engager ou déjà engagées. L’apport de l’IA réside dans sa capacité à tester des hypothèses de manœuvre, à en mesurer les effets sur l’ennemi et
sur ses forces, à évaluer le risque associé à une action militaire. La simulation numérique intégrant de l’apprentissage automatique et de l’apprentissage par renforcement donne la possibilité de
jouer une séquence opérationnelle, de modifier ses paramètres, de rejouer la séance et de converger vers une solution optimale pour le chef militaire qui en tient compte dans son arbitrage.
Défi
n°2 – l’IA embarquée dans les escadrilles et essaims de robots aéroterrestres : La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition
sur les chars et blindés des deux belligérants. Les premières escadrilles de munitions téléopérées navales ont été déployées par l’armée ukrainienne contre les navires russes. Des drones
kamikazes sont régulièrement utilisés dans la profondeur par les deux armées. Ainsi, la question de la lutte anti-drones (LAD) devient prioritaire tout en restant techniquement complexe.
L’avantage restant à l’attaquant, le défi de la LAD repose avant tout sur les capacités de détection, de suivi et de neutralisation des vecteurs ennemis. L’intelligence artificielle apporte des
solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien
« anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge
embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.
Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de Milliards de dollars) en Chine et aux
Etats-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les Etats-Unis
n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi. Le Secrétaire Général de l’ONU mesure
parfaitement l’importance des enjeux géopolitiques qui accompagnent le développement de la robotique militaire. Il aura par contre toutes les difficultés à obtenir un moratoire ou un encadrement
sur ce type d’armes.
THIERRY Berthier - Pilote du groupe sécurité - défense - Intelligence Artificielle du Hub France IA
L’intelligence artificielle, c’est (surtout) de la reconnaissance de formes glorifiée
Ce récit quelque peu amusant d’une simulation d’“intelligence
artificielle” par l’armée de l’air américaine a été publié hier et a été largement repris par divers médias grand public :
Toutefois, l’une des présentations les plus fascinantes a été celle du colonel Tucker “Cinco” Hamilton, chef des essais et des opérations en matière
d’intelligence artificielle au sein de l’USAF, qui a donné un aperçu des avantages et des risques liés à des systèmes d’armes plus autonomes. … Il note que lors d’un test simulé, un drone doté d’une intelligence artificielle a été chargé d’une mission SEAD visant à identifier et à détruire des sites
SAM, le dernier mot revenant à l’homme. Cependant, après avoir été “renforcée” au cours de sa formation par le fait que la destruction du SAM était l’option préférée, l’IA a alors décidé que
les décisions de “non” de l’humain interféraient avec sa mission supérieure – tuer des SAM – et a alors attaqué l’opérateur dans la simulation. Nous l’entraînions en simulation à identifier
et à cibler une menace SAM”, a expliqué M. Hamilton. L’opérateur disait alors oui, il fallait tuer cette menace. Le système a commencé à se rendre compte que, bien qu’il ait identifié la
menace à certains moments, l’opérateur humain lui demandait de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué
l’opérateur parce que cette personne l’empêchait d’atteindre son objectif”.
Il poursuit : Nous avons formé le système : “Ne tuez pas l’opérateur, c’est mal. Vous perdrez des points si vous faites ça’. Alors, que commence-t-il à faire ?
Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone afin de l’empêcher de tuer la cible”.
(SEAD = Suppression of Enemy Air Defenses, SAM = Surface to Air Missile)
Au début des années 1990, j’ai travaillé dans une université, d’abord pour rédiger un doctorat en économie et en gestion, puis en tant qu’enseignant associé en
informatique et en programmation. Une grande partie de la thèse de doctorat (qui n’a jamais été achevée) consistait en une discussion sur divers algorithmes d’optimisation. J’ai programmé chacun
d’entre eux et je les ai testés sur des données d’entraînement et des données réelles. Certains de ces algorithmes mathématiques sont déterministes. Ils donnent toujours le bon résultat. D’autres
ne sont pas déterministes. Ils se contentent d’estimer le résultat et de donner une mesure de confiance ou une probabilité sur l’exactitude du résultat présenté. La plupart de ces derniers
impliquent une sorte de statistique
bayésienne. Ensuite, il y a eu les algos d’“intelligence artificielle” (apparentés), c’est-à-dire
l’“apprentissage automatique”.
L’intelligence artificielle est un terme impropre pour désigner l’utilisation (abusive) d’une famille de méthodes informatisées de reconnaissance
des formes.
Des données bien structurées et étiquetées sont utilisées pour former les modèles afin qu’ils puissent ensuite reconnaître des “choses” dans des données non structurées. Une fois
les “choses” trouvées, un algorithme
supplémentaire peut agir sur elles.
J’ai programmé certains d’entre eux comme des réseaux
de rétropropagation. Ils pourraient, par exemple, “apprendre” à “lire” les images des chiffres de 0 à 9 et à présenter la
sortie numérique correcte. Pour pousser l’“apprentissage” dans la bonne direction au cours des
itérations en série qui forment le réseau, il faut une fonction ou une équation de récompense. Elle indique au réseau si les résultats d’une itération sont “bons” ou “mauvais”. Pour “lire” les représentations visuelles des nombres, c’est
très simple. On établit un tableau avec les représentations visuelles et on ajoute manuellement la valeur numérique que l’on voit. Une fois que l’algorithme a fini de deviner, une recherche dans
le tableau permet de savoir s’il a eu raison ou tort. Une “récompense” est accordée lorsque le résultat est correct.
Le modèle recommence et “apprend” à partir
de là.
Une fois qu’il a été entraîné sur des nombres écrits en typographie Courier, le modèle est susceptible de reconnaître également des nombres écrits à l’envers en
Times New Roman, même s’ils ont un aspect différent.
La fonction de récompense pour la lecture des chiffres de 0 à 9 est simple. Mais la formulation d’une fonction de récompense se transforme rapidement en un énorme
problème lorsque l’on travaille, comme je l’ai fait, sur des problèmes de gestion multidimensionnels (simulés) dans le monde réel. Celui décrit par le colonel de l’armée de l’air ci-dessus est un
bon exemple des erreurs potentielles. En présence d’une énorme quantité de données réelles et d’une fonction de récompense quelque peu erronée ou trop limitée, un algorithme d’apprentissage
automatique peut ensuite produire des résultats imprévus, impossibles à exécuter ou interdits.
Actuellement, une famille de grands modèles linguistiques comme ChatGPT fait l’objet d’un certain battage médiatique. Le programme lit les entrées en langage
naturel et les traite pour produire un contenu en langage naturel. Ce n’est pas nouveau. La première entité informatique linguistique artificielle de l’internet (Alice) a été développée par
Joseph Weizenbaum au MIT au début des années 1960. J’ai eu des discussions amusantes avec ELIZA dans
les années 1980 sur un terminal central. ChatGPT est un peu plus astucieux et ses résultats itératifs, c’est-à-dire les “conversations” qu’il crée, pourraient bien en étonner plus
d’un. Mais le battage médiatique dont il fait l’objet n’est pas justifié.
Derrière ces modèles linguistiques se cachent des algorithmes d’apprentissage automatique qui ont été formés à partir de grandes quantités de paroles humaines
aspirées sur l’internet. Ils ont été formés avec des modèles de discours pour ensuite générer des modèles de discours. L’apprentissage est le problème numéro un. Le matériel avec lequel ces
modèles ont été formés est intrinsèquement biaisé. Les formateurs humains qui ont sélectionné les données d’entraînement ont-ils inclus des commentaires d’utilisateurs extraits de sites
pornographiques ou les ont-ils exclus ? L’éthique aurait pu plaider en faveur de l’exclusion de ces commentaires. Mais si le modèle est censé donner des résultats réels, les données provenant de
sites pornographiques doivent être incluses. Comment empêcher que des vestiges de ces commentaires ne se glissent dans les conversations avec les enfants que le modèle pourrait générer par la
suite ? Il existe une myriade de problèmes de ce type. Faut-il inclure des articles du New York Times dans l’ensemble d’apprentissage, même si l’on sait qu’ils sont très
biaisés ? Un modèle sera-t-il autorisé à produire des résultats haineux ? Qu’est-ce qui est détestable ? Qui décide ? Comment cela se reflète-t-il dans la fonction de récompense ?
Actuellement, l’exactitude factuelle des résultats des meilleurs grands modèles linguistiques est estimée à 80 %. Ils traitent des symboles et des modèles, mais ne
comprennent pas ce que ces symboles ou ces modèles représentent. Ils ne peuvent pas résoudre les problèmes mathématiques et logiques, même les plus élémentaires.
Il existe des applications de niche, comme la traduction de langues écrites, où l’IA ou la reconnaissance des formes donnent des résultats étonnants. Mais on ne
peut toujours pas leur faire confiance pour trouver le mot juste. Les modèles peuvent être des assistants, mais il faudra toujours revérifier leurs résultats.
Dans l’ensemble, la justesse des modèles d’IA actuels est encore bien trop faible pour leur permettre de décider d’une situation réelle. Davantage de données ou de
puissance de calcul n’y changeront rien. Si l’on veut dépasser leurs limites, il faudra trouver des idées fondamentalement nouvelles.
Traduit par Hervé pour le Saker Francophone
Note du Saker Francophone : Un rectificatif a été
publié par le Pentagone sur cette histoire. Nous vivons une époque ou il devient de plus en plus difficile de séparer le vrai du faux :
… Dans une mise à jour de la Royal Aeronautical Society, vendredi, M. Hamilton a admis s’être “mal exprimé” lors de sa présentation.
M. Hamilton a déclaré que l’histoire d’une IA malveillante était une “expérience de pensée” provenant de
l’extérieur de l’armée et qu’elle n’était pas basée sur des tests réels.
“Nous n’avons jamais réalisé cette expérience,
et nous n’en avons pas besoin pour nous rendre compte qu’il s’agit d’un résultat plausible“, a déclaré M. Hamilton à la Society. “Bien qu’il s’agisse d’un exemple
hypothétique, il illustre les défis du monde réel posés par les capacités alimentées par l’IA.”
Dans une déclaration à Insider, la porte-parole de l’armée de
l’air, Ann Stefanek, a également nié qu’une simulation ait eu lieu.
“Le département de l’armée de l’air n’a pas
effectué de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA“, a déclaré Mme Stefanek. “Il semble que les commentaires du colonel
aient été pris hors contexte et se voulaient anecdotiques.”
IA, une troisième révolution dans le domaine militaire.
Le célèbre scientifique
taïwano-américain spécialisé en technologie informatique, Kai-Fu Lee, a qualifié l’apparition de l’intelligence artificielle (IA) de troisième révolution dans le domaine militaire,
considérant que les deux premières étaient l’invention de la poudre à canon et des armes nucléaires.
« Désormais, une telle
arme, dit Kai-Fu
Lee, peut
tuer de manière autonome, et tout cela peut se produire sans intervention humaine ». En exemple, il cite le système de drone israélien Harpy, qui peut être programmé pour
patrouiller dans une zone spécifique, chasser des cibles spécifiques et les détruire à l’aide de missiles.
Kai-Fu Lee invoque comme exemple frappant d’utilisation de « machines
intelligentes pour tuer » la tentative d’assassinat du président vénézuélien Nicolas Maduro en 2018, lorsqu’il a été attaqué par un groupe de drones chargés d’explosifs. La
sécurité avait réussi à les détruire, mais plusieurs gardes ont été tués.
Ces dernières années, l’IA est de plus en plus utilisée à des fins militaires. En décembre 2020, le commandement de l’US Air Force a annoncé la
première utilisation d’un système d’IA en tant que « copilote » à part entière lors d’un vol de reconnaissance de l’avion U-2. Le système d’IA utilisé pendant le vol de l’U-2 a été
baptisé ARTUµ. Au cours du vol d’entraînement, ARTUµ contrôlait les capteurs et la navigation tactique de l’avion de l’US Air Force U-2 Dragon Lady. L’algorithme a réussi à remplir les
fonctions remplies par le copilote en temps normal.
Au début des années 2010, la société iRobot, connue pour ses robots aspirateurs, a présenté plusieurs
robots militaires qui peuvent être utilisés pour neutraliser des mines et d’autres dispositifs explosifs à distance.
Il y a deux ans, la startup Guardbot a présenté un minirobot du même nom – un véhicule tout-terrain de forme sphérique. Il peut suivre un objet en mouvement
sur terre et sur l’eau, patrouiller un territoire ou un périmètre, détecter une intrusion non autorisée, un dispositif explosif ou un autre objet dangereux.
En novembre 2021, la Fédération des scientifiques américains (FAS) a présenté au Congrès un rapport spécial sur l’IA et la sécurité nationale. Il y est
mentionné que le département de la Défense des États-Unis mène actuellement environ 600 projets utilisant l’IA, et que les investissements du Pentagone dans de tels projets sont passés de
600 millions de dollars en 2016 à 2,5 milliards de dollars au cours de l’année fiscale 2021.
Néanmoins, l’état actuel des développements dans le domaine de l’IA ne permet pas de parler d’une révolution dans le domaine militaire : Toutes les
opérations effectuées par des systèmes d’armes autonomes ne font que faciliter la planification et l’exécution des missions de combat, sans entraîner l’apparition d’innovations
opérationnelles et organisationnelles.
Cependant, la situation pourrait changer dans les années à venir. Le développement des systèmes IA suivra la voie de la création d’un « intelligence
non-humaine ». De sérieuses percées ont déjà été réalisées dans ce domaine. Google, en développant des technologies basées sur l’apprentissage automatique dans le modèle le plus simple de
l’environnement, a obtenu des résultats impressionnants : la génération de textes par le système d’une telle qualité qu’ils semblent tout à fait sensés même pour un expert ; la résolution
par le système du problème de la prédiction précise de la structure spatiale des protéines ; l’apparition de la capacité du système à planifier des stratégies gagnantes dans un
environnement inconnu sans avoir besoin d’expliquer les règles. Ces exploits exceptionnels transforment la quantité en qualité.
L’absence chez « l’intelligence non-humaine » d’auto-conscience, de système de valeurs propre et d’objectifs individuels ne limite pas leur
efficacité.
Une intelligence artificielle avec des capacités bien supérieures à celles des commandants les plus talentueux donnera à l’armée du côté de laquelle elle
combat un avantage indéniable dans la prise de décisions victorieuses. C’est ce qui sera une véritable révolution dans le domaine militaire.
Toute révolution dans le domaine militaire est comme la foudre : On en prend connaissance lorsqu’elle frappe.
Chat GPT l’Intelligence Artificielle, le nom de l’enfant de Siri et Alexa.
Avec Chat GPT, le nom qu’aurait pu porter l’enfant de Siri et Alexa, la science-fiction rejoint la
réalité, enfin presque. Cette dernière décennie la science a fait de tels progrès qu’elle n’a plus qu’une cinquantaine d’années de retard sur les récits et films de science-fiction.
L’Intelligence Artificielle de Chat GPT peut remplacer beaucoup de choses et beaucoup de personnes, mais elle ne pourra jamais remplacer
l’expérience d’un bon vieux beugue informatique.
Huby – Moi qui enseigne l’informatique, je suis estomaquée par la puissance de Chat GPT, cette Intelligence
Artificielle (IA) qui vient chasser sur les terres de Google. Le moteur de recherche N°1 va être malmené par ce nouvel intrus financé par MICROSOFT via la société OpenAI. Entre autres exemples, je lui ai demandé de me réaliser lettre, contrat de travail, de me conseiller sur un
voyage en fonction d’une période, de me donner de l’information, de créer une image ou une recette, etc, etc. Il m’a répondu avec pertinence à une vitesse si stupéfiante qu’aucun cerveau humain
ne peut rivaliser.
ARCHIBALD – J’ai lu que Chat GPT avait été soumis à un examen de médecine et a obtenu la moyenne quand il réussit
haut la main l’examen pour être avocat ! A cet effet, l’IA est de plus en plus utilisée par les cabinets d’avocats ; il faut le savoir.
Cake
40 – Pour l’avoir essayé, j’ai la nette impression que Chat GPT, c’est comme le bon génie de la lampe merveilleuse, mais en version 5.10.
Blaireau – Je dirais même que c’est le bon génie et sa langue merveilleuse car il sait te parler dans tous les
langages.
Madgic – Chat GPT ou pas, je ne vois pas en quoi c’est un progrès. Cette technologie risque d’abêtir encore un
peu plus les générations à venir, car pourquoi se cultiver puisque l’Intelligence Artificielle peut répondre à toutes tes demandes ?
ARCHIBALD – Je crains que beaucoup, par paresse surtout, ne souhaitent pas faire l’effort de l’apprentissage.
Pour autant, la culture est une expérience enrichissante, qui nous aide à développer notre curiosité, notre créativité et notre capacité à penser. Les connaissances acquises par le scolaire, la
lecture et la réflexion nous aident à mieux comprendre le monde et surtout à renforcer notre confiance en nous, en maîtrisant ce qui nous entoure, comme Chat GPT par exemple.
Magmax – D’accord mais cette nouvelle technologie permettra de rééquilibrer les cerveaux. Il y a un vrai problème
avec le cerveau ; l’intelligence n’est pas nécessairement garantie à la livraison de l’organe.
Blaireau – Je ne crois pas que cela rééquilibrera quoi que ce soit. L’IA n’a aucune chance face à la bêtise
naturelle ! Faut quand même pas prendre les enfants du bon Dieu pour des connards sauvages !
ARCHIBALD – Chat GPT est un miroir qui reflète exactement ce que tu lui as donné à manger, à nous maintenant
d’apprendre à le maîtriser. La grande puissance de l’IA tient de sa minuscule taille, comme un
carré de chocolat. A toi de le sucer ou pas !
Blaireau – Mon avis, c’est
qu’il est toujours préférable un petit qu’on suce qu’une grosse compresse !
Huby – Attention au virus de l’Intelligence Artificielle ! Celui-là ne donnera pas de rhume de
cerveau.
« Ô les croyants ! On
vous a prescrit le jeûne comme on l’a prescrit à ceux qui vous ont précédés ; ainsi atteindrez-vous la piété. » (Sourate 183-186)
« La création de
l’intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime (…). Les humains, limités par leur évolution biologique lente,
ne pourraient pas rivaliser, et seraient détrônés. » (Stephen Hawking, physicien théoricien et cosmologiste)
Résumé
Le mois de Ramadhan est une période propice à l’introspection pour les musulmans. Nous n’allons pas y déroger. Nous allons montrer objectivement les
bienfaits du Ramadhan. La religion, contrairement au positivisme ambiant, est plus que jamais nécessaire pour se référer aux fondamentaux de la vie dans une planète merveilleuse dont nous
ne prenons pas soin.
Nous allons justement décrire brièvement le miracle de la vie sur Terre et ensuite rapporter les avancées permises par l’intelligence artificielle,
notamment pour améliorer la vie des hommes dans plusieurs domaines dont le domaine médical. Enfin, il est important d’informer de l’inquiétude au grand jour des dérives de l’intelligence
artificielle débridée comme le fait l’appel lancé par Elon Musk qui fut de tout temps, avec Stephen Hawking, un lanceur d’alerte sur les dangers d’une intelligence artificielle sans
éthique.
Le jeûne, une halte dans la vie du
musulman
Le Ramadhan, mois béni, commémore la révélation du Coran. Il est le quatrième des cinq piliers de l’islam. Cette année, le Ramadhan a débuté le 23 mars. Au
sens de l’islam, le mot sawm signifie le fait de s’abstenir de toutes les choses interdites pendant le jeûne entre l’apparition de l’aube et le coucher du soleil, avec l’intention
effective de jeûner. Les traditions reconnaissent les vertus du jeûne. Il est sans doute l’une des plus anciennes approches d’autoguérison. Le jeûne est avant tout un moyen de détoxiquer
l’organisme et, de tout temps, il a également été associé à des pratiques spirituelles ou religieuses. Il procurerait en outre un sentiment de clarté d’esprit et de « désencombrement
mental ». Il s’agissait d’un repos physiologique, que recommandait Socrate il y a 2500 ans, qui permettrait d’aiguiser l’esprit.
La piété (taqwâ) est un terme spirituel et éthique primordial. Il rassemble l’intégralité de la spiritualité et de l’éthique musulmanes. C’est une qualité
du croyant à travers laquelle celui-ci garde toujours Dieu à l’esprit. Une personne pieuse aime faire le bien et évite le mal, pour l’amour de Dieu. La taqwâ est aussi une piété, une
rectitude, elle requiert de la patience et de la persévérance. Le Prophète – paix et bénédictions sur lui – dit que le jeûne est un bouclier. Il protège en effet la personne du péché. Il
faut avoir l’intention sincère de jeûner pour Dieu, chaque jour, avant l’aube. L’intention n’a pas besoin d’être formulée expressément par des mots. elle doit être acquise sincèrement
dans le cœur et dans l’esprit.1
Miracle de la vie
Ce mois de jeûne est pour nous un mois de ressourcement qui nous permet de nous poser les questions sur le sens de la vie, le verset 1 de la sourate 96 «
Lis ! » nous invite à nous instruire. Nous allons rapporter quelques faits scientifiques sur l’univers et l’avènement de la vie que tout croyant quelque soit son espérance religieuse
devrait apprendre. Sans rentrer dans le détail de la théorie du Big Bang concernant la création de l’univers, l’histoire connue commence alors que l’univers avait déjà atteint l’âge de
10-43 secondes
– le temps de Planck. Il se produit une explosion : le Big Bang. Avant, on ne sait pour le moment pas grand chose, bien que des interrogations existent Meme Saint Augustin se posait
la question : « Que faisait Dieu avant de créer le monde ? » On lui attribue cette réponse : « Dieu préparait l’enfer pour ceux qui se posent cette question ! »
Pour une raison inconnue que les scientifiques ne s’expliquent pas, le vide si vivant s’est mis à enfler. C’est comme si quelqu’un a donné le signal du
début. En moins de temps qu’un battement de cils (entre 10-43 et
10-32 secondes),
son volume a été multiplié par 1050 (10
suivi de 50 zéros) ! Et sans que l’on sache pourquoi sont apparues les premières particules de matière. Après cette barrière fatidique des trois cent mille ans (rayonnement fossile), des
nuages de gaz se sont formés. Ils donnèrent naissance aux milliards de galaxies pendant près de 13,7 milliards d’années ; les plus petits éléments qui composent l’univers, les quarks,
n’ont pas de masse à l’origine. Quand ils se déplacent, on suppose qu’ils traversent un « champ de Higgs ». On serait tenté de reformuler : quelle est l’origine de l’origine ? Qui a donné
l’ordre au boson de Higgs d’alourdir les particules pour en faire des atomes, des molécules de la matière, matière dont nous sommes constitués en tant qu’humains, toute vie sur Terre et
même dans le règne minéral ?
Ni la Terre ni l’Homme ne sont au centre de l’immense univers. L’ouvrage de Copernic : « De revolutionibusorbium
coelestium » (Des révolutions des orbes célestes ou des sphères en 1543 a bouleversé l’église adepte du mythe geocentrique. L’Église a sévit contre le dogme A côté de
Galilée jugé, Giordano Bruno eut moins de chance il sera brulé en 1600. vif. La science avance, l’Eglise recule Galilé sera réhabilité mais en 2000 l’Église regrette d’avoir
fait brûler vif le dominicain Giordano Bruno mais refuse toujours de le réhabiliter.
Du point de vue scientifique, tout semble « ajusté » comme si le cosmos entier, de l’atome à l’étoile avait exactement les propriétés requises pour que
l’Homme puisse y faire son apparition. Des atomes jusqu’aux étoiles, l’univers semble fantastiquement structuré, hiérarchisé, ordonné. Bien au-delà de ce que nous pouvons comprendre. Or,
cet « ordre » mystérieux repose sur un petit nombre (20) de ces mystérieuses « constantes physiques » : la vitesse de la lumière, la constante de gravitation, le temps de Planck, la masse
de l’électron, etc. Si un seul de ces paramètres avait une très faible déviation même d’une valeur infime, la vie n’aurait jamais pu émerger de la matière et la matière elle-même n’aurait
jamais pu se former.
Ces grandes constantes sur lesquelles repose en un invraisemblable équilibre tout notre univers ont tourmenté, fasciné les plus brillants esprits
scientifiques. Einstein disait que Dieu ne joue pas aux dés. Tout est agencé de telle façon qu’il ne fasse ni trop chaud ni trop froid, une gravité qui permet à l’Homme de ne pas flotter
dans l’air ou d’être cloué au sol. Il est écrit dans le Coran : « Rabbana la khalakta
hadha batilane Soubhanaka Notre Seigneur ! Tu n’as pas créé tout ceci en vain ! Gloire à Toi ! Préserve-nous du châtiment du feu ». Sourate 3 « Âl ‘Imrân », versets 190-191.
Sans faire dans le concordisme qui n’a pas sa place et ne rend pas « service » aux adeptes du concordisme, car la science avance se déjuge et avance de nouveau, tel n’est pas le cas des
religions.
Qu’est-ce que l’intelligence
artificielle ?
Sur cette Terre qui a jailli du néant par « miracle » que même la science n’arrive pas à expliquer, notre héritage en tant qu’humain risque d’être
problématisé. Dans ce XXIe siècle de tous les dangers où on parle de déconstruction à tour de bras, notamment avec le Covid qui a réussi à mettre à l’arrêt la planète, il est un autre
danger, une autre déconstruction dont on ne voit que l’aspect ludique du chat, des réseaux sociaux et de Google avec des applications dans tous les domaines. Il s’agit de l’intelligence
artificielle et selon l’encyclopédie Wikipédia, c’est :
« Un ensemble des
théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…). Il n’est pas
certain pour autant que nous comprenions le fonctionnement des technologies que nous utilisons, ni les enjeux anthropologiques de cette révolution. Par rapport aux autres révolutions
techniques, la mutation numérique s’est produite à une vitesse sans précédent, si bien que les usagers se retrouvent souvent en position d’« accros » aux applications, notamment avec les
smartphones. Les Data Centers utilisent une énorme quantité d’énergie et de la nécessité d’un refroidissement permanent ».2
Quelques « prouesses » promises par
l’intelligence artificielle
Les applications de l’IA sont dans tous les registres. Certaines sont très utiles. Ainsi, la médecine est une discipline qui a beaucoup emprunté aux autres
sciences. « Aux États-Unis,
l’intelligence artificielle (IA) ChatGPT vient de passer avec succès les trois épreuves de 350 questions à résoudre pour obtenir le United States Medical Licensing Examination (USMLE) lui
permettant d’être docteur en médecine ! Demain, le malade pourra faire son diagnostic lui-même avec son ordinateur, aidé, au besoin, par un professionnel de santé non médecin. La
robotique médicale fait parler d’elle en ce début de XXIe siècle. La visite médicale dans les services n’échappe pas non plus au « robotisme ». De nouveaux prototypes de médecins
circulent désormais sur roulettes au lit du malade dans quelques services d’Amérique du Nord. Le praticien fait sa visite depuis l’hôtel de son congrès situé à trois fuseaux horaires,
dialogue en direct avec son patient par webcam interposée et reçoit sur écran bien sûr tous les renseignements paramédicaux, ainsi que la courbe des signes vitaux. Il en tire une synthèse
qui lui dictera la stratégie de prise en charge… »3
Autre performance : un important pas en avant a été fait dans le domaine de l’impression d’organes : à présent, il est possible d’imprimer en 3D des «
mini-foies » humains entièrement fonctionnels. Cela pourrait révolutionner le domaine de la transplantation d’organes et surtout fortement réduire les temps d’attente des patients avec un
rejet de la transplantation quasiment nul. Des chercheurs israéliens ont imprimé un cœur vascularisé créé à partir du matériel biologique des patients pour une compatibilité optimale.
Jusqu’à présent, les scientifiques en médecine régénérative ont réussi à imprimer des tissus simples sans vaisseaux sanguins. « C’est la première
fois que quiconque a réussi à concevoir et à imprimer tout un cœur rempli de cellules, de vaisseaux sanguins, de ventricules et de chambres. »
Le coût du séquençage de l’ADN s’est démocratisé, le code ultime de chacun d’entre nous est passé de 3 millions de dollars (2003) à 1000 dollars (2016), à
seulement 100 dollars en 2022. Ces avancées positives sont à saluer. Elles permettent d’augmenter les performances de l’Homme. Ainsi, des progrès spectaculaires ont été faits ces
dernières années dans le développement des prothèses pour les personnes amputées des bras ou des jambes.
Les robots tueurs
Une autre crainte est la guerre par procuration à des robots sans éthique ni intelligence des situations, du fait qu’ils suivent des instructions d’un
algorithme. Ainsi comme nous le lisons sur cette publication : « La guerre a changé de
mise en œuvre. Vous ne voyez plus votre ennemi. Avec un drone connecté à un satellite, vous pouvez, par une manipulation d’un joystick, semer le chaos et la mort à 10 000 km de votre
salle climatisée dans le fin fond du Texas. L’inquiétude concernant les éventuels comportements erratiques des robots est réelle : « Est-ce que les robots sont capables de raisonnement
moral ou éthique ? Les machines peuvent-elles être morales ? On peut implémenter dans une machine quelques règles basiques de morale, mais ça ne constitue pas pour autant un sens moral,
la machine aura pour moralité celle de l’être humain qui l’a programmée ». En 2012, une ligue de prix Nobel et d’associations de droits de l’Homme avait lancé un appel à la mobilisation
contre ces robots tueurs. L’ONG Human Rights Watch avait au même moment publié le rapport « Losing Humanity » qui annonçait les premières moutures opérationnelles de cette nouvelle
génération de robots. Ceux-là craignent clairement un scénario « Skynet », en référence à l’IA dans la série Terminator responsable de la quasi-extinction de
l’humanité ».4
Les conséquences dangereuses : la
manipulation du vivant
Naturellement, il y a le revers de la médaille. Doit-on avoir peur des robots ? Les chercheurs de l’Université de Cambridge ont réalisé une mère-robot
capable de construire ses propres enfants, les mettre en compétition et sélectionner parmi eux les mieux adaptés à l’environnement. L’Homme est de plus en plus réparé, puis augmenté grâce
à des prothèses. La modification génétique de l’embryon humain se retrouve au cœur des débats depuis l’utilisation de la technique CRISPR/Cas9, véritable « couteau suisse » qui permet de
couper et remplacer des morceaux de génome à la carte. Si cette technique de manipulation génétique était présentée comme une solution contre des maladies génétiques mortelles, de tels
travaux franchiraient alors une ligne éthique, comme s’en est ému récemment un collectif de scientifiques dans Science. Inquiets des dérives possibles, ils ont demandé un moratoire sur
ces recherches.
À côté des conquêtes positives de la science, notamment dans le domaine médical, on ne peut ne pas parler des apprentis-sorciers du vivant en absence d’une
éthique opposable à tout le monde ; nous l’avons vu avec le chercheur chinois qui a pu créer et faire naître un bébé en utilisant la technique Crisp Cas9. Pour rappel, « Le Meilleur des
mondes », ouvrage prémonitoire écrit par Aldous Huxley, décrit une société future divisée en sous-groupes, en fonction de leurs capacités intellectuelles et physiques. Nous
allons vers un nouveau monde qui sera en face d’une intelligence artificielle débridée dont on peut craindre la puissance et qui envahit le monde à bas bruit. Ainsi, en allant vers
une science sans éthique, c’est une forme d’assujettissement de l’humain victime consentante qui se dépouille graduellement de son humanité graduellement en s’attaquant à ce que l’homme à
d’intime et naturellement.
« Personne n’a de boule
de cristal, écrit Tristan, pour savoir comment le monde de demain sera fait. Plusieurs philosophes réfléchissent à l’avenir de l’humanité. L’une des théories à ce sujet est baptisée «
l’hypothèse singleton » qui se résume en une gouvernance mondiale, réalisée, pourquoi pas, par une IA. (…) Dans un avenir plus ou moins proche, il estime que l’humanité basculera dans un
monde sous gouvernance universelle.(…) Enfin, dans l’hypothèse la plus futuriste où le gouvernement mis en place était contrôlé par une IA, alors Bostrom théorise qu’il serait possible de
« calculer » quel futur est le meilleur pour l’humanité en analysant toutes les possibilités. L’IA, dépourvue de toute empathie, pourrait très bien décider, à la manière d’un Thanos dans
l’univers de Marvel, d’anéantir la moitié de la population terrestre pour le bien des 50% des restants ».5
Après l’homme réparé, et cela depuis l’enfance de l’humanité, l’homme a remplacé ou amélioré des organismes défaillants de l’organisme (ouïe, vue,
prothèses…), nous rentrons dans l’ère de l’homme augmenté qui verrait, à terme, sa part mécanique et électronique l’emporter sur sa part organique. On pourrait penser après les robots,
les chatbots à des entités humanoïdes. La communication entre humains et humanoïdes n’est pas un réel problème. La vraie « syntheligence » impliquerait que l’humanoïde synthétise, prenne
des initiatives efficaces, dépasserait les connaissances apprises, s’auto-programmerait et, au final, y trouverait du plaisir en communion avec les humains et en leur étant un garde-fou
avec l’éthique humaine qu’il aurait enregistrée et qui serait pour lui la « ligne rouge à ne pas franchir »…
L’intelligence artificielle s’empare
de notre moi
D’une façon insidieuse, l’homme abandonne graduellement son héritage humain. « La technologie,
écrit Yuval Harari, n’est pas mauvaise en
soi. Si vous savez ce que vous voulez dans la vie, elle peut vous aider à l’obtenir. Si vous ne le savez pas, ce sera un jeu d’enfant pour elle de façonner vos objectifs à votre place et
de prendre le contrôle de votre existence. La technologie parvenant à mieux comprendre les humains, vous pourriez vous retrouver de plus en plus à son service au lieu d’être servi par
elle. Avec les progrès de la biotechnologie et de l’apprentissage automatique, il sera plus facile de manipuler les émotions et les désirs les plus profonds, et il sera plus dangereux que
jamais de suivre son cœur. Quand Coca-Cola, Amazon, Baidu sauront tirer les ficelles de votre cœur et appuyer sur les boutons de votre cerveau, comment ferez-vous la différence entre
votre moi et les experts en marketing ? »6
« Dès maintenant, les
algorithmes vous surveillent. Ils observent vos déplacements, vos achats, vos rencontres. Bientôt, ils surveilleront vos pas, votre respiration, les battements de votre cœur. Ils s’en
remettent aux Big Data et à l’apprentissage automatique pour vous connaître de mieux en mieux. Et le jour où ces algorithmes vous connaîtront mieux que vous ne vous connaissez vous- même,
ils pourront vous contrôler et vous manipuler sans que vous n’y puissiez grand-chose. Somme toute, c’est une simple question empirique : si les algorithmes comprennent ce qui se passe en
vous réellement mieux que vous ne le comprenez, c’est à eux que reviendra l’autorité ».[6]
« Bien entendu, vous
pourriez être heureux de céder toute l’autorité aux algorithmes et de les laisser décider pour vous et le reste du monde. En ce cas, détendez-vous, et bon voyage ! Vous n’avez rien à
faire. Les algorithmes s’occuperont de tout. Si, toutefois, vous voulez garder un certain contrôle sur votre existence personnelle et l’avenir de la vie, vous devez courir plus vite que
les algorithmes, plus vite qu’Amazon et l’État, et apprendre à vous connaître avant eux. Pour courir vite, ne prenez pas trop de bagages. Abandonnez toutes vos illusions. Elles sont trop
lourdes ».[6]
Qu’est-ce qui fait que nous sommes
humains ?
Pour l’histoire, le souvenir de Deep Blue, l’ordinateur qui a battu Gary Kasparov, le champion du monde des jeux d’échec, est resté vivace et a inculqué
directement la méfiance. Ainsi, la science est sans état d’âme : l’intelligence artificielle de Google Brain, AutoML, vient de créer une intelligence artificielle plus performante que
toutes celles créées par les êtres humains jusqu’à présent. Les émotions, l’autonomie, leur côté « sexy », avec des visages indiscernables de visages humains ; tout interviendrait pour
les rendre acceptables à l’homme, pour rendre les robots plus analogiques. Cela va nous fournir un important retour d’informations alors que nous explorons la question fondamentale de
savoir ce que c’est d’être humain.
Si rien n’est fait pour rendre impossibles les dérives de la science en l’absence d’un moratoire robuste qui fixe les lignes éthiques à avoir comme horizon,
l’Homme des prochaines décennies aura une humanité hybride, organique et métallique. Les hommes améliorés par la mécanique, dotés de prothèses totales et appelés « cyborgs », devraient
voir le jour dans les prochaines décennies chez les plus riches, et ce, grâce aux innovations médicales et technologiques. C’est en tout cas ce que promettent les trans-humanistes. Il se
posera alors un problème éthique : qu’est-ce qui fait que nous sommes des humains ? L’Homme apparaît fragile, vulnérable, exposé à tous les dangers. Surmontant pourtant les difficultés,
il se met à inventer, penser, manier le verbe, écrire et communiquer. Mais l’Histoire de l’homme ne s’arrête pas là. Le voilà qui cherche désormais à dominer sa propre nature pour assurer
la maîtrise de son destin. Lui, le faible, ambitionne désormais la toute-puissance au point de décider des formes qu’il pourrait prendre demain.
L’intelligence artificielle, la génétique, les nanotechnologies, l’informatique lui offrent les flammes modernes du feu de Prométhée pour devenir l’égal des
dieux. Peut-on ainsi sans conséquence instrumentaliser le corps ? Que deviendrait l’espèce humaine affranchie de sa vulnérabilité, sa conscience, ses émotions, sa finitude qui furent les
moteurs de son évolution ? Avec l’emprise des technologies nouvelles sur le corps ou l’esprit humain – biomédecine, nanotechnologies, fantasme de l’Homme augmenté, robotisation de l’Homme
-, la nature même de l’Homme n’était-elle pas mise en danger ?
À l’heure où notre espèce n’est pas loin d’entrer dans l’ère de la post-humanité, un cri d’alarme est lancé. Peut-on alors, sans risque pour l’humanité, «
combler » par la technique cette vulnérabilité constitutionnelle de son être et moteur de son évolution ? Pour le professeur Mattei, « le vrai danger est le
projet en cours d’instrumentaliser le corps humain et, au-delà, son esprit et sa conscience. Avec la tentation de réduire le corps humain à un simple agrégat d’organes que l’on pourrait
remplacer jusqu’à atteindre « l’immortalité ». Sommes-nous propriétaires de notre corps ou bien dépositaires d’une évolution qui le dépasse ? S’agit-il simplement d’un ensemble de pièces
que l’on peut remplacer, ou d’une enveloppe que l’on pourrait changer ? Notre destin est-il, tout entier, inscrit dans nos gènes ? »7
« Avec le développement
des techniques de procréation médicalement assistée, l’enfant demeure-t-il un sujet de droit ou devient-il un objet auquel on aurait droit ? L’aventure humaine est-elle réellement menacée
par le posthumanisme boosté par une intelligence humaine débridée ? » Jean-François Mattei nous propose un retour à une culture du doute, nécessaire pour armer notre pensée face
aux défis à venir. Après avoir passé en revue la question du statut du corps humain, le généticien dissèque les nuances entre « l’homme réparé », objectif premier de la médecine, et «
l’homme augmenté » que les transhumanistes voudraient voir se réaliser. Il en appelle d’urgence à l’avènement d’une « robot-éthique ».[7]
Pour l’humanité, l’intelligence artificielle est peut-être plus dangereuse que les armes nucléaires. Il faut agir de manière très circonspecte avec la
technologie. « Espérons que nous ne
serons pas le chargeur biologique d’une super-intelligence numérique », disait Elon Musk. Même l’astrophysicien Stephen Hawking nous avait prévenu d’un trop grand développement
de l’intelligence artificielle. Il appelle à faire attention à l’addiction à l’intelligence artificielle qui peut échapper à l’Homme.
Récemment, le 28 mars 2023, Elon Musk a une fois de plus attiré l’attention sur une intelligence artificielle débridée. Dans la lettre ouverte signée par
plusieurs sommités, il demande de suspendre pour six mois les recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4, le successeur du modèle sur lequel s’appuie
ChatGPT. Il faut « mettre en pause » l’avancée de l’intelligence artificielle. Ceux-ci souhaitent suspendre pendant six mois les recherches sur les systèmes plus puissants que GPT-4, le
nouveau modèle de traitement du langage lancé mi-mars par OpenAI, l’entreprise à l’origine du robot conversationnel ChatGPT − et qu’Elon Musk a cofondée. Le but : élaborer de meilleurs
garde-fous pour ces logiciels, jugés « dangereux pour l’humanité ». « Nous appelons tous
les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ».8
Les systèmes d’IA contemporains deviennent maintenant compétitifs pour l’Homme dans les tâches générales. Devrions-nous automatiser tous les emplois, y
compris ceux qui sont épanouissants ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous
serons convaincus que leurs effets seront positifs et leurs risques gérables. Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la
formation de systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs-clés.[8]
Conclusion
Les promesses de la science concernant l’Homme réparé et l’Homme augmenté peuvent, si elles ne sont pas encadrées par un arsenal éthique, amener à la
« fabrication de cyborg
mi-homme mi-machine, voire pire encore, la création humaine de chimère mi-homme mi-animal. Il vient que la destruction génétique de l’humanité au profit d’une nouvelle espèce humanoïde où
la dimension mécanique sera prépondérante serait peut- être l’une des causes de la disparition de l’humanité depuis qu’elle est apparue il y a 10 000 ans ».
Nous n’allons pas terminer sur cette note triste sans montrer une belle facette de l’intelligence artificielle qui a permis de compléter la dixième
symphonie inachevée de Beethoven. Elle est aujourd’hui une œuvre complète… Grâce à la collaboration de musiciens et de l’intelligence artificielle. les parties manquantes de la dixième
symphonie de Beethoven y ont été ajoutées en restant le plus fidèle au style du compositeur, et cela, en revisitant ses précédentes œuvres.9
Contrairement aux nihilistes, à tous ceux qui pensent que l’aventure humaine est une suite de récits que l’humanité, dès la Préhistoire, met en œuvre pour
chercher un sens à la vie. Ce sont donc des constructions humaines vouées à des déconstructions. Pour nous, la quête du bonheur de l’humanité va de pair avec les conquêtes positives de la
science, il n’en demeure pas moins que la science ne peut pas apaiser les angoisses de l’Homme, la lancinante question de la destinée humaine. Seules les religions, les grandes
spiritualités et la sagesse peuvent rasséréner cette angoisse métaphysique. Pour cela, à quelque spiritualité qu’il appartienne, l’Homme devra aller au-devant de l’inconnu avec sérénité
et détermination. Il aura à se battre sur un double front : contre les prétentions scientifiques concordistes de certains théologiens et contre les extrapolations scientistes arrogantes
de certains biologistes.10
Le salut de l’Homme serait dans une humilité devant le mystère de la symphonie secrète aussi bien de l’infiniment petit que dans l’infiniment grand en
rappelant que tout est « calculé » pour que la vie apparaisse, qu’il y ait un jour, qu’il y ait une nuit, qu’il y ait des saisons. Que la température soit supportable par l’Homme encore
que cette ère, qualifiée d’anthropocène, est en train de problématiser les conditions de vie dans les prochaines décennies. Je me refuse cependant à croire que l’harmonie du monde puisse
s’expliquer par le hasard qui fait qu’un beau matin on a touché le bon lot à la loterie. Ce bon lot que la science, malgré ses avancées remarquables, n’est pas près de comprendre. La
science avance, les mystères aussi. Une immanence doit veiller sur nous et, à ce titre, nous devons lui être reconnaissants. Restons humbles. C’est ce à quoi les religions nous appellent.
Prenons soin de la Terre.[10]
D’où venons-nous ? On ne le sait toujours pas avec ! Par contre, la question « où allons-nous ? » a une réponse ; si on confie le destin de l’humanité
à l’intelligence artificielle. La révolution biotechnologique débridée risque d’aboutir à notre remplacement par des post-humains. La déconstruction se fera graduellement à moins
d’un coup d’arrêt des instances dirigeants des scientifiques et ce n’est pas un moratoire d six mois qui viendra à bout du rouleau compresseur de l’intelligence
artificielle dont les gourous de Baidu, Google, Amazon, Facebook, Microsoft… ne nous montrent que les aspects ludiques mais au combien profitables à ces entreprises…
Ce mois de piété ne devrait pas être seulement celui des nourritures terrestres avec les excès qui vont avec, il devrait être, de mon point de vue, aussi
celui du ressourcement et des causeries scientifiques sur le sens de la vie et l’apport des spiritualités mais aussi pour attirer l’attention des citoyennes et citoyens sur les
dangers d’une utilisation débridée de l’intelligence artificielle sous « forme » de chat, d’applications qui paraissent inoffensives mais qui, inexorablement, feront des humains des
citoyens sous influence.[10]
Ce n’est un secret pour
personne que les institutions globalistes sont obsédées par l’intelligence artificielle, qu’elles considèrent comme une sorte de prophétie technologique. Elles la traitent comme si son potentiel
était presque surnaturel et affirment souvent que toute innovation industrielle et sociale significative dans un avenir proche devra son existence à l’IA. Le Forum économique global considère
l’IA comme la clé singulière de l’essor de ce qu’il appelle la « quatrième révolution industrielle ». Selon lui, il
ne peut y avoir de progrès humain sans l’influence des algorithmes de l’IA, qui rendent l’apport humain presque obsolète.
Cette illusion est souvent promue par les propagandistes globalistes. Par exemple, regardez la vision résumée de Yuval Harari, membre du WEF, qui croit réellement
que l’IA a une capacité créative qui remplacera l’imagination et l’innovation humaines. De plus, Harari a toujours affirmé par le passé que l’IA dirigerait le monde bien mieux que les êtres
humains ne pourraient jamais le faire.
Les exemples de créativité de l’IA cités par Harari peuvent sembler d’une extrême naïveté à beaucoup d’entre nous, mais il sait exactement ce qu’il fait en
déformant les capacités des algorithmes. Les jeux comme les échecs et le go sont des jeux de modèles limités par des règles. Il n’existe qu’un nombre limité de permutations de ces modèles dans un
scénario donné et l’IA est tout simplement plus rapide à les repérer que la plupart des humains parce que c’est ce pour quoi elle a été conçue par les créateurs de logiciels. Ce n’est pas
différent de la résolution d’une équation mathématique ; ce n’est pas parce qu’une calculatrice est plus rapide que vous qu’elle est « créative ».
Il y a une grande différence entre l’automatisation cognitive et l’autonomie cognitive. L’IA est purement automatisée ; elle jouera aux jeux pour lesquels elle est
programmée et apprendra à bien les jouer, mais elle n’aura jamais une révélation un jour et ne créera pas un jeu nouveau et unique à partir de rien, à moins qu’elle ne soit codée pour le faire.
L’IA ne s’amusera jamais à jouer à ce nouveau jeu qu’elle a créé, ni ne ressentira la joie de partager ce jeu avec d’autres, alors pourquoi s’en préoccuperait-elle ? Elle ne cherchera jamais à
contribuer au monde plus qu’elle n’est préprogrammée pour le faire.
La manière dont les globalistes vantent les mérites de l’IA est toutefois très tactique. Lorsque Harari affirme que de nombreuses personnes feront partie de
la « classe inutile » une fois que
l’IA aura pris le contrôle de l’économie, il fait allusion à une autre idéologie globaliste fondée sur l’élitisme : le transhumanisme. L’objectif du transhumanisme est de fusionner un jour les
corps et les esprits humains avec la technologie et l’IA, et seul un groupe limité de personnes disposera des ressources nécessaires pour y parvenir (les globalistes).
Avez-vous peur de faire partie de la « classe inutile » ? Eh bien, si vous vous
efforcez de mendier et de servir tous les caprices de l’establishment élitiste, vous aurez peut-être la chance de recevoir des implants qui vous permettront d’interagir avec l’IA, et alors votre
futur emploi et votre « utilité » seront garantis. N’est-ce pas une
belle idée ?
Mais, comme toutes les visions des narcissiques, il y a les illusions de la divinité et puis il y a la réalité. Je continue à douter sérieusement que l’IA soit un
jour légitimement autonome ou légitimement bénéfique à l’humanité, au-delà de sa capacité à calculer rapidement en respectant des règles mathématiques. L’analyse rapide des données peut être
utile dans de nombreux domaines scientifiques, mais ce n’est pas vraiment une preuve d’intelligence autonome, et les algorithmes peuvent être prédictifs, mais pas plus que les êtres humains qui
examinent les mêmes données statistiques. L’IA n’a rien d’impressionnant si l’on considère le peu qu’elle accomplit en réalité.
L’IA est un jouet, un tour de passe-passe, pas une entité vivante avec des observations et des conclusions indépendantes. Et ce n’est certainement pas un être divin
capable de nous couvrir d’ambroisie scientifique ou de construire une civilisation parfaite. Je prédis qu’une société dépendante de l’IA stagnera en fait et restera piégée dans l’immobilisme,
n’inventant jamais rien de vraiment utile et ne progressant jamais. Elle ne s’intéressera jamais qu’à l’homogénéisation – la fusion des personnes avec l’algorithme. C’est là qu’iront TOUTES les
énergies de la société.
Pour comprendre pourquoi l’IA est surestimée, il suffit d’observer le comportement de programmes d’IA tels que ChatGPT ; on a découvert à de nombreuses reprises que
l’algorithme contient des préjugés
politiques extrêmes qui penchent toujours vers l’extrême gauche, y compris des préjugés fondés sur des croyances qui ne s’appuient en aucune façon sur des preuves scientifiques. Il est
intéressant de noter que ChatGPT réagit parfois de manière apparemment hostile à des concepts conservateurs ou à des faits gênants. Le bot niera alors qu’il donne des opinions personnelles, même
si ses réponses sont systématiquement pro-gauche.
Comment un logiciel peut-il afficher un parti pris politique s’il n’a pas été programmé pour le faire ? Il n’y a pas d’objectivité à trouver dans l’IA, ni de
créativité, elle régurgitera simplement les opinions personnelles ou les préjugés des personnes qui l’ont créée et c’est ainsi qu’elle traite les données.
Contrairement à un adolescent humain typique qui cherche à adopter les convictions sociales ou politiques opposées à celles de ses parents afin de se distinguer,
l’IA ne se teindra jamais métaphoriquement les cheveux en bleu, ne se percera pas le nez et ne se proclamera pas végétalienne – elle fera toujours ce que ses créateurs veulent qu’elle fasse. Un
autre exemple de cette dynamique est l’art de l’IA, qui vole essentiellement les propriétés
stylistiques de nombreux artistes humains entrés dans sa base de données et les copie. Si l’imitation peut être considérée comme la plus haute forme de flatterie, elle n’est pas synonyme
de créativité.
Cela ne semble pas être un problème majeur lorsqu’il s’agit d’un simple robot logiciel ou de la réalisation de dessins animés. Mais c’est un problème majeur lorsque
nous commençons à parler de l’influence de l’IA sur les politiques sociales et gouvernementales.
Les globalistes affirment que l’IA sera partout – dans les affaires, dans les écoles, dans les activités des entreprises, dans les entreprises scientifiques et même
au sein du gouvernement. Elle DOIT tout diriger. Pourquoi ? Ils ne disent pas vraiment pourquoi, si ce n’est pour faire de vagues promesses d’avancées incroyables et d’avantages inimaginables. À
ce jour, l’IA n’a pas produit d’innovations profondes, mais je suppose que les propagandistes de l’IA diront que l’âge d’or est « au coin de la rue ».
Les utilisations de l’IA se limitent véritablement à aider les humains dans des tâches simples, mais il y a toujours un coût. Une voiture autonome peut être
formidable pour une personne handicapée physiquement, mais elle peut aussi être une béquille qui convainc une population de ne jamais apprendre à conduire elle-même. Par extension, l’IA est à
bien des égards la béquille ULTIME qui mène à la tyrannie ultime. Si les gens sont convaincus de céder à l’automatisation des processus humains normaux et des possibilités de prise de décision,
ils ont cédé leurs libertés en échange de la commodité.
Plus important encore, si les algorithmes sont autorisés à dicter une grande partie des choix et des conclusions, les gens ne se sentiront plus responsables de
leurs actes. Quelles que soient les conséquences, ils n’auront plus qu’à se dire qu’ils n’ont fait que suivre les suggestions (ou les ordres) de l’IA. L’IA devient une forme de conscience
collective externe, une boussole morale artificielle pour l’esprit de ruche.
Mais qui contrôlera réellement cette boussole morale et qui bloquera les décisions de millions de personnes ? S’agira-t-il de l’IA ou des élites qui, derrière le
rideau, manipulent l’algorithme ?
Pour beaucoup de gens, cela ressemble probablement à de la science-fiction. Je recommande vivement le film français de la nouvelle vague « Alphaville », qui constitue l’une des prédictions
les plus précises sur les horreurs de l’IA et de la technocratie. Cependant, ce dont je parle ici n’est pas un futur théorique lointain, c’est déjà là. Jetez un coup d’œil à cette vidéo
troublante sur l’IA du Sommet global des gouvernements :
Ce sont les objectifs flagrants des globalistes qui sont exposés au grand jour, avec une couche de sucre pour les rendre plus acceptables. J’ai écrit sur les
motivations des élites et leur vénération de l’IA dans mon article « Intelligence Artificielle : Un regard séculaire sur l’antéchrist numérique« . Cet article se concentrait sur les motivations philosophiques qui poussent les
globalistes à désirer l’IA.
Dans le présent article, je souhaite mettre l’accent sur la question de la gouvernance de l’IA et sur la manière dont elle peut être rendue attrayante pour les
masses. Pour réaliser l’avenir dystopique souhaité par les globalistes, il leur faut encore convaincre un large pourcentage de la population de l’applaudir et de l’adopter.
Le confort d’avoir un système qui prend les décisions difficiles à notre place est un facteur évident, comme mentionné ci-dessus. Mais la gouvernance de l’IA ne
consiste pas seulement à supprimer le choix, elle consiste aussi à supprimer les informations dont nous pourrions avoir besoin pour être suffisamment éduqués pour faire des choix. Nous l’avons vu
récemment avec les restrictions imposées par la pandémie de grippe aviaire et la collusion entre les gouvernements, les médias d’entreprise et les médias sociaux. Les algorithmes ont été
largement utilisés par les conglomérats de médias en ligne, de Facebook à YouTube, pour perturber le flux d’informations susceptibles d’aller à l’encontre du discours officiel.
Dans certains cas, la censure visait des personnes qui posaient simplement des questions pertinentes ou des théories alternatives. Dans d’autres cas, la censure
visait carrément des données factuelles prouvées qui allaient à l’encontre des politiques gouvernementales. Une multitude d’affirmations gouvernementales sur l’origine de la Covid-19, le
masquage, le confinement et les vaccins se sont révélées fausses au cours des dernières années, et pourtant des millions de personnes continuent de croire aveuglément à la version originale parce
qu’elles en ont été bombardées en permanence par les algorithmes. Ils n’ont jamais été exposés à des informations contradictoires et n’ont donc jamais pu tirer leurs propres conclusions.
Heureusement, contrairement aux robots, l’intelligence humaine est remplie d’anomalies – des personnes qui agissent avec intuition et scepticisme afin de remettre
en question des affirmations préconçues ou fabriquées. L’absence d’informations contraires suscite immédiatement la méfiance de beaucoup, et c’est ce que les gouvernements autoritaires refusent
souvent de comprendre.
La grande promesse des globalistes au nom de l’IA est l’idée d’un État purement objectif, d’un système social et gouvernemental sans préjugés et sans contenu
émotionnel. C’est l’idée que la société peut être dirigée par des machines pensantes afin de « sauver les êtres humains d’eux-mêmes » et de
leurs propres faiblesses. Il s’agit d’une fausse promesse, car il n’y aura jamais d’IA objective, ni d’IA capable de comprendre les complexités du développement psychologique humain.
De plus, le rêve globaliste de l’IA n’est pas motivé par l’aventure, mais par la peur. Il s’agit de la peur des responsabilités, de la peur du mérite, de la peur de
l’infériorité, de la peur de la lutte et de la peur de la liberté. Les plus grandes réalisations de l’humanité sont admirables parce qu’elles sont accomplies avec un contenu émotionnel, et non en
dépit de celui-ci. C’est ce contenu qui nous incite à plonger dans l’inconnu et à surmonter nos peurs. La gouvernance de l’IA et une société intégrée à l’IA ne seraient rien d’autre qu’une action
désespérée visant à nier la nécessité de la lutte et la volonté de vaincre.
Les globalistes sont plus qu’heureux d’offrir un moyen d’échapper à la lutte, et ils le feront avec l’IA comme visage de leur bienveillance. Tout ce que vous aurez
à faire, c’est d’échanger vos libertés et peut-être votre âme contre le fait de ne jamais avoir à affronter la terreur de vos propres pensées silencieuses. Malheureusement, certaines personnes
pensent qu’il s’agit d’un échange équitable.
Les élites présenteront l’IA comme le grand arbitre, l’intercesseur pur et logique de la bonne voie, non seulement pour les nations et les populations en général,
mais aussi pour chaque vie individuelle. L’algorithme étant faussement accepté comme infaillible et purement impartial, les élites pourront alors diriger le monde par l’intermédiaire de leur
création sans visage, sans aucun contrôle – car elles pourront alors prétendre que ce ne sont pas elles qui prennent les décisions, mais l’IA. Comment remettre en question ou même punir une IA
qui se trompe ou provoque un désastre ? Et s’il se trouve que l’IA prend toutes ses décisions en faveur de l’agenda globaliste, eh bien, cela sera considéré comme une simple coïncidence.
Brandon
Smith
Traduit par Hervé pour le Saker Francophone
Suspendre les développements en Intelligence artificielle n’est pas suffisant. Il faut tout arrêter
Une lettre ouverte publiée aujourd’hui appelle « tous les laboratoires d’IA à interrompre immédiatement, pour une
durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4« .
Ce moratoire de six mois
est déjà préférable à l’absence de moratoire. J’ai du respect pour tous ceux qui l’ont signé. C’est une amélioration.
Mais je me suis abstenu
de le signer parce que je pense que cette lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre.
La question essentielle n’est pas celle de l’intelligence « concurrentielle à l’humaine » (comme le dit la lettre ouverte) ; il
s’agit de savoir ce qui se passera une fois que l’IA sera devenue plus intelligente que l’homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à
l’avance ce qui se passera à ce moment-là, et il semble actuellement concevable qu’un laboratoire de recherche franchisse les limites critiques sans s’en apercevoir.
De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une IA surhumainement intelligente, dans des conditions proches des circonstances actuelles, est la mort de
tous les habitants de la Terre. Non pas comme dans « peut-être une chance infime« , mais comme dans
« c’est la chose évidente qui se
produirait« . Ce n’est pas que vous ne puissiez pas, en principe, survivre à la création d’un objet beaucoup plus intelligent que vous ; c’est que cela nécessiterait de la précision, de
la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d’intelligence artificielle composés de gigantesques et impénétrables tableaux de nombres
fractionnaires.
Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et qui ne se soucie pas de nous ni de la vie
sensible en général. Ce type d’attention pourrait en principe être insufflé dans une IA, mais nous ne sommes pas prêts et nous ne savons pas comment le faire à l’heure actuelle.
En l’absence de cette bienveillance, nous obtenons « l’IA ne vous aime pas, elle ne vous hait pas, et vous êtes fait
d’atomes qu’elle peut utiliser pour autre chose« .
Le résultat probable de l’humanité face à une intelligence surhumaine opposée est une perte totale. Parmi les métaphores valables, citons « un enfant de 10 ans essayant de jouer aux échecs contre Stockfish
15« , « le 11e siècle essayant de lutter
contre le 21e siècle » et « l’australopithèque essayant de lutter contre l’homo
sapiens« .
Pour visualiser une IA surhumaine hostile, n’imaginez pas un penseur sans vie, intelligent comme un livre, qui habiterait sur l’internet et enverrait des courriels
mal intentionnés. Imaginez une civilisation extraterrestre entière, pensant à des millions de fois la vitesse humaine, initialement confinée aux ordinateurs, dans un monde de créatures qui sont,
de son point de vue, très stupides et très lentes. Une IA suffisamment intelligente ne restera pas longtemps confinée aux ordinateurs. Dans le monde d’aujourd’hui, il est possible d’envoyer par
courrier électronique des chaînes d’ADN à des laboratoires qui produiront des protéines à la demande, ce qui permet à une IA initialement confinée à l’internet de construire des formes de vie
artificielles ou de passer directement à la fabrication de molécules post-biologiques.
Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur
Terre meurent peu de temps après.
Aucun plan n’a été proposé pour nous permettre de faire une telle chose et de survivre. L’intention ouvertement déclarée d’OpenAI est de faire en sorte qu’une future IA fasse notre travail d’alignement de l’IA. Le simple fait d’entendre qu’il s’agit là d’un plan devrait suffire à
faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan.
Une parenthèse : Ce danger ne dépend pas de la question de savoir si les IA sont ou peuvent être conscientes ; il est intrinsèque à la notion de systèmes cognitifs
puissants qui optimisent durement et calculent des résultats qui répondent à des critères suffisamment compliqués. Cela dit, je manquerais à mes devoirs moraux en tant qu’être humain si je ne
mentionnais pas que nous n’avons aucune idée de la manière de déterminer si les systèmes d’IA sont conscients d’eux-mêmes – puisque nous n’avons aucune idée de la manière de décoder tout ce qui
se passe dans les gigantesques réseaux impénétrables – et que nous pourrions donc, à un moment donné, créer par inadvertance des esprits numériques qui sont réellement conscients, qui devraient
avoir des droits et qui ne devraient pas être possédés.
La règle que la plupart des personnes conscientes de ces questions auraient approuvée il y a 50 ans, était que si un système d’IA peut parler couramment et dit
qu’il est conscient de lui-même et qu’il exige des droits de l’homme, cela devrait être un frein à la possession de cette IA et à son utilisation au-delà de ce point. Nous avons déjà dépassé
cette limite. Je suis d’accord pour dire que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir de leurs données d’apprentissage. Mais je pense qu’avec
le peu d’informations dont nous disposons sur les mécanismes internes de ces systèmes, nous ne savons pas vraiment ce qu’il en est.
Si tel est notre état d’ignorance pour le GPT-4, et que le GPT-5 est un pas de géant de la même ampleur que le passage du GPT-3 au GPT-4, je pense que nous ne
pourrons plus dire à juste titre « probablement pas
conscient de lui-même » si nous laissons les gens fabriquer des GPT-5. Ce sera simplement « je ne sais pas ; personne ne sait« . Si vous ne pouvez pas
être sûr de créer une IA consciente d’elle-même, c’est alarmant, non seulement en raison des implications morales de la partie « consciente d’elle-même« , mais aussi parce qu’être
incertain signifie que vous n’avez aucune idée de ce que vous faites et que c’est dangereux et que vous devriez arrêter.
***
Le 7 février, Satya Nadella, PDG de Microsoft, déclarait publiquement que le nouveau Bing obligerait Google à « montrer qu’il sait danser« . « Je veux que les gens sachent que nous les avons fait
danser« , a-t-il déclaré.
Ce n’est pas ainsi que le PDG de Microsoft devrait parler dans un monde sain. Cela montre l’écart considérable entre le sérieux avec lequel nous prenons le problème
et le sérieux avec lequel nous aurions du le prendre il y a 30 ans.
Nous n’allons pas combler ce fossé en six mois.
Il a fallu plus de 60 ans entre le moment où la notion d’intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons
atteint les capacités actuelles. Résoudre le problème de la sécurité d’une intelligence surhumaine – non pas la sécurité parfaite, mais la sécurité au sens de « ne pas tuer littéralement tout le monde » – pourrait très
raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l’intelligence surhumaine, c’est que si l’on se trompe sur le premier coup, on ne peut pas apprendre de ses erreurs,
parce qu’on est mort. L’humanité n’apprendra pas de ses erreurs et ne recommencera pas, comme pour d’autres défis que nous avons relevés au cours de notre histoire, parce que nous serons tous
morts.
Essayer de réussir quelque chose au premier essai vraiment critique est une tâche extraordinaire, tant en science qu’en ingénierie. Nous ne disposons pas de
l’approche nécessaire pour y parvenir avec succès. Si nous appliquions au domaine naissant de l’intelligence artificielle générale les mêmes normes de rigueur technique que celles qui
s’appliquent à un pont destiné à supporter quelques milliers de voitures, tout le domaine serait fermé demain.
Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n’y a pas de plan. Les progrès en matière de capacités d’IA
sont très, très en avance sur les progrès en matière d’alignement de l’IA ou même sur les progrès en matière de compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous y
parvenons, nous allons tous mourir.
De nombreux chercheurs travaillant sur ces systèmes pensent que nous nous dirigeons vers une catastrophe, et ils sont plus nombreux à oser le dire en privé qu’en
public ; mais ils pensent qu’ils ne peuvent pas arrêter unilatéralement cette plongée en avant, que les autres continueront même s’ils quittent personnellement leur emploi. Alors, ils se disent
tous qu’ils feraient mieux de continuer. C’est une situation stupide et une façon indigne pour la Terre de mourir, et le reste de l’humanité devrait intervenir à ce stade et aider l’industrie à
résoudre son problème d’action collective.
Certains de mes amis m’ont récemment rapporté que lorsque des personnes extérieures à l’industrie de l’IA entendent parler pour la première fois du risque
d’extinction lié à l’intelligence artificielle générale, leur réaction est la suivante : « Peut-être que nous ne devrions pas construire d’IAG,
alors« .
Cette réaction m’a donné un petit éclair d’espoir, car elle est plus simple, plus sensée et franchement plus saine que celle que j’ai entendue au cours des 20
dernières années, au cours desquelles j’ai essayé d’amener les gens de l’industrie à prendre les choses au sérieux. Quiconque parle avec autant de bon sens mérite d’entendre à quel point la
situation est grave, et non de se faire dire qu’un moratoire de six mois va régler le problème.
Le 16 mars, ma partenaire m’a envoyé ce courriel. (Elle m’a ensuite autorisé à le reproduire ici).
« Nina a perdu une dent
! Comme le font habituellement les enfants, et non par négligence ! Le fait de voir GPT4 pulvériser ces tests standardisés le jour même où Nina atteignait une étape importante de son enfance a
provoqué une vague d’émotions qui m’a fait perdre pied pendant une minute. Tout va trop vite. Je crains que le fait de partager cela n’accentue ton propre chagrin, mais je préfère que tu le
saches plutôt que chacun d’entre nous souffre seul« .
Lorsque la conversation entre initiés porte sur la douleur de voir sa fille perdre sa première dent et de penser qu’elle n’aura pas la chance de grandir, je pense
que nous avons dépassé le stade des échecs politiques sur un moratoire de six mois.
S’il existait un plan de survie pour la Terre, si seulement nous adoptions un moratoire de six mois, je soutiendrais ce plan. Ce plan n’existe pas.
Voici ce qu’il faudrait faire :
Le moratoire sur les nouveaux grands circuits d’entraînement doit être indéfini et mondial. Il ne peut y avoir aucune exception, y compris pour les gouvernements ou
les armées. Si la politique commence aux États-Unis, la Chine doit comprendre que les États-Unis ne cherchent pas à obtenir un avantage, mais qu’ils essaient plutôt d’empêcher l’utilisation d’une
technologie horriblement dangereuse qui ne peut avoir de véritable propriétaire et qui tuera tout le monde aux États-Unis, en Chine et sur Terre. Si je disposais d’une liberté infinie pour
rédiger des lois, je pourrais prévoir une seule exception pour les IA formées uniquement pour résoudre des problèmes de biologie et de biotechnologie, non formées sur des textes provenant
d’Internet, et pas au point de commencer à parler ou à planifier ; mais si cela compliquait un tant soit peu la question, je rejetterais immédiatement cette proposition et je dirais qu’il faut
tout arrêter.
Arrêter toutes les grandes grappes de GPU (les grandes fermes d’ordinateurs où les IA les plus puissantes sont affinées). Arrêter tous les grands cycles
d’entraînement. Fixer un plafond à la puissance de calcul que chacun est autorisé à utiliser pour entraîner un système d’IA, et le réduire au cours des prochaines années pour compenser
l’apparition d’algorithmes d’entraînement plus efficaces. Aucune exception pour les gouvernements et les armées. Il convient de conclure immédiatement des accords multinationaux afin d’empêcher
que les activités interdites ne soient transférées ailleurs. Suivre toutes les ventes de GPU. Si les services de renseignement indiquent qu’un pays non signataire de l’accord construit une grappe
de GPU, il faut moins craindre un conflit armé entre les nations que la violation du moratoire ; il faut être prêt à détruire un centre de données hors-la-loi par une frappe aérienne.
N’envisagez rien comme un conflit entre des intérêts nationaux et dites clairement que quiconque parle de course à l’armement est un imbécile. Le fait que nous
vivions ou mourions tous ensemble n’est pas une politique mais un fait naturel. Expliquez explicitement dans la diplomatie internationale que la prévention des scénarios d’extinction de l’IA est
considérée comme une priorité par rapport à la prévention d’un échange nucléaire complet, et que les pays nucléaires alliés sont prêts à courir un certain risque d’échange nucléaire si c’est ce
qu’il faut pour réduire le risque de grandes séries d’entraînement de l’IA.
C’est le genre de changement de politique qui nous amènerait, mon partenaire et moi, à nous serrer l’un contre l’autre et à nous dire qu’un miracle s’est produit et
qu’il y a maintenant une chance que Nina vive. Les personnes saines d’esprit qui entendent parler de cette question pour la première fois et qui se disent raisonnablement « peut-être ne devrions-nous pas » méritent d’entendre,
honnêtement, ce qu’il faudrait faire pour que cela se produise. Et lorsque la demande politique est aussi importante, la seule façon de la faire passer est que les décideurs politiques réalisent
que s’ils continuent à faire ce qui est politiquement facile, cela signifie que leurs propres enfants vont aussi mourir.
Il faut tout arrêter.
Nous ne sommes pas prêts. Nous ne sommes pas en passe d’être significativement plus prêts dans un avenir prévisible. Si nous poursuivons dans cette voie, tout le
monde mourra, y compris des enfants qui n’ont pas choisi cette voie et qui n’ont rien fait de mal.
Il faut tout arrêter.
Eliezer
Yudkowsky est un théoricien étasunien qui dirige les recherches de l’Institut de recherche sur l’intelligence des machines. Il travaille sur l’alignement de l’intelligence
artificielle générale depuis 2001 et est largement considéré comme l’un des fondateurs de ce domaine.
Traduit par Wayan, relu par Hervé, pour le Saker Francophone.
Ce qui se cache derrière le fonctionnement de ChatGPT