02/03/2023. Aujourd’hui l’univers n’est décrit pour nous qu’à travers des cerveaux humains

Bien que dotés d’un nombre considérable de neurones, comment ces cerveaux pourraient-ils appréhender la forme ou le contenu de l’univers ?

On répondra qu’ils le font grâce à des modèles ou représentations scientifiques élaborés par des milliers de cerveaux, ceux des scientifiques qui étudient la cosmologie par exemple. Mais même en s’y mettant à plusieurs, ces mêmes cerveaux ne peuvent échapper aux représentations collectives qu’ils se sont données au fil des années.

Les cerveaux animaux, mêmes ceux construits par des espèces ayant échappé pour un temps aux pièges de la sélection naturelle, ne peuvent pas semble-t-il faire mieux.

Mais tenter de se représenter l’univers comme s’il existait indépendamment de nos cerveaux, tels du moins que nous nous les représentons aujourd’hui, n’est peut-être pas la meilleure démarche. Nous avons vu , dans l’article précédent intitulé It from Qubit que faire appel à des calculateurs dits quantiques pour construire des modèles de l’univers aurait l’avantage de renouveler la démarche.

Ces calculateurs utilisent par convention des « bits quantiques ». Le bit ordinaire ne peux prendre que deux valeurs, désignées par les chiffres 0 et 1. Le bit quantique ou qubit est l’unité élémentaire pouvant porter une information quantique. Celle-ci peut prendre une de toutes les valeurs comprises entre 0 et 1, soit une infinité de nuances de valeurs.

De plus, les calculateurs quantiques peuvent exploiter les phénomènes physiques de la superposition et de l’intrication quantique.

Enfin, les calculateurs quantiques reproduisent à leur échelle, la notion de fluide pour représenter les constituants qui jouent un rôle physique à un moment donné de l’histoire cosmique. Les gaz et les liquides sont des exemples bien connus de fluides etla thermodynamique nous apprend qu’il suffit de connaître la pression  P et la densité ρ de ces fluides pour connaître leur état physique.

Il est certain que tous ces dispositifs nous donnent une meilleure représentation de ce que pourrait être l’univers. Mais il suffit de regarder les images de celui-ci que fournissent les instruments modernes tels que le télescope spatial James Webb pour renoncer à espérer que des cerveaux humains puissent jamais comprendre le mécanisme dans sa totalité.

Ceci il est vrai n’empêche pas d’essayer.

01/03/2023 It from Qubit

La correspondance AdS/CFT (en anglais anti-de Sitter/conformal field theory correspondence) évoquée dans notre article précédent fut découverte à la suite d’une série de questions portant sur la quantité maximum d’informations que peut contenir une seule région de l’espace.

En physique théorique lcorrespondance anti de Sitter/théorie conforme des champs (en anglais anti-de Sitter/conformal field theory correspondence, d’où son abréviation en correspondance AdS/CFT) est une conjecture reliant deux types de théories. Les théories conformes des champs (CFT) occupent un côté de la correspondance ; ce sont des théories quantiques des champs qui incluent des théories similaires à celles de Yang-Mills décrivant les particules élémentaires. De l’autre côté, les espaces anti de Sitter (AdS) sont des théories de gravité quantique, formulées en termes de théorie des cordes ou de théorie M. La correspondance est également appelée parfois dualité de Maldacena ou dualité jauge/gravité.

Si l’on demandait à un ingénieur ce que pourrait être la quantité maximum d’informations que contiendrait un data center il répondrait que cela dépendrait du nombre et de la capacité des chips de mémoire contenus dans ce centre. Mais le contenu de ces mémoires lui paraîtrait sans importance. Par contre si l’on entassait de plus en plus de chips de mémoire dans ce centre, il pourrait éventuellement s’effondrer, devenir un trou noir et disparaître derrière l’horizon des évènements.

Quand les physiciens Jacob Bekenstein et Stephen Hawking ont tenté de calculer le contenu en informations d’un trou noir ils ont découvert avec surprise que celui-ci dépendait de la surface de l’horizon des événements et non du volume de ce trou noir, comme si cette information était écrite à la surface du trou noir et non enfouie dans ses profondeurs. Ils ont parlé alors d’entropie du trou noir c’est-à-dire de l’ordre qui devait être respecté par le trou noir pour se conformer aux première et seconde lois de la thermodynamique telles qu’observées par un observateur extérieur.

Le terme entropie avait été introduit en 1865 par Rudolf Clausius à partir d’un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d’imprédictibilité du contenu en information d’un système.

L’ entropie du trou noir est un concept géométrique mais il comporte de nombreuses conséquences physiques. Il relie la gravitation, la thermodynamique et la théorie quantique . Il doit donc être considéré comme un des fondements de la future gravitation quantique.

La découverte du fait que le maximum d’information que pouvait comporter une région donnée de l’espace était proportionnel non à son volume mais à l’aire de sa surface fit apparaître une relation intrigante entre l’information quantique et le monde en trois dimensions de l’expérience quotidienne. D’où la phrase It from qubit décrivant comment la matière « it » émerge de l’information quantique (« qubit).

Ces réflexions ont montré l’intérêt d’un hypothétique univers doté d’une géométrie hyperbolique connu comme un  anti-de Sitter space. C’est avec lui que la théorie de la gravitation quantique sera de plus en plus construite. Dans cet espace, chaque objet qui se trouve à l’intérieur a son correspondant à la surface, et vice-versa. On nomme cette correspondance le  holographic principle,

Quand les physiciens Jacob Bekenstein et Stephen Hawking ont tenté de calculer le contenu en informations d’un trou noir ils ont découvert avec surprise que celui-ci dépendait de la surface de l’horizon des événements et non du volume de ce trou noir, comme si cette information était écrite à la surface du trou noir et non enfouie dans ses profondeurs. Ils ont parlé alors d’entropie du trou noir c’est-à-dire de l’ordre qui devait être respecté par le trou noir pour se conformer aux première et seconde lois de la thermodynamique telles qu’observées par un observateur extérieur.

Le terme entropie avait été introduit en 1865 par Rudolf Clausius à partir d’un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d’imprédictibilité du contenu en information d’un système.

L’ entropie du trou noir est un concept géométrique mais il comporte de nombreuses conséquences physiques. Il relie la gravitation, la thermodynamique et la théorie quantique . Il doit donc être considéré comme un des fondements de la future gravitation quantique.

La découverte du fait que le maximum d’information que pouvait comporter une région donnée de l’espace était proportionnel non à son volume mais à l’aire de sa surface fit apparaître une relation intrigante entre l’information quantique et le monde en trois dimensions de l’expérience quotidienne. D’où la phrase It from qubit décrivant comment la matière « it » émerge de l’information quantique (« qubit).

Ces réflexions ont justifié l’intérêt d’un hypothétique univers doté d’une géométrie hyperbolique connu comme un  anti-de Sitter space.

C’est avec lui que la théorie de la gravitation quantique sera de plus en plus construite. Dans cet espace, chaque objet qui se trouve à l’intérieur a son correspondant à la surface, et vice-versa. On nomme cette correspondance le  holographic principle.

01/03/2023 Réaliser un trou de ver traversable avec un ordinateur quantique

Le terme de Wormhole ou trou de ver désigne pour certains cosmologistes des sortes de rides dans l’espace-temps qui relieraient deux lieux différents et séparés de ce même espace temps. Pour eux, mieux définir pour mieux les étudier ces objets hypothétiques pourrait permettre de faire un lien entre l’information et la matière qui préoccupe les physiciens depuis des décennies.

Il se trouve que les calculateurs quantiques fourniraient des plate-formes idéales pour de telles recherches. Mais il faudrait pour cela établir une correspondance  AdS/CFT entre des théories qui décrivent la gravité, l’espace-temps et les trous de vers doté d ‘une géométrie spéciale (ADS) avec une théorie quantique qui ne fait pas allusion à la gravité (CFT).

Dans l’article “Traversable wormhole dynamics on a quantum processor”que vient de publier Nature et qui est référencé ci-dessous, les auteurs font état d’une collaboration avec des chercheurs de Caltech, Harvard, MIT et Fermilab pour simuler le CFT sur le Google Sycamore processor. .

En étudiant cette théorie quantique sur le calculateur, ils ont pu mettre à niveau la correspondance Ads/CFT afin de démontrer la dynamique d’un système quantique équivalent à un trou de ver dans un modèle de la gravité.

Référence

Traversable wormhole dynamics on a quantum processor

Nature 

volume612

pages 51–55 (2022)

  • The holographic principle, theorized to be a property of quantum gravity, postulates that the description of a volume of space can be encoded on a lower-dimensional boundary. The anti-de Sitter (AdS)/conformal field theory correspondence or duality1 is the principal example of holography. The Sachdev–Ye–Kitaev (SYK) model of N ≫ 1 Majorana fermions2,3 has features suggesting the existence of a gravitational dual in AdS2, and is a new realization of holography4,5,6. We invoke the holographic correspondence of the SYK many-body system and gravity to probe the conjectured ER=EPR relation between entanglement and spacetime geometry7,8 through the traversable wormhole mechanism as implemented in the SYK model9,10. A qubit can be used to probe the SYK traversable wormhole dynamics through the corresponding teleportation protocol9. This can be realized as a quantum circuit, equivalent to the gravitational picture in the semiclassical limit of an infinite number of qubits9. Here we use learning techniques to construct a sparsified SYK model that we experimentally realize with 164 two-qubit gates on a nine-qubit circuit and observe the corresponding traversable wormhole dynamics. Despite its approximate nature, the sparsified SYK model preserves key properties of the traversable wormhole physics: perfect size winding11,12,13, coupling on either side of the wormhole that is consistent with a negative energy shockwave14, a Shapiro time delay15, causal time-order of signals emerging from the wormhole, and scrambling and thermalization dynamics16,17. Our experiment was run on the Google Sycamore processor. By interrogating a two-dimensional gravity dual system, our work represents a step towards a program for studying quantum gravity in the laboratory. Future developments will require improved hardware scalability and performance as well as theoretical developments including higher-dimensional quantum gravity duals18 and other SYK-like models19.

26/02/2023 Le 13/02/2023 devrait être considéré comme une grande date pour l’Intelligence Artificielle militaire.

Ce jour , à l’U.S. Air Force Test Pilot School de l’Edwards Air Force Base en Californie, le prototype VISTA développé par Lockheed Martin Skunk Works® en collaboration avec Calspan Corporation pour l’  U.S. Air Force Test Pilot School USAF TPS a réussi un vol de 19 heures sous commande exclusive de l’IA.

Construit avec une architecture en Open System, Vista est doté de logiciels qui imitent les performance de ce type d’avion. Pour le chef-pilote d’essai directeur de l’Ecole, Vista permettra de développer en parallèle de nouveaux avions aux performances améliorées et des postes de pilotage entièrement automatisés.

Des versions récentes de Vista comprennent un VISTA Simulation System (VSS) fourni par Calspan et le Lockheed Martin’s Model Following Algorithm (MFA) ainsi qu’un System for Autonomous Control of the Simulation. Ils seront compatibles afin de satisfaire aux exigences les plus avancées en matière de piolotage par AI.

VISTA est un chasseur F-16D Block 30 Peace Marble enrichi d’une avionique Block 40 . Provisoirement désigné comme NF-16D, Vista a été reconnu par l’US Air Force en juin 2021  sous le nom officiel de VISTA X-62A. Les nouveaux logiciels de pilotage autonome ont été baptisés Einstein Box.

27/02/2023 Pourquoi faire seul ce que l’on peut faire mieux à plusieurs ?

C’est ce principe de bon sens qui inspire la DARPA, agence de recherche du Pentagone. Constatant les faiblesses des drones militaires opérant seuls, elle vient de présenter un projet dit Autonomous Multi-Domain Adaptative Swarms of Swarms (AMASS ) consistant à réaliser des essaims de drones dont la faculté de travailler en groupe augmentera considérablement les possibilités d’intervention.

Les essaims sont prévus pour faire coopérer dans le cadre d’un système de contrôle unique des centaines de drones aériens, terrestres tels que des chars d’assaut automatisés, et maritimes, voire sous-marins. Les drones eux-mêmes seront équipés, outre d’armements léthaux tels qu’au besoin des têtes nucléaires de faible portée, des brouilleurs de messages GPS et radars.

Ils pourront opérer sans assistance humaine au sol, car ils emporteront des cartes et des images détaillées de leurs zones d’opération, celles-ci pouvant être aussi étendues qu’une ville capitale, des mers telles telles que la Manche ou la mer du Nord, voire un pays tel que la Belgique. Une intervention humaine restera possible en cas d’urgence avérée. Mais en général, les essaims pourront décider d’ouvrir le feu seuls.

Un contrat de 72 millions de dollars est envisagé pour financer ce projet. Mais faudra certainement mettre quelques dollars de plus.

Table des articles récents de Jean-Paul Baquiast

06/02/2023 À qui appartiennent des empreintes de pieds humains vieilles de 300 000 ans ?
https://europesolidaire.eu/2023/02/06/06-02-2023-a-qui-appartiennent-des-empreintes-de-pieds-humains-vieilles-de-300-000-ans/

07/02/2022 Il se confirme que les spermatozoïdes sont des moteurs de l’évolution chez les mammifères

08/02/2023 Orban L’Ouest est déjà en guerre avec la Russie
https://europesolidaire.eu/2023/02/08/08-02-2023-louest-est-deja-en-guerre-avec-la-russie/

06/02/2023 Les Russes au Mali
https://europesolidaire.eu/2023/02/08/05-02-2023-les-russes-au-mali/

11/02/2023 Combien de temps la République française pourra-t-elle enseigner ses valeurs à l’école ?

09/02/2023 Aux Etats-Unis, le concept de « race » ne devrait plus être utilisé dans le domaine médical
https://europesolidaire.eu/2023/02/09/09-02-2023-aux-etats-unis-le-concept-de-race-ne-devrait-plus-etre-utilise-dans-le-domaine-medical/

07/02/23 La Stratégie de Défense internationale américaine
https://europesolidaire.eu/2023/02/07/07-02-23-la-strategy-de-defense-internationale-americaine/

11/02/2023 Quand l’Australie était une mer

12/02/2023 Le Japon souhaite devenir membre à part entière de l’Otan

13/02/2023 Nouvelle découverte de nids et d’oeufs de titanosaures

13/02/2023 Des « objets volants non identifiés » (UFO) abattus au dessus des Etats-Unis 
https://europesolidaire.eu/2023/02/13/13-02-2023-des-objets-volants-non-identifies-ufo-abattus-au-dessus-des-etats-unis/

14/02/2023 L’instabilité de l’univers visible
https://europesolidaire.eu/2023/02/14/linstabilite-de-lunivers-visible/

15/02/2023 Un univers miroir
https://europesolidaire.eu/2023/02/15/15-02-2023-un-univers-miroir/

11/02/2023 Combien de temps la République française pourra-t-elle enseigner ses valeurs à l’école 
?https://europesolidaire.eu/2023/02/11/11-02-2023-combien-de-temps-la-republique-francaise-pourra-t-elle-enseigner-ses-valeurs-a-lecole/

16/02/2023 Des trous noirs qui ne viennent pas de nulle part

16/02/23 Les paranthropes fabriquaient des outils
https://europesolidaire.eu/2023/02/16/16-02-23-les-paranthropes-fabriquaient-des-outils/

17/02/23 Un peu de lumière dans l’obscurité des relations entre les trous noirs et l’énergie noire
https://europesolidaire.eu/2023/02/17/17-02-23-un-peu-de-lumiere-dans-lobscurite-des-relations-entre-les-trous-noirs-et-lenergie-noire/

18/02/2023. Les restes d’une lignée humaine encore inconnue découverts en Indonésie

19/02/2023 Nos ancêtres étaient-ils des amphipodes ou des scorpions?
https://europesolidaire.eu/2023/02/19/19-02-2023-nos-ancetres-etaient-ils-des-amphodes-ou-des-scorpions/

22/02/2023 Fiche de lecture. Between Ape and Human.  Gregory Forth, Pegasus Books (May 3, 2022) Homme de Flores

20/02/2023 La France entre la Russie et l’Otan.
https://europesolidaire.eu/2023/02/20/20-02-2023-la-france-entre-la-russie-et-lotan/

20/02/2023 Istanbul doit s’attendre à de nouveaux tremblements de terre

21/02/2023 Les paranthropes fabriquaient déjà des outils de pierre
https://europesolidaire.eu/2023/02/21/21-02-2023-les-paranthropes-fabriquaient-deja-des-outils-de-pierre/

23/02/2023 La Russie conforte son rôle de grande puissance commerciale fluviale
https://europesolidaire.eu/2023/02/23/23-02-2023-la-russie-conforte-son-role-de-grande-puissance-commerciale-fluviale/

23/02/2023 Les-chasseurs-cueilleurs de l’âge-de-pierre-ont-ils-inventé-le-calendrier?
https://europesolidaire.eu/-les-chasseurs-cueilleurs-de-lage-de-pierre-ont-ils-invente-le-calendrier/

24/02/2023 La fabrication des contenus langagiers par l’Intelligence Artificielle
https://europesolidaire e.eu/2023/02/24/24-02-2023-la-fabrication-des-contenus-langagiers-par-lintelligence-artificielle/

25/02/2023. Sur ChatGPT
https://europesolidaire.eu/2023/02/25/25-02-2023-sur-chatgpt


26/02/2023 Découverte d’une planète qui ne devrait pas exister

/



V

26/02/2023 Découverte d’une planète qui ne devrait pas exister

Des astronomes révèlent avoir découvert une planète qui “ne devrait pas exister” : une géante gazeuse en orbite autour d’une étoile naine rouge. Cette découverte remet en question les connaissances scientifiques sur la formation des planètes gazeuses.

C’est la première fois que des chercheurs observent un système planétaire analogue . Aux Etats-Unis, une équipe d’astronomes a fait la découverte d’une nouvelle planète baptisée TOI-5205 en orbite autour d’une étoile naine rouge. Leurs observations viennent d’être publiées dans The Astronomical Journal (voir références ci-dessous). Rappelons que dans notre Système Solaire, la Terre est une planète tellurique rocheuse. Saturne et Jupiter sont des géantes gazeuses

Les étoiles naines sont appelées ainsi car elles sont plus petites et plus froides que les autres étoiles. Elles sont environ deux fois moins chaudes que le Soleil et ont une couleur rouge“Elles ont des luminosités très faibles, mais des durées de vie extrêmement longues. Bien que les naines rouges hébergent plus de planètes, en moyenne, que d’autres types d’étoiles plus massives, leurs historiques de formation en font des candidates peu probables pour héberger des géantes gazeuses.”

C’est effectivement la présence d’une énorme planète gazeuse autour de cette étoile rouge qui a intrigué les chercheurs. “L’étoile hôte, TOI-5205, est à peu près quatre fois plus grande que Jupiter, mais elle a réussi à former une planète de la taille de Jupiter, ce qui est assez surprenant !”, selon loham Kanodia de Carnegie, qui a dirigé la recherche.

Pour plus de détails, voir https://phys.org/news/2023-02-forbidden-planet-orbiting-small-star.html

Dwarf TOI-5205b: A Short-period Jovian Planet Transiting a Mid-M Dwarf

Abstract

We present the discovery of TOI-5205b, a transiting Jovian planet orbiting a solar metallicity M4V star, which was discovered using Transiting Exoplanet Survey Satellite photometry and then confirmed using a combination of precise radial velocities, ground-based photometry, spectra, and speckle imaging. TOI-5205b has one of the highest mass ratios for M-dwarf planets, with a mass ratio of almost 0.3%, as it orbits a host star that is just 0.392 ± 0.015 M⊙. Its planetary radius is 1.03 ± 0.03 RJ, while the mass is 1.08 ± 0.06 MJ. Additionally, the large size of the planet orbiting a small star results in a transit depth of ∼7%, making it one of the deepest transits of a confirmed exoplanet orbiting a main-sequence star. The large transit depth makes TOI-5205b a compelling target to probe its atmospheric properties, as a means of tracing the potential formation pathways. While there have been radial-velocity-only discoveries of giant planets around mid-M dwarfs, this is the first transiting Jupiter with a mass measurement discovered around such a low-mass host star. The high mass of TOI-5205b stretches conventional theories of planet formation and disk scaling relations that cannot easily recreate the conditions required to form such planets.

Published 2023 February 21 • © 2023. Published by the American Astronomical Society.
The Astronomical JournalVolume 165Number 3

25/02/2023. Sur ChatGPT

Les questions abondent sur ce logiciel d’aide à la rédaction et la meilleur façon de s’en servir. Pour notre part nous renverrons à la version en français d’un excellent article de The Conversation

https://theconversation.com/quel-avenir-pour-chatgpt-197553

_____________________________________________

ChatGPT tient le devant de la scène depuis sa sortie le 30 novembre dernier, du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste.

Alors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?

ChatGPT, un « Google killer » ? Pas forcément…

ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.

Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.

Il y a toutefois plusieurs incertitudes concernant une telle perspective. Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.



On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.

ChatGPT peut-il réussir là où Alexa a en partie échoué 

Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…

ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.

On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.

Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.

Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.



Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !

Les limites de ChatGPT : quand ChatGPT « hallucine »

La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.

ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée


Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.

c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.

Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPTStackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).

Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).

Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.

Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances).

Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.

Les enjeux pour demain

L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.

La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.

Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.

En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel.

Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.

24/02/2023 La fabrication des contenus langagiers par l’Intelligence Artificielle

La fabrication des contenus langagiers par l’Intelligence Artificielle

Le langage tel qu’il s’est développé chez les espèces vivantes disposant d’un minimum de neurones associatifs permet aux individus qui en sont dotés de signaler leur présence aux autres et dans un deuxième temps de faire connaître afin de la faire partager la façon dont ils voient le monde et y réagissent.

Dans un rapport publié le 22 avril 2022 dans Nature, la chercheuse en Intelligence artificielle Shobita Parthasarathy de l’Université du Michigan USA nous avertit du fait que les outils logiciels dits LLM (Large Language Models) développés par des systèmes d’Intelligence Artificielles pour faciliter l’accès du public aux questions scientifiques aient des effets contraires à ceux recherchés.

D’ores et déjà, il est impossible de s’en passer dans les moteurs de recherche ou pour proposer des résumés de questions scientifiques un tant soit peu complexes. Nécessairement les auteurs humains produisant ces outils ont du mal à rester scientifiquement objectifs. Ils imposent, sans d’ailleurs souvent s’en rendre compte, des points de vus déjà datés ou reposant sur des a-priori philosophiques ou politiques. Le plus souvent par ailleurs ils servent les intérêts des Google, Facebook and Microsoft. Mais comment se passer d’eux, faute de compétences et même de temps suffisants pour leur porter la contradiction.

Le problème n’est pas nouveau. En France, dans la Sorbonne de l’ancien régime, pratiquement tenue par des jésuites, il était quasi-impossible de trouver des formations s’inspirant de matérialisme, fut-il timide.

Référence

https://www.nature.com/articles/d41586-022-01191-3
28 April 2022

Pour en savoir plus, lire ces extraits de l’article explicitant le point de vue de Shobita Parthasarathy

How might LLMs help or hinder science?

I had originally thought that LLMs could have democratizing and empowering impacts. When it comes to science, they could empower people to quickly pull insights out of information: by querying disease symptoms for example, or generating summaries of technical topics.

But the algorithmic summaries could make errors, include outdated information or remove nuance and uncertainty, without users appreciating this. If anyone can use LLMs to make complex research comprehensible, but they risk getting a simplified, idealized view of science that’s at odds with the messy reality, that could threaten professionalism and authority. It might also exacerbate problems of public trust in science. And people’s interactions with these tools will be very individualized, with each user getting their own generated information.

Isn’t the issue that LLMs might draw on outdated or unreliable research a huge problem?

Yes. But that doesn’t mean people won’t use LLMs. They’re enticing, and they will have a veneer of objectivity associated with their fluent output and their portrayal as exciting new technologies. The fact that they have limits — that they might be built on partial or historical data sets — might not be recognized by the average user.

It’s easy for scientists to assert that they are smart and realize that LLMs are useful but incomplete tools — for starting a literature review, say. Still, these kinds of tool could narrow their field of vision, and it might be hard to recognize when an LLM gets something wrong.

LLMs could be useful in digital humanities, for instance: to summarize what a historical text says about a particular topic. But these models’ processes are opaque, and they don’t provide sources alongside their outputs, so researchers will need to think carefully about how they’re going to use them. I’ve seen some proposed usages in sociology and been surprised by how credulous some scholars have been.

Who might create these models for science?

My guess is that large scientific publishers are going to be in the best position to develop science-specific LLMs (adapted from general models), able to crawl over the proprietary full text of their papers. They could also look to automate aspects of peer review, such as querying scientific texts to find out who should be consulted as a reviewer. LLMs might also be used to try to pick out particularly innovative results in manuscripts or patents, and perhaps even to help evaluate these results

How might LLMs help or hinder science?

I had originally thought that LLMs could have democratizing and empowering impacts. When it comes to science, they could empower people to quickly pull insights out of information: by querying disease symptoms for example, or generating summaries of technical topics.

But the algorithmic summaries could make errors, include outdated information or remove nuance and uncertainty, without users appreciating this. If anyone can use LLMs to make complex research comprehensible, but they risk getting a simplified, idealized view of science that’s at odds with the messy reality, that could threaten professionalism and authority. It might also exacerbate problems of public trust in science. And people’s interactions with these tools will be very individualized, with each user getting their own generated information.

Isn’t the issue that LLMs might draw on outdated or unreliable research a huge problem?

Yes. But that doesn’t mean people won’t use LLMs. They’re enticing, and they will have a veneer of objectivity associated with their fluent output and their portrayal as exciting new technologies. The fact that they have limits — that they might be built on partial or historical data sets — might not be recognized by the average user.

It’s easy for scientists to assert that they are smart and realize that LLMs are useful but incomplete tools — for starting a literature review, say. Still, these kinds of tool could narrow their field of vision, and it might be hard to recognize when an LLM gets something wrong.

LLMs could be useful in digital humanities, for instance: to summarize what a historical text says about a particular topic. But these models’ processes are opaque, and they don’t provide sources alongside their outputs, so researchers will need to think carefully about how they’re going to use them. I’ve seen some proposed usages in sociology and been surprised by how credulous some scholars have been.

Who might create these models for science?

My guess is that large scientific publishers are going to be in the best position to develop science-specific LLMs (adapted from general models), able to crawl over the proprietary full text of their papers. They could also look to automate aspects of peer review, such as querying scientific texts to find out who should be consulted as a reviewer. LLMs might also be used to try to pick out particularly innovative results in manuscripts or patents, and perhaps even to help evaluate these results

23/02/2023. Les chasseurs cueilleurs de l’Age de pierre ont-ils inventé le calendrier?

Un archéologue amateur londonien, restaurateur de meubles anciens, a découvert sur un certain nombre de peintures rupestres datant de l’Age de pierre des marques surajoutées semblant se référer à la saison pendant laquelle ces animaux se reproduisaient. Ainsi les auteurs de ces peintures s’en servaient-ils à titre de calendrier.

On peut penser que l’explication est intéressante mais ne ne suffit pas à expliquer la raison pour laquelle de si nombreuses peintures réalistes ou non ont été faites , dans des grottes peu faciles d’accès et généralement obscures. L’explication classique selon laquelle ces peintures avaient une valeur religieuse et permettaient d’assurer la cohésion de communautés ne disposant pas encore de l’écriture paraît bien plus convaincante.

Quant à eux les chasseurs néolithiques n’avaient pas besoin de symboles si complexes pour se rendre compte du passage des saisons et des dates d’ouverture de la chasse.

Pour en savoir plus, voir

voir aussi Fdesouche

Voir aussi BBC

https://www.bbc.com/news/uk-england-64161861

Autres hypothéses

https://studyfinds.org/markings-cave-paintings-decoded/