10/07/2022 Observation dans l’espace d’une molécule pouvant participer à l’apparition de la vie

La molécule dite Methyl Cation comporte un atome de carbone, trois atomes d’hydrogène plus une charge positive . Elle est banale sur Terre. Dans l’espace les astrophysiciens la soupçonne depuis les années 1970 d’être à l’origine de toute la chimie du milieu interstellaire  A partir de ces 4 atomes se formeraient toutes les molécules complexes, les alcools, les hydrocarbures, etc. Une chimie organique qui a sur Terre façonné la vie. Cependant jusque-là, on ne l’avait jamais vue hors du système solaire. Ceci laissait soupçonner que la vie pourrait n’exister que sur la Terre;

Ce n’est plus le cas. En observant avec le nouveau télescope JWST, une équipe d’une cinquantaine d’astronomes dirigée par Olivier Berné, de l’Institut de recherche en astrophysique et planétologie de Toulouse a réussi à voir la Methyl Cation dans un disque de poussières et de gaz autour d’une très jeune étoile. Si tout va bien, ce disque va former des planètes dans quelques dizaines de millions d’années.

Au cours des dernières décennies, les spécialistes de la formation des systèmes planétaires se sont concentrés sur les grains de poussières interspatiales : comment les réactions chimiques se produisent à la surface de poussières, comment elles s’agrègent, jusqu’à former les planètes.

Avec la Methyl Cation, c’est une voie gazeuse qui s’ouvre pour expliquer la naissance des systèmes solaires avec leurs planètes. C’est aussi peut-être une voie plus universelle. Le disque dans lequel la Methyl Cation a été trouvée est très agité, il est chauffé à 1000 degrés, il est bombardé d’un vent de rayons UV.  Or ces conditions extrêmes sont très courantes dans l’univers. Les étoiles naissent en groupe, elles émettent des rayonnements qui irradient dans toute leur nébuleuse.

Merci à Mathilde Fontez, cheffe de la rédaction de la nouvelle revue Epsilon France

Référence

Formation of the Methyl Cation by Photochemistry in a Protoplanetary Disk

Abstract

Forty years ago it was proposed that gas phase organic chemistry in the interstellar medium can be initiated by the methyl cation CH3+ (1–3), but hitherto it has not been observed outside the Solar System (4, 5). Alternative routes involving processes on grain surfaces have been invoked (6, 7). Here we report JWST observations of CH+3CH3+ in a protoplanetary disk in the Orion star forming region. We find that gas-phase organic chemistry is activated by UV irradiation.

10/07/2023 Vers un calculateur quantique pouvant calculer avec un taux d’erreur acceptable

Il a souvent été dit – avec peut-être un rien d’optimisme exagéré – que le pays ou l’organisation qui maîtrisera l’ordinateur quantique dominera le monde. Aujourd’hui, que ce soit dans les modèles destinés à simuler des problèmes scientifiques de plus en plus complexes ou dans l’utilisation d’engins militaire sans pilotage humain, tout repose non seulement sur la puissance de calcul des ordinateurs quantiques, mais dans leurs capacités à détecter et réparer rapidement leurs erreurs. Or dans ces domaines, ils s’étaient montrés jusqu’au présent décevants

Or Google vient d’annoncer, notamment dans un article de Nature dont on trouve ci-dessous les références et le résumé, qu’une méthode de correction d’erreurs dans les calculateurs quantique qu’il vient d’expérimenter, pourrait être utilisée à grande échelle .

Comme l’on sait, les ordinateurs quantiques utilisent des bits quantiques ou qubits. Le bit ou binary digit est l’unité d’information en matière de calcul et de communication. Il représente un état logique avec deux valeurs possible, le zero et le un. Le bit quantique peut prendre une infinité de valeurs entre ces deux limites. Autrement dit le calculateur quantique peut faire une infinité d’erreurs. Il n’est pas contrôlable ni corrigible avec les méthodes ordinaires.

Cependant, une filiale de Google spécialisée dans le calcul quantique, Google Quantum AI, vient d’annoncer être en mesure de le faire. A cette fin, elle a accru la taille des qubit logiques jusqu’à ce que cette augmentation de taille entraîne, après l’avoir augmenté, une diminution du taux d’erreurs, de 3,02 pour cent à 2,9 pour cent. Logiquement ce taux d’erreurs devrait continuer à diminuer avec l’augmentation de la taille. Google reste très discret concernant les raisons de cette amélioration des performances

Le calculateur utilisé pour ces mesures est un Sycomore de la 3e génération de 53 qubits,

Référence

Suppressing quantum errors by scaling a surface code logical qubit

https://www.nature.com/ahttps://www.nature.com/articles/s41586-022-05434-1rticles/s41586-022-05434-1

Nature  volume614
pages 676–681 (2023)

  • Practical quantum computing will require error rates well below those achievable with physical qubits. Quantum error correction offers a path to algorithmically relevant error rates by encoding logical qubits within many physical qubits, for which increasing the number of physical qubits enhances protection against physical errors. However, introducing more qubits also increases the number of error sources, so the density of errors must be sufficiently low for logical performance to improve with increasing code size. Here we report the measurement of logical qubit performance scaling across several code sizes, and demonstrate that our system of superconducting qubits has sufficient performance to overcome the additional errors from increasing qubit number. We find that our distance-5 surface code logical qubit modestly outperforms an ensemble of distance-3 logical qubits on average, in terms of both logical error probability over 25 cycles and logical error per cycle ((2.914 ± 0.016)% compared to (3.028 ± 0.023)%). To investigate damaging, low-probability error sources, we run a distance-25 repetition code and observe a 1.7 × 10−6 logical error per cycle floor set by a single high-energy event (1.6 × 10−7 excluding this event). We accurately model our experiment, extracting error budgets that highlight the biggest challenges for future systems. These results mark an experimental demonstration in which quantum error correction begins to improve performance with increasing qubit number, illuminating the path to reaching the logical error rates required for computation.

09/07/2023 Le Manifeste de Ralph Nader pour la réduction des budgets militaires américains.

Le budget militaire américain vient d’être exempté par la Maison Blanche et le Congrès de toutes les restrictions qui frappent les autres administrations en cette période où les tendances inflationnistes sont les plus élevées du fait de l’épidémie de Covid 19. Sont maintenues également les centaines de milliards de subventions versées aux industries militaires, Lockheed Martin, Raytheon et General Dynamics notamment.

Il en résultera d’importantes réductions touchant les budgets de santé publique, de sécurité et de croissance économique intéressant la population américaine. De même les dépenses fédérales consacrées à la lutte contre la fraude et l’évasion fiscale dont sont responsables ces secteurs se verront réduites sévèrement.

Bienvenue aux Etats-Unis  patrie de la Libre Entreprise.

Bien plus, le Pentagone et les géants du militaire se sont fait dire par la Présidence et les Démocrates qu’ils devraient s’attendre dans les prochaines années à recevoir des dizaines de milliards de subventions fédérales, augmentant le budget du Pentagone de 48 milliards de dollars supplémentaires.

Depuis 1992, le DOD, département de la défense américain, a toujours violé la loi fédérale qui requiert le contrôle bipartisan exercé par le GAO (Government Accountability Office) sur les dépenses fédérales impliquant le Big Business du secteur militaire et spatial.

Dans le même temps, sur le territoire américain, les infrastructures de transport ferroviaire et routier accumulent les besoins de réparation, de même que les réseaux d’eau potable et le traitement des déchets . Les établissements scolaires et les espaces publics attendent depuis des années les améliorations nécessaires. Avec le réchauffement climatique les besoins publiques ne feront qu’augmenter .

Le Congrès refuse désormais de financer des programmes tels que Head Start https://en.wikipedia.org/wiki/Head_Start_(program) qui visent à réduire la faim et la dépendance de 80 millions de personnes non assurées ou mal assurées. Pourquoi le pays le plus riche de la planète apporte moins à ses citoyens que l’Union européenne et le Canada ? Réponse : le pillage des budgets publics par le Big Business.

Cependant notre machine de guerre peut tranquillement faire vaporiser un groupe de jeunes gens discutant sur une route du Yémen par un opérateur de drones manœuvrant des commandes dans le Névada ou la Virginie.

La suite non traduite :

And remember citizens, when the government talks war, organizes for war, has military bases in a hundred countries and provokes belligerence, wars are likely to happen.

Not even the money spent on one F-35 is being devoted to waging peace, initiating ceasefire negotiations and launching efforts for international arms control treaties as occurred under former presidents Jimmy Carter, Ronald Reagan and Bill Clinton.

There is no Department of Peace, and the State Department is more bellicose than the Pentagon in its war of words. We’ve been waiting for Rep. Jim McGovern (D-MA) who has yet to put a bill in the hopper to create such a department – a purported priority of his since long before his election to Congress.

One can hope that the Pentagon Brass – the generals and admirals, some of whom anticipate retiring to become consultants to, or executives of, the corporate weapons industry, would teach the rampaging Congressional Yahoos a lesson in patriotic restraint. Congress must learn to say “no thanks” to more money than requested and use those funds to help save hundreds of thousands of lives in America lost every year to toxic pollution, preventable negligence in hospitals, the opioid epidemic, tobacco, alcohol, occupational hazards and more.

Absent that prospect, the dozens of small citizen peace advocacy groups and organizations such as Veterans for Peace should establish a national “Rein in and Audit the Military Budget and Save American Lives Day” to spark a nationwide grassroots mobilization focused on Congressional offices on Capitol Hill and in the states. There is no time to waste!

Fill the reception rooms of Members of Congress with citizens for peace and justice for a change. Let our elected officials start hearing the rumble from an aroused people conveying irresistible arguments backed by irrefutable evidence. Tell them to stop the arms race and pursue arms control treaties before autonomous weapons of mass destruction and miscalculations lead to World War III – the final world war.

09/07/2023 Le lobbying pour les industries de l’armement dans l’administration américaine

Un nouveau rapport publié par la sénatrice Elizabeth Warren (Démocrate-Massachusetts), rapport dont nous donnons ci-dessous les références, révèle que le secteur des fabricants d’armes a embauché en 2021 des dizaines d’anciens membres des services armés et du ministère de la Défense , soit toujours plus de fonctionnaires reconvertis dans le lobbying auprès des acheteurs du secteur de la Défense au cours du premier trimestre 2023

Au moins 672 anciens fonctionnaires, officiers militaires et membres du Congrès ont travaillé en tant que lobbyistes, membres du conseil d’administration ou directeurs pour les 20 premiers fabricants d’armes en 2022, d’après ce rapport. Cette pratique est largement répandue au sein de l’industrie de l’armement, donnant au minimum une impression de corruption et de favoritisme, et augmentant potentiellement les risques que les dépenses du ministère de la Défense aboutissent à des armes et des programmes inefficaces, des accords désavantageux et le gaspillage de l’argent du contribuable, affirme la sénatrice.

La proposition de budget du président Joe Biden pour 2024 requiert un montant record de 886 milliards de dollars pour les dépenses de la Défense. Dans le même temps, les recherches scientifiques promues par les administrations et universités risquent d’être supprimées ou mises en veilleuse faute de financements. C’est ainsi que la Nasa, agence spatiale américaine, avec son budget de 20 milliards, devra remettre à plus tard des programmes d’exploration de la planète Mars et de ses satellites destinés à la recherche de formes de vie ayant survécu à des millénaires de désertification.

08/07/2023 L’Iran a été reçue membre à part entière de l’Organisation de Coopération de Shanghai SC0 le 4 juillet 2023

L’Organisation de Coopération de Shanghai SC0 est une alliance internationale de commerce et de protection mutuelle de la sécurité fondée en 2001. Aujourd’hui elle rassemble en tant que membres à part entière les Etats suivants: China, India, Kazakhstan, Kyrgyzstan, Pakistan, Russia, Tajikistan et Uzbekistan.

Les pays et organisations suivantes participent en tant qu’interlocuteurs ;Armenia, Azerbaijan, Bahrain, Belarus, Cambodia, Egypt, Kuwait, Maldives, Myanmar, Nepal, Qatar, Saudi Arabia, Sri Lanka, Turkiye et Emirats Arabes Unis E VC

En tant qu’invités, on y trouve l’ASEAN, le CIS (Commonwealth of Independent States), le Turkmenistan et l’ONU

Pour en savoir plus, voir Le Monde https://www.lemonde.fr/international/article/2023/07/05/l-iran-devient-membre-a-part-entiere-de-l-ocs_6180605_3210.html

08/07/2023. Fiche de lecture. Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond

de Yann Le Cun

Présentation par l’éditeur

Nous vivons une révolution inouïe, inimaginable il y a encore cinquante ans, celle de la machine qui apprend, et qui apprend par elle-même. Au lieu d’exécuter les ordres d’un programme, la machine peut désormais acquérir par elle-même, par l’expérience, les capacités nécessaires pour accomplir les tâches qui lui sont assignées, y compris celles que l’on croyait réservées à l’humain. Les applications sont immenses : reconnaissance des formes, des voix, des images et des visages, voiture autonome, traduction de centaines de langues, détection des tumeurs dans les images médicales… Yann Le Cun est à l’origine de cette révolution. Il est en effet l’un des inventeurs de l’apprentissage profond, le deep learning, qui caractérise un réseau de neurones artificiels dont l’architecture et le fonctionnement s’inspirent du cerveau. C’est à la naissance de cette nouvelle forme d’intelligence, à l’émergence d’un système quasiment auto-organisateur, que nous convie Yann Le Cun. Un livre qui évoque la démarche intellectuelle d’un inventeur au carrefour de l’informatique et des neurosciences. Un livre qui éclaire l’avenir de l’intelligence artificielle, ses enjeux, ses promesses et ses risques. Un livre passionnant, clair et accessible, qui nous fait pénétrer au cœur de la machine et nous fait découvrir un nouveau monde fascinant, qui est déjà le nôtre. Yann Le Cun, lauréat du prix Turing, est professeur à New York University et dirige la recherche fondamentale chez Facebook. 

——————————————————

A suivre, entretien avec Yann Le Cun
(source Usbek & Rica)

Question 1: Comment fonctionne ChatGPT ?

Réponse de Yann Le Gun

« Les grands modèles de langage tels que ChatGPT sont « autorégressifs ». Cela signifie qu’on les entraîne, à partir d’un corpus de mots – jusqu’à 1 400 milliards de mots pour les systèmes aujourd’hui les plus performants – à prédire le dernier mot d’une séquence, celui qui doit venir ensuite dans une phrase donnée. 

Il ne s’agit pas d’une idée neuve. Les travaux menés dans les années 1950 par Claude Shannon reposaient déjà sur ce principe. Aujourd’hui, ce qui est nouveau, c’est le passage à échelle, la puissance de calcul très importante des modèles de langage les plus récents.

Question 2 . En ce printemps 2023, dans le paysage de l’intelligence artificielle, il semble y avoir deux camps. D’un côté, ceux qui voient dans ChatGPT et les autres modèles générateurs de textes et d’images des outils puissants et potentiellement révolutionnaires. De l’autre, ceux (et non des moindres) qui appellent à interdire, ou du moins à mettre sur pause la recherche sur le sujet, le temps d’introduire un peu d’éthique.

Réponse de Yann Le Gun

Pour l’instant, avec de tels modèles, on n’arrive pas à produire de textes longs et cohérents. Ces systèmes ne sont pas « pilotables » : on n’arrive pas à planifier leurs réponses. Par exemple, on ne peut pas demander à ChatGPT de produire un texte qui serait absolument compréhensible par un enfant de 13 ans. Par ailleurs, les textes produits par ChatGPT ne sont pas fiables en tant que sources d’information. Ils sont plutôt à envisager comme des systèmes d’aide à la conduite : de la même manière qu’il convient de garder les mains sur le volant dans une voiture autonome, il faut encore « garder les mains sur le clavier », si j’ose dire, quand on utilise des outils comme ChatGPT. »Partager sur Facebook Partager sur Twitter >

Question 3 À peine adopté, ChatGPT serait-il déjà dépassé ?

Réponse de Yann Le Cun

« Les modèles de langage autorégressifs tels qu’on les connaît aujourd’hui auront une durée de vie très courte. D’ici cinq ans, plus personne n’en utilisera. La priorité de la recherche aujourd’hui, celle sur laquelle je concentre tous mes efforts, c’est de trouver le moyen de rendre ces modèles pilotables, c’est-à-dire suivant des objectifs et respectant des contraintes. Autrement dit, il s’agit de mettre au point des IA qui raisonnent et planifient en fonction d’objectifs donnés.

Encore faut-il s’accorder sur les critères qui pourraient garantir la sécurité et la fiabilité de tels modèles, c’est ce qu’on appelle « l’alignement ». À terme, les machines dont je parle ici ressentiront des émotions. Parce qu’une grande partie des émotions humaines sont avant tout liées à la réalisation ou non d’objectifs, et donc à une forme d’anticipation. »

Avec de tels modèles pilotables, on sera capables de produire des textes longs et cohérents, mais aussi plus précis et plus fiables grâce à la planification de systèmes d’action. Par exemple, aujourd’hui, ChatGPT est très mauvais en arithmétique : si vous lui soumettez une soustraction avec des dizaines  des centaines, vous obtiendrez probablement un mauvais résultat… L’idée, c’est donc de concevoir des modèles augmentés capables d’hybrider des données provenant de différents outils, comme des calculatrices ou des moteurs de recherche.

Les modèles comme ChatGPT sont entraînés uniquement sur du texte. Ils n’ont donc qu’une vision réduite de la réalité physique du monde. Pour pouvoir se développer, il leur manque encore quelque chose d’essentiel, qui relève de la perception sensorielle du monde, de sa structure, et qu’on ne peut acquérir à mon avis par la simple lecture de textes. S’entraîner sur du texte, c’est « facile » : il suffit de prédire un score de probabilité pour chacun des mots du dictionnaire. Et ça, aujourd’hui, on ne sait pas le faire avec de la vidéo. Voilà un grand défi pour les prochaines années : comment faire en sorte que les machines apprennent par l’observation de vidéo, d’images en mouvement ? »

« Le désir de domination – et donc celui de soumission – sont spécifiques aux espèces sociales comme les humains, les babouins ou les loups, par exemple. Mais ça n’est pas parce qu’on élabore des machines puissantes qu’elles seront dotées d’une volonté de puissance ! En tout cas, une machine ne sera jamais dominante « par accident », comme le laissent parfois entendre certains récits catastrophistes entretenus par des personnalités comme Elon Musk ou le philosophe suédois Nick Bostrom.

Notre espèce sait élaborer des lois pour que les comportements des entités individuelles ne nuisent pas à l’intérêt commun. Il s’agit, en quelque sorte, de faire la même chose à terme pour la prochaine génération d’IA. Quelque chose qui se rapprocherait des lois de la robotique d’Asimov mais dans une version à la fois plus subtile et plus élaborée. »

Question 4 « OpenAI était à l’origine un projet de recherche ouverte, qui s’est désormais refermé . L’entreprise ne dit plus rien sur ses travaux, et ce revirement de situation n’est pas bien vu dans le monde de la recherche. Que suggérez vous?

Réponse de Yann Le Cun

Le problème, c’est qu’entraîner un modèle de langageça coûte cher, plusieurs dizaines de millions d’euros… Donc les start-ups ne peuvent pas se le permettre, en tout cas pas si elles entendent proposer des services vraiment ambitieux. C’est d’ailleurs la raison principale du rapprochement entre Microsoft et OpenAI, qui a besoin de la puissance de calcul du groupe pour améliorer ses futurs modèles.

À terme, en termes de marché, je crois qu’on ira vers un écosystème de plateformes ouvertes. Ça n’est jamais bon quand trop peu d’entreprises contrôlent l’accès à de telles technologies. D’ailleurs, historiquement, Facebook, puis Meta, a toujours été favorable à la recherche fondamentale ouverte. La preuve : LlaMa, notre dernier modèle en date d’IA générative, est un projet open source.

Il faut se souvenir de ce qui s’est passé pour Internet au début des années 1990. À l’époque, Sun Microsystems et Microsoft se faisaient la guerre pour savoir qui allait opérer les serveurs, et finalement, c’est Linux qui a raflé la mise avec son protocole. Toutes les technologies d’Internet qui ont fini par s’imposer reposent sur de l’open source.

Ce qui retarde aujourd’hui l’émergence de telles plateformes libres pour l’IA, c’est le statut légal des données et la question sensible du copyright. D’ailleurs, si l’Union européenne veut favoriser la structuration d’une industrie de l’intelligence artificielle, elle doit d’abord faire émerger une telle plateforme open source. »

07/07/2023 A peine entré en service, le JWST va-t-il révolutionner la cosmologie ?

Un article paru dans  Nature en date du 31 décembre 2022 (voir référence ci-dessous) fait état de la découverte que vient de permettre le télescope James-Webb. Il s’agit de six galaxies anormales.

Elles ont été observées alors que l’Univers avait moins d’un milliard d’années. Elles ont grandi bien plus vite que prévu généralement lorsque l’on applique le modèle cosmologique standard dit Lamba-CDM basé sur l’existence de la matière noire et l’énergie noire. Ces galaxies pourraient constituer un début de réfutation de ce modèle et une validation de la théorie MOND ou Modified Newtonian Dynamics .

Celle-ci, due au cosmologiste américain Stacy McGaugh, ambitionne de se passer de la référence à la matière noire (Cold Dark Matter) pour comprendre l’évolution de l’univers et notamment le problème de la courbe de rotation plate des galaxies spirales. Celles-ci ne disposeraient pas d’assez de matière visible pour ne pas se disperser sous l’influence de la force centrifuge.

L’on a donc imaginé la présence d’une matière invisible dite noire s’ajoutant à la matière visible ou baryonique des galaxies. Mais si la matière noire existait, elle aurait une abondance au moins cinq fois plus importante que celle de la matière visible pour constituer de 83 % à 90 % de la densité totale de l’univers observable, selon les modèles de formation et d’évolution des galaxies.

Pour une discussion plus approfondie, voir NewScientist 17 June 2023, p.36

Référence

[Submitted on 25 Jul 2022 (v1), last revised 31 Dec 2022 (this version, v3)]

A population of red candidate massive galaxies ~600 Myr after the Big Bang

Ivo LabbePieter van DokkumErica NelsonRachel BezansonKatherine SuessJoel LejaGabriel BrammerKatherine WhitakerElijah MathewsMauro StefanonBingjie Wang

Galaxies with stellar masses as high as ∼1011 solar masses have been identified out to redshifts z∼6, approximately one billion years after the Big Bang. It has been difficult to find massive galaxies at even earlier times, as the Balmer break region, which is needed for accurate mass estimates, is redshifted to wavelengths beyond $2.5\mum$. Here we make use of the $1-5\mum$ coverage of the JWST early release observations to search for intrinsically red galaxies in the first ~750 million years of cosmic history. In the survey area, we find six candidate massive galaxies (stellar mass >1010 solar masses) at 7.4<z<9.1, 500 – 700 Myr after the Big Bang, including one galaxy with a possible stellar mass of ∼1011 solar masses. If verified with spectroscopy, the stellar mass density in massive galaxies would be much higher than anticipated from previous studies based on rest-frame ultraviolet-selected samples.

https://arxiv.org/abs/2207.12446

06/07/2023 Du JWST au budget militaire des Etats-Unis

Le prix d’achat approximatif du JWST James Webb Space Telescope de la NASA a été de 10 milliards de dollars. Des son entrée en service il a multiplié les découvertes concernant les première temps de l’univers. Ses promesses pour l’avenir sont encore plus riches.

Les plus grandes découvertes du JWST sont, selon les cosmologistes, « celles auxquelles on ne peut évidemment pas s’attendre ni imaginer ». Cet observatoire représente un tel bond en avant pour l’astronomie  qu’il y aura des découvertes « dans tous les domaines ». À cela s’ajoute le fait que si le télescope Hubble a atteint ses limites quand il s’agissait d’observer des objets formés seulement quelques centaines de millions d’années après le Big Bang, « c’est vraiment là que le JWST va montrer toute l’étendue de ses capacités et apporter énormément à la connaissance sur cette période charnière de l’histoire de l’Univers, soit seulement quelques centaines de millions d’années après le Big Bang ».

Dans le même temps, le budget militaire annuel des Etats-Unis sera de quelques 800 milliards. L’armée américaine accumulera les destructions et les morts au prétexte de la défense des intérêts stratégique américains tandis que les crédits de recherche scientifique de la Nasa subiront des restrictions budgétaires sans précédants.

06/07/2023 Que pourrait-être la taille de l’univers?

A Cécile B

Ce que l’on peut observer et mesurer de l’Univers en est une image, et non l’Univers tel qu’il existe au moment où il est observé. Cette image est sensiblement différente de l’univers présent, du fait que la lumière se propage à vitesse finie, et de surcroît dans un Univers en expansion.

Pour bien faire, répondre à la question de la taille de l’univers n’a de sens que si l’on parle de l’univers observable. Il est impossible de parler de la taille d’un univers qui s’étendrait au delà du très lointain et du très proche que nous pouvons observer. Le très lointain observable correspond à la distance des galaxies les plus lointaines. Mais celles-ci du fait du temps que met la lumière à nous en parvenir et compte tenu de l’expansion actuelle de l’univers sont aussi les galaxies les plus anciennes rien ne permet d’affirmer qu’elles marquent les limites d’un univers actuel, par définition inobservables.

Quant aux limites de l’univers en allant vers le très petit, elles ne peuvent être définies aujourd’hui compte tenu des divergences actuelles entre la Physique classique d’Einstein et la physique quantique s’intéressant à la taille des particules élémentaires observables aujourd’hui. Disons que les atomes de la matière observables paraissent constitués de quarks. Les quarks s’associent entre eux pour former des hadrons, particules composites, dont les protons et les neutrons sont des exemples connus, parmi d’autres. En raison d’une propriété dite de confinement, les quarks ne peuvent être isolés et ne peuvent pas être observés directement ; tout ce que l’on sait des quarks provient donc indirectement de l’observation des hadrons.

Ceci étant, l’Univers observable est défini comme tout ce qui est observable et mesurable, et la vitesse de la lumière étant la vitesse limite, tout ce qui est situé au-delà de l’horizon cosmologique ne peut être observé ni ne peut influencer ce qui peut être observé.

Le principe cosmologique, ainsi désigné à la suite d’Edward A. Milne (1896-1950), énonce que l’Univers observable est, à grande échelle, homogène et isotrope. L’Univers étant globalement identique dans toutes les directions, les rayons lumineux provenant de toutes les directions parcourent a priori la même distance dans le même temps. L’Univers observable à un instant donné est donc une sphère dont l’observateur est le centre et dont le rayon est la distance parcourue par un signal lumineux pendant le temps d’existence de l’Univers à cet instant.

En pratique, l’Univers observable s’est longtemps limité à l’univers visible à l’œil nu. Il est aujourd’hui limité par la surface de dernière diffusion qui peut être définie, en première approximation, comme la région de l’espace d’où a été émis, environ 380 000 ans après le Big Bang, le rayonnement électromagnétique observé aujourd’hui, le fond diffus cosmologique.

Son anisotropie a été cartographiée par COBEWMAP puis Planck. Le fond cosmologique de neutrinos, prédit dès 19532 par Ralph Alpher, James Follin et Robert Herman3, n’a pas été détecté. Quant au fond cosmologique d’ondes gravitationnelles, sa détection par la collaboration BICEP24, annoncée le 17 mars 20145, est contestée.

Bien évidemment certaines régions de l’Univers observable ne sont pas visibles. Il s’agit des régions situées au-delà de l’horizon des trous noirs astrophysiques tels que les trous noirs stellaires, résultant de l’effondrement gravitationnel d’étoiles massives, ou les trous noirs supermassifs, situés au centre de galaxies.

Ainsi :

  • l’Univers observable paraît fini alors que l’Univers est au moins beaucoup plus vaste et potentiellement infini .
  • la lumière reçue des objets les plus lointains est décalée vers le rouge et devient de moins en moins visible et énergétique à mesure que l’objet est lointain.
  • les objets astronomiques apparaissent d’autant plus jeunes (par rapport au Big Bang) qu’ils sont éloignés .
  • la distance de l’objet à l’observateur au moment où sa lumière a été émise et sa distance au moment où la lumière est reçue par celui-ci peuvent être très différentes.
  • De plus, du fait de l’expansion de l’Univers, certains objets qui se trouvaient plus proches de l’observateur que d’autres lors de l’émission de la lumière paraissent à la réception de la lumière plus éloignés.

05/07/2023 La contre offensive ukrainienne marque le pas

Les jours qui viennent de s’écouler ont été « particulièrement fructueux » pour la contre-offensive menée par l’Ukraine contre les forces d’invasion russes dans l’est et le sud du pays, a déclaré le 3 septembre Oleksiy Danilov, secrétaire du Conseil de sécurité nationale et de défense ukrainien. A ce stade des hostilités, les forces armées ukrainiennes remplissent leur tâche principale : la destruction d’équipements, de dépôts de carburant, de véhicules militaires, de postes de commandement, de pièces d’artillerie et de systèmes de défense antiaérienne de l’armée russe ». Mais il n’a donné aucune précision sur d’éventuels gains territoriaux

La veille, le président ukrainien Volodimir Zelensky avait fait état de « progrès » après une semaine difficile qui avait vu les soldats ukrainiens arrêtés par la densité des lignes de défense russes, notamment dans la région de Zaporijjia, où l’armée de Kiev avait le plus avancé ces dernières semaines.

Outre la région de Zaporijjia, de violents combats ont lieu autour de Bakhmout, seule ville conquise par les Russes pendant leur longue phase offensive de l’automne au printemps derniers, aux abords de laquelle l’armée ukrainienne a récemment repris des pans de territoire, contraignant Moscou à envoyer des renforts.

Le porte-parole de l’armée ukrainienne, Andriy Kovalev, avait qualifié mardi ces avancées de « succès partiel » au prix de violents combats face à la résistance acharnée des Russes.

Moscou semble vouloir tenir à tout prix ses premières lignes de défense pour tenter d’éviter le scénario de percées similaires à celles qui avaient permis aux Ukrainiens de reprendre une partie importante des régions de Kharkiv et Kherson l’an dernier.

L’armée russe reste parallèlement à l’offensive dans plusieurs secteurs des régions de Louhansk et Donetsk, notamment autour des villes de Lyman, Avdiivka et Marinka, où l’Ukraine dit avoir repoussé ses assauts.

Le Kremlin a par ailleurs accusé Kyiv d’avoir attaqué Moscou mardi avec des drones mardi, affirmant avoir neutralisé au moins cinq de ces appareils.

La guerre des drones est devenue une composante majeure du conflit russo-ukrainien et elle tournerait en faveur de Moscou. Ce sont les drones kamikazes Lancet qui posent le plus de problème aux troupes ukrainiennes. “C’est l’engin le plus dangereux pour nous, les Russes s’en servent pour détruire notre artillerie”, a confié à The Economist Anton Gerashchenko, conseiller auprès du ministère ukrainien de l’intérieur. Les troupes de Moscou utilisent aussi cet appareil autonome pour attaquer les blindés déployés lors de la contre-offensive ukrainienne.

“D’après nos services de renseignement, Moscou est train d’augmenter de manière significative la production des drones Lancet”, a expliqué à The Telegraph Youri Sak, conseiller du ministre ukrainien de la défense. Mais qu’est-ce qui rend le Lancet si efficace ? L’une des grandes forces de cet appareil est son bas coût. D’après son concepteur Zala Aerogroup – une filiale du géant industriel Kalachnikov – un Lancet coûte environ 33.000 euros à fabriquer. Une dépense qui pourrait encore baisser en profitant de l’économie d’échelle si la production du drone augmentait