23/07/2024 Les tachyons, des particules se déplaçant plus vite que la lumière

Les tachyons sont des particules hypothétiques censées se déplacer toujours plus vite que la lumière. Introduits dans le cadre de la physique théorique, ces objets sont souvent perçus comme une solution potentielle à certains problèmes dans la physique des particules. Par exemple, leur existence pourrait offrir des perspectives nouvelles sur la matière noire 1) ou sur des phénomènes quantiques inexpliqués.

  1. Voir citation ci-dessous

Cependant, jusqu’à présent, aucune preuve tangible de leur existence n’a été trouvée. Le concept de tachyons ne repose en effet que sur des bases théoriques et des difficultés subsistent. Par exemple, selon la relativité restreinte, rien ne peut dépasser la vitesse de la lumière qui est fixée à environ 299 792 458 mètres par seconde. A mesure qu’un objet matériel approche de cette vitesse, sa masse effective augmente, ce qui nécessite de plus en plus d’énergie pour continuer à accélérer. Ainsi, atteindre la vitesse de la lumière devient impossible pour tout objet avec une masse. En d’autres termes, pour qu’un objet atteigne la vitesse de la lumière, il faudrait une quantité infinie d’énergie, ce qui n’est pas possible.

Les tachyons posent également des questions sur l’énergie, qui pourrait prendre des valeurs négatives dans certains scénarios. Cela diffère fondamentalement de notre compréhension habituelle où l’énergie est généralement positive pour les particules que nous connaissons. L’idée d’énergie négative pourrait alors conduire à des paradoxes. Par exemple, dans le cadre des théories actuelles, une particule qui a une énergie négative pourrait entraîner des situations où des objets pourraient gagner de l’énergie de manière infinie ou même créer des scénarios où les lois de la thermodynamique qui régissent l’énergie dans l’Univers ne s’appliqueraient plus de manière cohérente.

Après avoir examiné les propriétés des tachyons, des physiciens de l’Université de Varsovie ont proposé des solutions pour résoudre certains des problèmes théoriques majeurs associés à ces particules. Traditionnellement, les tachyons ont en effet été considérés comme instables dans leur état fondamental, ce qui signifie que leur existence pourrait conduire à des situations imprévisibles et incohérentes dans un système physique. De plus, selon la théorie de la relativité restreinte, l’observation des tachyons varierait en fonction du référentiel de l’observateur, ce qui complique donc davantage leur intégration dans un cadre théorique cohérent.

Les physiciens de l’Université de Varsovie suggèrent ainsi qu’en connaissant précisément les états initiaux et finaux d’un système impliquant des tachyons, on pourrait surmonter ces difficultés . En d’autres termes, si l’on pouvait déterminer comment un système commence et comment il finit, les comportements intermédiaires des tachyons pourraient alors être prédits et contrôlés plus efficacement. Cela ouvrirait la voie à une meilleure compréhension et à une intégration plus stable des tachyons dans la physique théorique.

Cette approche repose sur l’idée que la connaissance complète des conditions de départ et d’arrivée d’un système permet de résoudre les problèmes d’instabilité et de variabilité d’observation. Par exemple, si l’on sait exactement comment un groupe de tachyons commence son interaction et comment il doit se terminer, les calculs et les modèles théoriques peuvent ainsi être ajustés pour tenir compte des comportements imprévus des tachyons entre ces points. Cela pourrait alors potentiellement stabiliser les tachyons et rendre leur étude plus cohérente et prévisible.

De plus, cette recherche évoque l’idée d’un nouveau type d’intrication quantique où le futur pourrait influencer le présent. Cela remet ainsi en question notre compréhension classique du temps. Cette notion pourrait avoir des implications profondes non seulement pour la physique théorique, mais aussi pour la façon dont nous concevons le cosmos et notre place en son sein.

En résumé, les recherches des physiciens de Varsovie suggèrent que les tachyons pourraient être intégrés de manière plus stable et cohérente dans la physique théorique… de quoi reconsidérer ce que nous savons de l’Univers.

Référence


Interacting tachyon with varying mass dark matter

Goutam MandalSudip MishraAbdulla Al MamonSujay Kr. Biswas

This paper presents an investigation of cosmological dynamics of tachyon fluid coupled to varyingmass dark matter particles in the background of spatially flat FLRW universe. The mechanism of varying mass particles scenario assumes the mass of the dark matter depends on time t through the scalar field ϕ in the sense that the decaying of dark matter reproduces the scalar field. First, we analyze the model from dynamical systems perspective by converting the cosmological evolution equations into an autonomous system of ordinary differential equations with a suitable transformation of variables. We choose the mass of dark matter as exponential function of scalar field and the exponential potential of the tachyon field is undertaken in such a way that the autonomous system is reduced in three dimensional form. The critical points obtained from the system are non-hyperbolic in nature. The center manifold theory is employed to discuss the nature of the critical points. Numerical investigation also carried out for some critical points. From this analysis, we obtain dust dominated decelerated transient phase of the universe followed by dark energy dominated scaling attractor alleviating the coincidence problem. Next, we perform the statefinder diagnostic approach to compare our model to ΛCDM and finally we study the evolution of the Hubble parameter and the distance modulus and compare this with observational data.

Comments:17 pages, 8 Caption figures, 21 figures
Subjects:General Relativity and Quantum Cosmology (gr-qc)
Cite as:arXiv:2404.07243 [gr-qc]
 (or arXiv:2404.07243v1 [gr-qc] for this version)
 https://doi.org/10.48550/arXiv.2404.07243

23/07/2024 Existe-t-il un lien chez l’humain entre le volume cérébral et l’intelligence ?

Le cerveau d’Albert Einstein, père entre autres de la théorie de la relativité, était nettement plus petit que la moyenne. Cela ne l’a pas empêché d’être plus intelligent que la plupart de ses contemporains dotés de gros cerveaux

La paléontologie démontre la même chose. Elle nous apprend que des hominiens dotés de petits cerveaux ont survécu sur la Terre bien avant l’apparition de l’homme moderne et ont été capables d’élaborer des outils de pierre aussi élaborés que ceux des humains d’alors, laissant entendre qu’ils possédaient déjà un langage.

Il est indéniable que le passage de l’homo habilis à l‘homo erectus puis à l’homo heidelbergensis, pour finir par l’homo neanderthalensis en Eurasie et l’homo sapiens en Afrique, s’est chaque fois accompagné d’une augmentation de la taille du cerveau. Mais celle-ci n’a pas été systématique.

Ainsi la découverte il y a vingt ans en Indonésie de l‘homo florensiensis, un humain d’une taille de 1m10 avec un cerveau de 425 cm3 comparé au nôtre de 1350 cm3 en moyenne, qui a vécu jusqu’à 50.000 ans avant notre ère montre que le gros cerveau n’est pas indispensable à la survie . Il en est de même dans les cas plus récemment découverts de l‘homo luzonensis dans les Philippines et de l’homo naledi en Afrique du Sud qui ont vécu jusqu’à 235.000 ans avant aujourd’hui.

Dans un site nommé Gona en Ethiopie, il apparut que homo erectus qui y avait vécu il y a 1,6 millions d’années avait produit des outils de pierre du type acheuléen si complexes qu’il n’aurait pu le faire sans un langage rudimentaire permettant d’acquérir et transmettre le savoir-faire. Or son volume cervical atteignait à peine 500 cm 

De même des chercheurs ont retrouvé des outils du type Oldowan vieux de 3 millions d’annés dans un site où vivaient des préhumains nommés Paranthropes qui n’ont pas été des précurseurs de l’homo sapiens

Voir https://en.wikipedia.org/wiki/Paranthropus

En fait, l’intelligence individuelle n’a que peu de liens avec la taille du cerveau des individus. Elle dépend pour l’essentiel de la richesse de la culture collective dans laquelle ceux-ci sont plongés dès leur naissance, à un moment où s’établissent des liens durables entre les neurones du cortex supérieur, considérés comme le siège de l’intelligence.

NB. Nous n’évoquerons pas ici le rôle des cellules gliales.

Les enfants qui pour des raisons pathologiques ne peuvent en aucune façon communiquer avec leurs semblables auront peu de chance de devenir des Einstein ou plus simplement des citoyens normaux, quelle que soit la taille de leur cerveau à leur naissance. A l’inverse, si comme cela a été constaté dans de rares cas historiques, ils sont élevés dans des lieux où ils sont maintenus en isolement, quelle que soit la taille de leur cerveaux, ils ne pourront jamais devenir intelligents.

Plutôt que s’interroger sur la taille des cerveaux des Paranthropes, mieux vaudrait se demander pourquoi les sociétés formées par ceux-ci n’ont jamais pu évoluer vers les sociétés de plus en plus complexes ayant finalement fait apparaître l’homo sapiens

Pour en savoir plus, voir Cortex magazine

23/07/2024 Une nouvelle crise des missiles en Europe ?

 Il y a 10 ans, les États-Unis avaient annoncé le déploiement de missiles de théâtre (à moyenne/longue portée) en Allemagne en 2026. C’est ce qu’ils vont faire.

L’Allemagne va accueillir le système Typhon [ou Mid-Range Capability – MRC], conçu pour lancer des missiles SM-6 [RIM-174 Standard ERAM] d’une portée comprise entre 400 et 500 km] ainsi que des Tomahawk, capables de parcourir 2770 km. Soit plus qu’il n’en faut pour atteindre Moscou depuis Berlin. Quant aux capacités hypersoniques, elles reposeront sur le LRHW [Long-Range Hypersonic Weapon ou « Dark Eagle »], dont la portée est identique à celle de la version sol-sol du Tomahawk.

Cette annonce n’est pas vraiment surprenante. En 2021, l’US Army avait annoncé la réactivation, à Cassel [Mayence] du 56th Artillery Command, une unité héritière du « 56th Field Artillery Command », lequel avait été dissous à la fin de la Guerre froide alors qu’il était chargé de superviser les Pershing II. Cette réactivation avait été décidée dans le cadre du programme « Multi-Domain Task Forces » [MDTF], lancé en 2019 afin de regrouper au sein d’une même formation des capacités en matière d’artillerie, de défense sol-air, de renseignement, de lutte informatique et de guerre électronique.L’objectif vise à coordonner des frappes de missiles à longue portée dans le cadre d’une force en réseau.

Lors d’un entretien accordé à Deutschlandfunk, ce 11 juillet, le ministre allemand de la Défense, Boris Pistorius, a salué le déploiement des missiles américains. « Cela comblera une grave lacune en matière de défense du territoire des alliés de l’Otan », a-t-il estimé.

Voir https://www.deutschlandfunk.de/pistorius-begruesst-stationierung-von-langstreckenwaffen-in-deutschland-dlf-5287ece1-100.html

Les missiles balistiques de théâtre TBM sont des missiles capables d’atteindre des objectifs situés à une distance inférieure à 3.500 km. Ils peuvent porter des charges nucléaires de moyenne à forte puissance .

Rappelons qu’en 1977, l’Union soviétique commença à déployer des missiles balistiques de portée intermédiaire SS-20 Saber, susceptibles de neutraliser les moyens de riposte nucléaire de l’Otan basés en Europe. Aussi, les États-Unis ne tardèrent pas à réagir en envoyant des missiles Pershing II en Allemagne de l’Ouest. Ce qui donna lieu à la crise dite des « Euromissiles », l’initiative américaine ayant en outre provoqué des réactions hostiles parmi les milieux pacifistes. En 1983, le président François Mitterrand résuma la situation en déclarant devant les députés du Bundestag :  » Les pacifistes sont à l’Ouest, et les missiles sont à l’Est ».

La crise des Euromissiles prit fin en 1987, avec la signature du Traité sur les Forces nucléaires intermédiaires [FNI] par les États-Unis et l’Union soviétique. Ainsi, ce texte interdisait de déployer et de posséder des missiles – balistiques et de croisière – ayant une portée comprise entre 500 et 5500 km.

Voir https://fr.wikipedia.org/wiki/Trait%C3%A9_sur_les_forces_nucl%C3%A9aires_%C3%A0_port%C3%A9e_interm%C3%A9diaire

Seulement, comme d’autres traités de désarmement, il n’a plus cours actuellement. En effet, la Russie ayant été accusée d’avoir développé un missile ayant une portée supérieure à 500 km – en l’occurrence le Novator 9M729 – les États-Unis dénoncèrent le traité FNI en 2019. En conséquence, ils modifièrent le programme PrSM [Precision Strike Missile] afin de doter le système M142 HIMARS d’un missile balistique pouvant atteindre une cible au-delà de 500 km.

Cependant, alors que les jours du traité FNI étaient comptés, certains responsables européens, comme Federica Mogherini, alors Haute représentante de l’Union pour les affaires étrangères et la politique de sécurité, firent part de leur opposition à voir le territoire européen redevenir un « champ de bataille pour d’autres puissances » comme par le passé.

Côté russe, Vladimir Poutine laissa entendre que Moscou allait se doter de missiles jusqu’alors interdits. Les Américains « estiment à présent que la situation a tellement évolué depuis la signature en 1987 du Traité FNI, qu’ils doivent se doter de ces armes. Notre réponse à Washington? Simple : nous ferons la même chose », avait-il affirmé, en décembre 2018.

Le chef d’état-major des forces armées russes, le général Valeri Guerassimov, s’était montré beaucoup plus direct, en menaçant de destruction les pays de l’Otan qui accepteraient d’accueillir sur leur sol des missiles balistiques américains de moyenne portée. « Ce n’est pas le territoire des États-Unis qui sera menacé de destruction, mais bien le leur », avait-il averti.

Fin juin, Vladimir Poutine a estimé que la Russie devait commencer à produire des missiles autrefois interdits par le traité FNI puis, « en fonction de la situation », de les « déployer, si cela est nécessaire, pour assurer notre sécurité ».

Quoi qu’il en soit, il n’y a pas encore si longtemps, l’Allemagne se disait opposée au déploiement de missiles sol-sol à portée intermédiaire sur son territoire. « La politique des années 1980 n’aide pas à répondre aux questions d’aujourd’hui. Un déploiement de nouveaux missiles à moyenne portée rencontrerait une grande résistance en Allemagne » et « l’Europe ne devrait en aucun cas être le théâtre d’un réarmement », avait ainsi estimé le social-démocrate Heiko Maas, quand il était encore chef de la diplomatie allemande, en 2018.

Seulement, la guerre en Ukraine a changé la donne, voire accéléré des plans qui étaient à l'étude. En effet, le 10 juillet, en marge du sommet de l’Otan à Washington, l’Allemagne a annoncé qu’elle abriterait la variante sol-sol du missile de croisière Tomahawk, des missiles polyvalents SM-6 ainsi que des armes hypersoniques mis en œuvre par l’US Army à partir de 2026.

« Ces systèmes ont une portée nettement plus grande que ceux actuellement déployés en Europe », ont souligné les autorités allemandes et américaines dans un communiqué commun. Cependant ces missiles ne porteront pas de charge nucléaire, contrairement aux Pershing II des années 1980.

Merci à DeDefensa où l'on trouve ces informations

20/07/2024 L’ espace-temps ? Combien de dimensions ?

Les trois dimensions de l’espace dans lequel nous vivons ne sont mises en doute par personne : devant, derrière, en haut (ou en bas). Imaginer autre chose relève de la science-fiction.. Cependant des physiciens sérieux ont depuis longtemps été tentés par la perspective dite des extra-dimensions . Les prendre en considération permettrait selon eux, de résoudre quelques grandes questions relatives à la nature exacte de l’univers .

Ainsi George Obied, physicien à l’université d’Oxford, s’interroge : Pourquoi seulement trois dimensions, pourquoi pas plusieurs autres ? C’est un fait que depuis plusieurs années, des chercheurs ont proposé des techniques qui pourraient finalement apporter la preuve de ces extra-dimensions. On pourrait citer celle dite « gravity leaking » ou fuite de gravité. Ce terme signifie que la force de gravité ne pourrait se faire sentir que dans les trois dimensions de l’espace que nous connaissons. Mais il en existerait d’autres dans lesquelles nous ne pouvons pas percevoir son influence.

Ces hypothèses n’ont pas abouti. Que ce soit dans les trous noirs ou au niveau microscopique, l’existence d’une force gravitationnelle entre deux objets, qualifiée depuis Newton de « 1/R² force », n’a pu être mise en défaut.

voir https://en.wikipedia.org/wiki/Inverse-square_law

voir aussi https://www.sciencenews.org/article/gravity-doesnt-leak-large-hidden-dimensions

Aujourd’hui cependant Obied et d’autres chercheurs ont évoqué une nouvelle extra-dimension radicalement différente des autres. Elle a été nommée la dimension noire (dark dimension), qui permettrait de résoudre le problème de la matière noire . Bien que non observée à ce jour, la matière noire ou matière sombre, est une catégorie de matière hypothétique, invoquée dans le cadre du Modèle ΛCDM ou modèle de concordance pour rendre compte de certaines observations astrophysiques, notamment les estimations de la masse des galaxies ou des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique. 

Quelques annés après, le physicien Theodor Kaluza en travaillant les équations d’Einstein introduisit le concept de cinquième dimension. Mais il découvrit très vite alors que celui-ci pouvait correspondre au concept de champ électromagnétique. Ainsi se trouvaient unifiées dans un cadre unique;. ces deux forces fondamentales de la nature, la gravité et l’électromagnétisme .

En 1926, le physicien théoricien Oscar Klein cru pouvoir affirmer que les extra dimensions indétectables du fait de leur petite taille seraient compatibles avec la théorie quantique récemment découverte . Elles seraient en ce cas infiniment plus petites qu’un atome. Elles se trouveraient dans tous les points de l’espace. Cette hypothèse dite Kamula-Klein ne fut jamais vérifiée.

Elle conduisit cependant à la théorie des cordes. Selon celle-ci tout ce qui existe est fait de cordes qui vibrent en 10 dimensions. Six d’entre elles sont très petites et forment des nœuds un peu semblables à ceux que Oscar Klein avait envisagés. Les particules fondamentales, électrons, quarks, bosons de Higgs, seraient faites de tels nœuds.

La raison pour laquelle de telles extra-dimensions n’ont pas encore été observée serait leur petite taille.

Cependant si de tels noeuds existaient, ils pourraient prendre la forme de particules jamais encore observées dites gravitons. Les théoriciens avaient espérer pouvoir détecter des gravitons à l’occasion des observations récentes d’ondes gravitationnelles, mais rien de tel ne s’est produit .

Une nouvelle observation prévue à l’occasion de la future expérience dite Gravity from the Quantum Entanglement of Space Time (GquEST) en cours de préparation au California Institute of Technology pourra peut-être apporter des réponses.

L’étude des millions de galaxies et amas de galaxies aujourd’hui observables pourra peut-être aussi montrer si elles se conforment ou non aux forces gravitationnelles telles que l’on se les représente aujourd’hui

Source New Scientist The Spaces in between p.33 , 13 July 2024

18/07/2024 Emergence de programmes numériques autoréplicants à partir d’une « soupe » de programmes élémentaires préexistants

Un certain nombre de biologistes considèrent que la vie sur la terre serait apparue spontanément à partir de la combinaison d’une grande variété (soupe) de programmes physico-chimiques élémentaires préexistants. Si cette hypothèse était vérifié, elle permettrait de penser que de nombreuses planètes dans l’univers ayant suffisamment évolué pour qu’il y soit apparue une telle complexité pourraient héberger des formes de vie comparables à la vie terrestre. Ce n’est évidemment pas le cas des étoiles en activité, se limitant pour l’essentiel à la transformation d’hydrogène en hélium.

Un ingénieur chercheur en Intelligence artificielle chez Google nommé Ben Laurie et ses collègues ont imaginé des expériences simulées dans lesquelles des dizaines de milliers d’instructions élémentaires en langage machine assemblées au hasard se combinent et s’exécutent sur des millions de générations d’éléments de programmes. Ils n’en attendaient rien de cohérent.

Or ils ont eu la surprise de voir que leurs simulations ont conduit à l’émergence de programmes auto-réplicateurs qui se sont multipliés. Parmi eux sont apparus de nouveaux types de programmes plus efficaces dans l’attribution des ressources informatiques disponibles qui ont éliminé leurs prédécesseurs. Ils se sont exactement comportés comme des organismes vivants

Contrairement à des programmes analogues déjà existants tels que The Game of Life (https://en.wikipedia.org/wiki/Conway%27s_Game_of_Life) obéissant à des règles simples, ces programmes n’obéissaient pas à des règles préalables. Leur complexité et donc leur efficacité est apparue d’elle-même à la suite d’un très grand nombre de contacts sans règles établies.

Mais pour aller plus, les chercheurs devront disposer de ressources dépassant les capacités des calculateurs classiques. Par ailleurs, il n’est pas évident que la vie soit apparue à la suite de processus d’accroissement de la complexité. Peut-être a-t-elle résulté de simplifications de la complexité initiale.

Reférence

https://arxiv.org/abs/2406.19108
doi.org/m676

https://arxiv.org/abs/2406.19108

[Submitted on 27 Jun 2024]

Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interaction

Blaise Agüera y ArcasJyrki AlakuijalaJames EvansBen LaurieAlexander MordvintsevEyvind NiklassonEttore RandazzoLuca Versari

The fields of Origin of Life and Artificial Life both question what life is and how it emerges from a distinct set of « pre-life » dynamics. One common feature of most substrates where life emerges is a marked shift in dynamics when self-replication appears. While there are some hypotheses regarding how self-replicators arose in nature, we know very little about the general dynamics, computational principles, and necessary conditions for self-replicators to emerge. This is especially true on « computational substrates » where interactions involve logical, mathematical, or programming rules. In this paper we take a step towards understanding how self-replicators arise by studying several computational substrates based on various simple programming languages and machine instruction sets. We show that when random, non self-replicating programs are placed in an environment lacking any explicit fitness landscape, self-replicators tend to arise. We demonstrate how this occurs due to random interactions and self-modification, and can happen with and without background random mutations. We also show how increasingly complex dynamics continue to emerge following the rise of self-replicators. Finally, we show a counterexample of a minimalistic programming language where self-replicators are possible, but so far have not been observed to arise.

Comments:19 pages
Subjects:Neural and Evolutionary Computing (cs.NE); Artificial Intelligence (cs.AI)
ACM classes:F.2.2; I.2.11
Cite as:arXiv:2406.19108 [cs.NE]
 (or arXiv:2406.19108v1 [cs.NE] for this version)
 https://doi.org/10.48550/arXiv.2406.19108

18/07/2024 Le petit Néanderthalien qui a survécu au syndrome de Down

La trisomie 21 – parfois appelée syndrome de Down – a été découverte en 1959 par un groupe de médecins français : Marthe Gautier, Jérôme Lejeune et Raymond Turpin. Le terme “trisomie” souligne l’anomalie génétique avec 3 chromosomes – tri – au lieu de deux sur le chromosome 21, d’où l’appellation trisomie 21.

La trisomie 21 est la première cause diagnostiquée de déficience intellectuelle d’origine génétique.

Les Néanderthaliens, qui avait précédé l’espèce humaine de quelques 300 millions à 30 millions d’années sont connus pour avoir partagé avec l’homme quelques outils et techniques caractéristiques de l’Age de pierre. Mais ils avaient aussi certainement partagé quelques pathologies, dont la trisomie 21. Une récente découverte montre que dans ce cas, les néanderthaliens étaient capables de déployer autant d’attentions et de soins que les hommes actuels.

Une récentes découverte due à Penny Spikins, de l’université de York (Grande Bretagne) montre qu’un os fossile du crane d’un jeune néanderthalien de 6 à 10 ans retrouvé dans la Cave de Cova Negra (Espagne de l’est) présente les caractéristique du syndrome de Down. Que cet enfant ait survécu, ne fut-ce que quelques années, montre qu’il avait été certainement entouré de soins et d’attentions par son entourage durant ces années. Il n’aurait pas pu se mouvoir dans cette cave sans être atteint de vertige violent, caractéristique de ce syndrome.

Un autre néanderthalien trouvé dans une cave en Irak avait un bras paralysé et une jambe très abîmée. Il était par ailleurs à demi sourd et aveugle. Tout laisse penser que les soins qui lui avaient été donnés pendant plusieurs années ne relevaient pas de l’intérêt mais de la compassion. Aucune espèce animale ne présente les mêmes caractéristiques.

Pour en savoir plus, voir Newscientist 6 july 2024, p.14

Référence

  • The child who lived: Down syndrome among Neanderthals?

SCIENCE ADVANCES
26 Jun 2024
Vol 10, Issue 2

Abstract

Caregiving for disabled individuals among Neanderthals has been known for a long time, and there is a debate about the implications of this behavior. Some authors believe that caregiving took place between individuals able to reciprocate the favor, while others argue that caregiving was produced by a feeling of compassion related to other highly adaptive prosocial behaviors. The study of children with severe pathologies is particularly interesting, as children have a very limited possibility to reciprocate the assistance. We present the case of a Neanderthal child who suffered from a congenital pathology of the inner ear, probably debilitating, and associated with Down syndrome. This child would have required care for at least 6 years, likely necessitating other group members to assist the mother in childcare


18/07/2024 Les cristaux temporels

On désigne  généralement par cristal un solide dont la structure présente un motif qui se répète dans l’espace. On les trouve un peu partout dans notre environnement ; la glace, le sel de table, les sucres, À l’échelle microscopique, ils sont composés d’un réseau d’atomes qui s’emboîtent en suivant des règles bien précises, et ces mailles sont plus ou moins verrouillées dans une même position ; si la structure change, c’est forcément à cause d’une force extérieure.

Wikipedia cristal ;https://fr.wikipedia.org/wiki/Cristal

En 2012, le physicien et mathématicien Frank Wilczek a proposé une hypothèse surprenante. Il a postulé qu’il pourrait également exister des cristaux temporels dont la structure se répète non seulement dans l’espace mais aussi dans le temps, sans qu’aucune force externe ne lui impose un rythme particulier.

 L’idée a été jugée aberrante par la plupart des physiciens. Ils y ont vu une violation des lois de la physique et notamment de la seconde loi de la thermodynamique, qui implique qu’un système à l’équilibre ne peut en aucun cas se déplacer perpétuellement sans apport d’énergie.

Mais certains scientifiques ont décidé de pousser cette expérience un peu plus loin. Leur objectif  était de: réconcilier le concept et les modèles théoriques. Cette démarche a commencé à produire des résultats intéressants en 2016, quand plusieurs équipes américaines ont proposé de nouvelles approches expérimentales  basées sur la mécanique quantique. À partir de là, la définition du cristal temporel a commencé à évoluer : on ne recherche désormais plus des matériaux où les atomes se déplacent spontanément, mais plutôt une régularité dans le comportement des particules qui les composent.

Cette nouvelle conception du problème a ouvert la voie aux premières avancées concrètes. En 2017, des équipes de Berkeley, de Harvard et du MIT ont observé chacune de leur côté des matériaux présentant des oscillations périodiques à un rythme complètement différent de celui qui était imposé par une source d’énergie externe. Un peu comme une balançoire qui “déciderait” toute seule de se déplacer à une vitesse bien précise indépendamment de la force avec laquelle on la pousse.

Il s’agit des premières preuves concrètes du fait que certains systèmes présentent une sorte de temporalité intrinsèque En revanche, ces phénomènes étaient encore relativement éloignés de l’idée originale de Wilczek, puisqu’il fallait quand même une source d’énergie périodique externe pour faire émerger ce phénomène régulier.

C’est là qu’interviennent les chercheurs des universités de Vienne, en Autriche, et de Tsinghua, en Chine. Ensemble, les deux équipes ont réussi à créer un cristal temporel beaucoup plus proche du concept proposé par Wilczek.

Pour comprendre ce qui rend ces travaux différents, il faut s’intéresser à la structure de la matière. Chaque atome comporte un nombre donné d’électrons qui sont répartis sur des orbites bien définies autour du noyau de proton et de neutrons. Le diamètre de cette orbite dépend de l’excitation de l’électron ; si on lui transfère de l’énergie, il peut migrer vers une orbite beaucoup plus large. Si l’on pousse cette excitation à l’extrême pour qu’un électron évolue le plus loin possible du noyau atomique, il passe dans un état dit « de Rydberg » ; on obtient un “atome géant” qui peut être plusieurs fois plus grand que sa version non excitée.

Ces objets, appelés atomes de Rydberg, sont particulièrement intéressants pour les physiciens. En effet, leurs interactions peuvent donner lieu au phénomène d’intrication quantique, un mystérieux état où deux particules sont reliées par un lien inextricable et indépendant de la distance.

Or, cette intrication n’est pas le seul phénomène exotique qui émerge lorsque des « atomes géants » marchent sur les orbites de leurs voisins. Les auteurs de l’ étude ont montré que si on soumet des atomes de rubidium en configuration de Rydberg à un rayon laser, ils se mettent à osciller d’une manière qui rappelle fortement les cristaux temporels de Wilczek.

« Si les atomes dans notre conteneur sont préparés de façon à en faire des atomes de Rydberg et que leur diamètre devient énorme, les forces qui s’exercent entre ces atomes deviennent aussi très importantes », selon Thomas Pol, co-auteur de l’étude. « Cela change complètement la manière dont ils interagissent avec le laser. Si on choisit le faisceau de façon à ce qu’il puisse exciter deux états de Rydberg différents sur un même atome en même temps, on obtient une boucle de rétroaction qui provoque des oscillations spontanées entre les deux états atomiques. »

Une fois que les mécanismes sous-jacents seront mieux compris, ces cristaux temporels pourraient se retrouver au cœur d’innovations conidérables. Pohl suggère qu’ils pourraient servir à créer une nouvelle génération de capteurs ultra-précis.

En parallèle, d’autres chercheurs ont aussi proposé de s’en servir en informatique quantique. L’un des principaux défis de cette discipline, c’est de réussir à maintenir des qbits dans un état de cohérence, c’est-à-dire dans un état de superposition et d’intrication quantique. Le penchant naturel des atomes de Rydberg pour cette dernière pourrait donc s’avérer précieux.

D’ailleurs, cette idée avait d’ailleurs déjà été explorée. Mais maintenant que cette périodicité intrinsèque a été documentée, elle devient encore plus intéressante Sur le papier, on pourrait exploiter un système de ce genre pour synchroniser ces unités logiques avec une précision extrême, et ainsi limiter les erreurs tout en bénéficiant d’une cohérence encore plus stable et robuste.

Pour finir, ces cristaux temporels pourraient aussi servir en recherche fondamentale, notamment pour les physiciens qui étudient les phénomènes quantiques pour mieux comprendre la nature et le comportement de la matière à la plus petite des échelles. Même si ces travaux sont encore balbutiants, il sera donc très intéressant de suivre leurs retombées potentielles.

source
https://www.journaldugeek.com/2024/07/12/des-chercheurs-creent-un-cristal-temporel-avec-des-atomes-geants/

Référence

https://www.nature.com/articles/s41567-024-02542-9

  • Published: 02 July 2024
Dissipative time crystal in a strongly interacting Rydberg gas

Xiaoling Wu, and others

Nature Physics (2024)

Abstract

https://www.nature.com/articles/s41567-024-02542-9

The notion of spontaneous symmetry breaking has been well established to characterize classical and quantum phase transitions of matter, such as condensation, crystallization or quantum magnetism. Generalizations of this paradigm to the time dimension can lead to a time crystal phase, which spontaneously breaks the time-translation symmetry of the system. Although the existence of a continuous time crystal at equilibrium has been challenged by no-go theorems, this difficulty can be circumvented by dissipation in an open system. Here we report the experimental observation of such a dissipative time-crystalline order in a room-temperature atomic gas, where ground-state atoms are continuously driven to Rydberg states. The emergent time crystal is revealed by persistent oscillations of the photon transmission, and we show that the observed limit cycles arise from the coexistence and competition between distinct Rydberg components. The non-decaying autocorrelation of the oscillation, together with the robustness against temporal noises, indicates the establishment of true long-range temporal order and demonstrates the realization of a continuous time crystal.

17/07/2024 Rapport 2024 de l’association Oxfam-France

Oxfam International est une confédération d’une vingtaine d’organisations caritatives indépendantes à travers le monde. Celles-ci travaillent ensemble et en collaboration avec des partenaires locaux répartis dans 66 pays dans le monde. Wikipédia

A l’heure où une nouvelle Assemblée nationale se forme et qu’un nouveau gouvernement se dessine, Oxfam France publie une étude inédite sur les politiques d’adaptation de la France au changement climatique. Les conclusions sont claires : les pouvoirs publics n’anticipent pas assez les politiques et les investissements nécessaires à l’adaptation et ne protègent à ce jour pas les citoyennes et citoyens face aux conséquences du changement climatique.

Oxfam révèle ainsi que plus de la moitié des droits humains est menacée en France du fait de l’improvisation des pouvoirs publics en matière d’adaptation et en l’absence de politique globale ambitieuse.

Cette étude est actuellement sous embargo et ne devrait pas être publiée avant la fin du mois de juillet

On peut cependant la consulter à l’adresse suivante
https://www.oxfamfrance.org/app/uploads/2024/07/Oxfam-France_rapport-adaptation_sous-embargo-15-juillet-00h01.pdf

Jean-Paul Baquiast

17/07/2024 Découverte d’une ancienne civilisation au Venezuela

Des archéologues de l ‘Université Simon Bolivar de Caracas (Venezuela) dirigés par Jose Miguel Perez Gomez, explorent depuis plusieure années des sites du parc National Canaima. Ces sites se trouvaient avant l ‘arrivée des européens dans de hautes terres couvertes de forêts primitives qui aujourd’hui encore ne sont pas totalement explorées malgré la collaboration de la collectivité indigène local dite Pemon.

Iose Miguel Perez Gomez vient de révéler lors d’une conférence sur l’art pariétal à Canaima ses dernières découvertes. Elles dateraient d’environ 4.000 à 7.000 ans bp. Elles sont gravées ou peintes aux flancs de falaises abruptes difficilement accessibles.

L’originalié de ces œuvres est qu’elles semblent représenter des filets, des cordes ou des sommets de montagne dont nul indien aujourd’hui ne comprend le sens. Beaucoup y voient des œuvres démoniaques .

Les archéologues vont s’efforcer de comprendre les mystérieuses cultures ayant produit ces œuvres.

Source

New Rock Art Site Complex In The Arauak River Valley, Southeastern Venezuela.

  • November 2023
  • Rock Art Research 40(2):131-144
Abstract and Figures

This paper examines Amerindian rock art recovered on an isolated boulder located near the Upuigma Tepui in the Arauák River Valley in Bolívar State, southeastern Venezuela. We explore some ideas about the possible use of this boulder by the indigenous hunter-gatherers, both as a shelter and as a place for enacting ritual activities, in the broader context of the cultural landscape. Preliminary stylistic analysis suggests possible regional interrelationships of the pictograms with other rock art sites. Evidence also suggests the source of the red ochre used for the paintings, which might have come from a mineral anomaly close to the site. In addition, we briefly present some petroglyphs found within the same regional context. We stress the necessity of further systematic research into this phenomenon given the potential for encountering more pictograms and petroglyphs as well as other valuable data which would contribute to a better understanding of the chronology and sociocultural context of the long-past humans in this remote area of northern South America. Finally, we call for the protection of these pictograms as valuable heritage sites.

https://www.researchgate.net/publication/374660579_New_Rock_Art_Site_Complex_In_The_Arauak_River_Valley_Southeastern_Venezuela

16/07/2024 La Start up britannique OxfordIonics annonce avoir maitrisé la technologie du calcul quantique.

Oxford Ionics (https://www.oxionics.com/) est une entreprise d’innovation scientifique créée par des ingénieurs issus de l’université britannique d’Oxford. Celle-ci est connue dans le monde entier au même titre que sa concurrente l’université de Cambridge pour représenter l’excellence du savoir britannique.

Or Oxford Ionics vient de faire la démonstration de la puce quantique la plus performante au monde, éliminant le besoin de lasers pour contrôler les qubits du piège à ions et permettant des ordinateurs quantiques évolutifs plus simples.

Le système de contrôle électronique des qubits mis au point par Oxford Ionics peut être produit à grande échelle dans une usine de fabrication de semi-conducteurs standard. , et l’entreprise prévoit de construire un processeur quantique à piège à ions évolutif de 256 qubits, qui devrait être fabriqué par Infineon à Villach, en Autriche.

Rappelons que jusqu’à présent, les processeurs quantiques à ions piégés ont été difficiles à mettre à l’échelle car ils sont généralement contrôlés par des lasers. La puce quantique à ions piégés contrôlée électroniquement utilise des traces de transport de courant partagées et des électrodes d’accord locales dans une puce microfabriquée pour réaliser des portes quantiques avec peu de bruit et de diaphonie, quelle que soit la taille de l’appareil.

Oxford Ionics a démontré expérimentalement l’existence de portes à un ou deux qubits sélectives par site à faible bruit dans un piège à ions à sept zones pouvant contrôler jusqu’à 10 qubits. Les portes électroniques à qubit unique ont une fidélité de 99,99916 % et démontrent des performances constantes avec une faible diaphonie à travers le dispositif. Les états maximalement intriqués à deux qubits présentent une fidélité de 99,97 % et des performances stables à long terme pour un fonctionnement continu du système.

Ces résultats valident la voie vers la réalisation d’ordinateurs quantiques à grande échelle qui intègrent tout ce qui est nécessaire pour les contrôler dans une puce de silicium pouvant être produite en masse en utilisant des installations et des processus de fabrication de semi-conducteurs standard.

Les puces quantiques offrent des performances deux fois supérieures, sans nécessiter de correction d’erreur, en utilisant 10 fois moins de qubits.

Le piégeage d’atomes

OxfordIonics a fait appel pour son ordinateur quantique à la technologie dite des «  trapped ions «  que l’on traduit   par « piégeage d’atomes » .

Depuis une quinzaine d’années, les physiciens ont développé des techniques de manipulations d’atomes par laser qui permettent de refroidir, de piéger et d’observer un seul atome à la fois. Le piégeage d’atomes individuels se fait à l’aide d’une pince optique, terme qui désigne un laser focalisé sur une tache d’un micromètre de taille, au foyer duquel se trouve piégé l’atome. Grâce à des méthodes holographiques il est aussi possible de produire des matrices de pinces optiques dont la géométrie est pratiquement arbitraire. On obtient ainsi des plans d’atomes séparés de quelques micromètres, arrangés selon des géométries variées. Au-delà de leur aspect esthétique, ces méthodes trouvent leurs applications dans le domaine en pleine expansion des technologies quantiques.

Pour détails voir https://www.quera.com/glossary/trapped-ions#

voir aussi https://www.refletsdelaphysique.fr/articles/refdp/pdf/2016/01/refdp201647-48p36.pdf

L’approche de Oxford Ionics est spéciale en ce sens qu’elle conjugue les performances exceptionnelle du piégeage d’atomes avec la souplesse de la fabrication industrielle des semiconducteurs modernes. Les techniques de la correction d’erreurs quantiques n’ont pas besoin d’être utilisées en ce cas. Et le chip quantique peut aussi être fabriqué avec les techniques existantes de l’industrie des semiconducteurs.

La compagnie espère dans ces conditions pouvoir réaliser un calculateur quantique utilisable dans les trois prochaines années .

Si ces prévisions étaient confirmées, il s’agira d’une véritable révolution, prenant de court les géants du domaine, les américains IBM et Google, ainsi que le chinois Zuchongzhi 2 .

Concernant la France on lira

https://wwa.wavestone.com/fr/insight/informatique-quantique-en-france-un-ecosysteme-dynamique-et-prometteur/#:~

Dans un article précédent, nous signalions que la start up française Pascal avait annoncé avoir réalisé un ordinateur quantique de 1000 qubits (https://europesolidaire.eu/page/2/