08/07/2023 L’Iran a été reçue membre à part entière de l’Organisation de Coopération de Shanghai SC0 le 4 juillet 2023

L’Organisation de Coopération de Shanghai SC0 est une alliance internationale de commerce et de protection mutuelle de la sécurité fondée en 2001. Aujourd’hui elle rassemble en tant que membres à part entière les Etats suivants: China, India, Kazakhstan, Kyrgyzstan, Pakistan, Russia, Tajikistan et Uzbekistan.

Les pays et organisations suivantes participent en tant qu’interlocuteurs ;Armenia, Azerbaijan, Bahrain, Belarus, Cambodia, Egypt, Kuwait, Maldives, Myanmar, Nepal, Qatar, Saudi Arabia, Sri Lanka, Turkiye et Emirats Arabes Unis E VC

En tant qu’invités, on y trouve l’ASEAN, le CIS (Commonwealth of Independent States), le Turkmenistan et l’ONU

Pour en savoir plus, voir Le Monde https://www.lemonde.fr/international/article/2023/07/05/l-iran-devient-membre-a-part-entiere-de-l-ocs_6180605_3210.html

08/07/2023. Fiche de lecture. Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond

de Yann Le Cun

Présentation par l’éditeur

Nous vivons une révolution inouïe, inimaginable il y a encore cinquante ans, celle de la machine qui apprend, et qui apprend par elle-même. Au lieu d’exécuter les ordres d’un programme, la machine peut désormais acquérir par elle-même, par l’expérience, les capacités nécessaires pour accomplir les tâches qui lui sont assignées, y compris celles que l’on croyait réservées à l’humain. Les applications sont immenses : reconnaissance des formes, des voix, des images et des visages, voiture autonome, traduction de centaines de langues, détection des tumeurs dans les images médicales… Yann Le Cun est à l’origine de cette révolution. Il est en effet l’un des inventeurs de l’apprentissage profond, le deep learning, qui caractérise un réseau de neurones artificiels dont l’architecture et le fonctionnement s’inspirent du cerveau. C’est à la naissance de cette nouvelle forme d’intelligence, à l’émergence d’un système quasiment auto-organisateur, que nous convie Yann Le Cun. Un livre qui évoque la démarche intellectuelle d’un inventeur au carrefour de l’informatique et des neurosciences. Un livre qui éclaire l’avenir de l’intelligence artificielle, ses enjeux, ses promesses et ses risques. Un livre passionnant, clair et accessible, qui nous fait pénétrer au cœur de la machine et nous fait découvrir un nouveau monde fascinant, qui est déjà le nôtre. Yann Le Cun, lauréat du prix Turing, est professeur à New York University et dirige la recherche fondamentale chez Facebook. 

——————————————————

A suivre, entretien avec Yann Le Cun
(source Usbek & Rica)

Question 1: Comment fonctionne ChatGPT ?

Réponse de Yann Le Gun

« Les grands modèles de langage tels que ChatGPT sont « autorégressifs ». Cela signifie qu’on les entraîne, à partir d’un corpus de mots – jusqu’à 1 400 milliards de mots pour les systèmes aujourd’hui les plus performants – à prédire le dernier mot d’une séquence, celui qui doit venir ensuite dans une phrase donnée. 

Il ne s’agit pas d’une idée neuve. Les travaux menés dans les années 1950 par Claude Shannon reposaient déjà sur ce principe. Aujourd’hui, ce qui est nouveau, c’est le passage à échelle, la puissance de calcul très importante des modèles de langage les plus récents.

Question 2 . En ce printemps 2023, dans le paysage de l’intelligence artificielle, il semble y avoir deux camps. D’un côté, ceux qui voient dans ChatGPT et les autres modèles générateurs de textes et d’images des outils puissants et potentiellement révolutionnaires. De l’autre, ceux (et non des moindres) qui appellent à interdire, ou du moins à mettre sur pause la recherche sur le sujet, le temps d’introduire un peu d’éthique.

Réponse de Yann Le Gun

Pour l’instant, avec de tels modèles, on n’arrive pas à produire de textes longs et cohérents. Ces systèmes ne sont pas « pilotables » : on n’arrive pas à planifier leurs réponses. Par exemple, on ne peut pas demander à ChatGPT de produire un texte qui serait absolument compréhensible par un enfant de 13 ans. Par ailleurs, les textes produits par ChatGPT ne sont pas fiables en tant que sources d’information. Ils sont plutôt à envisager comme des systèmes d’aide à la conduite : de la même manière qu’il convient de garder les mains sur le volant dans une voiture autonome, il faut encore « garder les mains sur le clavier », si j’ose dire, quand on utilise des outils comme ChatGPT. »Partager sur Facebook Partager sur Twitter >

Question 3 À peine adopté, ChatGPT serait-il déjà dépassé ?

Réponse de Yann Le Cun

« Les modèles de langage autorégressifs tels qu’on les connaît aujourd’hui auront une durée de vie très courte. D’ici cinq ans, plus personne n’en utilisera. La priorité de la recherche aujourd’hui, celle sur laquelle je concentre tous mes efforts, c’est de trouver le moyen de rendre ces modèles pilotables, c’est-à-dire suivant des objectifs et respectant des contraintes. Autrement dit, il s’agit de mettre au point des IA qui raisonnent et planifient en fonction d’objectifs donnés.

Encore faut-il s’accorder sur les critères qui pourraient garantir la sécurité et la fiabilité de tels modèles, c’est ce qu’on appelle « l’alignement ». À terme, les machines dont je parle ici ressentiront des émotions. Parce qu’une grande partie des émotions humaines sont avant tout liées à la réalisation ou non d’objectifs, et donc à une forme d’anticipation. »

Avec de tels modèles pilotables, on sera capables de produire des textes longs et cohérents, mais aussi plus précis et plus fiables grâce à la planification de systèmes d’action. Par exemple, aujourd’hui, ChatGPT est très mauvais en arithmétique : si vous lui soumettez une soustraction avec des dizaines  des centaines, vous obtiendrez probablement un mauvais résultat… L’idée, c’est donc de concevoir des modèles augmentés capables d’hybrider des données provenant de différents outils, comme des calculatrices ou des moteurs de recherche.

Les modèles comme ChatGPT sont entraînés uniquement sur du texte. Ils n’ont donc qu’une vision réduite de la réalité physique du monde. Pour pouvoir se développer, il leur manque encore quelque chose d’essentiel, qui relève de la perception sensorielle du monde, de sa structure, et qu’on ne peut acquérir à mon avis par la simple lecture de textes. S’entraîner sur du texte, c’est « facile » : il suffit de prédire un score de probabilité pour chacun des mots du dictionnaire. Et ça, aujourd’hui, on ne sait pas le faire avec de la vidéo. Voilà un grand défi pour les prochaines années : comment faire en sorte que les machines apprennent par l’observation de vidéo, d’images en mouvement ? »

« Le désir de domination – et donc celui de soumission – sont spécifiques aux espèces sociales comme les humains, les babouins ou les loups, par exemple. Mais ça n’est pas parce qu’on élabore des machines puissantes qu’elles seront dotées d’une volonté de puissance ! En tout cas, une machine ne sera jamais dominante « par accident », comme le laissent parfois entendre certains récits catastrophistes entretenus par des personnalités comme Elon Musk ou le philosophe suédois Nick Bostrom.

Notre espèce sait élaborer des lois pour que les comportements des entités individuelles ne nuisent pas à l’intérêt commun. Il s’agit, en quelque sorte, de faire la même chose à terme pour la prochaine génération d’IA. Quelque chose qui se rapprocherait des lois de la robotique d’Asimov mais dans une version à la fois plus subtile et plus élaborée. »

Question 4 « OpenAI était à l’origine un projet de recherche ouverte, qui s’est désormais refermé . L’entreprise ne dit plus rien sur ses travaux, et ce revirement de situation n’est pas bien vu dans le monde de la recherche. Que suggérez vous?

Réponse de Yann Le Cun

Le problème, c’est qu’entraîner un modèle de langageça coûte cher, plusieurs dizaines de millions d’euros… Donc les start-ups ne peuvent pas se le permettre, en tout cas pas si elles entendent proposer des services vraiment ambitieux. C’est d’ailleurs la raison principale du rapprochement entre Microsoft et OpenAI, qui a besoin de la puissance de calcul du groupe pour améliorer ses futurs modèles.

À terme, en termes de marché, je crois qu’on ira vers un écosystème de plateformes ouvertes. Ça n’est jamais bon quand trop peu d’entreprises contrôlent l’accès à de telles technologies. D’ailleurs, historiquement, Facebook, puis Meta, a toujours été favorable à la recherche fondamentale ouverte. La preuve : LlaMa, notre dernier modèle en date d’IA générative, est un projet open source.

Il faut se souvenir de ce qui s’est passé pour Internet au début des années 1990. À l’époque, Sun Microsystems et Microsoft se faisaient la guerre pour savoir qui allait opérer les serveurs, et finalement, c’est Linux qui a raflé la mise avec son protocole. Toutes les technologies d’Internet qui ont fini par s’imposer reposent sur de l’open source.

Ce qui retarde aujourd’hui l’émergence de telles plateformes libres pour l’IA, c’est le statut légal des données et la question sensible du copyright. D’ailleurs, si l’Union européenne veut favoriser la structuration d’une industrie de l’intelligence artificielle, elle doit d’abord faire émerger une telle plateforme open source. »

07/07/2023 A peine entré en service, le JWST va-t-il révolutionner la cosmologie ?

Un article paru dans  Nature en date du 31 décembre 2022 (voir référence ci-dessous) fait état de la découverte que vient de permettre le télescope James-Webb. Il s’agit de six galaxies anormales.

Elles ont été observées alors que l’Univers avait moins d’un milliard d’années. Elles ont grandi bien plus vite que prévu généralement lorsque l’on applique le modèle cosmologique standard dit Lamba-CDM basé sur l’existence de la matière noire et l’énergie noire. Ces galaxies pourraient constituer un début de réfutation de ce modèle et une validation de la théorie MOND ou Modified Newtonian Dynamics .

Celle-ci, due au cosmologiste américain Stacy McGaugh, ambitionne de se passer de la référence à la matière noire (Cold Dark Matter) pour comprendre l’évolution de l’univers et notamment le problème de la courbe de rotation plate des galaxies spirales. Celles-ci ne disposeraient pas d’assez de matière visible pour ne pas se disperser sous l’influence de la force centrifuge.

L’on a donc imaginé la présence d’une matière invisible dite noire s’ajoutant à la matière visible ou baryonique des galaxies. Mais si la matière noire existait, elle aurait une abondance au moins cinq fois plus importante que celle de la matière visible pour constituer de 83 % à 90 % de la densité totale de l’univers observable, selon les modèles de formation et d’évolution des galaxies.

Pour une discussion plus approfondie, voir NewScientist 17 June 2023, p.36

Référence

[Submitted on 25 Jul 2022 (v1), last revised 31 Dec 2022 (this version, v3)]

A population of red candidate massive galaxies ~600 Myr after the Big Bang

Ivo LabbePieter van DokkumErica NelsonRachel BezansonKatherine SuessJoel LejaGabriel BrammerKatherine WhitakerElijah MathewsMauro StefanonBingjie Wang

Galaxies with stellar masses as high as ∼1011 solar masses have been identified out to redshifts z∼6, approximately one billion years after the Big Bang. It has been difficult to find massive galaxies at even earlier times, as the Balmer break region, which is needed for accurate mass estimates, is redshifted to wavelengths beyond $2.5\mum$. Here we make use of the $1-5\mum$ coverage of the JWST early release observations to search for intrinsically red galaxies in the first ~750 million years of cosmic history. In the survey area, we find six candidate massive galaxies (stellar mass >1010 solar masses) at 7.4<z<9.1, 500 – 700 Myr after the Big Bang, including one galaxy with a possible stellar mass of ∼1011 solar masses. If verified with spectroscopy, the stellar mass density in massive galaxies would be much higher than anticipated from previous studies based on rest-frame ultraviolet-selected samples.

https://arxiv.org/abs/2207.12446

06/07/2023 Du JWST au budget militaire des Etats-Unis

Le prix d’achat approximatif du JWST James Webb Space Telescope de la NASA a été de 10 milliards de dollars. Des son entrée en service il a multiplié les découvertes concernant les première temps de l’univers. Ses promesses pour l’avenir sont encore plus riches.

Les plus grandes découvertes du JWST sont, selon les cosmologistes, « celles auxquelles on ne peut évidemment pas s’attendre ni imaginer ». Cet observatoire représente un tel bond en avant pour l’astronomie  qu’il y aura des découvertes « dans tous les domaines ». À cela s’ajoute le fait que si le télescope Hubble a atteint ses limites quand il s’agissait d’observer des objets formés seulement quelques centaines de millions d’années après le Big Bang, « c’est vraiment là que le JWST va montrer toute l’étendue de ses capacités et apporter énormément à la connaissance sur cette période charnière de l’histoire de l’Univers, soit seulement quelques centaines de millions d’années après le Big Bang ».

Dans le même temps, le budget militaire annuel des Etats-Unis sera de quelques 800 milliards. L’armée américaine accumulera les destructions et les morts au prétexte de la défense des intérêts stratégique américains tandis que les crédits de recherche scientifique de la Nasa subiront des restrictions budgétaires sans précédants.

06/07/2023 Que pourrait-être la taille de l’univers?

A Cécile B

Ce que l’on peut observer et mesurer de l’Univers en est une image, et non l’Univers tel qu’il existe au moment où il est observé. Cette image est sensiblement différente de l’univers présent, du fait que la lumière se propage à vitesse finie, et de surcroît dans un Univers en expansion.

Pour bien faire, répondre à la question de la taille de l’univers n’a de sens que si l’on parle de l’univers observable. Il est impossible de parler de la taille d’un univers qui s’étendrait au delà du très lointain et du très proche que nous pouvons observer. Le très lointain observable correspond à la distance des galaxies les plus lointaines. Mais celles-ci du fait du temps que met la lumière à nous en parvenir et compte tenu de l’expansion actuelle de l’univers sont aussi les galaxies les plus anciennes rien ne permet d’affirmer qu’elles marquent les limites d’un univers actuel, par définition inobservables.

Quant aux limites de l’univers en allant vers le très petit, elles ne peuvent être définies aujourd’hui compte tenu des divergences actuelles entre la Physique classique d’Einstein et la physique quantique s’intéressant à la taille des particules élémentaires observables aujourd’hui. Disons que les atomes de la matière observables paraissent constitués de quarks. Les quarks s’associent entre eux pour former des hadrons, particules composites, dont les protons et les neutrons sont des exemples connus, parmi d’autres. En raison d’une propriété dite de confinement, les quarks ne peuvent être isolés et ne peuvent pas être observés directement ; tout ce que l’on sait des quarks provient donc indirectement de l’observation des hadrons.

Ceci étant, l’Univers observable est défini comme tout ce qui est observable et mesurable, et la vitesse de la lumière étant la vitesse limite, tout ce qui est situé au-delà de l’horizon cosmologique ne peut être observé ni ne peut influencer ce qui peut être observé.

Le principe cosmologique, ainsi désigné à la suite d’Edward A. Milne (1896-1950), énonce que l’Univers observable est, à grande échelle, homogène et isotrope. L’Univers étant globalement identique dans toutes les directions, les rayons lumineux provenant de toutes les directions parcourent a priori la même distance dans le même temps. L’Univers observable à un instant donné est donc une sphère dont l’observateur est le centre et dont le rayon est la distance parcourue par un signal lumineux pendant le temps d’existence de l’Univers à cet instant.

En pratique, l’Univers observable s’est longtemps limité à l’univers visible à l’œil nu. Il est aujourd’hui limité par la surface de dernière diffusion qui peut être définie, en première approximation, comme la région de l’espace d’où a été émis, environ 380 000 ans après le Big Bang, le rayonnement électromagnétique observé aujourd’hui, le fond diffus cosmologique.

Son anisotropie a été cartographiée par COBEWMAP puis Planck. Le fond cosmologique de neutrinos, prédit dès 19532 par Ralph Alpher, James Follin et Robert Herman3, n’a pas été détecté. Quant au fond cosmologique d’ondes gravitationnelles, sa détection par la collaboration BICEP24, annoncée le 17 mars 20145, est contestée.

Bien évidemment certaines régions de l’Univers observable ne sont pas visibles. Il s’agit des régions situées au-delà de l’horizon des trous noirs astrophysiques tels que les trous noirs stellaires, résultant de l’effondrement gravitationnel d’étoiles massives, ou les trous noirs supermassifs, situés au centre de galaxies.

Ainsi :

  • l’Univers observable paraît fini alors que l’Univers est au moins beaucoup plus vaste et potentiellement infini .
  • la lumière reçue des objets les plus lointains est décalée vers le rouge et devient de moins en moins visible et énergétique à mesure que l’objet est lointain.
  • les objets astronomiques apparaissent d’autant plus jeunes (par rapport au Big Bang) qu’ils sont éloignés .
  • la distance de l’objet à l’observateur au moment où sa lumière a été émise et sa distance au moment où la lumière est reçue par celui-ci peuvent être très différentes.
  • De plus, du fait de l’expansion de l’Univers, certains objets qui se trouvaient plus proches de l’observateur que d’autres lors de l’émission de la lumière paraissent à la réception de la lumière plus éloignés.

05/07/2023 La contre offensive ukrainienne marque le pas

Les jours qui viennent de s’écouler ont été « particulièrement fructueux » pour la contre-offensive menée par l’Ukraine contre les forces d’invasion russes dans l’est et le sud du pays, a déclaré le 3 septembre Oleksiy Danilov, secrétaire du Conseil de sécurité nationale et de défense ukrainien. A ce stade des hostilités, les forces armées ukrainiennes remplissent leur tâche principale : la destruction d’équipements, de dépôts de carburant, de véhicules militaires, de postes de commandement, de pièces d’artillerie et de systèmes de défense antiaérienne de l’armée russe ». Mais il n’a donné aucune précision sur d’éventuels gains territoriaux

La veille, le président ukrainien Volodimir Zelensky avait fait état de « progrès » après une semaine difficile qui avait vu les soldats ukrainiens arrêtés par la densité des lignes de défense russes, notamment dans la région de Zaporijjia, où l’armée de Kiev avait le plus avancé ces dernières semaines.

Outre la région de Zaporijjia, de violents combats ont lieu autour de Bakhmout, seule ville conquise par les Russes pendant leur longue phase offensive de l’automne au printemps derniers, aux abords de laquelle l’armée ukrainienne a récemment repris des pans de territoire, contraignant Moscou à envoyer des renforts.

Le porte-parole de l’armée ukrainienne, Andriy Kovalev, avait qualifié mardi ces avancées de « succès partiel » au prix de violents combats face à la résistance acharnée des Russes.

Moscou semble vouloir tenir à tout prix ses premières lignes de défense pour tenter d’éviter le scénario de percées similaires à celles qui avaient permis aux Ukrainiens de reprendre une partie importante des régions de Kharkiv et Kherson l’an dernier.

L’armée russe reste parallèlement à l’offensive dans plusieurs secteurs des régions de Louhansk et Donetsk, notamment autour des villes de Lyman, Avdiivka et Marinka, où l’Ukraine dit avoir repoussé ses assauts.

Le Kremlin a par ailleurs accusé Kyiv d’avoir attaqué Moscou mardi avec des drones mardi, affirmant avoir neutralisé au moins cinq de ces appareils.

La guerre des drones est devenue une composante majeure du conflit russo-ukrainien et elle tournerait en faveur de Moscou. Ce sont les drones kamikazes Lancet qui posent le plus de problème aux troupes ukrainiennes. “C’est l’engin le plus dangereux pour nous, les Russes s’en servent pour détruire notre artillerie”, a confié à The Economist Anton Gerashchenko, conseiller auprès du ministère ukrainien de l’intérieur. Les troupes de Moscou utilisent aussi cet appareil autonome pour attaquer les blindés déployés lors de la contre-offensive ukrainienne.

“D’après nos services de renseignement, Moscou est train d’augmenter de manière significative la production des drones Lancet”, a expliqué à The Telegraph Youri Sak, conseiller du ministre ukrainien de la défense. Mais qu’est-ce qui rend le Lancet si efficace ? L’une des grandes forces de cet appareil est son bas coût. D’après son concepteur Zala Aerogroup – une filiale du géant industriel Kalachnikov – un Lancet coûte environ 33.000 euros à fabriquer. Une dépense qui pourrait encore baisser en profitant de l’économie d’échelle si la production du drone augmentait

05/07/2023 Fiche de lecture. We are electric par Sally Adee

Ce titre est un raccourci pour WE ARE ELECTRIC: Inside the 200-Year Hunt for Our Body’s Bioelectric Code, and What the Future Holds | By Sally Adee | 352 pp. | Hachette .

La journaliste scientifique germano-américaine Sally Adee vit actuellement à Londres. Son domaine d’intérêt est la bioélectricité. Ce terme encore mal connu désigne les différents courants électriques de très faible intensité qui parcourent les corps humains comme ceux de tous les êtres vivants, y compris les plantes. On parle souvent en ce cas d’énergie photosynthétique .

Dans ce livre, Sally Adee résume la découverte et l’histoire de la bioélectrité. Elle esquisse les promesses de cette discipline dans le domaine biomédical, depuis le combat contre les résistances aux antibiotiques , le nettoyage des artères et surtout la lutte contre la prolifération des cellules cancéreuses. Elle rappelle aussi les mensonges de générations de charlatans qui ont toujours prétendu guérir tout les maladies grâce à l’application de courants électriques.

Une partie importante de l’ouvrage est consacrée aux promesses des recherches scientifiques futures en matière de bio-électricité. Celles-ci sont encore trop négligées par les chercheurs.

Présentation par l’éditeur

You may be familiar with the idea of our body’s biome: the bacterial fauna that populate our gut and can so profoundly affect our health. In We Are Electric we cross into new scientific understanding: discovering your body’s electrome.

Every cell in our bodies—bones, skin, nerves, muscle—has a voltage, like a tiny battery. It is the reason our brain can send signals to the rest of our body, how we develop in the womb, and why our body knows to heal itself from injury. When bioelectricity goes awry, illness, deformity, and cancer can result. But if we can control or correct this bioelectricity, the implications for our health are remarkable: an undo switch for cancer that could flip malignant cells back into healthy ones; the ability to regenerate cells, organs, even limbs; to slow aging and so much more. The next scientific frontier might be decrypting the bioelectric code, much the way we did the genetic code.

Yet the field is still emerging from two centuries of skepticism and entanglement with medical quackery, all stemming from an 18th-century scientific war about the nature of electricity between Luigi Galvani (father of bioelectricity, famous for shocking frogs) and Alessandro Volta (inventor of the battery).

In We Are Electric, award-winning science writer Sally Adee takes readers through the thrilling history of bioelectricity and into the future: from the Victorian medical charlatans claiming to use electricity to cure everything from paralysis to diarrhea, to the advances helped along by the giant axons of squids, and finally to the brain implants and electric drugs that await us—and the moral implications therein. 

The bioelectric revolution starts here.

03/07/2023 Emeutes urbaines et Internet

Des émeutes urbaines se sont toujours produites. Elles traduisent dans l’ensemble la révolte des populations dites les moins favorisées devant les avantages des classes dominantes. Celles-ci disposent d’emplois suffisamment rémunérateurs pour pouvoir accéder aux quartiers favorisés des villes, des banlieues et aujourd’hui des campagnes. Leurs enfants peuvent bénéficier de formations permettant l’accès aux emplois les plus valorisants.

Aujourd’hui cependant les émeutes urbaines bénéficient des chambres d’échos que permet la généralisation de l’internet. D’une part des images d’immeubles en feu et d’une police souvent impuissante sont diffusées dans l’ensemble de la société. D’autre part les réseaux dits sociaux mis en place par les GAFAS ou géants de l’informatique, relayés par les téléphones portables dont disposent chaque manifestant, permettent de transformer les opposants en de véritables groupes armés, d’une grande mobilité.

Ceux-ci sont le plus souvent anonymes. De plus, s’ils n’ont pas accès en France aux armes léthales dite aussi armes par nature, ils ne manquent pas d’armes par destination, ce terme désignant un objet assimilé à une arme, qui présente un danger pour les personnes en ce qu’il est utilisé pour menacer, blesser ou tuer une autre personne comme le sont par exemple les voitures-dites béliers. L’usage de telles armes est encore exceptionnel, mais on peut craindre qu’il ne se généralise au sein des bandes d’émeutiers les plus agressives.

Dans les démocraties libérales telles qu’en France, un nombre croissant d’organisations politiques demande une prévention et le cas échéant une répression accrue de ces émeutes urbaines. Mais pour qu’au delà des mots soient organisées de telle préventions et répressions, manquent les effectifs de police et de juges nécessaires. Quant aux prisons, elles sont depuis longtemps saturées, sans parler du fait qu’elles sont devenues des foyers d’endoctrinement.

Dans des pays tels que la Russie ou l’Iran, parallèlement à la police, c’est l’armée qui est appelée à réprimer les émeutes supposées représenter un danger pour les systèmes politiques. Mais les forces armées émanant le plus souvent des classes sociales populaires d’où proviennent les manifestants font preuve d’un manque d’enthousiasme évident pour réprimer ces derniers.

Dans les démocraties, les gouvernements européens n’interviennent pas systématiquement, comptant sur la lassitude des émeutiers pour qu’ils trouvent d’autres formes d’expression. Mais les électeurs feront-ils longtemps montre de cette sagesse ?

02/07/2023 En attendant la fusion nucléaire, une nouvelle stratégie pour la fission

« La demande électrique est susceptible d’être multipliée par 4 d’ici 2050, du fait de l’hyper consommation due à la numérisation des société et à la croissance démographique. Parallèlement, la durabilité de notre planète Terre exige aujourd’hui que la production de cette énergie ne repose plus sur le charbon ou le pétrole ,non plus que sur la seule exploitation des ressources naturelles  que sont l’éolien et l’hydraulique,

C’est ce que souligne Jean-Luc Alexandre, président fondateur de Naarea qui travaille depuis 2005 sur une solution pour produire de l’énergie électrique reposant sur des mini-réacteurs adaptables à des espaces géographiques réduits, des zones isolées, des sites où l’accès à l’eau est limité.

Ce réacteur  dit de 4e génération, fait suite aux EPR (European Pressurised Reactor ou réacteur pressurisé européen) pour en améliorer la durabilité, la sûreté et la compétitivité. Parmi les 6 technologies qui la composent, Naarea est la seule à avoir opté pour les sels fondus fonctionnant sous pression atmosphérique, où se produit une réaction de fission intrinsèquement auto-régulée à haute température (environ 700 °C).

Le micro-générateur Naarea est intégralement contrôlable et pilotable à distance 24h/24h, 7j/7j et ne nécessite pas de maintenance lourde sur place. Il utilise des  combustibles nucléaires usagés, ce qui ferme ainsi complètement le cycle du combustible nucléaire.  Certains composants vont aussi avoir une 3e vie industrielle par exemple pour la radioscopie médicale

Utiliser les matières radioactives usagées permet de limiter l’exploitation des mines, de réduire le recours aux ressources naturelles et d’apporter une solution au traitement des déchets nucléaires de longue durée de vie actuellement entreposés. Ceux ci offrent une réserve pour plusieurs centaines d’années au moins.

Reste à acquérir l’acceptabilité par la population et c’est pour cette raison que Naarea s’entoure d’un comité d’orientation social et sociétal, « pour faire participer la population à notre réflexion et qu’elle en comprenne tout l’intérêt pour elle comme pour la Planète », espère Jean-Luc Alexandre.

Est-ce à dire que cette technologie va remplacer toutes les autres dans les années à venir ? Selon Jean-Luc Alexandre, « c’est un élément complémentaire du mix énergétique. Des solutions d’énergie existent mais leur grande taille comme le nucléaire conventionnel, leur dépendance à l’égard des réseaux de transport d’énergie ou leur intermittence comme les énergies renouvelables n’en font qu’une réponse partielle et insuffisante au regard de la demande immense qui ne cesse de croître ».

C’est une solution qui répond en tout cas au « trilemme », défini par le Conseil mondial de l’énergie qui doit être durable, pour lutter contre le dérèglement climatique ; équitable, pour un accès universel au développement ; sûre, pour la souveraineté des territoires et des nations.

Une stratégie validée par France 2030

Naarea a d’ailleurs été lauréate de l’appel à projets « Réacteurs Nucléaires Innovants » du plan d’investissement France 2030. Ce dont se félicite Jean-Luc Alexandre car cela « valide notre stratégie de projet industriel, nous a apporté encore plus de crédibilité auprès de nos partenaires et représente aussi une formidable opportunité d’avoir une collaboration privilégiée avec le CEA ».

Pour en savoir plus
https://www.naarea.fr/

02/07/2023 Le nouveau visage de l’armée russe

L’armée russe disposait déjà depuis plusieurs mois de missiles hypersoniques de type kinjal pouvant être envoyés avec précision sur des objectifs ennemis. Il s’agit d’armes redoutables mais pour avoir un effet pratique dans l’actuelle guerre avec l’armée ukrainienne, constamment réarmée par les Etats-Unis, elles doivent être suffisamment nombreuses. Ce qui n’est pas le cas aujourd’hui.

Par contre, à la mi-2023, on constate que l’armée russe a appris à utiliser des drones de manière très efficace. Les pénuries de drones qu’elle a pu connaître au début de la guerre ont été compensées par une production largement accrue provenant du complexe militaro-industriel russe mais aussi par ce que l’on pourrait appeler une production artisanale provenant de PME récemment crées pour ce faire ou même par des assemblages improvisés à proximité des lignes de combat.

Au départ, ces drones étaient largement importés, notamment d’Iran. Aujourd’hui, ils sont produits en grande partie par les Russes. L’armée russe utilise désormais des drones d’observation et des drones dits kamikazes dotés d’une tête explosive de forte puissance capables de détruire des chars ou des abris en tranchées. Les militaires russes ont perfectionné la coordination de ces deux types de drones pour combattre à la fois les équipements lourds les plus récents de l’OTAN et les équipements soviétiques plus anciens dont Kiev disposait.

Les télévisions russes diffusent aujourd’hui des rapports et des images vidéo montrant la destruction d’un véhicule blindé de transport de troupes Bradley fourni par les Américains par un char russe T-80 à une distance de 10 kilomètres. Celui-ci utilise des drones d’observation en tandem pour localiser la cible cachée, fournir des coordonnées pour un tir de canon précis et enregistrer l’explosion du véhicule cible. Il s’agit bien évidemment d’une toute nouvelle méthode de guerre qui nécessite un personnel compétent en informatique et des communications très sophistiquées.

Outre les drones, l’armée russe utilise désormais des hélicoptères d’attaque, principalement les «Alligators», pour détruire le matériel lourd ukrainien sur le champ de bataille. Les risques de tirs au sol ou de missiles attaquant les hélicoptères ont été atténués par une variété de nouveaux dispositifs de guerre électronique qui semblent être très efficaces dans la pratique. Les Russes utilisent également la guerre électronique pour désorienter et neutraliser les drones ukrainiens.

Dans le même temps, l’armée russe déploie actuellement des bombardiers furtifs dans la zone de guerre. Les premiers vols ont démontré leur capacité à opérer au-dessus du territoire contrôlé par l’Ukraine sans être détectés. Si cette pratique se généralise, les Russes bénéficieront de la supériorité aérienne qui caractérise les opérations de guerre des États-Unis et de l’OTAN depuis plus de trente ans.