create account

Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules) by lemouth

View this thread on: hive.blogpeakd.comecency.com
· @lemouth ·
$81.70
Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)
<div class="text-justify">

For my English-speaking readership, this post is the adaptation in French of this <a href='/@lemouth/back-from-hivefest-combine-and-conquer-new-phenomena-at-particle-colliders'>older post</a> discussing new phenomena that could occur at particle colliders, and how my own research work allowed us to re-use existing LHC results to probe new theories of particle physics not considered so far.

Cette semaine, je poursuis le sujet abordé dans le blog de la semaine dernière (<a href='/@lemouth/a-la-recherche-de-phenomenes-nouveaux-au-grand-collisionneur-de-hadrons-du-cern'>ici</a>), afin de discuter <a href='https://arxiv.org/abs/2206.14870'>l’une de mes publications scientifiques récentes</a>. On parlera ainsi d’analyses de physique en collisionneurs de particules, et de recherches d’aiguilles dans des bottes d’aiguilles (n’est-ce pas @emeraldtiger).

<center><img style="padding:5px" src="https://images.hive.blog/DQmQK22egxsvdKvWFXtJKToPEvrGLT2qPtDAD1eduF3kor6/phenonewfr.png">
<sup>[Crédits: <a href="https://cds.cern.ch/record/1741036">Imagine originale du CERN</a>]</sup></center>

Cette recherche d’aiguilles dans des bottes d’aiguilles n’est pas une tâche insurmontable, comme en témoignent les dizaines de résultats expérimentaux publiés chaque semestre (voir par exemple <a href='https://twiki.cern.ch/twiki/bin/view/AtlasPublic/ExoticsPublicResults'>ici</a> et <a href='https://twiki.cern.ch/twiki/bin/view/CMSPublic/PhysicsResultsEXO'>là</a> pour les recherches de phénomènes dits ‘<i>exotiques</i>’ par les collaborations ATLAS et CMS du LHC).

Dans toutes les publications correspondant à ces analyses, <b>la stratégie permettant d’identifier la bonne aiguille dans la botte est détaillée, et les prédictions sont comparées aux observations</b>. De façon plus pratique, en effectuant des simulations pour tel ou tel signal, on peut conclure quant à sa viabilité au vu des données, et extraire des informations sur une découverte potentielle (en raison d’un excès ou déficit de données par rapport aux prédictions) ou sur l’absence de toute nouveauté.

<b>Une grosse partie de mon travail de recherche est dédiée à la façon dont les physiciens (ou en fait n’importe qui) pourraient réutiliser les résultats expérimentaux publiés pour tester d’autres modèles</b>. Il existe en effet de nombreuses théories qui méritent d’être testées, et mes collègues expérimentateurs sont trop peu nombreux pour tout vérifier par eux-mêmes. Ainsi, avoir des outils numériques permettant de faire de tels tests en dehors des collaborations expérimentales est super utile. Je travaille sur le développement de tels outils, et c’est le sujet du jour !

Comme d’habitude, pour celles et ceux pressés par le temps, une version courte du blog est proposée à la fin.

<hr><h2><center>1 petabyte/seconde de données et une analyse de physique<br /> (et nous et nous et nous)</center></h2><hr>

Le Grand Collisionneur de Hadrons, le LHC, est une machine dans laquelle se produisent <b>600 millions de collisions par seconde</b>. La quantité d’information obtenue est donc bien trop importante pour être stockée intégralement sur disque. Comme visible dans le titre de cette section, on parle d’1 petabyte/seconde de données. Heureusement, seule une faible partie de ces données est utile.

Chaque détecteur du LHC est équipé d’un <b>système de déclenchement</b> (ou ‘<i>triggers</i>’ en anglais), tel que visible sur la figure ci-dessous. Ce système permet de décider extrêmement rapidement si une collision donnée est intéressante, et s’il est utile de l’enregistrer. La décision est prise sur base de la quantité d’énergie déposée dans le détecteur (on étudie ce qu’il se passe à haute énergie) et la nature des particules qui y sont observées.

<center><img style="padding:5px" src="https://images.hive.blog/DQmbEfe8UiC19Ltx32yTeL9J36wfu2mrJi5e4hsGGa5NMk8/trig.jpg">
<sup>[Crédits: <a href="https://home.cern/news/news/accelerators/upgrading-atlas-trigger-system"> ATLAS @ CERN </a>]</sup></center>

Ce système de trigger permet de réduire le taux de données associé à nos collision à environ 200 MB/seconde. Et ça c’est électroniquement gérable ! À ce niveau, nous sommes cependant encore loin d’une analyse de physique. On se retrouve en fait à devoir étudier ce qu’il se passe dans environ <b>15000 TB de données par an</b>. Ça nous donne <i>grosso modo</i> la taille de notre botte d’aiguilles.

Que faire ensuite ? 

La première étape revient à définir le signal qui nous intéresse. Recherche-t-on de la crotte de licorne rose, de la physique du Modèle Standard de la physique des particules, ou un phénomène nouveau comme par exemple une signature de production de matière noire ? 

Supposons, pour fixer les idées, que l’on s’intéresse à un signal de physique menant à la production de deux muons et de deux électrons.

On va alors prendre toutes les données enregistrées, et <b>sélectionner les événements</b> (c’est-à-dire les collisions enregistrées individuelles) qui contiennent deux muons et deux électrons. On peut ensuite rajouter des critères spécifiant l’orientation relative de nos quatre particules. Par exemple, on peut imposer que les muons ont été produits dos-à-dos dans le détecteur, tandis que les électrons se déplacent plutôt parallèlement.

Après avoir imposé notre liste de critères de sélection, on se retrouve avec un certain nombre d’événements sélectionnés. Mais que faire avec cela ? Il nous faut à présent <b>comparer le nombre d’événements observés à ce qui est prédit par la théorie, en prenant en compte à la fois le signal et le bruit de fond</b>.

<center><img style="padding:5px" src="https://images.hive.blog/p/2BCfkBRHmbhyfuNAQhR2CgfikiRLNnARivvFwkRChuz46MMGnsRUSr">
<sup>[Crédits: <a href="https://cerncourier.com/a/the-lhc-prepares-for-high-energy-collisions/">CERN</a>]</sup></center>

Dans cette optique, nous allons nous baser sur des simulations numériques. Dans le cas d’un signal du Modèle Standard, on simulera le signal étudié, ainsi que le bruit de fond venant de <i>tous les autres</i> processus du Modèle Standard donnant un état final similaire à celui du signal. Dans le cas d’un signal de phénomène nouveau, c’est pareil à part que le bruit de fond consiste en les prédictions obtenues à partir de <i>tous</i> les processus du Modèle Standard donnant le même état final.

On peut donc comparer ce qui est observé dans les données à ce qui est prédit pour le signal et le bruit de fond, et voir dans quelle mesure le signal est observé ou exclu (attention, les deux alternatives nous permettent d’apprendre quelque chose). Cela s’effectue à l’aide de tests statistiques plus ou moins poussés. 

<center><img style="padding:5px" src="https://images.hive.blog/DQmS66R8fefBNkJA2c8RMwLh6j6WyJHox1g97CJTJKmzHb3/dataana.jpg">
<sup>[Crédits: <a href="https://kt.cern/competences/data-analytics">CERN</a>]</sup></center>

<hr><h2><center>Analyses et sous-analyses</center></h2><hr>

Seulement voilà. Une analyse au LHC est légèrement plus compliquée que ce qui est écrit ci-dessus. Chaque analyse inclut généralement <b>un certain nombre de sous-analyses, appelées régions de signal</b> (ou ‘<i>signal region</i>’ en anglais).

Si l’on reprend l’analyse d’un signal avec deux électrons et deux muons introduite dans l’exemple ci-dessus, on pourrait imaginer une première sous-analyse dans laquelle on étudierait un signal où les quatre particules ont pour origine la désintégration d’une nouvelle particule unique très massive, et une seconde sous-analyse où l’on suppose que deux nouvelles particules identiques ont été produites, et que l’une d’entre elles s’est désintégrée en électrons et l’autre en muons.

Au final, avoir de multiples sous-analyses revient à étudier en même temps de nombreuses variations d’un signal donné. Il existe ainsi des analyses ayant des dizaines, voire plus de cent régions de signal. Comme nous n’avons aucune idée de ce que les nouveaux phénomènes que l’on traque peuvent être, il est bon de <b>considérer toutes les options imaginables.</b>

<center><img style="padding:5px" src="https://images.hive.blog/DQmVRDiaTwveX7zaXT4MAD85a7cRMnioPgHL8d15v1TgxfS/photolhc.jpg">
<sup>[Crédits: <a href="https://cds.cern.ch/images/CERN-PHOTO-202011-145-3">CERN</a>]</sup></center>

Avoir plusieurs sous-analyses offre aussi un autre avantage. Supposons que de nombreux excès soient observés dans diverses sous-analyses, mais que chaque excès individuel soit statistiquement compatible avec l’hypothèse du bruit de fond. Il pourrait se trouver que la combinaison de tous les excès observés pointe (de façon statistiquement significative) vers un phénomène nouveau.

Cette <b>combinaison de sous-analyses</b> ne peut cependant être faite n’importe comment. Il existe des corrélations entre les différentes sous-analyses (notamment en ce qui concerne les diverses incertitudes), et il faut les prendre en compte dans les tests statistiques (sous peine d’être trop agressif ou trop pessimiste dans nos conclusions). Cela nous amène à un problème important.

Bien que les résultats publiés par nos amis expérimentateurs et amies expérimentatrices incluent ces corrélations (l’information est connue et/ou calculée au niveau des expériences), cette information n’est généralement pas publique. Par conséquent, <b>toute personne externe aux collaborations expérimentales est dans l’impossibilité d’effectuer cette combinaison</b>, et ne peut donc tester de façon optimale son signal favori. On ne peut en effet que prendre en compte la meilleure des sous-analyses pour le test d’un signal donné, ce qui implique souvent des résultats trop conservateurs (ou trop agressifs dans des cas plus rares).

<hr><h2><center>Le changement c’est l’an dernier !</center></h2><hr>

Récemment, les collaborations expérimentales ont commencé à rendre l’information des corrélations entre sous-analyses d’une même analyse publique. Cela reste très rare, et il est crucial que nous, théoriciens, montrons que c’est super utile pour l’étude de nos modèles de physique afin de fournir aux collaborations la motivation pour que cette approche devienne systématique.

Dans <a href='https://scipost.org/submissions/2206.14870v2/'>la publication discutée dans le présent blog</a>, nous avons introduit une mise à jour <a href='https://github.com/MadAnalysis/madanalysis5'>d’un logiciel</a> que je co-développe depuis plusieurs années. Cette mise à jour permet à toute personne de non seulement réutiliser les résultats d’une analyse de physique du LHC, mais aussi de prendre en compte l’information (si elle est disponible) sur les corrélations lorsqu’on évalue la sensibilité du LHC à un signal donné. 

<b>On peut donc tester les signaux de physique de façon plus précise, en exploitant du mieux possible une analyse donnée (et toutes les sous-analyses qu’elle inclut).</b>

Nous allons illustrer le gain d’une telle approche dans la figure ci-dessous. On considère un signal où la théorie contient plusieurs particules non standard qui se désintègrent les unes dans les autres. Toute la phénoménologie du modèle peut s’extraire à partir de deux paramètres, <i>M<sub>2</sub></i> et <i>M<sub>Q3</sub></i>. Des petites valeurs de ces paramètres impliquent des nouvelles particules légères, et des grandes valeurs des particules lourdes.

Les signaux associés à ces nouvelles particules peuvent <i>a priori</i> être étudiés par plusieurs analyses existantes. Ici, on considère une analyse de la collaboration ATLAS (ATLAS-SUSY-2018-31) et une analyse de la collaboration CMS (CMS-SUS-19-006), qui contiennent toutes deux de nombreuses sous-analyses. 

Nous allons évaluer la sensibilité du LHC au signal une première fois en considérant la meilleure de toutes les sous-analyses de chaque analyse, et une deuxième fois en combinant l’information. Autrement dit, nous allons évaluer quelles paires de valeurs <i>(M<sub>2</sub>, M<sub>Q3</sub>)</i> sont exclues en utilisant la sous-analyse la plus optimale de chaque analyse, et quelles paires de valeurs <i>(M<sub>2</sub>, M<sub>Q3</sub>)</i> sont exclues en combinant toutes les sous-analyses. Et ce bien sûr pour l’analyse ATLAS et l’analyse CMS indépendamment.

<center><img style="padding:5px" src="https://images.hive.blog/DQmSYVqPowHZGV4UmjK6iK7KdNmhgVNGAcPW7EgTQbT7a15/benchmarks_obs.png">
<sup>[Crédits: <a href='https://arxiv.org/abs/2206.14870'>arXiv:2206.14870</a>]</sup></center>

Dans la figure ci-dessus, nous voyons deux jeux de courbes : les courbes vertes correspondent à l’analyse ATLAS considérée, tandis que les courbes turquoises correspondent à l’analyse CMS. Toute paire de valeurs <i>(M<sub>2</sub>, M<sub>Q3</sub>)</i> se trouvant à gauche d’une ligne en pointillés est exclue lorsque l’on considère la sous-analyse la plus optimale (de l’analyse CMS en turquoise et de l’analyse ATLAS en vert). Pour les traits pleins, c’est pareil mais on effectue une combinaison des sous-analyses.

On peut observer que la zone à laquelle le LHC est sensible est bien plus grande une fois la combinaison mise en place. <b>Cela démontre le gain en sensibilité à un modèle lorsque les choses sont faites du mieux possible</b> ! On exploite en fait les résultats de façon optimale !

<center><img style="padding:5px" src="https://i.postimg.cc/j5rFXz3m/comput.jpg">
<sup>[Crédits: <a href="https://commons.wikimedia.org/wiki/File:CERN_Server_03.jpg">Florian Hirzinger (CC BY-SA 3.0) </a>]</sup></center>

<hr><h2><center>Un test plus optimal des modèles de physique au LHC</center></h2><hr>

Dans le blog du jour, j’ai discuté comment les recherches de signaux de nouvelle physique (ou nouveaux phénomènes) au LHC sont effectuées, et quels étaient certains des problèmes lorsque l’on essayait d’utiliser les résultats publics pour tester de nouveaux modèles.

Chaque analyse contient en général un certain nombre de sous-analyses. L’existence de ces sous-analyses permet de tester un nouveau phénomène sous toutes ses facettes, et des conclusions plus robustes peuvent être obtenues par la combinaison des observations associées à chaque sous-analyse. Cependant, la prise en compte des corrélations existant entre les différentes sous-analyses est cruciale pour effectuer un test de façon correcte, et ces dernières ne sont pas forcément disponibles publiquement.


En tous cas, c’était le cas jusqu’à ce qu’il y a peu. Récemment, les collaborations expérimentales du LHC ont commencé à publier ces corrélations. Avec mes collaborateurs, nous avons mis à jour l’un de mes logiciels afin de pouvoir prendre cela en compte lorsqu’un modèle de physique est testé. Ces tests peuvent alors se faire de façon optimale. C’est le sujet de <a href='https://scipost.org/submissions/2206.14870v2/'>cette publication</a>, que j’ai discutée plus longuement dans ce blog. En gros, ça marche et ça cartonne (voir deux figures ci-dessus pour s’en convaincre) !


À présent, il est temps de s’arrêter d’écrire… N’hésitez pas à faire coucou en commentaires ! A bientôt et bonne fin de semaine à toutes et tous !

</div>
👍  , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , and 735 others
👎  , , ,
properties (23)
authorlemouth
permlinkcombine-and-conquer-des-nouveaux-phenomenes-aux-collisionneurs-de-particules
categoryhive-196396
json_metadata"{"tags":["hive-196396","science","physics","fr","stem","proofofbrain","neoxian","ocd"],"users":["emeraldtiger"],"image":["https://images.hive.blog/DQmQK22egxsvdKvWFXtJKToPEvrGLT2qPtDAD1eduF3kor6/phenonewfr.png","https://images.hive.blog/DQmbEfe8UiC19Ltx32yTeL9J36wfu2mrJi5e4hsGGa5NMk8/trig.jpg","https://images.hive.blog/p/2BCfkBRHmbhyfuNAQhR2CgfikiRLNnARivvFwkRChuz46MMGnsRUSr","https://images.hive.blog/DQmS66R8fefBNkJA2c8RMwLh6j6WyJHox1g97CJTJKmzHb3/dataana.jpg","https://images.hive.blog/DQmVRDiaTwveX7zaXT4MAD85a7cRMnioPgHL8d15v1TgxfS/photolhc.jpg","https://images.hive.blog/DQmSYVqPowHZGV4UmjK6iK7KdNmhgVNGAcPW7EgTQbT7a15/benchmarks_obs.png","https://i.postimg.cc/j5rFXz3m/comput.jpg"],"links":["/@lemouth/back-from-hivefest-combine-and-conquer-new-phenomena-at-particle-colliders"],"app":"hiveblog/0.1","format":"markdown","description":"À propos des difficultés de réinterprétation des résultats du Grand Collisionneur de Hadrons du CERN, et de mes travaux dans ce contexte."}"
created2022-10-04 12:27:45
last_update2022-10-04 12:27:45
depth0
children6
last_payout2022-10-11 12:27:45
cashout_time1969-12-31 23:59:59
total_payout_value40.955 HBD
curator_payout_value40.744 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length15,025
author_reputation337,216,208,445,084
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,177,220
net_rshares119,128,844,356,844
author_curate_reward""
vote details (803)
@emeraldtiger ·
$0.07
Très intéressant!
La rationalisation et l’agrégation des données a prouvé son efficacité et c'est très intéressant de voir que cela concerne aussi les plus grands laboratoires du monde.
Il y a une belle tendance au partage des données scientifiques, je pense notamment à la décision récente du gouvernement américain d'obliger les revues scientifiques à mettre en libre accès toutes les publications ayant bénéficié de subventions publiques.
En tout cas, c'est une belle avancée! J'irai jeter un oeil à la publication!
👍  
properties (23)
authoremeraldtiger
permlinkre-lemouth-rj9a3y
categoryhive-196396
json_metadata{"tags":["hive-196396"],"app":"peakd/2022.07.1"}
created2022-10-05 01:14:27
last_update2022-10-05 01:14:27
depth1
children2
last_payout2022-10-12 01:14:27
cashout_time1969-12-31 23:59:59
total_payout_value0.037 HBD
curator_payout_value0.037 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length518
author_reputation20,998,270,235,343
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,194,921
net_rshares109,720,585,200
author_curate_reward""
vote details (1)
@lemouth ·
> Il y a une belle tendance au partage des données scientifiques, je pense notamment à la décision récente du gouvernement américain d'obliger les revues scientifiques à mettre en libre accès toutes les publications ayant bénéficié de subventions publiques.

Il faut faire attention ici. Les donnees et les publications sont deux choses differentes. Tu n'auras jamais les donnees brutes dans une publication. Par contre, les donnees brutes peuvent etre rendues accessibles par d'autres moyens. 

Cela me permet de discuter du bon exemple de la physique des particules dans ce contexte (on est des precurseurs). 

Depuis les anneees 1990, nous avons le serveur <a href='https://arxiv.org/'>arxiv.org</a> sur lequel tous les articles de physique des particules sont uploades (a 99% on va dire car les rares exceptions existent). Les soumissions aux revues scientifiques se font meme a partir de l'arxiv. Cela garantit un acces gratuit a la science pour tout un chacun (et ce depuis 30 ans !). 

A cote de cela, nous avons le mecanisme <a href='https://scoap3.org/'>SCOAP3</a> qui fait que les versions publiees de nos articles (dans les revues majeures) sont toutes en acces libre egalement. Tous mes articles sont ainsi disponibles gratuitement, que cela soit sur arxiv (qui contient simplement toutes mes publications) ou sur le site des journaux scientifiques (seuls ceux publies depuis la mise en place de SCOAP3 sont disponibles gratuitement ; pour les autres, il faut passer par l'arxiv). 

Finalement, nous avons un journal, <a href='https://scipost.org/'>scipost</a>, qui rend aussi publics les rapports des rapporteurs jugeant de la qualite des differents articles soumis. La discussion contenant les reponses et modifications apportees par les auteurs est egalement visible. Les rapporteurs ont de plus la possibilite d'ecrire leur rapport de facon non-anonyme s'ils le desirent. Au niveau de la transparence, on ne peut faire mieux !

Pour les donnees, il y a des plans a ce qu'elles deviennent publiques, mais seulement apres un certain temps (les experiences ont la priorite pour leur analyse, ce qui fait du sens). Ainsi, pour le LHC, les sdonnees du premier run sont a present disponibles. Tu peux trouves 2 petabytes de donnees liees aux projets du CERN <a href='https://opendata.cern.ch/'>ici</a>, avec de nombreux guides expliquant comment les exploiter.

Finalement, il faudrait peut-etre que je fasse un post a ce sujet, un jour (j'en avais fait un dans le passe mais je ne le retrouve plus) ;)
👍  
properties (23)
authorlemouth
permlinkrj9rxd
categoryhive-196396
json_metadata{"links":["https://arxiv.org/"],"app":"hiveblog/0.1"}
created2022-10-05 07:39:15
last_update2022-10-05 07:39:15
depth2
children1
last_payout2022-10-12 07:39:15
cashout_time1969-12-31 23:59:59
total_payout_value0.000 HBD
curator_payout_value0.000 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length2,512
author_reputation337,216,208,445,084
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,201,478
net_rshares4,702,498,322
author_curate_reward""
vote details (1)
@emeraldtiger ·
$0.03
Merci pour la réponse détaillée !

Oui en effet, le livre accès aux publications et aux données brutes ce n'est pas la même chose. 
Je connaissais Arxiv, mais pas les autres projets. C'est très intéressant, surtout sur scipost ou les commentaires des reviewers sont également disponibles ! 
👍  
properties (23)
authoremeraldtiger
permlinkre-lemouth-2022105t17307639z
categoryhive-196396
json_metadata{"tags":["ecency"],"app":"ecency/3.0.34-mobile","format":"markdown+html"}
created2022-10-05 08:30:12
last_update2022-10-05 08:30:12
depth3
children0
last_payout2022-10-12 08:30:12
cashout_time1969-12-31 23:59:59
total_payout_value0.014 HBD
curator_payout_value0.014 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length290
author_reputation20,998,270,235,343
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,202,505
net_rshares44,223,034,945
author_curate_reward""
vote details (1)
@itharagaian · (edited)
$0.04
Je ne t'ai pas oublié pour le citizen science. J'ai juste besoin de temps pour mettre en place la routine :-)


Curation, Reblog inclus (@HIVE-143869) par la Principauté du Bastion.
Merci pour cet article.

---------
ItharaGaian
Principauté du Bastion

![BlasonPrincipautéBastionTransparentSmall.png](https://files.peakd.com/file/peakd-hive/itharagaian/23uQrMVdp89ivaHaUemFEiexqo3YAmscDVWxgL4sQEbUoj7PTtRknjMn8fGgK7fP4Cn4z.png)
👍  
properties (23)
authoritharagaian
permlinkre-lemouth-rj8cwh
categoryhive-196396
json_metadata{"tags":"hive-196396"}
created2022-10-04 13:17:06
last_update2022-10-04 13:18:15
depth1
children1
last_payout2022-10-11 13:17:06
cashout_time1969-12-31 23:59:59
total_payout_value0.022 HBD
curator_payout_value0.022 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length427
author_reputation93,054,041,267,988
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,178,386
net_rshares65,749,258,360
author_curate_reward""
vote details (1)
@lemouth ·
J'allais justement effectuer une petite piqure de rappel pour le citizen science ;)  Ravi de lire que tu y penses toujours !  A bientot et merci pour le support avec le Bastion !
properties (22)
authorlemouth
permlinkrj8eyi
categoryhive-196396
json_metadata{"app":"hiveblog/0.1"}
created2022-10-04 14:01:33
last_update2022-10-04 14:01:33
depth2
children0
last_payout2022-10-11 14:01:33
cashout_time1969-12-31 23:59:59
total_payout_value0.000 HBD
curator_payout_value0.000 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length178
author_reputation337,216,208,445,084
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,179,362
net_rshares0
@stemsocial ·
re-lemouth-combine-and-conquer-des-nouveaux-phenomenes-aux-collisionneurs-de-particules-20221004t150929316z
<div class='text-justify'> <div class='pull-left'>
 <img src='https://stem.openhive.network/images/stemsocialsupport7.png'> </div>

Thanks for your contribution to the <a href='/trending/hive-196387'>STEMsocial community</a>. Feel free to join us on <a href='https://discord.gg/9c7pKVD'>discord</a> to get to know the rest of us!

Please consider delegating to the @stemsocial account (85% of the curation rewards are returned).

You may also include @stemsocial as a beneficiary of the rewards of this post to get a stronger support.&nbsp;<br />&nbsp;<br />
</div>
properties (22)
authorstemsocial
permlinkre-lemouth-combine-and-conquer-des-nouveaux-phenomenes-aux-collisionneurs-de-particules-20221004t150929316z
categoryhive-196396
json_metadata{"app":"STEMsocial"}
created2022-10-04 15:09:30
last_update2022-10-04 15:09:30
depth1
children0
last_payout2022-10-11 15:09:30
cashout_time1969-12-31 23:59:59
total_payout_value0.000 HBD
curator_payout_value0.000 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length565
author_reputation22,460,334,324,555
root_title"Combine and conquer (des nouveaux phénomènes aux collisionneurs de particules)"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id117,180,877
net_rshares0