On CMS open data, and numbers big and small

In July 2021, the open data group of the CMS experiment conducted the second CMS open data workshop aimed at physicists interested in research use of these unique public data. In the spirit of openness, the number of registrants was not restricted, and the workshop was actively followed by some 50 participants with diverse backgrounds and origins.

The event was four full days of work, preceded by a set of pre-exercises to be completed before the start. The workshop aimed to cover the skills needed to get started with the experimental particle physics data from the CMS experiment, and all exercises were hands-on. A session practising running CMS data analysis jobs in a cloud computing environment was included. The feedback survey indicates that the workshop was a success: the participants gained confidence in using these data and would recommend the workshop for colleagues with similar interests.

I have been involved in CMS data preservation and open data activities right from the beginning. In 2011, I chaired the working group set up to draft the CMS data preservation, re-use and open access policy, the first of its type in particle physics, and since 2012, I’ve been leading the group that was created to implement the policy after its approval. It is tempting for me to reflect on the evolution in these ten years. Figure 1 shows the timeline of the data releases, which now include most of the Run-1 data (collected in 2010-2012). The first Run-2 data releases of data collected in 2015-2018 are in preparation.

Figure 1: Timeline of the CMS open data releases of proton-proton (pp) and heavy-ion (HI) data with examples of accompanying tools made available with data.

In the drafting of the data policy, I remember well Jesus Marco from Universidad de Cantabria, a member of the data policy working group, proposing that CMS should promote a workshop after the first release to assess whether these data can be usefully exploited by people external to the CMS collaboration. At that time, the concept of open data in particle physics was totally new and even terrifying for many, and organising a workshop on their use certainly sounded rather distant wishful thinking. The proposal, however, boldly made its way to the policy document, and now, ten years after, we are collecting feedback from the participants of the second workshop of this type.

To be able to call the first open data workshops took us several data releases, with gradual and continuous improvements of the accompanying material. For data to be usable, much more is required than public access to them. Data management and re-usability are often described with FAIR principles for Findable, Accessible, Interoperable, and Re-usable data and metadata, i.e. “data about data”. CMS data released through the CERN open data portal satisfy these principles to a large extent. But due to the complexity of experimental particle physics data, the FAIR principles alone do not guarantee the re-usability of these data, and additional effort is needed to pass on the knowledge needed to use and interpret them correctly.

This knowledge includes, first of all, learning the computing environment and software for the first step of data selection. Due to the experiment-specific data format, the first step will almost inevitably be done using the CMS software in a computing environment compatible with the open data. We have been able to benefit from the advance of software containers such as Docker with which we have packaged the CMS software that is required and virtualised the operating system compatible with it. Open data users can download a software container image and run it on their computer, independently of its operating system. Recent developments for Windows Subsystem Linux (WSL2) have also made this feasible in Windows, in addition to Linux and macOS. The CMS open data group has invested a good amount of work in setting up these containers so that the first user experience with the CMS open data remains smooth. It is important to remember that open data users always start with a trial: if they consider that the time needed to overcome difficulties is too much, they will just give up.

After having set up the computing environment, open data users will need to learn the intricacies of experimental particle physics data. How to select the data of interest, how to identify the particles properly, how to understand the efficiencies and uncertainties in the analysis process, how to estimate the backgrounds, and how to address many other challenges with experimental data. This is all brilliantly summarised in the blog posting “The Importance and Challenges of “Open Data” at the Large Hadron Collider” by Matt Strassler who with Jesse Thaler has provided valuable feedback while pioneering the use of CMS open data.

But how come collecting the necessary information has taken so long? Having well over 1000 high-quality scientific publications on CMS data we must know the tiniest details of these data and have well-established procedures for their analysis. Why just not release these guidelines with the data? The challenge is in the size, and I’m not referring to data volumes. In his popular book “The tipping point”, Malcolm Gladwell discusses Dunbar’s number, first proposed by anthropologist Robert Dunbar in the 1990s. This is a suggested limit to the maximum number of individuals with whom an animal can maintain group cohesion and social relationships by personal contact, often cited to be around 150 for humans. Gladwell gave examples of organisations that have successfully limited the number of people in a single establishment or production unit to that number, for efficient work organisation and the wellbeing of people. Dunbar argues that at this size, groups function based on common loyalty and cohesion, with direct person-to-person interactions.

But in big scientific collaborations, there are many more of us. Of over 4000 members of the CMS collaboration, close to 3000 are physicists, most of them active in analysing the data. Work is carried out in physics analysis groups and their subgroups in which the number of people involved is indeed within the limits of estimated Dunbar’s number. This is an obvious working mode, grouping people around similar topics. However, this results in working procedures that diverge within the collaboration. Much effort goes to the development of individual or group-specific software and procedures, while contributions to the software common to the entire collaboration are often lacking. A layer of group or topic-specific software is naturally needed, but the thickness of that layer increases if measures are not taken to counterbalance this drift. Figure 2 illustrates my simplified perception of the data and software landscape in a big collaboration such as CMS. The green arrows indicate the phases in the data analysis process in which each individual or group-specific software most likely implement the same or similar steps. The CMS collaboration has taken measures to address these problematics, through the adoption of slimmer data formats in which a part of the common procedures has already been implemented and by setting up a reflection group on common software tools. I argue that strong and continuous action will always be needed to encourage contributions for the common good of the full collaboration, to compensate for the human tendency of working comfortably in much smaller units. Writing software in a way that benefits everyone in the collaboration should be perceived as a common goal in every group.

Figure 2: Author’s conception of the data and software landscape in a big scientific collaboration. Blue shapes correspond to the centrally processed data and their processing steps with the software common to the entire collaboration. Yellow and brown shapes correspond to intermediate processing steps with individual or group-specific software. Red shapes illustrate the final analysis producing the scientific publication. Green arrows indicate the phases in the data analysis process in which each individual or group-specific code most likely implement the same or similar steps, or in which part of the software could be useful to others. The light blue background shape indicates the area from which the CMS open data group has collected the information needed for the use of open data by scientists external to the collaboration.

From the point of view of open data, the abundance of group-specific data “skims” and software frameworks makes it challenging to come up with generic examples and instructions applicable to public datasets for open data users. We can find code examples within one software framework in use for the analysis of certain physics topics with topic-specific skimmed datasets as input. However, another physics group may use a different implementation of the same analysis steps in their software package. Collecting this knowledge from different sources, indicated with a light blue background colour in Figure 2, is not an obvious task. The open data workshops and the general interest in CMS open data have been a great motivation for this effort, and the CMS open data team has now put together a comprehensive set of tutorials using an example code written for this purpose.

I firmly believe that the experience we are gaining in improving the usability of CMS open data can feedback to the collaboration. During these workshops, we have initiated participants in the use of CMS software using Docker containers. We have found solutions for many common issues, such as opening graphic windows, copy-pasting, passing files between the container and host, etc., i.e., many of those details that determine how efficiently one can work. For many of us, container solutions have turned out to be a practical tool for everyday work. We have also exercised running the analysis jobs in a cloud environment and demonstrated the value of well-defined machine-readable workflows.

I am also convinced that our observations on the difficulty of finding comprehensive examples of basic open data usage with common software are relevant not only to open data but also to the analysis work done in the collaboration. For the efficient use of human resources, I would argue that the questions to be asked before writing new analysis software should be 1) can this be done with software tools available to everyone in the collaboration 2) if this cannot be done with existing, common tools, would a contribution to them be more appropriate than writing a separate piece of software 3) can this be made configurable so that it can be used for other similar use cases 4) can this be reused. This is what is needed to preserve the knowledge inherent in the analysis work so that it remains usable – and not only readable – for immediate use by the collaborators beyond the first small reference group, and into the longer-term future. To make this happen in large collaborations, to counterbalance the human preference of acting to the benefit of the small working unit, the contributions to the common tools need to be actively encouraged and promoted in everyday work and valued in career assessments.

Helsinki Institute of Physics: Helsinki Institute of Physics (HIP) is a strong contributor to the CMS open data project. In addition to the author, the coordinator of the CMS data preservation and open access group, several students and trainees have participated in the activities. HIP’s “Open data and education” project is an important stakeholder for the usability of these data in secondary education.

Kati Lassila-Perini
Project Leader, Education and Open Data
Helsinki Institute of Physics

HIP ja Higgsin bosoni

      No Comments on HIP ja Higgsin bosoni

Fysiikan tutkimuslaitoksen (HIP) perustamisesta tulee tänä vuonna kuluneeksi 25 vuotta.

HIP perustettiin v. 1996 yhdistämällä Helsingin yliopiston Suurenergiafysiikan tutkimuslaitos (SEFT) ja Teoreettisen fysiikan tutkimuslaitos (TFT) sekä Teknillisen korkeakoulun Hiukkasfysiikan teknologian instituutti (HTI). Yhdistämisellä pyrittiin vahvistamaan Suomessa tehtävän teoreettisen ja kokeellisen fysiikan tutkimuksen organisointia ja niiden välistä synergiaa. Tutkimuslaitoksena HIP perustettiin Helsingin yliopiston yhteyteen ja sen rahoitus kanavoitiin yliopiston kautta. Ensimmäiseksi johtajaksi nimitettiin professori Eero Byckling Teknillisestä Korkeakoulusta (TKK).

Kokeelliselle hiukkasfysiikalle HIPin perustaminen oli positiivinen askel, sillä se kokosi kaikki suomalaisen kokeellisen hiukkasfysiikan tutkimuksen resurssit yhteen hyvin suunnitellun, modernin organisaation osaksi. Kokeellisen hiukkasfysiikan tutkimusta oli Suomessa tehty aluksi Helsingin yliopistossa v. 1966 lähtien ja v. 1991 Suomi oli liittynyt CERNin jäsenvaltioksi. HIPin perustamisen aikaan suomalaiset kokeellisen hiukkasfysiikan tutkijat (SEFTistä ja HTIstä) olivat osallistuneet kuuden vuoden ajan CERNin kaavailemalla suurella protoni-protoni-törmäyttimellä tehtävien kokeiden suunnitteluun. Oli liitytty kahteen uudella kiihdytinlaitteistolla suunnitteilla olleeseen kokeeseen, joiden yhtenä päätavoitteena oli standardimallin ennustaman ns. Higgsin hiukkasen löytäminen protoni-protoni-törmäytinkokeissa. Suomalainen panos LHC-tutkimusprojektiin siirtyi nyt HIPin projektiksi.

Seuraavassa lyhyt kuvaus HIPin CMS-projektista aina Higgsin hiukkasen löytymiseen asti v. 2012.

LHC:n ja LHC-kokeiden suunnittelu

Large Hadron Collider (LHC), kuten CERNin uutta kiihdytinkompleksia alettiin nimittää, on uuden sukupolven hiukkaskiihdytinlaitteisto ja protoni-protonitörmäytin, jonka suihkujen energian tavoitteeksi asetettiin 7 TeV, joka oli lähes kymmenkertainen USA:n Fermin kansallisen laboratorion v. 1991 käynnistyneen Tevatron antiprotoni-protoni-törmäyttimen suihkuenergioihin verrattuna. LHC:n energia oli asetettu niin, että törmäyttimellä voitaisiin tuottaa uusia hiukkasia aina 1000 GeV/c2:n massaan asti. Higgsin hiukkanen on Steven Weinbergin ja Abdus Salamin v. 1967 esittämän alkeishiukkasten sähköheikon vuorovaikutuksen teorian (Glashow-Weinberg-Salam teoria) keskeinen rakenneosa. Teoriaa oli laajalti ja menestyksellisesti testattu 1980-luvun loppuun mennessä, mutta Higgsin bosoni ja top-kvarkki olivat löytämättä. Niitä oli etsitty viimeksi CERNin SPS protoni-antiprotoni-törmäyttimellä 1980-luvulla, ilman tulosta. Teoria ei anna Higgsin hiukkasen massalle tarkkaa teoreettista ennustetta, mutta teoria asettaa sen ylärajaksi noin 1000 GeV/c2.

LHC-kokeiden suunnittelu aloitettiin 1980-luvun lopulla ja ensimmäiset konkreettiset koeasema-konseptit esitettiin v. 1990. Näistä ns. Compact Muon Solenoid (CMS) -suunnitelma oli pääasiassa CERNin SPS-törmäyttimellä vv. 1979­–1989 tehtyyn UA1-kokeeseen osallistuneiden tutkijoiden hanke. Helsingin yliopiston Suurenergiafysiikan laitoksen UA1-tutkijaryhmä oli CMS:n suunnittelussa mukana alusta lähtien. Pienempi suomalainen ryhmä LEP-törmäyttimellä meneillään olleesta DELPHI-kokeesta liittyi puolestaan ATLAS-hankkeeseen LHC:llä. CMS- ja ATLAS-koeasemaesitykset (Letters of Intent) hyväksyttiin alustavasti CERNin tutkimusohjelmaan v. 1993.

CMS-koeaseman suunnittelussa suomalainen tutkijaryhmä keskittyi kahteen projektiin. Toinen oli teorian ennustaman protoni-protoni-törmäyksissä syntyvien Higgsin hiukkasten fysiikan simulointi, CMS-koeaseman simulointi sekä sen mittaamien hiukkasten ratojen tunnistamiseen ja rekonstruointiin tarvittavan tietokoneohjelmiston rakentaminen.  Tässä suomalaisilla tutkijoilla oli vahvaa osaamista ja kokemusta UA1-kokeesta. Toinen hanke oli koeaseman laitteiston suunnittelu ja prototyyppirakentaminen. LEPin DELPHI-kokeen verteksi-ilmaisimen (törmäyspisteen mittaamiseen tarvittava ratailmaisin) rakentamisesta saadun osaamisen pohjalta lähdettiin suunnittelemaan piinauhailmaisimiin perustuvaa CMS:n keskusratailmaisinta. Lisäksi tärkeänä osana oli koeaseman ilmaisimista antaman mittaustiedontiedon lukujärjestelmän suunnittelu ja rakentaminen, missä suomalaisille tutkijoilla oli kokemusta UA1- ja DELPHI-kokeista.

LHC-törmäytinkompleksin rakennussuunnitelma valmistui v. 1994. Kun alustavia sitoumuksia hankkeen rahoittamiseen oli saatu riittävästi, CERNin Neuvosto teki joulukuussa 1994 päätöksen LHC:n rakentamisesta. Päätöksen yksityiskohdat vahvistettiin v. 1996, jolloin suihkuenergiaksi varmistettiin 7 TeV ja budjetti kiinnitettiin 2563 milj. Sveitsin frangiin. LHC:n käynnistyminen suunniteltiin tapahtuvaksi v. 2005.

Koeasemien alustavat rakennussuunnitelmat (Technical Proposals) valmistuivat v. 1995 ja niiden perusteella CERNin LHC-komitea suositteli CERNin johdolle ATLAS- ja CMS-projektien lopullista hyväksymistä laitoksen tutkimusohjelmaan. Hyväksymisen vahvisti CERNin pääjohtaja Chris Llewellin-Smith 31.1.1995. Koeasemien rakennuskustannusten ylärajaksi asetettiin 476 milj. Sveitsin frangia.

Suomessa oli nyt tehtävä päätökset koeasemien rakennustöiden rahoittamisesta. Suomen osallistumista rahoitukseen oli kaavailtu n. 5 milj. Sveitsin frangiksi (n. 20 milj. Suomen markkaa). LHC-kokeiden rahoitusta koskevia neuvottelut aloitettiin Opetusministeriössä ja sieltä näytettiinkin vihreää valoa. Tämän perusteella SEFTin johtokunta päätti kokouksessaan 24.8.1995 sitoutua CMS-kokeen rahoitukseen 5 milj. frangilla edellyttäen, että rahoitus järjestyy Opetusministeriön myötävaikutuksella. SEFTin budjettiin summa oli aivan liian suuri. ATLAS-projektiin osallistumisen kustannukset olivat pienet ja mahtuivat SEFTin budjettiin.

HIPin perustaminen ja LHC- tutkimusohjelman organisointi

Fysiikan tutkimuslaitos (HIP) perustettiin syksyllä 1996. HIPin toiminta organisoitiin tutkimusohjelmiin, joilla oli omat johtajansa. LHC-kokeita varten muodostettiin LHC-ohjelma (vuodesta 2003 CMS-ohjelma), jonka johtajaksi tuli v. 1998 lähtien dos. Jorma Tuominiemi.

LHC-ohjelma jakaantui kahteen projektiin, Software and Physics -projektiin ja CMS Outer Tracker-projektiin. Software and Physics -projekti keskittyi CMS-kokeen analyysiohjelmien kehitystyöhön sekä simulaatiotutkimuksiin, joissa selvitettiin suunnitellun CMS-koeaseman potentiaalia löytää Higgsin bosoni LHC-törmäyttimellä saavutettavalla massa-alueella (100­–1000 GeV/c2). Projektin päällikkönä toimi dos. Veikko Karimäki. Tracker-projekti jatkoi CMS:n keskusratailmaisimen uloimman osan (Tracker Outer Barrel, TOB) hiilikuitutukirakenteen suunnittelua ja prototyyppien rakentamista. Projektiin kuului aluksi myös ratailmaisimen hiukkasilmaisimien suunnittelu ja prototyyppirakentaminen. Pääpaino oli kuitenkin TKK:n Hiukkasfysiikan teknologian instituutissa aloitettu TOB:n mekaanisen rakenteen suunnittelu ja prototyyppien testaaminen. HIP nimitti projektin päälliköksi TkT Miikka Kotamäen TKK:sta. Projektin jäseninä olivat DI Niko Eiden, DI Harri Katajisto, DI Kari Tammi ja DI Tommi Vanhala.


ATLAS- ja CMS-projektien osanottajainstituutit saivat v. 1996 aikana valmiiksi alustavat sopimukset koeasemien rakennussuunnitelmista ja rakentamiskustannuksista (Interim Memorandum of Understanding of the Initial Phase of the ATLAS/CMS Experiment). HIP sitoutui maksamaan ATLAS-projektille 50 000 Sveitsin frangia ja CMS-kokeelle 100 000 frangia vv. 1997–98. Lisäksi HIP sitoutui CMS:n rakennuskustannuksiin 5 milj. frangilla vv. 1998–2005, edellyttäen että tutkimuslaitos saisi tarvittavan määrärahan sen budjetin ulkopuolisena lisärahoituksena.

Rahoituksen järjestäminen Suomessa eteni nopeasti vuoden 1998 aikana. Tässä vaiheessa myös Jyväskylän yliopisto oli tulossa HIPin jäsenyliopistoksi. Se oli liittynyt LHC:llä tehtävään raskasioni-törmäyskokeeseen (ALICE). LHC-kokeiden rahoituksesta käydyissä Opetusministeriön, Suomen Akatemian, Helsingin yliopiston, TKK:n ja Jyväskylän yliopiston välisissä neuvotteluissa päädyttiin rahoitusmalliin, jonka mukaan Opetusministeriö kattaisi kolmasosan, Suomen Akatemia kolmasosan ja HIPin jäseninä olevat Helsingin yliopisto, Teknillinen korkeakoulu ja Jyväskylän yliopisto yhdessä kolmasosan tarvittavista rakennusmäärärahoista. CMS-kollaboraation kanssa sovittu kokonaissumma oli 5 milj. Sveitsin frangia ja ALICE-kollaboraation kanssa sovittu rahoitus 1 milj. frangia, jotka silloisilla valuuttakursseilla olivat yhteensä 21,2, milj. markkaa. ATLAS-kokeeseen osallistumisesta HIP päätti vetäytyä. Rahoituksen varmistaminen oli merkittävä etappi suomalaisen kokeellisen hiukkasfysiikan tutkimuksen ja Suomen CERN-yhteistyön kannalta. Tie Higgsin hiukkasen etsintään oli avattu. HIPin johtokunta saattoi valtuuttaa HIPin johtajan allekirjoittamaan CMS-kollaboraation ja ALICE-kollaboraation lopulliset rakennus- ja rahoitussopimukset (Memoranda of Understanding).

HIPin Tieteellinen neuvottelukunta (Scientific Advisory Board, SAB) asettui tukemaan LHC-kokeisiin osallistumista Memorandum of Understanding -suunnitelmassa määriteltyjen vastuiden mukaan. Neuvottelukunta korosti, että koska CMS-kokeen aikataulu vuosille 1998–­2005 oli tiukka ja vaativa, HIPin tuli nopeasti varmistaa kaikki tarvittavat resurssit.

Professori Eero Byckling -siirtyi eläkkeelle 1.7. 2000. HIPin uudeksi johtajaksi valittiin professori Dan-Olof Riska Helsingin yliopistosta.

HIPin LHC-ohjelman osallistuminen CMS-koeaseman rakentamiseen

CMS-kokeen rakentamiseen osallistuminen sujui hyvin. Vuonna 1999 saatiin TOB:n tukirakenteen täysimittainen prototyyppi ”Big Wheel” valmiiksi CERNissä. Sen lujuustestit tehtiin vuoden 2000 aikana, minkä jälkeen se läpäisi marraskuussa CMS:n Engineering Design Review -evaluaation. CMS saattoi nyt ryhtyä TOB:n tukirakenteen -tilausprosessiin teollisuudesta. Miikka Kotamäen siirryttyä CERNin henkilökuntaan ja ATLAS-projektiin uudeksi projektipäälliköksi nimitettiin TkL Eija Tuominen.

Teknisesti vaativa osa projektia oli Ilmaisinmodulien kiinnityskiskojen suunnittelu ja rakentaminen. Hanke aloitettiin HIPin tiloissa Kumpulassa v. 2002. Kumpulan HIPin ja Helsingin yliopiston Fysiikan laitoksen yhteiseen ilmaisinlaboratorioon rakennettiin kiskojen rakennustilat ja -välineistö sekä palkattiin tarkkuusasennuksiin koulutettu mekaanikko. Tehtävään tuli mekaanikko Jarmo Kortesmaa Suomen kelloseppäkoulusta. Rakennusprojektin koordinaattoriksi nimitettiin DI Harri Katajisto. Vuoden 2003 lopulla palkattiin vielä toinen mekaanikko, Auli Kuronen, kelloseppäkoulusta hänkin. Kiskot rakennettiin Kumpulan ilmaisinlaboratoriossa ja niiden fysikaaliset mitat tarkistettiin TKK:n Konetekniikan laboratoriossa. Erikoishiilikuitumateriaalin kiskoihin toimitti EXEL Compositions Oyj. Kiskojen valmistus saatiin päätökseen v. 2005, jolloin CERNiin oli toimitettu 750 moduli-kiskoa.

HIPin CMS Software and Physics -projektissa jatkettiin protoni-protoni-törmäystapahtumien simulointi- ja rekonstruktioalgoritmien sekä analyysiohjelmistojen kehittämistä. CMS:n Technical Design -raportteja varten tarvittiin huomattava määrä simuloituja törmäystapahtumia, joitten tuottamiseen HIPin ryhmä osallistui. Projektissa työskentelivät dos. Veikko Karimäki (projektin johtaja), dos. Ritva Kinnunen, FT Tomas Lindén, PhD Kati Lassila-Perini, sekä tohtoriopiskelijat FM Aatos Heikkinen, FM Sami Lehti, DI Tapio Lampén, DI Jukka Nystén, DI Mikko Voutilainen ja FM Lauri Wendland.

Tässä vaiheessa CMS-kollaboraatio oli kasvanut jo suureksi, jäsenluettelossa oli lähes 2000 nimeä. CMS-instituutit rekrytoivat mukaan runsaasti tohtoriopiskelijoita, tässä vaiheessa erityisesti fysiikan simulointiin. Tämä aiheutti paineita pienempien instituuttien toiminnalle ja useissa fysiikan analyysiprojekteissa päävastuu luisui suuremmille CMS-instituuteille. Myös HIPin Software and Physics -projekti joutui luovuttamaan johtoaseman joissakin tutkimusaiheissa yksinkertaisesti siksi, että suuremmilla instituuteilla oli enemmän työvoimaa. Standardimallin Higgsin hiukkasen tärkeimpien hajoamiskanavien tutkimukset siirtyivät vähitellen johtavien CMS-instituuttien kontrolliin. HIPin ryhmän osaaminen ja pitkä kokemus riittivät kuitenkin useissa aiheissa johtavan aseman säilyttämiseen. HIPin ryhmä keskittyi mm. tutkimaan Minimal Supersymmetric mallin (MSSM) Higgsin bosonien hajoamisprosessien mittausta CMS-koeasemassa, mistä muodostui pitkäaikainen tutkimusprojekti.  Erityisesti tau-leptoni -kanavat ja niiden liipaisualgoritmit olivat ryhmän vastuulla. Elektromagneettisen kalorimetrin ja ratailmaisimien antaman informaation yhdistämisen avulla voitiin laatia tehokas liipaisualgoritmi High Level Trigger  -vaihetta varten. Aiheesta syntyi v. 2001 FM Sami Lehden väitöskirja:” Prospects for the Detection of Neutral MSSM Higgs Bosons Decaying into Tau Leptons in the CMS Detector”. Se oli HIPin ensimmäinen LHC-fysiikasta tehty väitöskirja.

Välitavoitteen ”CMS Physics Technical Report” -vaihetta varten CMS-kollaboraatio teki v. 2003 laajan simulaatiotutkimuksen CMS:n potentiaalista löytää Higgsin bosoni. Tutkimus käsitti kaikki tärkeimmät hajoamiskanavat sekä standardimallin että MSSM:n Higgsin bosoneille. HIPin fysiikan ryhmän vastuulle annettiin tutkimuksen organisointi ja jo tehtyjen tutkimusten päivittäminen koeaseman viimeisintä suunnitelmaa vastaaviksi. Tutkimukset osoittivat, että 150-500 GeV:n massa-alueella standardimallin Higgsin bosonin oli löydettävissä jo 10 fb-1:n integroidulla luminositeetilla, joka suunnitelmien mukaan voitaisiin saavuttaa ensimmäisen vuoden ajojen aikana.

Lappeenrannan teknillinen yliopisto (LUT) liittyi CMS-kollaboraation jäseneksi syksyllä 2003. CMS:n keskusratailmaisimen pii-ilmaisimien suunnitteluun osallistunut FT Tuure Tuuva oli nimitetty professoriksi Lappeenrantaan ja perustanut sinne Mikroelektroniikan laboratorioon CMS-ryhmän. Ryhmään kuuluivat FM Kukka Banzuzi, FM Ahti Karjalainen, FM Arja Korpela ja M.Sc. Giovanni Polese. LUT otti vastuulleen Resistive Plate Chambers (RPC) -ilmaisinjärjestelmän tiedonkeruujärjestelmän linkkikorttien jatkosuunnittelun yhdessä Varsovan yliopiston CMS-ryhmän ja Varsovan Teknillisen yliopiston ryhmien kanssa. Korttien ensimmäiset tuotantoprototyypit toimitettiin CERNiin v. 2005 lopussa. CMS-toiminta Lappeenrannan teknillisessä yliopistossa oli laajentunut siinä määrin, että se liittyi HIPin jäsenyliopistoksi 27.9.2006.  RPC-ilmaisimilla tehtävän myoniliipaisun linkkikorttien tuotannosta sovittiin keväällä v. 2006 HIPin ja Lappeenrannan yliopiston elektroniikan suunnittelukeskuksen välillä. Tuotanto rahoitettiin HIPin CMS-rakennusbudjetista Memorandum of Understanding-sopimuksen mukaisesti. Tämän jälkeen Lappeenrannan ryhmä osallistui RPC-liipaisujärjestelmän ylläpitoon ja operointiin.

CMS:n keskusratailmaisimen (Tracker) TOB-osan rakennustyöt tehtiin CERNissä vv. 2004–2007. Projekti toteutettiin CERNin, HIPIn ja yhdysvaltalaisten Fermilaboratorion ja Santa Barbaran yliopiston yhteistyönä. Rakennustöihin CERNissä osallistuivat myös ilmaisinmoduli-kiskot Helsingissä rakentanut mekaanikkoryhmä (Jarmo Kortesmaa, Auli Kuronen ja Pauli Engström). Koko CMS Tracker saatiin koottua syksyllä v. 2007 ja joulukuussa se siirrettiin CMS-koeaseman luolaan yhteyteen loppuasennusta varten. Koko CMS-koeasema oli lopullisesti toimintakunnossa ja testattu v. 2008 kesällä.

LHC-kokeiden aloitus v. 2009 ja Higgsin bosonin löytyminen v. 2012

LHC:n rakennustyöt oli aloitettu v. 2000. Törmäyttimen valmistuminen lykkääntyi ensin arvioitujen rakennuskustannusten ylitysten vuoksi vuodesta 2005 vuoteen 2008 ja sitten käyttöönoton yhteydessä tapahtuneen kahden suprajohtavan magneetin välisen suprajohdeliitoksen pettämisen vuoksi marraskuuhun 2009. Uusi käyttöönottoprosessi sujui hyvin ja törmäytinkokeet voitiin aloittaa v. 2010 keväällä, aluksi 3,5 TeV:n suihkuenergioilla. Kaikki koeasemat ATLAS, CMS; ALICE ja LHCb olivat tuolloin valmiina aloittamaan protoni-protoni-törmäysten rekisteröinnin. Vuosien 2010–­2011 ajot osoittivat, että CMS-koeaseman kaikki osat toimivat suunnitellulla tehokkuudella ja tarkkuudella. HIPin CMS-tutkimusryhmä saattoi todeta tyytyväisyydellä, että keskusratailmaisimen TOB-osa toimi moitteettomasti. Perusteellinen laatutarkkailu Ilmaisinjärjestelmien, myös TOB-tukirakenteen rakentamisen kaikissa vaiheissa oli taannut laitteiston toimintavarmuuden. Kokeiden käynnistyttyä HIPin CMS-ryhmä osallistui paitsi kerätyn datan analysointiin, myös koeaseman ajamiseen liittyviin tehtäviin.

Vuonna 2010 HIPin CMS-projektin ohjelmanjohtaja vaihtui. Prof. Jorma Tuominiemi siirtyi eläkkeelle ja hänen tilalleen tuli FT Paula Eerola, joka oli nimitetty Helsingin yliopiston hiukkasfysiikan professoriksi v. 2009.

Vuoden 2012 alussa LHC:n suihkuenergioita nostettiin 4 TeV:hen. Suihkujen intensiteettiä oli saatu nostettua merkittävästi ja teoreettisten laskelmien mukaan Higgsin hiukkasen löytäminen v. 2012 aikana näytti mahdolliselle, jos hiukkasen massa olisi pienempi kuin 150 GeV/c2. Vuoden 2011 kokeissa oli jo saatu alustavia viitteitä Higgsin hiukkasen olemassaololle 120­–130 GeV/c2:n massa-alueella, mutta tarvittiin suurempi määrä törmäyksiä selvittämään, oliko kyseessä tilastollinen heilahdus taustareaktioiden massajakautumassa. Kokeet aloitettiin maaliskuussa suuren jännityksen vallitessa. Kesäkuun loppuun mennessä dataa oli jo kertynyt niin paljon, että datan analyysi vahvisti tilastollisesti merkittävästi Higgsin hiukkasen olemassaolon 125 GeV/c2:n massalla. Signaali näkyi kahden hajoamismoodin massajakautumissa. Nämä kokeellisesti helpoiten mitattavat moodit olivat Higgsin hiukkasen hajoaminen neljään myoniin sekä hajoaminen kahteen fotoniin. Tulokset julkaistiin 4.7. 2012 CERNissä pidetyssä seminaarissa, jossa CMS- ja ATLAS-kokeiden silloiset puhehenkilöt Dr. Fabiola Gianotti (ATLAS) ja professori Joe Incandela (CMS) pitivät esitykset saaduista tuloksista. CERNin suuri auditorio pullisteli kuulijoita. Läsnä olivat myös professorit Peter Higgs ja Francois Englert, jotka v. 1964 ensimmäisinä esittivät teoreettiset tutkimukset Higgsin hiukkasen olemassaoloon johtaneesta sähköheikon vuorovaikutuksen spontaanista symmetriarikosta. CERNin pääjohtaja Rolf Heuer lausui seminaarin päätössanoissaan: ”Results of today were only possible due to the extraordinary performance of the accelerators, experiments and GRID-computing.”

Higgsin hiukkasen löytyminen sai valtavasti huomiota. CERNissä seminaaritapahtumaan osallistui 55 mediaorganisaatiota, joilla oli paikalla oma lähetyskalusto tai ainakin oma toimittaja. Tilaisuutta seurattiin joukolla lehdistön kanssa myös etäyhteydellä Helsingissä Kumpulan kampuksella HIPin tiloissa ja saavutusta juhlittiin samppanjan kera.

Kokeet jatkuivat vuoden 2012 loppuun asti. Koko vuoden aikana kerätystä datasta tehty tarkempi analyysi osoitti, että löydetyn hiukkasen spin ja pariteetti olivat standardimallin Higgsin hypoteesin mukaiset. Näin oli aineen perusrakenteen standardimallin viimeinen puuttuva hiukkanen löydetty ja suunta jatkotutkimuksille viitoitettu. Jatkotutkimuksissa ensimmäinen kysymys luonnollisesti oli, oliko löydetty hiukkanen vain standardimallin Higgsin bosoni vai yksi standardimallin laajennusten ennustamista Higgsin hiukkasista. Jälkimmäisessä tapauksessa niitä pitäisi olla useampia ja havaittu hiukkanen voisi olla niiden ennustama sähkövaraukseltaan neutraali Higgsin hiukkanen. Tämän kysymyksen tutkimista on tätä artikkelia kirjoitettaessa tehty LHC-kokeissa vuosien ajan, dataa on saatu kokeista 30-kertainen määrä vv. 2011–­2012 verrattuna, mutta selvyyttä teorian laajennuksesta ei ole saatu. Kokeet jatkuvat, suunnitelmissa on, että LHC:n tutkimuskapasiteetti riittää aina 2030-luvulle asti. HIPin tutkimusryhmät, jotka nyt koostuvat uusista lupaavista nuorista tutkijoista, jatkavat kokeissa aktiivisina mukana, monet CMS:n tutkimusryhmien koordinaattoreina.

Nobelin palkinto v. 2013

Peter Higgs ja Francois Englert saivat v. 2013 Nobelin fysiikan palkinnon tutkimuksistaan.

Nobel-komitean kunniamaininnassa hiukkasen löytyminen ATLAS- ja CMS-kokeissa on myös eksplisiittisesti mainittu. Euroopan Fyysikkoseura puolestaan myönsi kesällä 2013 vuotuisen fysiikan palkintonsa yhdessä ATLAS- ja CMS-kollaboraatioille sekä kokeiden ensimmäisille puhemiehille (Michelle Della Negra/CMS, Peter Jenni/ATLAS ja Tejinder Virdee/CMS). Laajempi kuvaus CMS-kokeesta löytyy kirjasta ”Kuplakammiofysiikasta Higgsin bosoniin” (kirjoittanut Jorma Tuominiemi), joka on saatavissa HIPin verkkosivuilta.

Jorma Tuominiemi
Adj. vanhempi tutkija ja emeritus ohjelmajohtaja, CMS
Fysiikan tutkimuslaitos

Näkemyksiä inflaatiotutkimuksesta

Maailmankaikkeuden rakenne on kehittynyt hyvin pienistä alkuhäiriöistä, eli tihentymistä ja harventumista aineen jakaumassa. Painovoiman vaikutuksesta tihentymät kasvoivat vetämällä ympäröivää ainetta puoleensa, ja näin muodostui vähitellen verkkomaista suuremman mittakaavan rakennetta. Muutaman sadan miljoonan vuoden ikäisessä maailmankaikkeudessa verkoston tiheimmissä solmukohdissa alkoi syntyä ensimmäisiä tähtiä ja niistä edelleen galakseja. Ensimmäisen sukupolven tähtien jäänteistä muodostui raskaampia alkuaineita sisältäviä pitkäikäisempiä tähtiä, galaksit ja galaksiryhmät kasvoivat suuremmiksi ja maailmankaikkeus kehittyi sellaiseksi kuin se nykyään 13,8 miljardin vuoden ikäisenä on.

Kosmologin kuvaus rakenteen synnystä ei tässä valeuutisten luvatussa ajassa kenties kuullosta juuri sen kummemmalta kuin muinaiskalevalaisissa piireissä kiertänyt vaihtoehtoinen tieto, jonka mukaan maailma syntyi sotkan munasta. Oleellinen ero on tietysti se, että kosmologian tutkimuksen tuottama tieto ei ole kiisteltävissä oleva mielipide, vaan sen taustalla on valtava määrä havaintodataa, vankka teoreettinen pohja ja tuhansien tutkijoiden vuosikymmenten työ. Alkuhäiriöt ovat yhä tänäkin päivänä suoraan havaittavissa kosmisessa mikroaaltotaustasäteilyssä. Taustasäteily on kuin valokuva maailmankaikkeudesta 380 000 vuoden iässä, jolloin baryoninen aine sitoutui neutraaleiksi atomeiksi ja fotonit pääsivät liikkumaan vapaasti. Alkuhäiriöt näkyvät suuruusluokaltaan sadastuhannesosan vaihteluina eri suunnista tulevan fotonitaustan lämpötilassa. Pienten alkuhäiriöiden kehittyminen suuren mittakaavan rakenteiksi on täsmällisesti mallinnettavissa oleva prosessi, jonka yksityiskohdat riippuvat sekä painovoimaa kuvaavasta teoriasta että maailmankaikkeuden koostumuksesta. Havainnot rakenteen ominaisuuksista ja kehityksestä kaikilla mitattavissa olevilla skaaloilla ovat pääosin erittäin hyvin sopusoinnussa yleiseen suhteellisuusteoriaan, kylmän pimeän aineen komponenttiin ja kosmologiseen vakioon perustuvan ns. LCDM-mallin ennusteiden kanssa.

Todennäköisin selitys alkuhäiriöiden synnylle on inflaatioksi kutsuttu kiihtyvän laajenemisen vaihe hyvin varhaisessa maailmankaikkeudessa, jo ennen kuumaa ja tiheää alkuvaihetta. Inflaation aikana minkä tahansa riittävän kevyen skalaarikentän kvanttimekaanisista fluktuaatioista muodostuu alkuhäiriöiksi jäätyvää rakennetta. Inflaatiossa syntyvien häiriöiden jakauma on lähes gaussinen ja varianssi lähes sama kaikilla pituusskaaloilla. Nämä inflaation keskeiset ennusteet vastaavat täsmälleen mikroaaltotaustahavaintoja, missä tarkkuuden huippua edustaa Planck-satelliitin data. Havaintosektorilla on edelleen odotettavissa uusia edistysaskelia, erityisesti mikroaaltotaustan polarisaatiosignaalin ja maailmankaikkeuden suuren skaalan rakenteen yksityiskohtien mittaustarkkuuden kehittyessä. Polarisaatiosignaalin avulla voitaisiin esimerkiksi havaita inflaation synnyttämä gravitaatioaaltotausta. Se olisi melkoinen lottopotti ja harppaus kohti inflaatiomallin varmentamista. Rakenteen entistä tarkempi kartoittaminen taas tuottaa lisää tietoa alkuhäiriöiden rakenteesta ja inflaatiodynamiikan yksityiskohdista. On kuitenkin todennäköistä, että inflaatiovaiheen taustalla vaikuttavaa fysikaalista mekanismia ei tulevaisuudessakaan voida suoraan rekonstruoida mittausdatasta.

Ainakin teoreetikon näkökulmasta kaikkein kiinnostavin kysymys koskee inflaatiovaiheen mikroskooppista luonnetta. Mitä alkuhäiriöiden mitatut ominaisuudet kertovat hiukkasfysiikasta ja gravitaatiosta inflaatioskaalalla, ja miten inflaation aikana tapahtuvat prosessit kytkeytyvät tunnettuun alkeishiukkasfysiikkaan?

Teorian ja havaintojen valossa vaikuttaa vahvasti siltä, että inflaatiovaiheessa jonkin skalaarikentän potentiaalienergia dominoi maailmankaikkeutta. Hiukkasfysiikan standardimallissa on yksi alkeishiukkasiin lukeutuva skalaarivapausaste eli Higgsin bosoni. Hiukkasfysiikan standardimalli selittää yhä edelleen äärimmäisen tarkasti kaikki hiukkaskiihdyttimillä havaitut ilmiöt. Tästä huolimatta on selvää, että se ei sellaisenaan voi olla täydellinen teoria, sillä se ei selitä pimeän aineen luonnetta, valtavaa epäsuhtaa aineen ja antiaineen määrissä, eikä neutriinojen massoja. Nämä havainnot voidaan kuitenkin selittää varsin pienillä lisäyksillä standardimalliin. Onkin erityisen kiinnostavaa tutkia, voisiko odottamattoman menestyksekkääksi teoriaksi osoittautunut standardimalli jollakin minimaalisella laajennuksella täydennettynä kuvata alkeishiukkasfysiikkaa joko kokonaan tai osittain aina inflaatioskaalalle asti. Samalla voidaan kysyä, miten inflaatiofysiikkaan liittyvä havaintodata ja erilaiset teoreettiset konsistenssiusehdot rajoittavat tällaisia malleja. HIP-kosmologiaprojektin inflaatiotutkimus pyrkii tuottamaan uusia vastauksia muun muassa näihin avoimiin kysymyksiin.

Keskeinen tutkimusaihe on Higgsin kentän rooli inflaatiovaiheen aikana. Tässä on kaksi mahdollisuutta: Higgsin kenttä joko dominoi maailmankaikkeuden energiatiheyttä ja aiheuttaa inflaation tai sitten se on inflaatiodynamiikan kannalta merkityksetön, eli ns. spektaattorikenttä. Voisi ajatella, että jälkimmäinen tapaus on merkityksetön myös tutkimuksen kannalta, mutta spektaattorikentillekin syntyy fluktuaatiota inflaation aikana. Näistä fluktuaatioista voi muodostua havaittavia alkuhäiriöitä, jos spektaattorikentän lokaali arvo vaikuttaa maailmankaikkeuden kehitykseen jossakin vaiheessa inflaation jälkeen. Tällainen mekanismi on olemassa esimerkiksi oikeakätisillä neutriinoilla laajennetussa standardimallissa, ja äskettäin osoitimme, että Higgsin kentän fluktuaatioista seuraa kiinnostavia rajoituksia neutriinosektorin kytkennöille. Higgsin kentän fluktuaatioiden tulee myös pysyä tietyn kriittisen rajan alapuolella, jotta ne eivät aiheuttaisi siirtymää sähköheikon potentiaaliminimin lähettyviltä standardimallin absoluuttiseen minimiin, josta ei enää ole paluuta havaittavan maailmankaikkeuden kaltaiseen tilaan. Tämän konsistenssiehdon avulla voidaan testata erilaisten hiukkasfysiikan teorioiden yhteensopivuutta inflaation kanssa. HIP-ryhmän tutkimustulosten perusteella tiedetään esimerkiksi, että vaatimus sähköheikon minimin stabiiliudesta inflaation aikana ja sen jälkeen antaa täsmällisen ennusteen Higgsin kentän epäminimaalisen gravitaatiokytkennän arvolle, joka itse asiassa on viimeinen tuntematon parametri hiukkasfysiikan standardimallissa. Erittäin merkittävä kysymys on se, voisiko Higgsin kentän dynamiikka selittää koko inflaatiomekanismin. Higgs-inflaatiota on tutkittu paljon, mutta aiheeseen liittyy vielä useita avoimia kysymyksiä koskien erityisesti mallien toimivuutta kvanttikenttäteorian tasolla. Tällä saralle ryhmässämme tehty tutkimus on hiljattain tuottanut uutta tietoa muun muassa gravitaatiosektorin rakenteesta ja materiasektorin kvanttikorjauksista.

Inflaatiofysiikka asettaa alkuehdot koko maailmankaikkeuden kehitykselle, joten on oleellista ymmärtää miten inflaation aikaiset prosessit kytkeytyvät paitsi alkuhäiriöiden ominaisuuksiin myös kaikkeen muuhun kosmologiseen havaintoaineistoon. Tutkimuksemme on osoittanut mielenkiintoisia yhteyksiä muun muassa pimeän aineen ja inflaatiofysiikan välillä. Epätasapainoilmiöt inflaatiovaiheen lopussa voivat esimerkiksi synnyttää hiukkasmuotoista pimeää ainetta, jopa puhtaasti gravitaatiokytkentöjen välityksellä. Tiedetään myös, että tietyissä tilanteissa inflaatio voi synnyttää primordiaalisia mustia aukkoja. Havainnot rajoittavat niiden osuuden alle prosenttiin pimeän aineen kokonaisenergiatiheydestä lähes kaikilla massaskaaloilla. Näinkin pieni osuus vaikuttaa kuitenkin hiukkasmuotoisen pimeän aineen klusteroitumiseen ja annihilaatioprosessien voimakkuuteen, joihin liittyviä karakteristisia havaintosignaaleja tutkimme äskettäin termisten reliikkien ja QCD-aksionien tapauksessa. Ryhmässämme tehtiin viime vuonna myös ensimmäinen täydellinen simulaatio primordiaalisten mustien aukkojen syntyyn liittyvästä alkuhäiriöiden kasvusta inflaatiossa.

Vanhan viisauden mukaan elefanttia ei syödä kerralla vaan pieninä paloina. Tämä pätee myös inflaatiofysiikan suhteen. Vegaani tai muuten vaan norsujen ystävä voi tässä kohtaa mielessään korvata elefantin vaikka jättimäisellä kurpitsalla. Alkupaloista on siirrytty jo tukevasti pääruoan puolelle, mutta ymmärryksessä on edelleen suuria aukkoja. Tämä ei oikeastaan ole kovinkaan yllättävää kun pidetään mielessä, että inflaation aikainen energiaskaala on mahdollisesti jopa kaksitoista kertalukua suurempi kuin maailman tehokkaimmalla hiukkaskiihdyttimellä, CERN:in LHC:lla, saavutettu taso. Kosmologisen havaintodatan tarkentuminen ja lisääntyvä tutkimustieto erilaisten teorioiden ennusteista aina inflaatioskaalle asti antaa kuitenkin uusia tehokkaita työkaluja, joiden avulla sitkeämpiäkin paloja voidaan alkaa nostella lautaselle ihan syömistarkoituksessa.

Sami Nurmi
Projektipäällikkö, HIP-projekti (Theoretical cosmology)
Jyväskylän yliopisto ja Fysiikan tutkimuslaitos

The Curious Journey of a Robotics Engineer to the Most Exciting Research Facility on This Planet.

How far can we keep splitting them? Would there be a moment in history that we find the “Atomos” which is truly “indivisible”? What would it mean? Would it be the instant that we realize that we exist in one of countless simulations? The Atomos is the smallest bit of information that can be stored on computers of “Gods” and the speed of light is the fastest rate of data transfer they could accomplish? I bet the ones for “Fine-tuned universe” will bombard us with lots of “I told you so” comments. I for one would be fine with that since there is always relief in knowing the truth as bitter light tastes better than the darkness no matter how sweet it is.

My 2019 was blessed with the privilege of spending six months as a trainee at CERN where the most important question of the origin is the very goal. The facility is awe-inspiring in most regards, from the sheer scale of construction and human collaboration to the very details of technologies utilized and the magnitude of accomplishments are yet far from perfect. In this text, since my expertise is not in the field of physics, I will steer clear of details of experiments and mainly focus on personal observations and experiences which might be interesting for people who are considering working in CERN or visiting.

Tampere to Saint-Genis-Pouilly

 I was invited to work with the Experimental Physics Department as an Associate member of the personnel which is probably the official euphemism for trainee. I would have accepted the position for free just to quench my curiosity so it was nice to hear that the position pays about 1300 euros of allowance which can cover living expenses to some extent. Even though I chose to live on the French side, the prices are hyped by the swiss border and the allowance was gone just for the accommodation and necessary calories, in addition to a few of unnecessary ones. I needed visas for France and Switzerland, however, acquiring them could not have gone smoother. A single visit to the French embassy in Helsinki, no application fee and the swiss visa was taken care of by CERN a few weeks after I arrived.

Many of the people with CERN related jobs live in Saint-Genis-Pouilly, the commune adjacent to the swiss border. It is small and quiet with a lovely nature and crystal-clear skies. The others mostly live in Geneva on the Swiss side. Geneva is a lively city in which many festivals take place throughout the year. In addition to those fun activities, during the weekends, CERN restaurant is the host of employees drinking and sometimes dancing.

CERN is Never Boring

 Just opposite the Meyrin site entrance, Globe of Science and Innovation this exotic wooden building, never fails to grab one’s attention regardless of how many times they have been there. A permanent science exhibition with impressive demonstrations and lots of nourishments for the thoughts of the curious. For the rest of the facilities, it is delightful to see interesting and informative stands and posters here and there especially at the entrances of different CERN sites explaining the science in an understandable way. I was able to join a tour to CMS experiment during my short presence. Again, not only the mere scale of the massive machine, but what it represents, the magnitude of curiosity and the enormous will to appease it, makes one feel lucky to live today and among such fellow sapiens. Similar to the rest of the facilities, the experiments are decorated for visitors and posters and mock-ups to provide a glimpse of working principles and the mechanisms.

In addition to the regular opportunities, CERN open days event happened during my stay. The doors were open to the public and the booths were erected in many buildings to welcome the visitors. During those days I enjoyed explaining the activities of the Robotics section to the curious minds and learning from their perspectives as well as visiting other departments’ exhibitions and learn from other CERNians. It is sad to see COVID had interrupted exhibitions and visits however, luckily, online visits are possible.

Engineering Physics Department and the new ALICE detector

As mentioned, I was invited to take part in activities related to the EP department of CERN and there I had the chance to see the parts of the new ALICE detector being developed in person. In the clean room, where the development was taking place, I saw dedicated scientists, students and bosses working with dedication alongside each other to improve ALICE detection rates by orders of magnitude. My job was to find robotic solutions for inspection purposes in collaboration with the Robotics department. The physics-savvy reader should forgive my crude and qualitative reports due to the lack of deep knowledge in this field however, I will try to mention a few of interesting detector design limitations that my mind manages to process.

The detector is the device inside which the proton collisions happen and becomes radioactively hot overtime. This presents a major challenge for future maintenance since it mandates lengthy cool down periods, up to a few months in some cases, before any human can safely access the detector. The new detector design, as far as I understood, was done with a robot-friendly approach to pave the way for robotic intervention and maintenance.

In addition to such safety limitations, I found the “material-budget” very intriguing. The resulting particles of the collisions scatter away from the collision point and the detector “pixels/sensors” sense them passing through. Comparing the detections is how the trajectory of the particles as well as their properties is determined. Any matter in the path of particles can affect their trajectory and even stop them including the components of the detector itself, the sensor arrays, the parts keeping them in place, wiring, etc. The more massive the objects the more obscuring introduced to the readings. This limitation affects the shape of the components as well as their material.

Robotics Department

I was given a desk in robotics department in order to better collaborate with this section. I spent most of my days there and my experiences there were interesting and exciting, however, very mixed and oddly disappointing considering the CERN factor. This department provides robotic solutions for interventions which cannot be caried out by humans due to limitations such as radiation hazards and accessibility. For example, the train that navigates the LHC for observation and measurement, TIM, is operated by this department. In addition to regular services, researchers, PhD students and experts there, continuously work on developing new solutions for the existing robotic demands as well as working on designs for future CERN projects such as a train for the Future Circular Collider(FCC).

The robots at CERN do not use any of the available operating systems such as ROS but rather use CERN Robotic Framework (CRF) which is developed in-house from scratch. This approach, in theory, should eliminate the confusion about the behavior of the code and the source of errors. In practice though, developing an entire operating system is no small task and in order to benefit from its merits, it must be done by the book. The programming experts might not agree on an exact number however, 20% of effort allocation for documentation is the very least I have encountered. Sadly, according to the leader of the department, it was 5% at the time. In other words, CRF is a very person-oriented work and suffers greatly by changes of the personnel. Surprisingly, the programmers of the department, even the very senior ones, were not offered contract extensions even though the core of the operations, the CRF, would suffer greatly. The silver lining is the people working there are very friendly and welcoming to the new members and working alongside them was truly delightful.

The robotic section, the offices and the workshop are located in a two story temporary building made of sandwich panels which was supposed to be replaced with a proper one after six months however, after more than five years, the team still works there. When one enters the workshop, they will be greeted with an exciting sight of purpose-built robots, industrial robot arms, an advanced VR workstation and young engineers, developers and students improving the robots and making new ones.

The very international composition of the robotic team makes working there enjoyable. I enjoyed working alongside people from Spain, Venezuela, Italy, Austria, Poland, France, Switzerland, Latvia, Denmark, Malta and Iran. Unfortunately, and surprisingly, too many of the members lack enough English skills to communicate in an efficient way and one extreme example could barely do more than the everyday greetings. This begs the question that what are the selection criteria for jobs in the section and why communication ability was not considered as a priority.

Working at CERN

Doing an internship is a perfect way of knowing the work environment, especially in a giant organization such as CERN. Some of the interns are offered PhD positions so they can stay, in case they wanted to extend their collaboration and I think that is an interesting path if one is pursuing a longer presence at CERN. As far as I understood, PhD students are paid twice as much as the interns and the payment difference between a PhD student and CERN employee has roughly the same ratio. Other than the compensation matters, working at CERN provides the opportunity of benefitting from numerous classes such as radiation protection which can be beneficial for one’s future career. Moreover, CERN pushes you to learn the beautiful French language since many of the service staff and guards do not know enough English. Why they were employed in such an international place remains a mystery to me.

Someone who might be interested in pursuing such a career, before putting any effort in that direction, should be aware of a peculiar requirement for employees of CERN. Only “nationals” of the member states can be officially employed by CERN. For the sake of financial exchange, it would make sense to limit the vendors to the ones from member states however, depriving an individual of the opportunity only because of a factor they had no say in, regardless of their qualifications, sounds tribalistic.

Last Words

What is happening at CERN is nothing short of magic and you should learn about it and visit when you get the chance.

May Odin smile upon you and Thor electrify your days.

Damoon, now working as PhD student to continue the development of the continuum inspection robot as part of the HIP Technology Program project ROBOT: www.hip.fi/robot

Damoon Mohamadi
PhD student, HIP Project (Robotics and AI for monitoring and intervention)
Tampere University and Helsinki Institute of Physics

Pimeää ainetta etsimässä

      1 Comment on Pimeää ainetta etsimässä

Näkymätön aine

Pimeälle aineelle ehkä kuvaavampi nimi olisi näkymätön aine. Se on jotain toistaiseksi tuntematonta ainetta, joka ei näy kaukoputkella (eli näkyvän valon aallonpituudella), eikä muitakaan sähkömagneettisen säteilyn aallonpituuksia (kuten infrapunaa tai röntgensäteilyä) havainnoivilla instrumenteilla. Pimeä aine ei siis säteile eikä absorboi sähkömagneettista säteilyä. Hiukkasfysiikan kielellä, se ei vuorovaikuta sähkömagneettisen kentän kanssa.

Tämän näkymättömän aineen olemassaolo käy ilmi painovoiman kautta: Tähdet liikkuvat galakseissa nopeammin kuin galaksien näkyvän aineen jakauma antaisi olettaa. Ylimääräinen liike-energia selittyy sillä, että galaksin gravitaatiopotentiaalista suurin osa on näkymättömän pimeän aineen aiheuttamaa. Vastaavanlaiset havainnot yksittäisten galaksien liikkeistä galaksiryppäiden sisällä kertovat että myös galaksiryppäiden massasta noin viisi kuudesosaa koostuu pimeästä aineesta, ja vain yksi kuudesosa on tavallista näkyvää ainetta, pääosin vetyä.

Yhtälailla painovoimaan perustuen pimeä aine voidaan havaita gravitaatiolinssiefektin avulla: Yleisen suhteellisuusteorian mukaisesti massa kaareuttaa sen ohi kulkevien valonsäteiden reittejä, ja siten massiiviset rakenteet kuten galaksiryppäät toimivat linsseinä taittaen niiden takaa näkyvien valonlähteiden lähettämiä kuvia. Näitä gravitaatiolinssien muokkaamia kuvia analysoimalla voidaan päätellä kuinka paljon linssinä toimivassa rakenteessa on massaa ja miten se on jakautunut. Ehkä tunnetuin esimerkki tällaisista havainnoista on niinkutsuttu bullet cluster. Kuvassa näkyy kahden galaksiryppään törmäys, jonka johdosta näkyvä vetykaasu on irtaantunut pimeästä aineesta, jonka sijainti käy ilmi gravitaatiolinssiefektin avulla.

Painovoimansa avulla pimeä aine myös selittää miten kosmiset rakenteet kuten galaksit ja galaksiryppäät ovat alunperin syntyneet. Varhaisessa maailmankaikkeudessa aine oli hyvin tasaisesti jakautunutta kuumaa hiukkaspuuroa, eli plasmaa. Jossain kohdin ainetta oli hieman tiheämmin ja toisaalla taas harvemmin. Painovoima pyrkii kasvattamaan näitä epätasaisuuksia, kun tiheät kohdat vetävät lisää ainetta puoleensa ja tihentyvät siten entisestään. Kasaantuessaan tavallinen aine kuitenkin kuumenee ja säteilee lämpösäteilyä, joka puolestaan työntää ainetta poispäin tiheämmistä alueista. Tämä ilmiö hidastaisi rakenteen muodostumista, jos kaikki aine olisi tavallista ainetta, eikä aineen jakauma maailmankaikkeudessa näyttäisi sellaiselta kuin sen nyt havaitsemme. Mutta pimeä aine on näkymätöntä juuri siksi, että se ei vuorovaikuta sähkömagneettisen säteilyn kanssa. Se ei siis tunne säteilyn painetta ja pystyy siksi kasautumaan painovoiman vaikutuksesta tehokkaasti jo varhaisessa maailmankaikkeudessa. Näkyvät kosmiset rakenteet ovat syntyneet kun näkyvä aine on luhistunut pimeän aineen tihentymien luomiin gravitaatiopotentiaalin kuoppiin.

Kolme tapaa löytää näkymätön

Pimeän aineen uskotaan koostuvan jostain tuntemattomasta hiukkasesta, koska mikään tunnetuista hiukkasfysiikan standardimallin alkeishiukkasista ei sovi pimeän aineen rooliin. Ominaisuuksiltaan muuten pimeäksi aineeksi sopivat, sähkövarauksettomat neutriinot ovat liian kevyitä muodostaakseen pimeän aineen rakenteet. Pimeän aineen etsinnässä on siis kyse uuden, standardimallin ulkopuolisen alkeishiukkasen etsimisestä. Tämä hiukkasjahti tapahtuu kolmella rintamalla:

Hiukkaskiihdyttimissä, kuten CERNin LHCssa, törmäytetään protoneita yhteen suurella energialla, ja mitataan tarkasti törmäyksessä syntyneiden hiukkasten energiat ja liikemäärät. Miljardien törmäysten joukosta pyritään löytämään sellaisia, joissa syntyneiden hiukasten liikemäärävektorit eivät ole tasapainossa. Tämä kertoisi siitä, että osa liikemäärästä on kulkeutunut pois havaintolaitteiden ohi näkymättömien hiukkasten kantamana. Jos tällaisia tapahtumia nähtäisiin enemmän kuin standardimallin ennustamat neutriinot voivat selittää, voisi se olla osoitus siitä, että törmäyksissä on syntynyt näkymättömiä pimeän aineen hiukkasia.

Jos pimeä aine koostuu tasapuolisesti hiukkasista ja antihiukkasista (toisin kuin näkyvä aine, joka koostuu vain hiukkasista, joita jostain syystä oli varhaisessa maailmankaikkeudessa hieman enemmän kuin antihiukkasia), nämä voivat joskus törmätä toisiinsa ja annihiloitua näkyviksi hiukkasiksi, kuten fotoneiksi tai varatuiksi hiukkasiksi. Toisaalta jos pimeä aine ei ole eliniältään ikuista, mutta vain erittäin pitkäikäistä, pimeän aineen hiukkaset voisivat toisinaan hajota näkyviksi hiukkasiksi. Tällaisia pimeän aineen annihilaatioista tai hajoamisista syntyviä hiukkasia etsitään suuntaamalla teleskoopit tai hiukkasilmaisimet kohti linnunradan keskustaa, galaksiryppäitä, tai linnunradan ympärillä kiertäviä kääpiögalakseja, koska jokaisen näkyvän rakenteen tiedetään sijaitsevan suuren pimeän aineen muodostaman ”kehän” eli halon sisällä. Pimeän aineen halo on tiivein sen keskikohdassa, joten keskellä rakennetta pitäisi myös tapahtua eniten annihilaatioita tai hajoamisia.

Kolmas tapa etsiä pimeää ainetta on niinsanottu suora havainnointi, joka perustuu maapallon liikkeeseen aurinkokunnan mukana linnunrataa ympäröivän pimeän aineen halon läpi. Aurinkokuntamme kiertää linnunradan keskustaa noin 220 km/s nopeudella. Näin ollen, liikkuessamme pimeän aineen halon läpi, on maapallolle kiinnitetyn havaitsijan näkökulmasta vastassamme jatkuva pimeän aineen hiukkasten vuo, ikäänkuin pimeän aineen muodostama tuuli. Suoran havainnoinnin kokeissa tarkkaillaan jotain kohdemateriaalia, esim suurta tankillista nestemäistä Xenon-kaasua, ja pyritään näkemään valotuikkeita jotka syntyisivät kun pimeän aineen hiukkanen osuu kohdeaineen atomiin ja siirtää sille energiaa tässä törmäyksessä.

Pimeän aineen tuulen vuodenajat

Aurinkokunnan kierros galaksin ympäri, eli galaktinen vuosi, kestää yli 200 miljoonaa vuotta. Siten aurinkokunnan liike suhteessa pimeän aineen haloon on ihmiselämän aikaskaalassa vakio. Mutta maapallon mukana matkustavan havaitsijan kokeman pimeän aineen tuulen nopeus vaihtelee hieman vuodenaikojen mukana, johtuen maapallon liikkeestä auringon ympäri. Tämä kiertonopeus on noin 30 km/s, ja siten joko kasvattaa tai pienentää pimeän aineen tuulen nopeutta aurinkokunnan 220 km/s vauhdista sen mukaan, kuljemmeko auringon ympäri myötä- vai vastatuuleen. Vastatuuli osuu kesäkuulle, jolloin siis yhteenlaskettuna pimeän aineen tuulennopeus on suurimmillaan, ja myötätuuli eli pimeän aineen tuulennopeuden minimi puolestaan joulukuulle.

Suoran havainnoinnin kokeissa tämä tuulennopeuden vaihtelu vaikuttaa siten, että kesällä törmäykset tapahtuvat keskimäärin hieman suuremmalla energialla kuin talvella. Jos törmäysenergia on liian pieni, se ei riitä aiheuttamaan havaittavaa valontuiketta, ja siten matalaenergisin osa törmäyksistä saattaa jäädä kokonaan näkemättä. Näin ollen kesällä suurempi osa mahdollisista pimeän aineen törmäyksistä on kokeiden kannalta sopivalla energia-alueella, ja siten kokeen pitäisi nähdä enemmän törmäyksistä kertovia valotuikkeita kesällä kuin talvella.

Italian Gran Sasson vuoren uumenissa sijaitseva DAMA-koe onkin jo vuosikausia raportoinut havaitsevansa juuri odotetunlaisen vuosivaihtelun natriumjodidi-kiteeseen perustuvassa ilmaisimessaan. Ilmaisin tuikkii hieman tiuhempaan kesäisin ja hieman harvemmin talvisin, juuri niinkuin pimeän aineen törmäyksistä kertovien tuikkeiden tulisikin käyttäytyä. Näiden havaintojen tulkinta osoituksena pimeän aineen hiukkasen löytymisestä on kuitenkin ongelmallista, koska monet muut kokeet maailmalla eivät ole nähneet vastaavaa signaalia, vaikka teoreettiset mallit jotka voisivat kuvata DAMAn havaitsemia törmäyksiä, ennustaisivat että nämä törmäykset pitäisi havaita myös esim Xenon-kokeessa. Asia on hämmästyttänyt tiedeyhteisöä jo toistakymmentä vuotta, mutta selvää virhettä DAMAsta tai muistakaan kokeista ei ole löytynyt, joka voisi selittää ristiriitaiselta vaikuttavat tulokset.

Tarkempaa tietoa monipuolisemmilla mittauksilla

DAMAn ja muiden suoran havainnoinnin kokeiden tulosten yhteismitallista tulkintaa hankaloittaa se, että DAMA on näistä kokeista ainoa joka käyttää kohdeaineena natriumjodidia. On mahdollista, että pimeä aine vuorovaikuttaa eritavalla eri alkuaineiden atomien kanssa, ja siten eri kohdeaineisiin perustuvat mittaukset eivät olisi suoraan vertailukelpoisia. Viimevuosina onkin maailmalla ryhdytty rakentamaan muitakin DAMAn kaltaisia natriumjodidi-ilmaisimia, joiden avulla tulosten vertailu olisi selkeämpää.

Vuodesta 2020 alkaen HIP on liittynyt mukaan italialaisten, saksalaisten ja itävaltalaisten tutkimusryhmien yhteistyössä aloittaman COSINUS-kokeen toimintaan. Tämä koe on rakenteilla samaan Gran Sasson laboratorioon jossa myös DAMA toimii, ja kohdeaineena on natriumjodidi-kide kuten DAMAlla. DAMAsta ja muista natriumjodidi-ilmaisimista poiketen COSINUS-kokeen tarkoitus on kuitenkin mitata törmäyksen aiheuttaman valontuikkeen lisäksi myös törmäyksessä kiteeseen siirtynyt lämpö- ja värähtelyenergia. Vertaamalla törmäyksen tuottaman valontuikkeen voimakkuutta värähtelyenergian määrään saadaan tarkempaa tietoa siitä, minkälainen sirontaprosessi on tapahtunut. Tämän tiedon avulla voidaan esimerkiksi erottaa atomiytimistä ja niitä verhoavista elektroneista tapahtuneet sironnat toisistaan. Lisäksi värähtelyenergian mittaus tuottaa paljon tarkemman tiedon törmäysenergiasta kuin pelkän valontuikkeen mittaaminen, ja siten on mahdollista määrittää havaittujen törmäysten energiajakauma entistä tarkemmin. Tämä tieto puolestaan auttaa tulkitsemaan mahdollista signaalia pimeästä aineesta kertovien hiukkasfysiikan teorioiden kannalta. Näin COSINUS-kokeen tuottama moniulotteisempi ja tarkempi data voisi lopulta tuoda selvyyden pitkään jatkuneeseen mysteeriin DAMAn signaalin takana. Yksittäisessä hiukkasen ja atomin törmäyksessä kiteeseen siirtynyt energia on hyvin vähäinen verrattuna huoneenlämpöisen kiteen sisältämään lämpöenergiaan. Tästä johtuen COSINUS-kokeessa kohdeaineena toimiva natriumjodidi-kide jäähdytetään lähelle absoluuttista nollapistettä, alle 10 millikelvinin lämpötilaan kryostaatin avulla. Tämä mahdollistaa pientenkin kidevärähtelyiden mittaamisen erityisen herkkien lämpömittareiden (TES eli transition edge sensor) avulla. TES on mikroskooppinen, suprajohtavasta metallista valmistettu liuska, joka pidetään juuri suprajohtavuuslämpötilan tuntumassa. Tässä kriittisessä lämpötila-alueessa pienikin lämpötilan muutos aiheuttaa suuren muutoksen liuskan sähkönjohtavuudessa, joka voidaan mitata, ja siten sensori toimii äärimmäisen tarkkana lämpöenergian mittarina.

COSINUS-kokeessa kohdeainekide on kytketty kryostaatin tuottamaan alle 10mK lämpökylpyyn lämmönjohtimen kautta, ja TES on sijoitettu lämmönjohtimen ja kiteen väliin, oheisen kuvan mukaisesti. Näin hiukkassironnan kiteeseen synnyttämät värähtelykvantit eli fononit joutuvat kulkemaan TESin kautta matkallaan lämpökylpyyn, ja niiden kuljettama värähtelyenergia voidaan mitata. Tämä mittalaitteisto on taustasäteilyltä suojaamiseksi peitetty kuparilla ja upotettu vesitankkiin, jonka lisäksi kosmiselta säteilyltä suojaa antaa sijainti Gran Sasson vuoren uumenissa. Oheisessa kuvassa näkyy suunnitelma kokeen rakennelmasta, jossa korkean vesitankin ympärille on rakennettu mittauksissa tarvittavat tekniset tilat ja puhdashuone.

HIPistä COSINUS-toimintaan osallistuvat tohtoriopiskelija Alex Stendahl, yliopistotutkija Matti Heikinheimo sekä yliopistonlehtori Kimmo Tuominen.

Matti Heikinheimo
Yliopistotutkija, HIP-projekti (High Energy Phenomenology in the LHC era)
Helsingin yliopisto ja Fysiikan tutkimuslaitos

Kosmologian tutkimus Euclid-avaruusteleskoopilla

Euroopan avaruusjärjestön (ESA) Euclid-avaruusteleskoopin (https://www.euclid-ec.org/) suunniteltu laukaisu on vuoden 2022 loppupuolella. Euclidin tarkoitus on kartoittaa kuuden vuoden aikana yli kolmasosa taivaasta havaiten yli miljardi galaksia ja mitata kymmenien miljoonien galaksien spektri.  Spektristä voidaan määrittää galaksin punasiirtymä, mikä kertoo galaksin etäisyyden (olettaen, että punasiirtymän ja etäisyyden välinen yhteys tunnetaan).  Näin saadaan maailmankaikkeuden kolmiulotteinen kartta, jossa kukin galaksi on paikallaan.

Kuva 1: Taiteilijan näkemys Euclid-avaruusteleskoopista. (Credit: ESA/ATG medialab (satelliitti); NASA, ESA, CXC, C. Ma, H. Ebeling ja E. Barrett (University of Hawaii/IfA), et al. ja STScI (tausta))

Tällä hetkellä kosmologian merkittävin havaintoaineisto on ESAn edellisen kosmologiaprojektin, Planck-satelliitin, vuosina 2009-2013 tekemien mittausten tuloksena saatu koko taivaan kattava kosmisen mikroaaltotaustasäteilyn kartta.  Kosminen taustasäteily syntyi kun maailmankaikkeuden ikä oli 370 000 vuotta.  Maailmankaikkeuden ikä on nyt noin 13,8 miljardia vuotta, joten taustasäteily ollut matkalla kauan eli se on kulkenut hyvin pitkän matkan.  Kosminen taustasäteily näyttää universumin kaukaisimmat meille näkyvät osat sellaisina kuin ne olivat tuossa nuoressa iässä.  Nämä muodostavat havaittavan maailmankaikkeuden reunan – sen kauemmaksi emme näe, koska ensimmäiset 370 000 vuotta maailmankaikkeuden täyttävä aine oli läpinäkymätöntä plasmaa, vapaita elektroneja, protoneja ja alfa-hiukkasia (helium-ytimiä).   Kosminen taustasäteily vapautui, kun nämä yhtyivät läpinäkyväksi vety- ja heliumkaasuksi.  Kosminen taustasäteily siis kertoo erityisesti varhaisesta maailmankaikkeudesta, sen rakenteesta ja koostumuksesta.   Sen perusteella tiedämme kuinka paljon maailmankaikkeudessa on tavanomaista, siis protoneista, neutroneista ja elektroneista koostuvaa ainetta, ja kuinka paljon on niin sanottua pimeää ainetta.

Koska kosminen taustasäteily on kulkenut läpi koko havaittavan maailmankaikkeuden ja lähes koko sen historian, se kertoo myös jotain maailmankaikkeuden geometriasta ja historiasta: siitä saadaan nimittäin määritettyä havaittavan maailmankaikkeuden reunan niin sanottu kulmahalkaisijaetäisyys hyvin suurella tarkkuudella.  Kulmahalkaisijaetäisyyden määritelmä on havaitun kohteen halkaisija jaettuna sillä kulmalla missä se näkyy.  Jos maailmankaikkeus ei laajenisi ja sen geometria ei ole kaareva, kulmahalkaisijaetäisyys olisi sama kuin todellinen etäisyys.  Käyttämällä hyväksi myös muita kosmologisia havaintoja saamme tietoa maailmankaikkeuden laajenemishistoriasta ja kaarevuudesta ja voimme määrittää mm. maailmankaikkeuden iän.  Kaarevuus on niin vähäistä, että sitä ei ole ainakaan toistaiseksi havaittu – sanomme, että maailmankaikkeus on “laakea”: siis ei kaareva, vaan noudattaa eukleidista kolmiulotteista geometriaa.

Jos tunnetaan punasiirtymän ja etäisyyden välinen yhteys, siitä saadaan maailmankaikkeuden laajenemishistoria: punasiirtymä kertoo suoraan kuinka paljon avaruus on laajentunut sinä aikana kun valo on ollut matkalla ja etäisyys taas on yhteydessä siihen, kuinka kauan aikaa tähän on kulunut.  Punasiirtymä saadaan kohteen spektristä; ongelmaksi jää etäisyyden määritys.  Pääasiallinen menetelmä kosmologisten etäisyyksien määrittämiseksi on perustunut ns. standardikynttilöihin: kohteisiin, joiden voi olettaa olevan keskenään samanlaisia niin, että niiden havaittu kirkkausero on kääntäen verrannollinen niiden etäisyyden neliöön.  Suurille etäisyyksille tähän on käytetty ns. tyypin Ia supernovia. 

Tällaisten supernovahavaintojen perusteella saatiin 1990-luvun loppupuolella selville, että laajenemien on ollut kiihtyvää viimeiset 6 miljardia vuotta.  Tämä oli odottamaton tulos, sillä oli pidetty selvänä, että painovoiman vuoksi laajenemisen täytyy hidastua.  Selitykseksi on ehdotettu uutta universumin täyttävää energiakomponenttia, ns. pimeää energiaa, tai painovoimalain (yleisen suhteellisuusteorian) korjaamista kosmologisilla etäisyyksillä.  Kummassakaan selityskategoriassa ei teoreetikoilla tunnu olevan tarjolla kovin luontevia teoriakandidaatteja.  Jotta pääsisimme asiassa eteenpäin, täytysi laajenemishistoria määrittää mahdollisimman tarkasti.

Ongelma tässä on, että oikeasti supernovat eivät ole keskenään täysin samanlaisia.  Siksi niistä määritetty laajenemishistoria jää epätarkaksi.  Tämä on esimerkki monia kosmologisia havaintoaineistoja vaivaavasta ongelmasta: emme havaitse suoraan kosmologisia suureita, vaan arvioimme niitä astrofysikaalisten kohteiden perusteella ja kosmologisten suureiden määritykseen jää näiden kohteiden vajavaisesti tunnetun monimutkaisen astrofysiikan aiheuttama epävarmuus.  Kosmisen taustasäteilyn havainnot ovat juuri siksi parasta nykyistä kosmologista dataa, että niistä lähes puuttuu tällainen astrofysikaalinen epävarmuus.

Onneksi supernovien tilalle kosmologia tarjoaa standardimittatikun, jota ei vaivaa astrofysikaalinen epävarmuus. 

Varhaisen maailmankaikkeuden plasman tiheysvaihtelut aaltoilivat painovoiman ja säteilypaineen vaikutuksesta.  Tämä aaltoilu lakkasi, kun säteily vapautui, mutta siitä jäi jäljelle aineen tiheysvaihtelu, missä korostuu tietty etäisyys, ns. baryonien akustisen oskillaation (BAO) skaala, joka vastaa sitä aallonpituutta, joka oli juuri saavuttanut maksimikorkeutensa kun aaltoilu lakkasi.  Tämä BAO-skaala on noin 500 miljoonaa valovuotta universumin mukana laajenevissa koordinaateissa (kun se syntyi, se oli noin 500 000 valovuotta todellista etäisyyttä –  maailmankaikkeus on sen jälkeen laajentunut noin tuhatkertaiseksi).  Kun kartoitamme tarkasti galaksien kolmiulotteisen jakauman, tämä BAO-skaala tulee siinä esille. 

Suuremmilla etäisyyksillä BAO-skaala näkyy pienemmässä kulmassa.  Saamme selville punasiirtymän ja etäisyyden välisen yhteyden kun määritämme, missä kulmassa BAO-skaala näkyy minkäkin punasiirtymän galakseille.  BAO-skaala ei ole kovin voimakkaasti korostunut, joten tällainen määritys edellyttää miljoonien galaksien punasiirtymän mittausta, jotta saadaan riittävän suuri aineisto BAO-skaalan tilastolliseen määrittämiseen.

Laajenemishistorian määrittäminen ei vielä riitä ratkaisemaan kumpi selitysmalli laajenemisen kiihtymiselle, pimeä energia vai painovoimalain muuttaminen, on oikea.  Sama laajenemishistoria voidaan näet toteuttaa kummallakin tavalla.  Näiden erottamiseen toisistaan tarvitaan toisenlaisia havaintoja.  Maailmankaikkeuden suuren mittakaavan rakenteet, siis galaksien jakauman tihentymät ja harventumat, ovat muodostuneet painovoiman vaikutuksesta alkuavaruuden pienistä tiheysvaihteluista (samoin ovat muodostuneet pienemmät rakenteet, kuten galaksit ja tähdet, mutta tässä meitä kiinnostavat suuret skaalat).  Universumin laajeneminen jarruttaa näiden rakenteiden kasvua.  Jos painovoimalaki on annettu, laajenemishistorian ja rakenteiden kasvuhistorian välillä on yksikäsitteinen vastaavuus.   Mutta jos muutamme painovoimalakia, tämä vastaavuus muuttuu.  Laajenemisen kiihtymisen kaksi selitysmallia voidaan siis erottaa toisistaan mittaamalla tarkasti sekä laajenemishistoria että rakenteiden kasvuhistoria.

Rakenteiden kasvuhistorian tarkkaan mittaamiseen ei riitä tutkia näkyvien galaksien jakautumaa eri etäisyyksillä, vaan meidän tarvitsisi saada selville koko massajakauma, mitä dominoi pimeä aine.  Massajakauman määrittämiseen voidaan käyttää gravitaatiolinssi-ilmiötä.   Kun valo kulkee kaukaisista galakseista meitä kohti, se ohittaa universumin rakenteiden massatihentymiä, jotka painovoimallaan taivuttavat valon kulkua.  Lopputulos on, että näemme kaukaiset galaksit vääristyneinä.  Tämä vääristymä on suhteessa siihen kuinka paljon yli- ja alitiheyttä valon matkalla oli yhteensä.  Määrittämällä tämä vääristymä kaikissa suunnissa ja havaittuen galaksien etäisyyden funktiona, voidaan ratkaista universumin kolmiulotteinen massajakauma, missä kaukaisemmat osat ovat kauempana menneisyydessä.  Koska oletamme että rakenteet ovat kiinnitettynä ajanhetkenä tilastollisesti samanlaisia kaikissa avaruuden osissa, saamme näin rakenteiden kasvuhistorian.

Ongelma on, että galaksista saamamme kuvan vääristymän määrittämiseksi meidän pitäisi tietää galaksin todellinen muoto; sitä emme kuitenkaan tiedä.  Lisäksi useimpien galaksien kohdalla tämä vääristymä on vain prosentin tai parin luokkaa (tällöin puhutaan heikosta gravitaatiolinssi-ilmiöstä, weak lensing, WL).  Tällaiset pienet vääristymät ilmenevät kuvan venymisenä johonkin suuntaan.  Siksi määritys on tehtävä tilastollisesti.  Likimain samasta suunnasta on havaittava suuri määrä galakseja.  Galaksien todelliset asennot ovat oletettavasti määräytyneet satunnaisesti, joten jos niiden kuvat ovat voittopuolisesti pitkulaisia yhteen suuntaan, tämä on merkki siitä että gravitaatiolinssi-ilmiö on venyttänyt kuvia siihen suuntaan.

2000-luvun alussa alkoi selkiytyä, että merkittävimmät kosmologian edistysaskeleet Planckin taustasäteilyhavaintojen jälkeen olisivat saavutettavissa isoilla panostuksilla BAO-skaalaan ja gravitaatiolinssi-ilmiöön kohdistuvilla galaksikartoituksilla.  Tällä hetkellä suuret tällaiset havaintoaineistot ovat peräisin maanpäällisistä observatorioista.  BAO-skaalan osalta tärkeimmät ovat BOSS (Baryon Oscillation Spectroscopic Survey) ja eBOSS (extended …), osa laajaa SDSS-projektia (Sloan Digital Sky Survey, http://www.sdss.org/), ja gravitaatiolinssien osalta KiDS (Kilo-Degree Survey, http://kids.strw.leidenuniv.nl/) ja DES (Dark Energy Survey, https://www.darkenergysurvey.org/).  Oli kuitenkin heti selvää, että parhaiden tulosten saavuttamiseksi olisi teleskoopit lähetettävä avaruuteen.  Ilmakehä häiritsee pahasti erityisesti galaksien muotojen tarkka mittaamista, vääristäen niitä omalta osaltaan.  Myös kaukaisempien galaksien punasiirtymän määrittäminen on vaikeampaa maan päältä; punasiirtymä on nimittäin siirtänyt voimakkaimmat spektriviivat infrapuna-alueelle, missä ilmakehä absorboi ison osan säteilystä.

Niinpä sekä Euroopassa (ESA), että Yhdysvalloissa (NASA) alettiin valmistella avaruusmissiota, jonka fokus olisi tässä ns. pimeän energian ongelmassa: miksi avaruuden laajeneminen kiihtyy.  Tarvitaan mahdollisimman laaja ja syvä galaksikartoitus, jossa mitataan tarkasti mahdollisimman monen galaksin muoto ja punasiirtymä; reunaehtona kustannuskatto, joka rajoittaa kuinka suuri laite voidaan avaruuteen lähettää.  Tarvittava laite on laajakulmainen optisen ja infrapuna-alueen avaruusteleskooppi.  ESAn projektin nimeksi tuli Euclid eurooppalaisen antiikin matemaatikon Eukleideen mukaan;  Eukleides tutki geometriaa ja Euclid määrittää universumin geometriaa.  NASAn projektin työnimenä oli WFIRST (Wide-Field Infrared Survey Telescope); NASA teki päätöksen sen toteuttamisesta vuonna 2016 ja vuonna 2020 se sai viralliseksi nimekseen Nancy Grace Roman Space Telescope (https://www.nasa.gov/content/goddard/nancy-grace-roman-space-telescope) NASAn edesmenneen pääastronomin mukaan.  Roman-avaruusteleskoopin laukaisu avaruuteen on suunniteltu vuoteen 2025.

ESA teki päätöksen Euclid-projektin toteuttamisesta vuonna 2011.  Tunnustelut Suomen osallistumisesta projektiin alkoivat vuonna 2009, kun eräs italialainen kollegani Planck-projektista, joka oli siirtynyt vastuutehtäviin Euclidissa, otti minuun yhteyttä kysyen mahdollisesta Suomen kiinnostuksesta.  ESAn tiedeprojektit ovat ESAn ja kansallisten avaruusorganisaatioiden yhteisprojekteja.  ESA rahoittaa avaruuteen laukaistavan satelliitin rakentamisen, sen laukaisun ja operoinnit ja kansalliset organisaatiot rahoittavat satelliittiin tulevat mittalaitteet ja havaintodatan analyysin ja siihen tarvittavat tietokonelaitteistot.   Projektiin mukaan pääseminen edellytti Suomen osallistuvan johonkin näistä.  ESA rahoittaa myös teleskoopin, joka on halkaisijaltaan 1,2 metriä.  Kansalliset organisaatiot rahoittavat Euclidin instrumentit, jotka ovat infrapuna-alueen kuvia ottava ja spektrejä mittaava NISP (Near Infrared Spectrometer and Photometer) ja näkyvän valon alueella kuvia ottava VIS (visual imager).  

Kuva 2: Euclid rakenteilla. VIS-instrumentti on vasemmalla mustalle eristekalvolla päällystettynä, NISP-instrumentti ylhäällä kultakalvolla päällystettynä. Kuva on vuoden 2020 heinäkuulta. (Credit: Airbus)

Selvitimme suomalaisen teollisuuden mahdollisuutta osallistua NISP-instrumentin rakentamiseen, mutta osoittautui, että siihen ei ollut saatavissa Suomesta rahoitusta.  Suomen osuudeksi tuli osallistua havaintodatan analyysiin ja tietokonelaitteistoon: sovittiin, että Suomeen perustetaan yksi Euclidin tiededatakeskuksista (Science Data Center, SDC).   Suomi hyväksyttiin (yhdessä Tanskan ja Romanian kanssa) Euclid-konsortion uusiksi jäsenmaiksi vuonna 2011 samalla kun ESA päätti toteuttaa mission.  Alkuperäisiä jäseniä oli yhdeksän Euroopan maata.  Myöhemmin on mukaan hyväksytty vielä kaksi Euroopan maata, Yhdysvallat ja Kanada, joten kaikkiaan jäsenmaita on nyt 16.  Yhdeksällä näistä on oma Euclid-tiededatakeskus. 

Suomesta Euclidiin osallistuu viisi yliopistoa: Helsingin, Turun, Jyväskylän ja Oulun yliopistot sekä Aalto-yliopisto. 

Datakeskuksemme, SDC-FI, toimii CSC:n tiloissa sen Kajaanin datakeskuksessa ja sitä rahoittavat Suomen Akatemia ja osallistuvien yliopistojen ja CSC:n muodostama konsortio.  Tällä hetkellä laitteistossa on 26 laskentanoodia (noin 1000 laskentaydintä) ja noin 200 teratavua tallennustilaa.  Laitteistoa täytyy vielä merkittävästi laajentaa ja erityisesti tallennustilaa kasvattaa useihin petatavuihin, jotta voimme analysoida osuutemme Euclidin datasta.  Tarkoitus on, että kaikissa datakeskuksissa toimii sama analyysiohjemisto ja data jaetaan eri maiden kesken, siten että kukin maa analysoi oman osansa taivasta. Suomen osuudeksi on alustavasti sovitttu 5% datasta.  Analyysin loppuvaihe kohdistuu koko aineiston kattaviin galaksiluetteloihin, joten siinä vaiheessa jakoperiaate ei enää mene taivaanosittain.

Tässä vaiheessa projektissa kehitetään datan analyysimenetelmiä ja testataan niitä simuloidulla datalla.  Fysiikan tutkimuslaitoksessa toimiva Euclid-ryhmä on SDC-FI:n operoinnin lisäksi vastuussa erityisesti NISP-instrumentin datan simuloinnista ja galaksien kaksipistekorrelaatiofunktion määrittämiseen käytettävän menetelmän kehitttämisestä.   BAO-skaala havaitaan piikkinä kaksipistekorrelaatiofunktiossa, joten se on yksi Euclidin keskeisimmistä tuloksista.  Kosmologisten parametrien määrittäminen datasta edellyttää huolellisia datan virhearvoita; tätä varten on määritettävä kaksipistekorrelaation kovarianssimatriisi, mikä edellyttää kaksipistekorrelaation määrittämisestä tuhansista simuloiduista Euclid-datarealisaatioista.  Tämä uhkasi dominoida koko Euclid-data-analyysin laskentabudjettia; mutta olemme onnistuneet tekemään koodista kymmenen kertaa nopeamman optimoimalla käytettyä algoritmia. Euclid-satelliitti on jo lähes valmis: teleskooppi ja instrumentit ovat valmiina ja tällä hetkellä on käynnissä niiden testaus ja integrointi yhteen.  Satelliitin laukaisu on suunniteltu tehtäväksi Soyuz-kantoraketilla ESAn avaruuskeskuksesta Kourosta, Ranskan Guyanasta, lähellä päiväntasaajaa.

Hannu Kurki-Suonio
Yliopistonlehtori, projektipäällikkö (EUCLID)
Helsingin yliopisto ja Fysiikan tutkimuslaitos

Merituulen tuoksahdus CERN:issä – CLOUD kokeessa tutkitaan ilmakehän pienhiukkasten muodostumista

CERN:issä tutkitaan muitakin hiukkasia kuin alkeishiukkasia. Aerosolihiukkasiksi kutsutaan ilmassa leijuvia kiinteitä tai nestemäisiä pienhiukkasia, joiden koko vaihtelee molekyylitasolta eli noin nanometrin kokoluokasta kymmeniin mikrometreihin. Aerosolihiukkaset vaikuttavat ilmastoon sirottamalla ja absorboimalla auringonsäteilyä, sekä osallistumalla pilvien muodostumiseen. Suurina pitoisuuksina aerosolihiukkaset huonontavat ilmanlaatua ja lisäävät kuolleisuutta keuhko- ja verisuonisairauksiin.

Tutkimme aerosolihiukkasten syntyä CERN:issä sijaitsevan CLOUD kammion avulla. CLOUD (Cosmics Leaving Outdoors Droplets) projektin tavoitteena on ymmärtää paremmin niitä fysikaalisia ja kemiallisia prosesseja, joiden seurauksena aerosolihiukkasia muodostuu ilmakehässä. Eräs hiukkasmuodostukseen vaikuttavista tekijöistä on kosminen säteily, joka synnyttää ilmakehässä ioneja. CERN:in protonisynkrotronin avulla voimme säädellä tutkimuskammiossa muodostuvien ionien määrää ja siten simuloida olosuhteita ilmakehän eri korkeuksilla.

Kuva 1. CLOUD kammio CERN:issä mittauslaitteistojen ympäröimänä.

Tutkimuskammioon syötettävä ilma sekoitetaan hapesta ja typestä, jonka jälkeen seokseen lisätään tarvittava määrä hivenkaasuja, kuten otsonia ja vesihöyryä. Kammion ja kokeissa tarvittavan kaasuseoksen on oltava äärimmäisen puhtaita. Aiemmissa kokeissa osoitimme, että erittäin pienet pitoisuudet (jopa pptv) tiettyjä emäksiä, kuten ammoniakkia ja amiineja, voivat ratkaisevasti vaikuttaa hiukkasmuodostukseen.

Viime aikoina olemme tehneet kokeita, joiden tarkoitus on selvittää muodostuuko hiukkasia merestä peräisin olevista kaasumaisista yhdisteistä. Biologinen toiminta merissä tuottaa jodia ja rikkiä sisältäviä yhdisteitä, esimerkiksi dimetyylisulfidia, joka aiheuttaa merivedelle ominaisen hajun. Näiden yhdisteiden tietyt hapetustuotteet voivat muodostaa aerosolihiukkasia, mutta mekanismi on mittausdatan puuteen vuoksi vielä huonosti tunnettu, vaikka meret peittävät suurimman osan maapallosta! Ensimmäisiä tuloksia meriin liittyvästä mittaussarjasta odotetaan julkaistavaksi pian.

Toinen uusi aluevaltaus CLOUD projektille on jäänukleaatiotutkimus. Kylmässä ilmassa jääkiteitä voi alkaa muodostua suoraan aerosolihiukkasten pinnalle, mikä on pilvien syntymisen ja siten ilmaston kannata oleellinen prosessi. Hiukkasten koostumus vaikuttaa niiden kykyyn toimia jäänukleaatioytiminä. Mittaussarjan avulla pyrimme vastaamaan kysymykseen siitä mitkä ilmakehässä muodostuneista hiukkasista voisivat toimia jäänukleaatioytiminä.

Kuva 2. CLOUD projektin väitöskirjatutkijat pääsivät osallistumaan järjestämäämme talvikouluun Hyytiälässä viime keväänä juuri ennen pandemiarajoitusten alkua.

Katrianne Lehtipalo
INAR Helsingin Yliopisto ja Ilmatieteen laito

Emergenssiä ja hiukkasia – tiiviin aineen fyysikon apologia

Klassikkoesseessään Matemaatikon apologia G. H. Hardy kuvaa puhtaan matemaatiikan estetiikkaa ja matemaatikoiden työtä luovina taiteilijoina. Kirjoitus on puolustuspuhe  sovelluksista vapaan “hyödyttömän” matematiikan puolesta. Teoreettiset fyysikot varmaan allekirjoittavat jossain määrin työhönsä liittyvän estetiikan ja luovan taiteen roolin. Silti fyysikot tuskin laajemmin tekevät hyödyttömyydestä hyvettä – epäkonkreettinen hyöty artikuloidaan mielummin ihmisen pohjattoman uteliaisuuden tyydyttämisenä.  Uumoilen tämän blogin tavoittavan hiukkasfyysiikkaa ja kosmologiaa tuntevia lukijoita, joten  kirjoitukseni toimikoon tiiviin aineen fyysikon apologiana. Yritän selvittää kvanttiaineen tutkimuksen motivaatioita, estetiikkaa sekä valottaa työn arkea ja juhlaa.

Vaikka tiiviin aineen fysiikan potentiaaliset sovellukset ovat paljon lähempänä kuin hiukkasfysiikassa, ei aineen kvanttiteoreetikon mielessä usein pyöri konkreettiset kvanttitietokoneet tai muut härpäkkeet. Rahoitushakemuksissa sovelluksia toki painotetaan, mutta päivittäinen työmotivaatio tulee muualta.  Mielestäni kvanttiaineen ajankohtaiset tutkimuskysymykset ovat yhtä perustavanlaatuisia kuin hiukkasfysiikassa.

Tiiviin aineen kvanttifysiikassa systeemit tyypillisesti näyttäytyvät sitä universaaleimmilta ja symmetrisimmiltä mitä matalampia energioita tarkastellaan. Tilanne on siis päinvastainen kuin hiukkasfysiikassa. Ihmeellistä kyllä, aineen kollektiiviset kvanttiominaisuudet voivat joskus johtaa uskomattomiin ilmiöihin kuten elektronien hajoamiseen murtolukuisiin varauksiin tai muun tyyppisiin partonirakenteisiin. Uudet hiukkaset ovat emergenttejä: niillä ei ole itsenäistä asemaa tarkasteltavan aineen ulkopuolella.  Kvanttiluvuiltaan silpoutuneet effektiiviset kvasihiukkaset ovat seurausta elektronien välisten vuorovaikutusten ja kvanttimekaniikan epäintuitiivisesta salaliitosta. Kuitenkin ne manifestoituvat kokeissa ja voivat muuttaa jopa  aineen  makroskooppista käytöstä.

Tiiviin aineen kvanttimateriaaleissa tavataan suunnattoman rikas ja alati karttuva kokoelma erilaisia kvasihiukkasia. Effektiivisissä teorioissa  relativistiset varauksenkuljettajat ovat ihan arkisia vaikka lähtökohtaisesti mikroskooppisella Hamiltonilla ei ole edes likimääräistä relativistista invarianssia. Toisaalta tästä syystä hiukkasfysiikasta tutut Diracin, Weylin ja Majoranan fermionit muodostavat vain osajoukon tiiviin aineen fermionisista eksitaatioista.

On mielestäni erittäin kiehtovaa että tiiviin aineen systemeissä voi tutkia saman tyyppisiä ilmiöitä kuin hiukkasfysiikassa ja kosmologiassa, vaikkapa kaarevan avaruuden kvanttifysiikkaa [1-3]. Tiiviin aineen tutkimus ei  silti suoraan paljasta universumin syvimpiä salaisuuksia. Se kompensoi asiaa tarjoamalla lukemattomia mahdollisia universumeita salaisuuksineen. Pidän selvänä että joidenkin näiden tutkiminen auttaa rakentamaan parempia vimpaimia. Mutta niidenkin vaihtoehtojen tutkiminen, jotka eivät konkreettiseen hyötyyn johda, on itsessään palkitsevaa. Hyötyjä on myös vaikea ennakoida: Hardyn arviot lukuteorian ja suhteellisteorian hyödyttömyydestä ovat myöhemmin osoittautuneet lievästi sanottuna vääriksi.

Kun hiukkasfysiikan teorioissa tavan takaa tupataan lisäämään ulottuvuuksia, tiiviin aineen systeemeissä  voidaan tutkia effektiivisesti yksi- ja kaksiulotteista fysiikkaa. Matalaulotteinen kvanttimekaniikkka sallii uudenlaisia hiukkasia fermioni-bosoniparadigman ulkopuolelta. Nämä anyoneina tunnetut hiukkaset  voivat olla abelisia tai epäabelisia riippuen onko niitä kuvaava aaltofunktio skalaari vai vektori. Viime aikoina erityisen kiinnostuksen kohteena ovat olleet Majorana-hiukkasiksi kutsutut  monihiukkaseksitaatiot jotka ovat yksinkertaisimpia epäabelisia anyoneja. Epäabelisten anyonien avulla voi periaatteessa luotettavasti säilöä kvantti-informaatiota ja niitä voi käyttää kvanttitietokoneiden rakennuspalikoina. Kiinteän aineen Majorana-hiukkasia, jotka käyttäytyvät tietyssä mielessä kuin elektronien partonihiukkaset, on ennustettu esiintyvän topologisina suprajohteina tunnetuissa systemeeissä. Topologiset suprajohteet ovat uudentyyppinen suprajohtava aineen olomuoto, jonka kokeellinen realisaatio on kvanttiaineen tutkimuksen keskeisimpiä tavoitteita. Topologisia suprajohteita ja niiden Majorana-hiukkasia ei ole varmuudella havaittu vaikka useita erittäin lupaavia signaaleja onkin raportoitu. Eräs mielenkiintoisimmista uusimmista tuloksista on saavutettu akatemiaprofessori Peter Liljerothin ryhmässä Aalto-Yliopistossa [4]. Yhdistämällä yhden atomikerroksen paksuisen ferromagneettin suprajohtavan NbSe2 pinnalle, tutkijat havaitsivat magneetin reunalle lokalisoituneen äärellisen tilatiheyden suprajohtavan energia-aukon sisällä (Ks. Kuva 1). Olin itse rakentamassa teoreettista mallia kokeelliselle systeemille ja totesimme että havainnot ovat erittäin hyvin sopusoinnussa kiraalisten Majorana-hiukkasten reunakanavan tuottaman teoreettisen signaalin kanssa. Tutkimuksemme ilmestyy Joulukuussa Nature-tiedelehdessä, mikä on todellinen joulujytky projektiin osallistuneille kymmenelle fyysikolle.

Kuva 1: Havainnekuva Aalto-Yliopiston kokeissa valmistetusta topologisesta suprajohteesta. Harmaa alue esittää ohutkalvomagneettia joka on kasvatettu suprajohtavan substraatin päälle. Magneteetin kontakti suprajohteen kanssa muuttaa alla olevan suprajohteen topologiseksi. Topologisen ja tavallisen suprajohteen välille muodostuu kiraalisten Majorana-hiukkasten reunakanava. Tunnelointimikroskoopin kärjestä (harmaa pallukkaröykkiö) tunneloituvat elektronit paljastavat Majorana-hiukkasten lokaation ja energian. Tieteen historian ja tiedepolitiikan kyseenalaisia (mutta elinvoimaisia) perinteitä vaalien kuvaan on merkitty projektiin osallistuneiden ryhmien johtajat ja heidän kontribuutionsa (jättäen mainitsematta seitsemän muuta tutkijaa joiden ansiosta läpimurto varsinaisesti saavutettiin).

Kokeellisessa fysiikassa ei todisteta teorioita oikeaksi tai vääräksi vaan arvioidaan onko karttunut havaintoaineisto sopusoinnussa ehdotetun selityksen kanssa. Aika näyttää kestääkö tulkintamme topologisesta suprajohtavuudesta. Projekti joka tapauksessa valottaa tiiviin aineen fysiikan versatiilisuutta. Vaikka on epäselvää onko mikään tunnettu luonnollinen materiaali itsessään topologinen suprajohde, on täysin mahdollista valmistaa magneetin ja suprajohteen keinomateriaali Majorana-hiukkasineen. Tässä kiteytyy modernin tiiviin aineen tutkimuksen vetovoima: riittävällä luovuudella esoteerisetkin teoriat voivat konkretisoitua tosimaailmassa. Eli hiukan karrikoiden, jos neutronitähden sisus ei anna kvarkkiainetta, pitää rakentaa uusi neutronitähti josta sitä löytyy.

Itse viihdyn mainiosti tiiviin aineen teorian tutkimuksessa joka ammentaa ideansa eri fysiikan aloilta. Toisaalta en tunne tarvetta todistella oman tutkimusalueeni ylivertaisuutta. Seuraan suurella mielenkiinnolla hiukkasfysiikan ja kosmologian tutkimusta, vähintään yleistajuisten uutisten tasolla. Suomessa fysiikan laitosten segregoituminen tutkimusaiheiden mukaan on ymmärrettävää mutta valitettavaa. Topologisen aineen teoriat, korreloituneet kvanttisysteemit sekä kvantti-informaatio (laboratoriossa ja kvanttigravitaatiossa) ovat esimerkkejä nopeasti kasvavasta tiiviin aineen ja hiukkasfysiikan rajapinnasta, jonka kummankin puolen tehdään aikamme merkittävimpiä keksintöjä. Vaikka yllä mainitsemiani aiheita meillä jossain määrin tutkitaankin, ovat eri alojen tutkijat etääntyneet tapahtumahorisontin taakse.

Mielestäni modernin tiiviin aineen teoreetikon hyvä pohjakoulutus kaipaa traditionaalisen aineksen lisäksi hiukkasfysiikan ja yleisen suhteellisuusteorian perusteet ja säieteorian alkeet. Ajankohtaiset tutkimustrendit osoittavat että tiiviin aineen teorioiden tuntemus on arvokasta myös hiukkasfyysikoiksi identifioituville. Jos teoreettisen fysiikan intressejä ei saada paremmin yhdistettyä marginalisoimme itsemme keskeisillä aloilla.

Teemu Ojanen
Assoc. Prof., projektipäällikkö (topological matter)
Tampereen Yliopisto ja Fysiikan tutkimuslaitos

[1] A. Westström and T. Ojanen, Designer curved-space geometry for relativistic fermions in Wey metamaterials,  Phys. Rev. X 7 041026 (2017).

[2] Long Liang and Teemu Ojanen,  Curved spacetime theory of inhomogeneous Weyl materials, Phys. Rev. Research 1, 032006 (2019).

[3] Long Liang and Teemu Ojanen, Magnetotorsional effect in Weyl Semimetals,  Phys. Rev. Research 2, 022016 (2020).

[4] Shawulienu Kezilebieke, Md Nurul Huda, Viliam Vaňo, Markus Aapro, Somesh C. Ganguli, Orlando J. Silveira, Szczepan Głodzik, Adam S. Foster, Teemu Ojanen, Peter Liljeroth, Topological superconductivity in a designer ferromagnet- superconductor van der Waals heterosturcture,  arXiv:2002:02141, to appear in Nature.

Kuuman kvarkkiaineen tutkimus ALICE-kokeessa

CERNin suuren hadronitörmäyttimen, LHC:n, varrella on neljä suurta koeasemaa, joista jokaisella on omat painoalueet tutkimuskohteissa. CMS ja ATLAS ovat yleiskokeita, jotka ottavat vastaan mahdollisimman suuren määrän törmäyksiä. Tyypillisesti kokeet pyrkivät valitsemaan liipaisuehdoilla (trigger) kiinnostavia ja harvinaisia tapahtumia, joiden pohjalta etsitään uusia hiukkasia ja vuorovaikutuksia. LHCb-kokeen mittalaitteet keskittyvät etusuuntaan. Eräs LHCb-kokeen erikoisalueista on b-kvarkkeja sisältävien hadronien mittaukset, joilla tavoitellaan ymmärrystä maailmankaikkeudessa vallitsevasta hiukkasten ja antihiukkasten epätasapainosta. ALICE-koe on erikoistunut kvanttiväridynamiikan (QCD) tutkimuksiin, erityisesti raskasionitörmäyksissä syntyvän kvarkki-gluoniplasman (QGP) ominaisuuksien kartoittamiseen.

Normaaleissa olosuhteissa kvarkit ja gluonit ovat kahliutuneet hadronien sisään, eikä luonnossa olla koskaan havaittu yhtään vapaata kvarkkia. Tämä on yksi keskeinen ero sähkömagneettisen ja vahvan vuorovaikutuksen välillä. Atomin voi ionisoida, eli varsin pieni määrä energiaa riittää elektronin viemiseen äärettömän kauas atomin ytimen läheisyydestä. Saman tekeminen vaikkapa protoniin sitoutuneelle kvarkille ei onnistu. Vahvan vuorovaikutuksen (potentiaali)energia kasvaa etäisyyden kasvaessa ja yritys yhden kvarkin viemiseksi kauas protonista voi purkautua vaikkapa kvarkki-antikvarkkiparin muodostumisella, jolloin lopputilassa nähdään vapaan kvarkin sijasta baryoni ja mesoni, eli kaksi erillistä kvarkkien muodostamaa sidottua tilaa.

Erityisen mielenkiintoinen tilanne syntyy, kun kuumennamme hadroneista koostuvan aineen äärimmäiseen, yli 2000 miljardin asteen, lämpötilaan tai vaihtoehtoisesti puristamme sitä kasaan paineisiin, jotka vallitsevat raskaiden neutronitähtien ytimissä. Tuolloin tiheys kasvaa niin suureksi, että hadronien varaussäteet alkavat mennä päällekkäin ja kvarkit vapautuvat kahliutumisesta tiheän aineen sisällä. Neutronitähtien ytimissä esiintyvää ainetta kutsutaan kylmäksi kvarkkiaineeksi, jonka ominaisuuksia tutkitaan HIP:ssä Aleksi Vuorisen vetämässä teoriaprojektissa. Varhainen, alle 10 mikrosekunnin ikäinen, maailmankaikkeus oli täynnä kuumaa kvarkkiainetta. Vastaaviin olosuhteisiin päästään laboratoriossa tutkimalla raskaiden ytimien törmäyksiä, joissa syntyy atomin ytimen kokoinen kuuma ainepisara. Sekä kuuman että kylmän vahvasti vuorovaikuttavan aineen tapauksessa kyse on olomuodon muutoksesta tavallisesta aineesta plasmaksi. Vertailun vuoksi, sähkömagneettinen plasma koostuu ioneista, eli siinä on vapaita sähkövarauksia. Vastaavasti QCD plasmassa on vapaita värivarauksia. Kvarkki-gluoniplasman olemassa olon katsotaan saaneen kokeellisen varmistuksen viimeistään Brookhavenin kansallisessa laboratoriossa (BNL) sijaitsevalla RHIC-törmäyttimellä tehdyissä mittauksissa. Siten tänä päivänä QGP:n kokeellinen ja teoreettinen tutkimus keskittyy enemmän aineen yksityiskohtaisempien ominaisuuksien ymmärtämiseen, kuten esimerkiksi QGP:n leikkausviskositeetin määrittämiseen. Kuva 1 esittää eri aineiden leikkausviskositeetin ja entropian suhdetta, joka mittaa aineen juoksevuutta, kunkin aineen faasitransitiolämpötilan ympärillä. Vaikka QGP:n absoluuttinen viskositeetti on erittäin suuri, sen juoksevuus on jopa pienempi kuin nestemäisellä heliumilla. QGP onkin ideaalisin tunnettu neste.

Kuva 1: Eri aineiden leikkausviskositeetteja faasitransition ympäristöstä. Kuva artikkelista Lacey et
al., Phys. Rev. Lett. 98 (2007) 092301

ALICE-kokeen suunnittelu alkoi jo 80-luvulla ja kokeesta jätettiin CERNiin Letter of Intent 1. maaliskuuta 1993 (Kuva 2). Tuolloin relativistisen raskasionifysiikan mittaukset nähtiin paljolti ns. ”pehmeiden havaintojen” (englanniksi soft probes) kautta, joihin liittyy keskeisesti aineen kemiallisen koostumuksen ja matalaenergisten fotonien tutkimus. Siten ALICE koe rakennettiin maailman suurimman TPC:n (Time Projection Chamber) ympärille maltillisessa 0.5 T magneettikentässä, jotta mitattuihin ratoihin saataisiin mahdollisimman tarkka hiukkasten tunnistus pieniin liikemääriin saakka. TPC tunnistaa (sähköisesti varatut) hiukkaset kaasussa tapahtuvan energiahäviön perusteella. Sen lisäksi ALICE-kokeessa hiukkasten tunnistamista tuetaan muun muassa lentoaikamittauksilla, Tšerenkovin säteilyn mittauksilla sekä ”pienellä”, mutta erittäin hienojakoisella, sähkömagneettisella kalorimetrillä. Perusajatus poikkeaa erittäin huomattavasti ATLAS and CMS kokeista, joiden keskeisissä fysiikkatavoitteissa hiukkasen tunnistus ei ole yhtä merkittävässä roolissa. Lisäksi näissä kokeissa käytetään voimakkaampaa magneettikenttää, jolloin hiukkasten ratoja saadaan paremmin mitattua suuremmille liikemäärille, joskin samalla pienen liikemäärän alue kärsii. ATLAS ja CMS kokeiden kalorimetrit ovat hieman karkeampia, mutta kattavat paljon suuremman akseptanssin. Nämä painoalueet antavat erittäin hyvän suorituskyvyn esimerkiksi jettien tutkimukseen.

Kuva 2: (vasen) Alkuperäinen ALICE suunnitelma vuodelta 1993. Kuva: A Letter of Intent for A Large
Ion Collider Experiment [ALICE], CERN-LHCC-93-016 ; LHCC-I-4. (oikea) ALICE LS2 jälkeen.

Alkuperäisen suunnitelman mukaan ainoastaan ALICE-kokeen oli tarkoitus mitata lyijy-lyijy törmäyksiä LHC:ssa muiden kokeiden ollessa pois päältä samaan aikaan. RHIC-törmäyttimen kokeelliset mittaukset kuitenkin muuttivat raskasionifysiikan tutkimuskenttää merkittävällä tavalla. Erityisesti jettien energiahäviöiden löytymisen seurauksena suurienergisten, eli ”kovien prosessien” (hard probes), merkitys raskasionifysiikan tutkimuksessa kasvoi. Toisekseen mittausten perusteella tuli ilmeiseksi, ettei törmäyksessä tuotettujen hiukkasten lukumäärä, multiplisiteetti, tule olemaan LHC-energialla niin suuri kuin 80-luvulla ennustettiin. Näiden seurauksena tultiin lopulta tilanteeseen, missä kaikki LHC-kokeet mittaavat kaikkia törmäyssysteemejä, protoni-protoni, protoni-lyijy ja lyijy-lyijy törmäyksiä. Kehityksellä on erittäin suuri merkitys koko raskasionifysiikan kentälle, sillä CMS ja ATLAS kokeet pystyvät monissa koviin prosesseihin liittyvissä aiheissa, kuten esimerkiksi W ja Z bosonien mittauksissa raskasionitörmäyksissä, laajentamaan fysiikan mittauksia huomattavasti siitä, mihin ALICE olisi yksin pystynyt. Monipuolisempien fysiikan mittausten – ja teoreettisen tutkimuksen – lisäksi kaikkien kokeiden osallistumisella raskasionitörmäysten mittaamiseen on sekin ilmeinen arvo, että kaikki kokeet voivat hyödyntää kaiken suihkuajan LHC:ssa. Jatkossa keskityn yksinomaan ALICE-kokeeseen tässä kirjoituksessa.

LHC:ssa on meneillään toinen pitkä huoltotauko, Long Shutdown LS2, jonka aikana ALICE ja LHCb kokeisiin tehdään erittäin merkittävät päivitykset. ATLAS ja CMS kokeiden osalta LS3 on merkittävämpi, koska sen jälkeen siirrytään ”high-luminosity” aikaan LHC:ssa, eli protoni-protoni mittauksissa törmäystaajuutta kasvatetaan huomattavasti. Seuraavassa kuvaan lyhyesti ALICE-kokeen päivitystä ja sen motiiveja, sekä Suomen osallistumista päivitykseen.

Kaikkien kokeiden osallistuminen raskasionitörmäysten mittaamiseen rikastaa LHC:n fysiikkaohjelmaa. Sivutuotteena se myös lisää kokeiden välistä tieteellistä kilvoittelua. Raskasionifysiikan osuus LHC:n suihkuajasta on pieni. Siten on selvää, että ALICE-kokeen täytyy erikoistua ja pystyä osoittamaan osa-alueita, joissa kokeella on erityisiä vahvuuksia muihin LHC-kokeisiin verrattuna. Kuten kerroin, ALICE-koe alun perin suunniteltiin erityisesti matalan liikemäärän ja hyvän hiukkasten tunnistuksen näkökulmasta, koska kuuman QCD aineen kemiallinen koostumus oli kokeen suunnittelun aikaan keskiöissä. ALICE:en tällä hetkellä tehtävän päivityksen on tarkoitus vahvistaa näitä ominaisuuksia ja rakentaa fysiikan ohjelmaa niiden päälle.

Eräs perinteinen tutkimusalue raskasionifysiikassa on termisten fotonien ja dileptonien mittaaminen. Fotonit ja dileptonit eivät koe vahvaa vuorovaikutusta, joten niiden vapaa matka QCD aineessa on pitkä atomin ytimen mittakaavassa, arvioiden mukaan suuruusluokkaa 100 fm. Niinpä ne karkaavat törmäysalueelta ilman sekundäärisiä vuorovaikutuksia ja niissä on nähty paljon mahdollisuuksia mitata suoraan vaikkapa törmäyksessä syntyneen tulipallon keskustan lämpötilaa. Toisaalta rho-mesonin on havaittu levenevän raskasionitörmäyksissä, mikä on liitetty kiraalisymmetrian palautumiseen. Fotoneista ja dileptoneista on tehty runsaasti mittauksia SPS ja RHIC kokeissa. Valitettavasti vastaavat mittaukset ovat LHC-energioilla huomattavasti vaikeampia, sillä esimerkiksi fotonien tapauksessa hadronisten resonanssien hajoamisissa syntyvät fotonit enenevässä määrin dominoivat kaikkien fotonien jakaumia, minkä seurauksena signaalin suhde taustaan heikkenee energian kasvaessa. Mittauksen mahdollistamiseksi tarvitaan erittäin paljon statistiikkaa.

Yksi ALICE:n merkittävimmistä tutkimusalueista liittyy raskaiden kvarkkien mittauksiin. Niiden tapauksessa prosesseihin liittyy lopputilan massojen kautta iso tyypillinen skaala, minkä ansiosta häiriöteoreettiset laskut ovat paremmin kontrolloituja. LHC:n kahden ensimmäisen ajon aikana ALICE on mitannut kiinnostavia tuloksia mm. hadronisaatioon liittyen, sillä LHC-energialla törmäyssysteemin tiheys on kasvanut niin merkittävästi, että raskaiden kvarkkien rekombinaatio on noussut esiin uutena ilmiönä verrattuna RHIC-törmäyttimen kokeissa tehtyihin mittauksiin. LHC:n kahden ensimmäisen ajon aikana tehtyihin raskaisiin kvarkkeihin liittyvissä mittauksissa on usein merkittävät statistiset epävarmuudet ja myös osaa systemaattisista epävarmuuksista voisi pienentää lisäämällä statistiikkaa. Vuosien varrella ALICE-kokeen erinomaista hiukkasten tunnistuksen radoissa on opittu soveltamaan myös ehkäpä hieman yllättävissäkin (?) tilanteissa. Kuvassa 3 esitetään ALICE:n mittaus hypertritonin elinajalle. (Lambda-)Hypertriton on protonin, neutronin ja lambda-baryonin muodostama sidottu tila. Tila on tunnettu jo pidemmän aikaa, mutta sen elinajan mittauksissa on ollut epävarmuuksia. Teoreettisten mallien kannalta on keskeistä esimerkiksi se, onko elinaika lähellä lambdan elinaikaa, vai jotain muuta. Tulokset näyttävät, että ALICE pystyy tällä hetkellä tarkimpaan mittaukseen maailmassa. Tämä on esimerkki laajemmasta kehityksestä kokeen sisällä, missä ratailmaisimen mahdollisuuksia hyödynnetään eksoottisten keveiden ytimien havaintoihin.

Kuva 3: Mittauksia ja teoreettisia malleja hypertritonin elinajalle vuodesta 1964 eteenpäin.

Kaikkia edellä mainittuja esimerkkejä yhdistää tarve suurelle statistiikalle ja erityisesti se, että näihin mittauksiin ei voida rakentaa dedikoitua liipaisuehtoa. Niinpä ALICE-kokeen päivitykselle muodostui kolme keskeistä periaatetta:

  1. säilytetään kyky hiukkasten tunnistuksessa,
  2. lisätään raskasionitörmäysten statistiikka 50-100 kertaiseksi ja
  3. kerätään data ilman liipaisuehtojen käyttöä (minimum bias trigger)

Nämä kolme tavoitetta on määritellyt ALICE:en LS2:n aikana tehtävän päivityksen reunaehdot. Esitän seuraavaksi päivityksestä jotain nostoja, kokonaisuuden käsittely olisi hieman pitkällinen.

ALICE:n datan keruu on täytynyt uudistaa perusteellisesti. Kahden ensimmäisen ajon aikana ALICE mittasi lyijy-lyijy törmäyksiä tyypillisesti n. 500 Hz taajuudella. Tulevan ajon aikana törmäystaajuutta kasvatetaan tekijällä 100 aina 50 kHz asti. Tämän seurauksena ilmaisimien datan keräämisen elektroniikka (readout electronics) on täytynyt päivittää suurelta osin. Suomi osallistui TPC:n päivitykseen, missä lankakammiot korvattiin GEM-kalvoihin perustuvalla mittaussysteemillä. HIP:n detektorilaboratoriossa tehtiin iso työ laadunvarmistuksessa, missä isoja GEM-kalvoja tutkittiin optisten skannereiden avulla ja testattiin korkeajännitteellä. ALICE:en rakennetaan uusi seitsenkerroksinen CMOS pikselisensoreihin perustuva ratailmaisin (ITS = Inner Tracking System), jossa 5×5 mikrometrin pikselikoko parantaa huikeasti paikkaresoluutiota, materiaalin määrä vähentyy 0,35 % X/X0 per kerros ja ensimmäinen kerros tulee 2,3 cm etäisyydelle törmäysakselista. Päivitys parantaa merkittävästi resoluutiota ja erityisesti verteksien paikantamista. Erinomaista tarkkuutta sekundääristen verteksien paikan määrityksessä edellytetään mm. raskaisiin kvarkkeihin liittyvissä mittauksia. Samaan teknologiaan pohjaten rakennetaan etusuuntaan ratailmaisin, Muon Forward Tracker, joka nimensä mukaisesti pyrkii tarkentamaan myonien ratoja sekä niihin liittyviä sekundääriverteksejä.

Kuva 4: Fast Interaction Trigger (FIT) -ilmaisimen komponentit

ALICE-kokeen etusuunnan ilmaisimet menevät suurelta osin uusiksi LS2 aikana. Keskeisimpänä uudistuksena rakennetaan uusi vuorovaikutusilmaisin, Fast Interaction Trigger detector FIT, missä on kolme erillistä osailmaisinta (kuva 4). Molemmin puolin vuorovaikutuspistettä sijaitsee FIT Diffractive Detector ilmaisimet, jotka ovat 17 m ja 19,5 m etäisyyksillä vuorovaikutuspisteistä. Niiden tehtävänä on vahvistaa diffraktiivisen fysiikan mittauksia ALICE:ssa sekä auttaa poistamaan varsinaisen suihkun ja suihkuputken tyhjiössä olevan residuaalikaasun välisissä törmäyksissä syntyneitä tapahtumia. Tarkan törmäysajan mittaamiseen rakennetaan FT0 ilmaisimet, jälleen molemmin puolin vuorovaikutuspistettä. Odotettu aikaresoluutio lyijy-lyijy törmäyksissä on 10 ps suuruusluokkaa. Tarkka törmäysaika on keskeistä mm. lentoaikamittauksissa. Kokonaisuuteen kuuluu myös suuren akseptanssin FV0 ilmaisin, joka mittaa esimerkiksi raskasionitörmäyksen keskeisyyttä ja törmäystasoa kulmaa. (FT0 ja FV0 nimityksillä on historiallinen tausta.) Erityisesti, FIT toimii ALICE:n luminometrinä tarjoten on-line tiedon LHC:n suihkun operaattoreille. Ilmaisin tuottaa myös kokeen minimum bias triggerin. Lyhyesti sanottuna, ilman FIT-ilmaisinta ALICE ei mittaa yhtäkään törmäystä. Suomi osallistuu FIT-ilmaisimeen merkittävällä rahallisella panoksella ja puolet ryhmästämme työskentelee ilmaisimen parissa.

Datan hallinta tuo mukanaan merkittäviä haasteita LS2 jälkeen. ALICE:n tavoitteena on tallentaa jokainen lyijy-lyijy törmäys 50 kHz taajuudella. Kuitenkin, mittalaitteet tuottavat raakadataa 3,5 TB sekunnissa, joten raakadatan tallentaminen on yksinkertaisesti mahdotonta. Tämän seurauksena ALICE on päätynyt uudenlaiseen rohkeaan datanhallintaan. Ilmaisimista tuleva raakadata kerätään aluksi FLP (First Level Processors) laskentafarmiin, jonka päätehtävänä on koota kaikkien ilmaisimien data yhteen ja lähettää ne seuraavalla EPN (Event Processing Nodes) farmille. EPN koostuu noin 2000 CPU ja GPU yksiköstä, joiden tehtävänä on keskeisiltä osiltaan rekonstruoida eventit on-line, erityisesti suorittaa klusterointi ja sovittaa perus ratamalli TPC informaatioon. Tämän jälkeen levylle tallennetaan vain hyvin redusoitu informaatio, kuten klusterit, ja varsinainen raakadata dumpataan. Koko prosessin aikana datavirta redusoituu 100 GB/s (raskasionitörmäysten aikana), joka tallennetaan levylle. Kerätyn datamäärän suuren koon takia myös sen louhinta fysiikka-analyysien yhteydessä täytyy optimoida kootusti laskenta-ajan säästämiseksi.

Meidän tutkimusryhmämme keskittyy kollektiivisen virtauksen ominaisuuksien tutkimiseen hienovaraisten korrelaatioiden avulla. Tulevaisuuden tavoitteena on mm. pyrkiä erottelemaan leikkaus- ja bulkkiviskositeetista aiheutuvia efektejä toisistaan. Lisäksi tutkimme (pienen energian) jettien poikittaisrakenteen sekä dijettien massajakaumien muutoksia. Puskeminen kohti pientä jetin energiaa on melko tyypillistä ALICE kokeelle, koska sillä alueella olemme kilpailukykyisiä ATLAS ja CMS kokeiden kanssa, vaikka jettifysiikka       onkin niiden kokeiden paraatilajeja. ALICE:n uusi strategia datanhallintaa on oikein hyvä myös näiden aiheiden näkökulmasta. ALICE-kokeessa valmistaudutaan myös keskipitkän ja pitkän aikavälin päivityksiin. LS3 (2025-2027) aikana ALICE tavoittelee ratailmaisimen päivitystä. Silloin kolme sisintä kehää on tarkoitus korvata kaareville silikoni-ilmaisimilla (Kuva 5), joissa pyritään vähentämään materiaali häkellyttävään 0,05 % X/X0 per kerros! Tämän päivityksen jälkeen tavoittelemme muun muassa herkkyyttä Lambda-c ja Lambda-b hiukkasten mittauksille. Kaarevien silikoni-ilmaisimien R&D kampanja on täydessä vauhdissa ja edistyy oikein hyvin. ALICE on jo tuottanut testisuihkudataa kaareutettujen ilmaisimien kanssa ja tulokset ovat olleet erittäin hyviä.

Kuva 5: ITS-päivityksen jälkeen (LS3) kolme ensimmäistä kerrosta ovat kaarevia ilmaisimia. Kuva: Letter of Intent for an ALICE ITS Upgrade in LS3, CERN-LHCC-2019-018 ; LHCC-I-034

Suomalaisia erityisesti kiinnostava LS3:n aikana tehtävä päivitys on etusuuntaisen kalorimetrin lisääminen ALICE:en. Kalorimetrin tarkoituksena on mitata mm. suoria fotoneita ja neutraaleja pioneja etusuunnalla suurella tarkkuudella. Tuloksia voidaan käyttää ydinpartonijakaumien rajoittamiseen sekä tuloksien avulla pyritään löytämään kokeellisia todisteita nk. gluonien saturaatiosta. Yksinkertaistetusti saturaatiota voi ajatella siten, että erittäin pienen Bjorkenin x:n alueessa gluonien tiheys faasiavaruudessa kasvaa niin suureksi, että gluonien fuusion seurauksena tiheys ei voi enää kasvaa, vaan saturoituu. Tässä alueessa QCD:n epälineaariset ilmiöt tulevat tärkeiksi ja niiden ympärille on kehittynyt rikas teoreettinen fenomenologia viime vuosien aikana. Suomen kannalta merkittävää on, että sekä ydinpartonijakaumia että saturaatiofysiikkaa tutkitaan Jyväskylän teoriaryhmässä intensiivisesti. Mikäli kokeellinen ryhmä suuntautuu näihin mittauksiin tulevaisuudessa, se tarjoaa mahdollisuuden erittäin hedelmälliselle yhteistyölle ryhmien välillä ja tuleville tieteentekijöille mahdollisuuden monipuoliseen kouluttautumiseen. ALICE koe on alkanut valmistautua myös LS4 jälkeiseen aikaan. Vielä ei ole varmistunut, jatketaanko raskasionifysiikkaa LHC:ssa enää tuolloin, eli vuoden 2030 jälkeen. Mikäli jatketaan, niin ALICE-koe olisi tarkoitus rakentaa tuolloin kokonaan uudestaan. Siinä vaiheessa luopuisimme kokonaan TPC:stä ja tilalle kaavaillaan äärimmäisen nopeaa, kokonaan silikoni-ilmaisimiin perustuvaa koetta. Sen suunnittelutyö on alkanut ja Letter of Intent on tarkoitus julkaista vuoden 2021 lopussa.

Sami Räsänen
HIP:n ALICE-projektin päällikkö

The future of physics will be seen with gravitational waves

Gravitational wave amplitude as a function of time in GW190521, as observed by the three gravitational wave detectors in the LIGO/Virgo collaboration, along with the inferred signal from a merger of two black holes with masses of 85 and 66 solar masses. Each vertical line is separated by 0.05 seconds. Reproduced under Creative Commons 4.0 license from Physical Review Letters 125, 101102 (2020).

Biggest black hole merger so far

Great excitement has been generated by the recent publication by the LIGO/Virgo collaboration (LVC) of a gravitational wave burst interpreted as a merger of black holes with masses 85 and 66 times greater than that of the Sun, leaving a final black hole with mass 150 solar masses. The remnant black hole formed in this event, labelled GW190521, is the most massive detected by LVC so far. Black holes with masses in the range 65 – 130 solar masses are not expected to form from collapsing stars, so there is a puzzle about how the more massive progenitor was formed. 

A puzzle – how were these black holes made?

The gap in the range of predicted masses is called the pair instability mass gap. A star with a mass of about 100 solar masses becomes so hot at its centre that the black body photons have enough energy to turn into electron-positron pairs. This reduces the pressure and the centre of the star shrinks and heats up further. If the star is not too massive, it starts pulsating and shedding material, before eventually collapsing into a black hole with mass less than about 65 solar masses. If the star is more than about 130 solar masses, the theoretical expectation is that it blows completely apart, and no black hole is formed at all.

The LVC studies various explanations in detail in a longer paper. One possibility is that at least one of the progenitors is itself the result of a merger. Another more exotic formation mechanism for black holes in the mass gap is by the collapse of a rare large density fluctuation very early in the history of the universe, into what’s called a primordial black hole. This scenario predicts black holes which do not spin, at least until they themselves merge. It’s interesting that there is evidence from the detailed shape of the gravitational wave burst that at least one of the black holes in GW190521 was spinning. 

Was light from the merging black holes also seen?

A further intriguing feature of the event is an observation of a flare in an active galactic nucleus (AGN) in about the right direction and at about the right distance to be a so-called electromagnetic counterpart to the black hole merger. The flare reached peak brightness about 50 days after the merger, which could be consistent with a model in which the binary was located in a disk of hot gas surrounding a supermassive black hole. Variations in the intensity of the electromagnetic radiation from this disk is what makes an AGN “active”. This kind of coordinated observation of an astronomical object or event by several different methods is known as multi-messenger astronomy, and is an important and rapidly growing field. Perhaps the most spectacular example was the simultaneous observation by LIGO and many other instruments detecting electromagnetic radiation of a pair of merging neutron stars in 2017 (see also Aleksi Vuorinen’s blog post, June 2020) .

Nanohertz gravitational waves?

Another recent gravitational wave observation has caused a stir, this time from NANOGrav (North American Nanohertz Observatory for Gravitational Waves), which is a collaboration looking for gravitational waves by observing, over a long period, dozens of millisecond pulsars in our galaxy using radio telescopes in the US. Each one of these pulsars is a rapidly-spinning neutron star emitting radio pulses with periods of a few to tens of milliseconds. They act like a set of accurate clocks distributed around us in space.  A gravitational wave passing through this net of clocks would disturb the arrival times of the ticks at the Earth in a characteristic way. In the latest NANOGrav dataset, based on 12.5 years of observations, an unexplained slow variation in the ticking has been seen, which could be gravitational waves with a period of a few years. Such long-wavelength gravitational waves would be produced by the merger of black holes of billions of solar masses, such as those known to exist at the centres of many galaxies, and recently directly observed at the centre of M87 by the Event Horizon Telescope. A more exotic possibility is oscillating loops of cosmic string, remnants of a phase transition in the very early universe. 

Where next for gravitational wave detection?

Naturally, the excitement of gravitational wave astronomy is motivating investment in more detectors around the world. In Japan, KAGRA started observing this year, but as with LIGO and Virgo, had to shut down when the Covid-19 pandemic hit.  A third LIGO detector is going to be built in India. In the more distant future is Einstein Telescope. But the next phase of gravitational wave astronomy will need to be out of this world. On the Earth, seismic activity limits observations to frequencies above 10 Hz or so. This means that mergers of the supermassive black holes known to exist at the centres of galaxies can’t be observed, as they radiate at a much lower frequency. To see these events, gravitational wave detection will move into space. HIP members are involved in the European Space Agency’s LISA (Laser Interferometer Space Antenna), due for launch in 2034. LISA will be a triangular arrangement of satellites using laser interferometry to measure changes in their 2.5 million km separation to an accuracy of a few picometres, enabling the instrument to detect for merging black holes of a million solar masses or more. It will also be able to listen out for gravitational waves from violent events very shortly after the Big Bang, as David Weir explained in his blog post here last year.

The orbit the three LISA satellites will take, trailing the Earth on its path around the Sun by about 10 million km. Reproduced from arxiv:1702.00786

LISA may also be joined by the planned Chinese space-based detectors Taiji and TianQin. Taiji is designed with a very similar specification to LISA, while TianQin would be a smaller constellation orbiting the Earth at a distance of around 100,000 km, placing its three satellites inside the Moon’s orbit.  It will be less sensitive than LISA and Taiji, but it avoids some of the challenges involved in propelling satellites so far away from the Earth. Not least of these is the faintness of the radio signals coming from LISA, which will mean that the data transfer rate will be no better than that of a late 1980s modem.

Seeing the future with gravitational collaboration

Extraordinary discoveries have already been made with gravitational waves, and there will surely be many more. One of the most exciting things about the field is that it brings together scientists working in quite different fields, as the observation of the binary neutron star merger has already shown. Theoretical physicists, like me, trying to use the gravitational echoes of a bubbling universe at around 10 picoseconds after the Big Bang to probe the fundamental nature of matter have a shared interest with astronomers seeking to understand the life-cycle of the huge black holes at the centres of galaxies. Both goals critically depend on the analysis of gravitational waves of frequencies around a millihertz, where LISA will be most sensitive. We will need to work together to disentangle the signals, to learn about the parts of the universe most distant in space and time. This is also perhaps where new laws of physics are hiding.

Mark Hindmarsh

I thank colleagues in Helsinki and elsewhere in Finland for helpful discussions about these exciting results.