Kokeellinen hiukkasfysiikan tutkimus Suomessa ennen Fysiikan tutkimuslaitoksen perustamista

Kokeellinen hiukkasfysiikan tutkimus Suomessa on viimeisen 25 vuoden aikana ollut Fysiikan tutkimuslaitoksen (HIP) vastuulla. Ennen HIPin perustamista alan tutkimusta oli tehty Helsingin yliopiston Suurenergiafysiikan laitoksen (vuoteen 1978 Ydinfysiikan laitoksen) ja v. 1991 perustetun Suurenergiafysiikan tutkimuslaitoksen voimin alkaen vuodesta 1966. Tarkempi kuvaus alan tutkimuksesta Suomessa 1966–2012 löytyy kirjasta ”Kuplakammiofysiikasta Higgsin bosoniin – Suomalaisen kokeellisen hiukkasfysiikan viisi ensimmäistä vuosikymmentä” (J.Tuominiemi 2018). Kirja on ladattavissa HIPin verkkosivuilla annetusta linkistä. Seuraavassa lyhyt yhteenveto tutkimuksen tärkeimmistä vaiheista ennen HIPin perustamista.

Ensimmäiset kokeet, joissa suomalaiset tutkijat olivat mukana, tehtiin CERNissä v. 1966. Tuolloin yksi alan tärkeimmistä tutkimuslaitteistoista oli kuplakammio. Kuplakammiolla otettiin tutkittavista hiukkastörmäyksistä valokuvia. Kuvista mitattiin syntyneiden hiukkasten radat sitä varten kehitetyillä projektoreilla, joita oli hankittu kokeisiin osallistuviin laboratorioihin. Näin kerättiin tutkimusaineistoa hiukkastörmäyksistä fysiikan analyysiä varten. Analyysi tehtiin instituuttien käytössä olevilla tietokoneilla. Kuplakammiokokeiden kulta-aika oli 1950-luvulta aina 1970-luvulle asti. Kokeet olivat aluksi tärkeitä hiukkaskiihdyttimillä tuotettujen uusien alkeishiukkasten etsinnässä. Kokeissa löydettiin suuri joukko uusia hiukkasia, jotka hajosivat edelleen tunnetuiksi stabiileiksi hiukkasiksi.

Yksi tärkeä esimerkki oli Omega-baryonin löytyminen, joka oli amerikkalaisen teoreetikon Murray Gellmanin esittämän SU3-symmetriaan perustuvan ”eightfold way”-teorian ennustama. Kuplakammiomenetelmän kehittämiseen vaikutti merkittävästi amerikkalainen professori Luis Alvarez, joka palkittiin tästä fysiikan Nobelin palkinnolla v. 1968.

Suomessa alan tutkimus alkoi v. 1996, jolloin pieni ryhmä Helsingin yliopiston Ydinfysiikan laitoksen (YFL) fyysikoita liittyi pohjoismaiseen yhteistyöryhmään (Scandinavian collaboration). Yhteistyöryhmäään kuuluivat Helsingin lisäksi Tukholman, Kööpenhaminan ja Oslon yliopisto. Helsinkiin hankittiin kuplakammiokuvien mittauslaitteisto ja aloitettiin kuvien analysointi tietokoneilla. Kuplakammiokokeissa tutkimusryhmät olivat nykyisiin kokeisiin verrattuna vielä pieniä, yleensä parinkymmenen tutkijan yhteenliittymiä.

Scandinavian collaboration teki ensin kokeita CERNin 30 GeV:n PS-protonikiihdyttimen yhteyteen juuri valmistuneella 2 m kuplakammiolla. Ensimmäisissä kokeissa tutkittiin protoni-protoni- ja protoni-deuteroni-törmäyksiä PS-kiihdyttimen protonisuihkuilla. Kiihdyttimestä ulosohjatun protonisuihkun energia oli tuolloin maailman suurin, 19 GeV/c. Kokeita jatkettiin aina 1970-luvulle asti. Suomessa ei aluksi ollut riittävää tietokonekapasiteettia kokeiden analysointiin, vaan YFL:n tutkijaryhmä kävi tekemässä analysointiajot Kööpenhaminassa IBM:n pohjoismaisille yliopistoille v. 1965 perustamassa tietokonekeskuksessa (NEUCC). Siellä oli käytössä upouusi IBM7900 tietokone. Tutkijoitten Suomessa käytössä oleva tietokonekapasiteetti parani ratkaisevasti vuonna 1970, kun Valtion tietokonekeskus sai käyttöönsä modernin suuren UNIVAC 1108-tietokoneen. Kuplakammiokuvien tietokoneanalyysit voitiin nyt tehdä Helsingissä. Tästä alkoi myös Suomessa tietotekniikan kehityskulku, joka on taannut fysiikan tutkimukselle Suomessa kansainvälisesti kilpailukykyiset tietokoneresurssit. Yhdessä Brysselin, Liverpoolin ja Tukholman yliopistojen kanssa tehtiin 1970-luvun alussa kuplakammiokokeita myös CERNin PS:lle rakennetuilla antiprotonisuihkuilla. Niissä kartoitettiin protoni-nukleoni- ja antiprotoni-nukleoni törmäysten fysiikkaa monipuolisesti ja testattiin erilaisia teoreettisia ennusteita.

CERNin 2 m kuplakammio v. 1966 (Kuva CERN)
Kuplakammiokuva protoni-protoni- törmäyksestä 19 GeV:n protonisuihkulla. (Scandinavian collaboration 1967).

Kuplakammiokuvien mittausta SEFLissä Sweepnik-projektorilla v. 1971. (Kuvat SEFL)

Heti CERNin kokeisiin osallistumisen alettua Suomen tiedehallinnossa otettiin esille tutkimusyhteistyö myös sosialististen valtioiden Neuvostoliiton Dubnassa sijaitsevan ydin- ja hiukkasfysiikan laitoksen JINR:n (Joint Institute for Nuclear Research) kanssa. Tähän ei kuitenkaan saatu erillistä rahoitusta. Yhteistyö saatiin silti alulle ja pieni ryhmä YFL:n tutkijoita liittyi JINR:n rakentamalla ”Ludmila”-kuplakammiolla tehtäviin kokeisiin 1970-luvulla. Kokeet olivat tieteellisesti kiinnostavia, sillä ne tehtiin Neuvostoliiton Serpuhovissa sijaitsevassa kiiihdytinkeskuksessa, jossa oli tuolloin käytössä maailman tehokkain protonisynkrotroni. Sen suihkuenergia oli 76 GeV. Kiihdyttimen yhteyteen oli rakennettu antiprotonisuihku, jonka energia, 23 GeV, oli maailman korkein. Ludmila-kokeet saatiin joittenkin alkuvaikeuksien ja parannustöiden jälkeen aloitettua v. 1975 ja niitä jatkettiin vuoteen 1976. Kokeeseen osallistuivat Dubnan tutkimuslaitoksen ja YFL:n lisäksi Alma Atan, Kosicen, Moskovan (MGU), Prahan, Tbilisin, Bukarestin, Sofian ja Yerevanin yliopistot. Koetulosten analyysi jatkui 1980-luvulle asti. Kokeissa saatiin kartoitettua hadronifysiikan ajankohtaisia tutkimuskohteita uudella energia-alueella.

Vuonna 1974 CERN täydensi kuplakammioarsenaaliaan suurella 3,5 m BEBC-kammiolla. Juuri samoihin aikoihin oli Yhdysvalloissa Stanfordin ja Brookhavenin laboratorioissa tehdyissä kokeissa löydetty J/psi-mesoni, jonka massa oli 3.1 GeV/c2. Se tulkittiin oitis neljännen kvarkin (lumokvarkin) kvarkki-antikvarkki-tilaksi. Tämä merkittävä löytö aloitti BEBC-kammiolla laajan tutkimusohjelman, jossa tutkittiin lumohiukkasten tuottoa. CERN oli v. 1976 käynnistänyt myös uuden protonikiihdyttimen (Super Proton Synchrotron, SPS), jolla saavutettiin aluksi 300 GeV/c:n suihkuenergia. Näin BEBC-kokeissa voitiin tutkia hyvin lumohiukkasten tuottoa. Helsingin yliopiston Suurenergiafysiikan laitoksen (SEFL, entinen YFL) tutkimusryhmä osallistui tähän tutkimukseen yhteistyössä Brysselin, Liverpoolin ja Tukholman yliopistojen tutkimusryhmien kanssa (koe WA31) vv. 1976–19­80. Ydinfysiikan laitokseen hankittiin projektorilaitteisto, jolla BEBC-kuvia voitiin tutkia. Päätavoitteena oli lumokvarkkien tuoton tutkimisen lisäksi neutraalien outojen hiukkasten tuotto 70 GeV:n K+-suihkulla tuotetuissa K+p-törmäyksissä.

Seitsemänkymmentäluvun toisella puoliskolla alkoi suuri murros hiukkasfysiikan kokeellisessa tutkimuksessa. Kuplakammiot olivat jäämässä syrjään, lähinnä niiden hitauden takia. Elektronisten hiukkasilmaisimien kehitys oli noussut tasolle, jolla voitiin rakentaa suuriakin ilmaisiinkokonaisuuksia, ”koeasemia”. Mittaustieto hiukkastörmäyksistä toimitettiin suoraan tietokoneille analysoitavaksi ja laitteilla saatettiin rekisteröidä törmäystapahtumia aivan toisella nopeudella kuin kuplakammioilla.

CERN otti lisäksi suuren askelen eteenpäin myös hiukkastörmäysten energiassa.  CERNin fyysikon Carlo Rubbian ehdotuksesta SPS-kiihdytin varustettiin protoni-antiprotoni-törmäyttimeksi. Näin saavutettiin törmäysenergia, joka riitti Glashow-Weinberg-Salamin sähköheikkojen vuorovaikutusten teorian (GWS-teoria) ennustamien W- ja Z-bosonien tuottamiseen. CERNissä ja Fermilabissa tehtyjen kokeiden tulosten perusteella oli voitu laskea ennusteet näiden ” välibosonien” massoille, jos välibosonit olivat olemassa. CERNin ”Underground kokeet” UA1 ja UA2 löysivät nämä hiukkaset vv. 1982–1983.

Suomalaiset tutkijat SEFListä liittyivät UA1-kokeeseen v. 1979. UA1-laitteisto oli tuolloin jo lähes valmis, eikä suomalaisilla ollut aluksi resursseja osallistua laitteiston rakentamiseen. SEFLin ryhmä hyväksyttiin kuitenkin mukaan, sillä sen tutkijoilla oli kuplakammiokokeista hankittua osaamista UA1-koeaseman keskusilmaisimen mittaamien hiukkasten ratojen rekonstruoinnissa. Keskusilmaisin oli suuri sylinterimäinen ajauttamiskammio, joka antoi kahdessa dimensiossa protoni-antiprotoni-törmäyksestä tietokoneella konstruoidun kuvan, joka oli tarkkuudessaan samaa luokkaa kuin kuplakammiokuvat. UA1-kollaboraatio oli jo iso yhteistyöryhmittymä, siihen kuului alussa 11 yliopistoa ja instituuttia ja 150 insinööriä ja fyysikkoa. UA1-koeasema oli ensimmäinen täyden avaruuskulman kattanut elektroninen koelaitteisto. SEFLin ryhmällä oli keskeinen rooli koetulosten analysoinnissa, joka johti W- ja Z- hiukkasten löytämiseen. Carlo Rubbialle myönnettiin v. 1984 fysiikan Nobelin palkinto välibosonien löytämiseen johtaneista töistä yhdessä CERNissä hiukkaskiihdyttimien fysiikkaa tutkineen insinöörin Simon van der Meerin kanssa. Van der Meer oli kehittänyt ns. stokastisen jäähdytysmenetelmän, jolla hiukkaskiihdyttimessä kulkevien hiukkasten muodostamien suihkujen läpimittaa voitiin supistaa niin, että hiukkastiheys kasvoi. Tämä oli oleellista riittävän intensiivisten antiprotonisuihkujen synnyttämisessä.

UA1-koeaseman keskusratailmaisin. (Kuva CERN)
Tietokoneella rekonstruoitu kuva UA1 keskusratailmaisimen rekisteröimästä protoni-antiprotoni-törmäyksestä, jossa on syntynyt W-bosoni, joka on hajonnut elektroniksi ja
Neutrinoksi. Elektronin rata on merkitty punaisella (Kuva CERN).
UA1-koeaseman antama kuva törmäyksestä, jossa on syntynyt Z-bosoni, joka on edelleen hajonnut kahdeksi myoniksi. (Kuva CERN)

UA-kokeita jatkettiin koko 1980-luvun ajan. SPS-törmäyttimen suihkujen intensiteettiä nostettiin. Tähtäimessä oli erityisesti top-kvarkin ja Higgsin hiukkasen löytäminen. SPS-törmäyttimen energia ei kuitenkaan riittänyt tähän. Top-kvarkki löydettiin vasta v. 1995 Fermilabin 1,9 TeV:n Tevatron-törmäyttimellä tehdyissä kokeissa ja Higgsin hiukkanen v. 2012 CERNin LHC-törmäytinkokeissa (törmäysenergia energia 8 TeV). UA1-kokeen toisessa vaiheessa saatiin kuitenkin useita standardimallin kannalta merkittäviä tuloksia b-hadronien tuotosta ja hadroniryöppyjen fysiikasta.

Vuonna 1984 UA1-kokeen ollessa vielä käynnissä SEFL liittyi mukaan CERNiin rakenteilla olleen suuren elektroni-positroni-törmäyttimen yhteyteen rakennettavaan kokeeseen. CERN oli päättänyt v.1981 rakentaa Large Electron Positron collider (LEP) -kiihdyttimen laboratorion viereen. Elektroni- ja positronisuihkujen energiaksi asetettiin aluksi 100 GeV, jolloin sillä voitiin tuottaa suoraan UA-kokeissa löydettyjä Z-hiukkasia. Niitä voitiin tuottaa merkittävästi enemmän kuin SPS-törmäyttimellä. LEP-kokeiden päätavoitteena oli kartoittaa tarkasti välibosonien ominaisuuksia ja tarkistaa niiden yhtäpitävyyttä standardimallin ennusteiden kanssa.

LEPin neljästä kokeesta SEFL liittyi ns. DELPHI-kokeeseen (A Detector with Lepton, Photon and Hadron Identification), jossa se SEFL osallistui DELPHI-koeaseman hadronikalorimetrin ja sen tiedonkeruujärjestelmän rakentamiseen. Suomalaiset tutkijat osallistuivat nyt ensi kertaa suuren koeaseman suunnitteluun ja rakentamiseen. DELPHI-kokeeseen osallistui kaikkiaan viitisen sataa tutkijaa. Koeaseman rakentamiseen, operointiin ja tulosten analysointiin tarvittiin entistä enemmän insinöörejä, tietojenkäsittelyn asiantuntijoita ja hiukkasfyysikoita. SEFLin ryhmässä työskenteli yli kaksikymmentä tutkijaa. LEPin käynnistyessä v. 1989 kaikki neljä koeasemaa olivat valmiina. Ensimmäiset Z-hiukkaset havaittiin heti käynnistyksen jälkeen 14.8. 1989. LEP-kokeet jatkuivat aina vuoden 2000 loppuun. Tutkimukset osoittivat, että standardimalli kuvasi tutkittavia ilmiöitä hyvin suurella tarkkuudella. Eräs tärkeä tulos oli Z-bosonin massapiikin leveydestä saatu mittaus, joka osoitti, että neutriinolajien määrä on kolme.

DELPHI-koeasema asennusvaiheessa. (Kuva CERN)

Tietokoneella konstruoitu kuva DELPHI-koeasemalla rekisteröidystä elektroni-positronitörmäyksestä. (Kuva CERN).

Vuonna 1995 LEPin suihkuenergioita kasvatettiin niin, että voitiin havaita myös W-bosoni-parien tuottoa. Tähän tarvittiin 160 GeV:n törmäysenergia. Samalla uutta energia-aluetta hyödynnettiin Higgsin bosonin etsintään. LEP-törmäyttimen energia riitti nyt 118 GeV/c2:n massaisten hiukkasten tuottoon. Higgsin hiukkasta ei kuitenkaan löydetty ja LEP suljettiin v. 2000.

Suomi oli liittynyt CERNin jäseneksi v. 1991 alussa. Siihen asti Suomessa alan tutkimusta johtanut SEFL jaettiin kahteen osaan. Opetushenkilökunta pysyi matemaattis-luonnontieteellisen tiedekunnan osana ja toisesta osasta muodostettiin Suurenergiafysiikan tutkimuslaitos SEFT, joka toimi yliopiston konsistorin alaisena. DELPHI-koe siirtyi SEFTin projektiksi.

CERN oli alkanut suunnitella LEP-kiihdytintä seuraavaa uutta suurta kiihdytintä 1980-luvun lopulla. Kyseessä oli protoni-protoni-törmäytin, joka oli jo eurooppalaisten hiukkasfyysikoitten piirustuksissa jo 1980-luvun alussa LEP-törmäyttimen rakentamisesta päätettäessä. CERNin pääjohtaja John Adams oli jo v. 1977 tähdentänyt LEP-törmäyttimen kaavailun yhteydessä, että sille rakennettava tunneli tulisi rakentaa riittävän tilavaksi, jotta sinne voitaisiin myöhemmin sijoittaa suprajohteisiin magneetteihin perustuva vähintään 3 TeV:n protoni-protonitörmäytin. Vuonna 1987 tämä suunnitelma sisällytettiin CERNin pitkän tähtäimen ohjelmaan. Törmäyttimen suihkujen energiaksi asetettiin 8 TeV, joka näytti mahdolliselle suprajohteisten magneettien kehitystyön valossa. GWS-teorian ja kvarkkikromodynamiikan yhdistävä standardimalli tarvitsi uutta energia-aluetta sen kokeellisen todentamiseen. Suunnitelmia kehiteltiin edelleen ja vuonna 1994 CERNin neuvosto päätti LHC:n rakentamisesta. Myös LHC-kokeiden suunnittelu aloitettiin 1980-luvun lopussa. Vuosina 1990 ja 1992 CERN ja European Committee for Future Accelerators (ECFA) järjestivät mittavat konferenssit LHC-kokeista Aachenissa ja Evianissa. Niiden tuloksena CERN ja ECFA päätyivät ehdottamaan kahta koetta, jotka eroaisivat toisistaan mittaustekniikoiltaan niin, että tulosten ristiintarkistus oli mahdollista. Vuonna 1993 CERN sitten hyväksyi ATLAS- ja CMS-kokeiden alustavat suunnitelmat kokeiden suunnittelun pohjaksi. CERNin Neuvosto päätti lopullisesti LHC:n rakentamisesta v. 1994 lopulla ja v. 1995 lopulla CERNin johto hyväksyi ATLASin ja CMS:n Technical Proposal dokumentit, joiden pohjalta kokeita ryhdyttiin rakentamaan. CMS-kollaboraatio oli jo hyvin mittava yhteistyöhanke, Technical proposal-dokumentin allekirjoitti 1243 jäsentä 132 instituutista.

CMS-koeasemasuunnitelma 1994. (CMS Technical Proposal 1994)

Suomalaiset tutkimusryhmät SEFTistä, SEFListä, Teknillisestä korkeakoulusta ja Åbo Akademista olivat olivat olleet mukana CMS-kokeen Evianin kokouksen Expression of Interest -ehdotusta tehtäessä. Letter of Intent-vaiheeseen tulivat lisäksi mukaan tutkijaryhmät Jyväskylän ja Oulun yliopistoista. Koe-ehdotuksessa esitetty CMS-koeasema oli jo pääpiirteissään sama kuin lopulta toteutunut laitteisto. Keskusratailmaisin oli suurelta osalta SEFTin ryhmän suunnittelema. Suomalaiset osallistuivat merkittävällä panoksella koeaseman simulointi- ja analysointiohjelmistojen laadintaan. Koeasemasta oli tehty täydellinen GEANT-ohjelmistoon perustuva virtuaalisimulaatio, johon perustuen tehtiin ensimmäiset simulaatiotutkimukset standardimallin Higgsin bosonin etsimisestä ZZ-hajoamiskanavassa sekä MSSM-mallin sähkövarauksellisen Higgsin bosonin etsimisestä. Suomalaisilla tutkijoilla oli kertynyt osaamista suurilla koeasemilla tehtävästä tutkimuksesta UA1- ja DELPHI-kokeista, joten heillä oli alusta alkaen vahva edustus CMS-kokeessa. Teknillinen korkeakoulu oli mukana esityksessä CMS:n suuren keskusratakammion tynnyriosan tukirakenteen suunnittelussa ja prototyypin rakentamisessa. Tampereen teknillinen korkeakoulu osallistui puolestaan CMS-koeaseman tiedonkeruujärjestelmän suunnitteluun ja rakentamiseen. Expression of Interest-ehdotuksessa mukana olevat suomalaiset tutkimusryhmät allekirjoittivat myös CMS:n Technical Proposal-dokumentin. Mukana oli tällöin 18 insinööriä ja fyysikkoa Suomesta.

Tässä vaiheessa v. 1996 CMS-projektin jatko siirtyi Fysiikan tutkimuslaitoksen hallinnoimaksi. CMS-koeaseman rakentamisesta, rahoituksesta ja LHC-kokeista löytyy yksityiskohtainen esitys alussa mainitusta kirjassa ”Kuplakammiofysiikasta Higgsin bosoniin – Suomalaisen kokeellisen hiukkasfysiikan viisi ensimmäistä vuosikymmentä”.

Jorma Tuominiemi
Adj. vanhempi tutkija ja emeritus ohjelmajohtaja, CMS
Fysiikan tutkimuslaitos

Lisätietoa:

HIPin verkkosivuilta löytyvät myös seuraavat aiheeseen liittyvät artikkelit:

Jetit hiukkasfysiikan eturintamalla

      No Comments on Jetit hiukkasfysiikan eturintamalla

CERNin LHC-törmäytin on maailman johtava koe suurenergiafysiikan rintamalla. Yksittäisten protonien osasten eli kvarkkien ja gluonien törmäykset ovat saavuttaneet jopa 8000 GeV:n massakeskipiste-energian, 60% kokonaisenergiasta. Tämä riittäisi tuottamaan yli 8000 uutta protonia, 46 raskainta tunnettua alkeishiukkasta eli top-kvarkkia tai 64 Higgsin bosonia, jos kaikki energia muuttuisi massaksi.

Törmäyksissä vapautuvat sekä näiden raskaiden hiukkasten jälleen hajotessa syntyvät kvarkit ja gluonit eivät voi esiintyä vapaina hiukkasina, vaan ne tuottavat ryöpyn hiukkasia, jota kutsutaan jetiksi. Suuri osa LHC:n fysiikasta nojaa näiden jettien ymmärtämiseen ja tarkkaan kalibrointiin, jossa HIPin tutkimusryhmällämme on johtava rooli.

Kuva 1. (a) Mitatulla Higgsin bosonin massalla tyhjiö on epävakaa, mikäli myös top-kvarkin ja vahvan vuorovaikutuksen kytkentävakioiden arvot on mitattu oikein. (b) Higgsin kentän itseiskytkentä nollautuu Planckin skaalalla eli alkuräjähdyksen energioissa, jos top-kvarkin massa on hieman nyt mitattua pienempi, mikä stabiloi tyhjiön.

Erityisen mielenkiintoisia jetit ovat jäljitettäessä uutta mysteeriä, jonka Higgsin bosonin löytyminen vuonna 2012 paljasti. Mitattu Higgsin bosonin massa nimittäin vaatii kvanttikorjauksia, jotka tekevät tyhjiöstä epävakaan. Näennäisesti elämme siis väliaikaisessa universumissa. Puuttuuko hiukkasfysiikan standardimallistamme hiukkasia ja kenttiä, jotka voisivat vakauttaa tyhjiön? Tai ehkä mittauksissamme on pieni virhe, ja tyhjiö onkin vakaa alkuräjähdyksen energiaskaalaan asti?

Jetit ovat keskeisiä näissä kysymyksissä. Uudet hiukkaset ovat todennäköisesti hyvin raskaita, koska muuten niitä olisi jo nähty LHC:llä tai aiemmissa kokeissa. Niiden täytyy voida hajota takaisin kvarkkeihin ja gluoneihin, koska muuten niitä ei voisi tuottaa protoni-protonitörmäyksissä. Ne voisivat olla myös selitys pimeälle aineelle. Niinpä suurienergisimmät LHC:n törmäykset, jotka tuottavat jettejä ovat hyvä paikka etsiä näitä hiukkasia.

Kuva 2. (a) LHC:n tuottamien jettiparien energian jakauma. Kovimmat törmäykset yltävät 8000 GeV (8 TeV) kohdalle saakka. (b) Toinen 8000 GeV (8 TeV) kohdalla olevista eventeistä sisältää kaksi leveää jettiä, jotka sisältä jakautuvat kahteen alijettiin. Kummankin leveän jetin massa on lähes sama, noin 1800 GeV (1.8 TeV). Tällaisen eventin syntymätodennäköisyys standardimallin ennustamana on varsin matala.

Kutkuttavasti toiseksi energisin CMS-kokeen havaitsemista törmäyksistä tuotti hyvin erikoisen lopputilan, jonka voisi selittää myös raskaalla hiukkasella X, joka hajoaa kahteen keveämpään hiukkaseen Y, jotka edelleen hajoavat pareiksi kvarkkeja ja/tai gluoneita. Yksi eventti on vain sattumaa, mutta tilanne käy mielenkiintoiseksi jos tällaisia eventtejä havaitaan pari lisää ensi vuonna alkavassa LHC:n kolmannessa ajossa.

Kuva 3. (a) LHC:n jettimittaukset testaavat vahvan vuorovaikutuksen kytkentävakion arvoa korkealla energialla. Teoria ennustaa vakion muuttumisen energian funktiona tarkasti. (b) Top-kvarkin massa on mitattu lukuisin eri metodein ja eri hajoamiskanavista. Tarkimmat mittaukset perustuvat top-kvarkin hadronisen hajoamisen rekonstruointiin, jossa syntyy b-kvarkki sekä W-bosoni, joka edelleen hajoaa kvarkkipariin, yleensä u+d tai c+s. Kukin näistä erimakuisista kvarkeista tuottaa hieman erilaisen jetin.

Tärkeimpiä tyhjiön vakauteen vaikuttavia tekijöitä Higgsin bosonin tarkkaan mitatun massan lisäksi ovat top-kvarkin massa sekä vahvan vuorovaikutuksen kytkentävakion suuruus. Molemmat näistä suureista ovat suhteellisen huonosti tunnettuja, ja LHC on ainoa paikka maailmassa, jossa top-kvarkkeja voidaan tuottaa kokeellisesti. Se on myös paras paikka tutkia vahvaa vuorovaikutusta erittäin korkeilla energioilla.

Kuva 4. (a) Jettien kalibroinnin tavoite on palauttaa ilmaisimella mitattu fotonien sekä neutraalien ja varattujen hadronien signaali (kalorimetrien energiat sekä hiukkasten radat) takaisin alkuperäisten hiukkasten energiaan (hiukkastaso). Jetit itsessään approksimoivat niitä tuottaneiden kvarkkien ja gluonien energiaa (partonitaso). (b) HIPin ryhmä mittaa kaikkia tärkeimpiä jettien kalibrointeihin tarvittavia kanavia, joissa jetti kalibroidaan suhteessa tarkasti mitattuun fotoniin tai Z bosonista syntyvään pariin elektroneja tai myoneita. Lisäksi hyödynnämme jettimittauksia sekä uutena kanavana W-bosonin hadronista hajoamista (W>qq) top-kvarkkiparin tuottaneissa eventteissä.

Helsingin ryhmämme jatko-opiskelijat mittaavat sekä top-kvarkin massaa että vahvaa vuorovaikutusta, joista kummassakin mittauksessa jettien energian kalibrointi on ylivoimaisesti tärkein epävarmuustekijä. Tämä sopiikin meille, koska ryhmämme on maailman johtava instituutti nimenomaan näissä tarkkuuskalibroinneissa. Käänteisesti top-kvarkkeja ja suurinergisiä jettejä sisältäviä eventtejä voidaan käyttää edelleen parantamaan kalibrointien tarkkuutta, joten pystymme hyödyntämään mittauksiamme vahvaan positiiviseen palauteketjuun.

Tarkimmat mittaukset LHC:n toisen ajon datasta ovat vielä tulossa, mutta tiedämme jo tärkeimmän haasteen, johon meidän tulee pystyä vastaamaan. Tämä koskee erimakuisista kvarkeista ja gluoneista syntyvien jettien kalibrointien eroja, jota ei ole aiemmin pystytty LHC:llä suoraan mittaamaan. Nämä tarkkuusmittaukset pystyvät ehkä tuomaan universumin kuilun partaalta takaisin vakaaseen maailmankaikkeuteen. Ei mikään pieni saavutus!

Kuvien lähteet:

1a) A. Andreassen, W. Frost, and M. D. Schwartz, “Scale Invariant Instantons and the Complete Lifetime of the Standard Model”, Phys. Rev. D 97 (2018) 056006, doi:10.1103/PhysRevD.97.056006, arXiv:1707.08124.
1b) D. Buttazzo, G. Degrassi, P. P. Giardino et al., “Investigating the near-criticality of the Higgs boson”, JHEP 12 (2013) 089, doi:10.1007/JHEP12(2013)089, arXiv:1307.3536.

2a) CMS-EXO-19-012, JHEP 05 (2020) 033, arXiv:1911.03947.
2b) CMS-EXO-19-012, JHEP 05 (2020) 033, arXiv:1911.03947.

3a) https://twiki.cern.ch/twiki/bin/view/CMSPublic/PhysicsResultsCombined (CMS Summary plots)
3b) Hannu Siikonen, HIP

4a) Henning Kirschenmann, HIP
4b) CMS SP-2021/031, CMS detector performance note.

Mikko Voutilainen
Apulaisprofessori, projektipäällikkö, HIP-projekti
(CMS Experiment)
Fysiikan osasto, Fysiikan tutkimuslaitos

Yleisöpalvelua ja ilmaisinteknologiaa Tutkijoiden yössä

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on perinteisesti osallistunut Euroopan Tutkijoiden yö -tapahtumaan. Tapahtumassa laboratorio on esitellyt toimintaansa ja yleisö on päässyt kokeilemaan erilaisten anturien toimintaa ja kasaamaan yksinkertaisia elektroniikkapiirejä. Koronan vuoksi yleisötapahtumia ei ole voinut järjestää, joten olemme joutuneet keksimään uusia tapoja toiminnan esittelyyn ja tapahtumaan osallistumiseen.

Tutkijoiden yö

Syyskuun viimeisenä perjantaina järjestetään Euroopan laajuinen tiedetapahtuma, Tutkijoiden yö. Tapahtumassa tutkijat voivat esitellä työtään ja tutkimusalaansa muun muassa erilaisilla näyttelyillä, kokeilla, esityksillä ja tehtävillä. Olennaisena osana tapahtumaa on vuorovaikutus tieteentekijöiden ja yleisön välillä.  

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on ollut aktiivisesti mukana Tutkijoiden yössä useina vuosina. Tilaisuuksissa kävijät ovat päässeet tutustumaan erilaisiin säteilynilmaisimiin, sekä päässeet itse kokeilemaan muun muassa komponenttien kiinnittämistä koekytkentälevyille ja erilaisten anturien toimintaa. Korona-aikana tällaisten yleisötapahtumien järjestäminen ei ole ollut mahdollista, joten jouduimme kehittelemään ohjelmasta virtuaalisemman version.  

Tänä vuonna Tutkijoiden yötä (https://www.tutkijoidenyo.fi/ohjelma/) vietettiin neljällä paikkakunnalla Suomessa. Laajin ohjelma oli Jyväskylän yliopistolla, jossa oli mahdollista myös vierailla tapahtuman aikana. Pääkaupunkiseudulla tapahtumat olivat Arcadan järjestämät verkkoluennot, sekä Ilmaisinlaboratorion virtuaalivierailut esitelmineen. Ainoana ”ulkopuolisena” laboratorioon pääsi tutustumaan Heikki Hupiukko, joka teki tärkeitä havaintoja eri laitteiden ominaisuuksista. 

Heikki Hupiukko tutustumassa Fysiikan tutkimuslaitokseen Tutkijoiden yönä 2021. Videot löytyvät täältä. Kuva ja hahmon kehittely: Juha Aaltonen.

Ilmaisinteknologian esittelyä

Tämän vuoden ohjelmassa meidän tarkoituksenamme oli esitellä mahdollisimman laajasti Ilmaisinlaboratorion erilaisia säteilynilmaisimia, niiden valmistamista, sekä erilaisia laadunvarmistus- ja analysointimenetelmiä, joita tarvitaan ilmaisimien rakentamisessa.  

Monimutkaisimpia esitellyistä laitteista oli germanium-puolijohteesta valmistettu kaupallinen gammasäteilyn ilmaisin, jota voidaan käyttää muun muassa säteilylähteiden paikantamiseen. Yksinkertaisimmasta päästä taas oli ilmaisin, joka oli rakennettu juomatölkistä.  Dosentti Erik Brückenin esittelemänä laitteella kyettiin mittaamaan muun muassa rauta-55 isotooppilähteen spektri.

Erik Brücken esittelemässä juomatölkistä tehtyä säteilynilmaisinta. Kuva: Juha Aaltonen.

Molempien ilmaisimien perustoimintaperiaate on hyvin samanlainen. Säteily ionisoi ilmaisinmateriaalia. Syntyneet varaukset johdetaan laitteen anodille tai katodille ja mitatusta virrasta voidaan määrittää säteilyn energia. Mitatusta spektristä voidaan määrittää esimerkiksi säteilylähteen ominaisuudet.

Tohtorikoulutettava Shudhashil Bharthuar puolestaan esitteli Cernin CMS-kokeeseen asennettavien puolijohdekomponenttien karakterisointia ja laadunvarmistusta. Laboratoriossa olevilla laitteilla kyetään mittaamaan pii-ilmaisimien ominaisuuksia. Kokeessa käytettävien ilmaisimien lisäksi laitteistolla voidaan tutkia uusien valmistusmenetelmien vaikutusta ilmaisimien toimintaan.

Shudhashil Bharthuar esitteli pii-ilmaisimien toimintaperiaatetta ja laadunvarmistusta. Kuva: Juha Aaltonen.

Paluu entiseen

Virtuaalitapahtumat saattoivat olla aluksi kätevän oloisia, mutta lähes puolentoista vuoden virtualisoinnin jälkeen tällaiset tapahtumat alkavat toistaa itseään. Zoom-alusta ei ole myöskään paras mahdollinen järjestelmä lähetyksen tekoon. Tästä huolimatta opimme virtuaalitilaisuuksista paljon varsinkin käytettävän AV-tekniikan osalta. Esimerkiksi kouluvierailut voi toteuttaa samalla menetelmällä, mikäli matkustus Helsinkiin vaatisi liian paljon resursseja. Mikäli päätämme olla mukana jälleen ensi vuonna Tutkijoiden yössä, järjestetään tapahtuma jälleen yleisötapahtumana. Tällöin vuorovaikutus osallistujien ja esittelijöiden välillä on helpompaa ja antoisampaa.

Lisätietoja mahdollisista virtuaalisista kouluvierailuista Ilmaisinlaboratorioon voi tiedustella Matti Kalliokoskelta.

Matti Kalliokoski
Yliopistotutkija
Fysiikan tutkimuslaitos

Säteily- ja ydinturvallisuustutkimuksen ytimessä

Säteilyturvakeskus (STUK) liittyi Fysiikan tutkimuslaitoksen (HIP) jäseneksi vuonna 2018. STUK toimii kansallisena turvallisuusviranomaisena, tutkimuslaitoksena ja mittanormaalilaboratoriona. HIPin jäsenenä STUKin rooli osin onkin toimia linkkinä tutkimusyhteisön, säteilyn käyttäjien, viranomaisten ja kansainvälisten järjestöjen välillä ja tätä kautta edistää säteilyturvallisuuteen liittyvä tutkimusta ja toisaalta tutkimustulosten käyttöönottoa. Viimeaikaiset tutkimusprojektit ovat liittyneet mm. ilmaisimien kehitykseen säteilyn lääketieteellisen käytön tarpeisiin, radioaktiivisten näytteiden analyysimenetelmien kehittämiseen sekä käytetyn ydinpolttoaineen loppusijoitukseen.

Säteilyturvakeskus perustettiin vastaamaan säteilysuojelun tarpeisiin

Säteilysuojelualan kehitys oli alkuaikoina täynnä vauhtia ja vaarallisia tilanteita. Uusi ilmiö innosti tutkijoita, ja ionisoivan säteilyn löytyminen poiki nopeasti mitä erilaisempia sovelluksia erityisesti lääketieteessä. Tietämys säteilyn aiheuttamista haitoista tuli kuitenkin vuosikausia jälkijunassa. Säteilyn lääketieteellisen käytön lisääntyminen ja kasvava tietoisuus säteilyn haitallisista vaikutuksista johti STUKin esi-isän, lääkintöhallituksen alaisen säteilyfysiikan laitoksen, perustamiseen 1958. Tuohon aikaan Kansainvälinen säteilysuojelukomissio (ICRP) oli sen aikaiseen tietoon pohjautuen ansiokkaasti kehittänyt kansainvälistä säteilysuojelujärjestelmää ja siihen liittyviä henkilökohtaisia annosrajoituksia.

Yleinen herääminen tarpeeseen säädellä säteilyn käyttöä johti myös Euroopan atomienergiayhteisön luomiseen (1957). Tähän liittyvä Euratom-sopimus on edelleen voimissaan lähes alkuperäisessä asussaan, ja on myös nykyisen Säteilylakimme taustalla. Säteilysuojelun kulmakivet, eli altistuksen oikeutusharkinta ja altistuksen optimointi sekä yksilön suojaaminen säteilyn haittavaikutuksilta, ovat kestäneet ajan hampaan nakerrusta jo kymmeniä vuosia. Yhteiskunnan kasvanut riskitietoisuus ja tiedonjano vaativat kuitenkin entistä tarkempia ja luotettavampia menetelmiä altistusolosuhteiden ja itse altistuksen määrittämiseen.

Paikkaherkillä ilmaisimilla parempaa kuvanlaatua ja turvallista sädehoitoa Lääketieteen käyttöön kehitetään jatkuvasti uusia ionisoivaa säteilyä käyttäviä diagnoosi- ja hoitomenetelmiä. Esimerkiksi ulkoisessa sädehoidossa käytettävät hoitokeilat muuttuvat jatkuvasti pienemmiksi, tarkemmin rajatuiksi ja dynaamisemmiksi. Tämä asettaa entistä tiukempia vaatimuksia keilojen ominaisuuksien mittaamiselle, jotta hoitojen tehokkuus ja potilaiden turvallisuus pystytään varmistamaan. Olemmekin kehittäneet paikkaherkkiä ilmaisimia, joilla sädehoidossa käytettyjen fotonikeilojen ominaisuudet pystytään mittaamaan sädehoitoklinikoilla lähes reaaliaikaisesti. Kyseisillä kadmiumtelluridi-ilmaisimilla pystytään määrittämään pienikokoisten keilojen dimensiot sekä suhteellinen annosprofiili keilan sisällä. Paikkatarkkuudessa on pyritty siihen, että pienimmätkin käytössä olevat sädehoitokeilat (halkaisijaltaan muutama mm) pystytään luotettavasti mittaamaan.

Kuva 1 Ilmaisintestausta Säteilyturvakeskuksen laboratoriossa (Kuvat: vas. S. Kirschenmann, oik. A. Gäddä)

Kadmiumtelluridi-ilmaisinten ohella olemme kehittäneet piipohjaisia paikkaherkkiä ilmaisimia tietokonetomografiaan. Tietokonetomografia (TT) on suurin väestön altistaja lääketieteellisessä käytössä, ja sen vuoksi mahdollisimman tehokas ja optimoitu säteilyn käyttö on siinä erityisen tärkeää. Kehitetyt ilmaisimet pystyvät lukemaan perinteisen säteilyn intensiteettitiedon lisäksi myös sen energiajakauman, jolloin säteilykeilassa oleva tieto saadaan hyödynnettyä mahdollisimman tehokkaasti ja potilaan altistusta pystytään pienentämään diagnostisen laadun siitä kärsimättä. Projektissa hyödynnetään CERNin CMS-kokeeseen kehitettyä ilmaisinteknologiaa.

Näytteillä ja ilmaisinverkolla parannetaan ympäristön säteilyvalvontaa

Ilmakehässä tehdyt ydinasekokeet sekä Suomessa päätään nostanut ydinenergian käytön suunnittelu laajensivat säteilyfysiikan laitoksen toimintaa ympäristön radioaktiivisuuden seurantaan ja valvontaan, ja laitoksen nimi muutettiinkin Säteilyturvallisuuslaitokseksi (ja myöhemmin nykyiseen muotoonsa Säteilyturvakeskus). Ympäristössä näkyvät ydinasekokeiden jäämät sekä muu luonnossa esiintyvä radioaktiivisuus (mm. myöhemmän Tshernobylin onnettomuuden (1986) aiheuttama laskeuma) ovat olleet jatkuvan seurannan kohteena kuusikymmentäluvulta alkaen. Ympäristön säteilyvalvonnan menetelmät ovat ottaneet valtavia harppauksia viime vuosikymmeninä. Säteilyilmaisimien herkkyys, spesifisyys ja informaation saatavuus ovat parantuneet merkittävästi. Nykyään yksittäisiä mikroskooppisia radioaktiivisia hiukkasia vaikkapa ilmansuodattimista pystytään paikantamaan ja analysoimaan perin pohjin. Mittausmenetelmät ovat myös muuttuneet (lähes) reaaliaikaisiksi ja tuottavat tietoa yksittäisistä radionuklideista pelkän säteilyannosnopeuden lisäksi.

Ympäristön säteilynvalvonnassa käytetään näytteenoton lisäksi reaaliaikaista mittausdataa tuottavia menetelmiä. Suomessa on noin 260 ilmaisinta käsittävä, koko maan kattava ilmaisinverkko, joka lähettää mittaustiedot 10 minuutin välein STUKiin analysoitavaksi, tarkistettavaksi ja julkaistavaksi STUKin www-sivuilla. Meneillään olevassa DEFACTO-projektissa kehitetään täysin uudentyyppistä ilmaisinta tähän verkkoon. Nämä ilmaisimet pystyvät erittelemään säteilylähteen sijainnin, eli ovatko radioaktiiviset aineet ilmassa, laskeumana maassa vaiko kiinnittyneenä ilmaisimen pintaan. Myös radioaktiivisten aineiden tunnistus on mahdollista ilmaisimissa käytetyn tuikeaineen ansiosta. Ilmaisinkehitys on loppusuoralla, ja sen ottamista operatiiviseen käyttöön suunnitellaan parhaillaan. Teknologian kaupallinen potentiaali tullaan myös arvioimaan. STUK-HIP-yhteistyössä kehitetään myös menetelmiä ympäristönäytteiden entistä herkempään ja tarkempaan analysointiin mm. yhdistämällä samanaikainen gamma-, beeta- ja alfasäteilyn havaitseminen näytemittauksissa niin, että paikkaherkkien ilmaisimien avulla radioaktiivisten hiukkasten paikat näytteessä pystytään tunnistamaan (nk. PANDA-laitteisto).

Kuva 2 PANDA-laitteiston mittauspiste. Laitteisto sijaitsee Jyväskylän yliopiston kiihdytinlaboratoriossa.

Ydinjätteen loppusijoituslaitos rakentuu maan alla

Olkiluodon saarelle Eurajoelle rakennetaan parhaillaan geologista loppusijoituslaitosta käytetyn ydinpolttoaineen sijoittamiseksi syvälle peruskallioon. Valmistuessaan laitos tulee olemaan ensimmäinen laatuaan maailmassa. Loppusijoitus on tarkoitus aloittaa 2020-luvun puolivälin tienoilla, ja laitoksen aktiivinen käyttö tulee kestämään noin sata vuotta. Käytetty ydinpolttoaine säteilee vielä satojen tuhansien vuosienkin päästä, joten polttoaineen hautaaminen syvälle maan poveen on turvallisin ratkaisu jälkipolvien kannalta.

Kuva 3 Maanalaisen loppusijoitusluolaston tunnelistoa. Lähde: Posiva.

Loppusijoituksessa hyödynnetään Ruotsissa kehitettyä KBS-3-metodia, jossa käytetty polttoaine suljetaan kuparilla päällystettyjen teräskapseleiden sisään. Kapselit sijoitetaan noin 400 metrin syvyyteen kallioperään louhittuihin loppusijoitusluolastoihin, joita rakennetaan lisää sitä mukaa, kun loppusijoitus etenee. Lopuksi tunnelit ja luolasto täytetään bentoniittisavella, joka on kissanhiekan tavoin kosteutta imevä materiaali, jolla saadaan vähennettyä pohjaveden virtaus kapseleiden lähistöllä minimiin.

Kuva 4 Kuparikapseli, jonka sisään käytetty ydinpolttoaine sijoitetaan. Lähde: Posiva.

Ennen loppusijoitusta tulee varmistua siitä, että luolastoon sijoitettava polttoaine on juuri sitä, mitä sen sanotaan olevan. Ydinpolttoaine varmennetaan ydinmateriaalivalvonnan nimissä erilaisin ainetta rikkomattomin mittausmenetelmin.

Ydinmateriaalivalvonnalla turvataan rauhanomainen ydinenergian käyttö

Kylmän sodan aikaan maailmalla herättiin atomipommin uhkaan. Ydinaseiden leviämisen estämiseksi perustettiin Kansainvälinen atomienergiajärjestö IAEA, jonka tehtävänä on valvoa ydinteknologioita ja varmistaa niiden rauhanomainen käyttö. Vuonna 1970 solmittiin myös ydinsulkusopimus, jonka allekirjoittaneet maat sitoutuivat estämään ydinaseiden leviämisen ydinaseettomille valtioille.

Tätä sopimusta valvotaan aktiivisesti sekä kansainvälisellä että kansallisella tasolla. IAEA ja Euroopan komissio tarkastavat säännöllisesti, että Suomen ydinmateriaalit ovat asianmukaisessa käytössä ja siellä missä pitääkin, ja STUK tekee kansallisena valvovana viranomaisena omaa valvontaansa. Ilman ydinmateriaalivalvontaa ei olisi rauhanomaista ydinenergian ja muiden ydinteknologioiden käyttöä, eikä Suomessakaan ydinreaktoreita.

Tomografia paljastaa ydinpolttoaineen sisällön

Ennen loppusijoitusta jokainen loppusijoitusluolaan matkalla oleva polttoainenippu tulee tarkastaa parhain mahdollisin keinoin, jotta tuleville polville voidaan taata mahdollisimman eheää tietoa siitä, mitä luolastoon on päätynyt. Loppusijoitusluolaston sulkemisen jälkeen sen sisältöön ei enää pääse käsiksi, joten kaikki tieto on mitattava ja talletettava etukäteen. Tähän tarkoitukseen olemme yhdessä STUKin ja HIPin sekä Helsingin yliopiston Matematiikan ja tilastotieteen osaston inversio-ongelmien tutkimusryhmän kanssa kehittämässä varmennusmittalaitteistoa, jolla nippujen sisältö tutkitaan ennen loppusijoitusta.

Varmentamisessa on käytettävä luotettavaa ja tarkkaa menetelmää, jolla pystytään varmistumaan ydinpolttoaineen sisällöstä nippuja vahingoittamatta. Kehitteillä olevassa mittalaitteistossa hyödynnetään kahta eri menetelmää: passiivista gammaemissiotomografiaa (PGET) sekä passiivista neutronialbedoreaktiivisuusmittausta (PNAR). PGET-menetelmällä mitatusta gammaemissiosta saadaan rekonstruoitua inversiomatematiikalla hyvin tarkka poikkileikkauskuva polttoaineesta, josta voidaan havaita jopa yksittäinen puuttuva polttoainesauva. PNAR-menetelmällä puolestaan saadaan selville, kuinka paljon kuvattavassa kohteessa tapahtuu neutronien moninkertaistumista ja vastaako polttoaineen fissiilin materiaalin väitetty määrä mitattua. Näin voidaan varmistaa, että kyseessä todella on käytetty polttoainenippu eikä esimerkiksi radioaktiivinen jäljitelmä.

Kuva 5 Ydinpolttoainenippujen rekonstruoituja aktiivisuuksia. Vasemmalla Olkiluodon kiehutusvesireaktorin ATRIUM10-polttoainenippu, oikealla Loviisan painevesireaktorin VVER-440-polttoainenippu. Vasemmassa kuvassa keskellä näkyy 3×3-kokoinen vesikanava sekä kaksi puuttuvaa sauvaa. Oikealla VVER-440 -polttoaineelle tyypillisesti keskimmäisen sauvan tilalla on vesikanava, ja lisäksi tästä nipusta puuttuu kolme polttoainesauvaa vasemmasta kulmasta.

HIPin jäsenyliopistojen ja Säteilyturvakeskuksen yhteistyö on jo tällä muutaman vuoden aikajänteellä tuottanut useita säteily- ja ydinturvallisuutta parantavia laitteistoja ja mittausmenetelmiä. Yliopistojen syvällinen osaaminen yhdistettynä STUKin tietoon ja kokemukseen säteily- ja ydinturvallisuuden keskeisistä tutkimusongelmista on ollut erityisen hedelmällistä. Yhteistyön jatkuminen onkin avainasemassa kotimaisen säteilyturvallisuusosaamisen varmentamisessa.

Teemu Siiskonen, apulaisjohtaja
Säteilyturvakeskus
Fysiikan tutkimuslaitos

Riina Virta, tutkija
Säteilyturvakeskus
Fysiikan tutkimuslaitos

The discovery of the Odderon

      No Comments on The discovery of the Odderon

Elementary particle physics is about understanding the smallest constituents of matter and their interactions. To do so larger and larger particle colliders are being built to probe the structure of matter at smaller and smaller distances. Currently, the largest particle collider is CERN’s (European Particle Physics Laboratory) Large Hadron Collider (LHC) that collides protons at an impressing collision energy of 13 Tera electron volt (TeV), corresponding to the energy that an electron would obtain if exposed to an electric field of 13 trillion volts! In 2012, the Higgs boson, the last missing piece to complete the Standard Model, the theory of the elementary particles and their interactions, was discovered at the LHC. But we know that there are many phenomena that the Standard Model cannot provide an answer to.

For that reason physicists continue to search for signs of new, yet unknown, physics or particles in the high energy collisions of the LHC that could potential provide answers to these unanswered questions. But the LHC can also be used to discover much lower energy i.e. larger distance phenomena like “exotic” particles or compounds that can be accommodated in the Standard Model. An example is the discovery of the Odderon, which strongly relied on the measurements of elastic proton-proton collisions by the TOTEM experiment at the LHC. What is an elastic collision? An elastic collision is a collision, where the two protons softly bounces of each other and continue onwards only with a slight change of their direction. TOTEM measures the elastic protons very far away (210-220 meters) from the collision point at a very close distance (a few millimetres) from the outgoing proton beam using special movable devices called Roman Pots, seen in Figure 1.

Figure 1: TOTEM Romans Pots in the LHC tunnel 210-220 m from the CMS experiment (Image: CERN)

What is the Odderon?

The Odderon consists of three gluons. Gluons “glue” the quarks together to “hadrons”, particles that are held together by the strong interaction, like the proton and the neutron. Gluons are the mediators of the strong interaction between quarks in a similar way as the photon, the particle which light is made of, is the mediator of the electromagnetic interaction between electrically charged particles. There is however a significant difference: contrary to the photon, the gluons can interact with each other. The gluons themselves carry the charge of the interaction, “colour”, they are mediating. Colour comes in three variants: usually dubbed “green”, “red” and “blue”. Having colour makes quarks and gluons special, they cannot exist by themselves as free particles. They can only exist in colour-neutral combinations made up of all the three colours or by colour-anticolour pairs.

All this is described by the quantum theory of strong interaction, Quantum Chromodynamics (QCD) that together with the quantum theories of electromagnetic and weak interaction make up the Standard Model. Currently, we know that QCD is an accurate description of the strong interaction of quarks and gluons by a multitude of measurements at different colliders. QCD also predicts that there should exist particles made up only of gluons, “glueballs”. So far no conclusive evidence of glueballs has been found despite large efforts over the last 50 years.

QCD also predicts that colourless compounds made up only of gluons should be exchanged during the interaction of particles. In the pre-QCD theory of strong interaction, these compounds were called “Pomeron” and “Odderon”. They differ in the sense that the Pomeron interacts identically with particles and antiparticles, whereas the Odderon interacts in opposite ways with particles and antiparticles. The Odderon was predicted in 1973 by Leszek Lukaszuk and Basarab Nicolescu to potentially explain differences at higher energies between proton-proton and proton-antiproton collisions due to strong interaction but until recently no convincing evidence of its existence had been presented. In QCD, the Pomeron and the Odderon correspond to the exchange of two (or even number of) and three (or odd number of) gluons as shown by Figure 2. The Odderon is not a particle in the ordinary sense since it doesn’t have a definite mass and lifetime. Instead it is a compound of gluons sufficiently bound together to be exchanged between two protons (or a proton and an antiproton) without the gluons of the Odderon interacting individually with the building blocks of the proton, the quarks and the gluons.

Figure 2: Feynman diagrams of Pomeron and Odderon exchange between protons (p) or a proton and an antiproton (p). The wiggly lines are gluons. The direction of time in the diagrams goes from left to right.

How can the Odderon be discovered?

Since the Odderon is exchanged and not produced in the proton-proton collisions, one cannot discover the Odderon by observing a “peak” or a “bump” in a mass distribution like for the Higgs boson. In addition, the Pomeron, being made up by only two gluons with matching colours, is much easier to be exchanged between particles containing gluons than the Odderon, being made up by three gluons whose colours have to match the colour-neutral condition. So two things have to be fulfilled by a process to be able to discover the Odderon: the Odderon can be exchanged and other competing exchanges, especially Pomeron exchange, have to be heavily suppressed.

The ideal process is elastic scattering and its so-called diffractive minimum. What is the diffractive minimum? The diffractive minimum is the part of the elastic scattering distribution as a function of the variable |t |, where there is a large decrease (“dip”) in the distribution followed by a significant increase. Physically it measures the size of the proton in analogy with diffraction of photons on a material surface to find out the three-dimensional periodic structure of the atoms in a crystal. What is tt is a variable that physicists use to describe the transfer of momentum in the collision. It is defined so that it is always negative. For convenience physicists usually use its absolute value. In elastic collisions, |t | corresponds to the square of the scattering angle, the change of direction of the proton due to the collision. So in practice, the diffractive dip is just a certain range of scattering angles, where the probability for elastic collisions to happen is much lower than in the range of scattering angles larger and smaller. Since the probability for elastic collisions is much lower, the dominant Pomeron exchange must be suppressed. Add to this the fact that the Odderon interacts oppositely with antiparticles than with particles, the way to discover of the Odderon is open. Any significant difference between elastic particle-particle scattering and elastic particle-antiparticle scattering in the diffractive dip region at the same collision energy is evidence for the Odderon. To be more precise, such a difference should be observed at very high energies, preferably above about 1 TeV, where gluonic exchanges dominate and quark-antiquark exchanges are very unlikely.

Discovery of the Odderon

In December 2020, the discovery of the Odderon was made public by the TOTEM experiment together with the D0 experiment at Fermilab’s Tevatron collider in the US. Since the LHC cannot accelerate antiprotons, the comparison was made with the existing elastic proton-antiproton measurement in the region of the diffractive dip at the highest possible collision energy, the one by the D0 experiment at 1.96 TeV. In addition, a measurement of elastic proton-proton collisions at a collision energy of 1.96 TeV in the region of the diffractive dip at the LHC is not possible due to the LHC design. That’s why the TOTEM elastic proton-proton measurements at the collision energies of 2.76, 7, 8 and 13 TeV were extrapolated to the collision energy of 1.96 TeV to make a direct comparison with the D0 measurement. In the region of the diffractive dip, the distributions disagree as can be seen in Figure 3 to such a level that the difference can only be due to Odderon exchange. This led to the discovery of the Odderon, when this new evidence was combined with a previous evidence of the Odderon from the inability of Pomeron exchange to describe the TOTEM elastic proton-proton measurements at even smaller scattering angles. The article with the discovery was published in Physical Review Letters last month (August 2021).

Figure 3: Comparison of the elastic proton-proton and proton-antiproton cross section dσ ⁄ dt (”interaction probability”) at a collision energy of 1.96 Tera electron volt (TeV) as function of the square of the momentum transfer at the collision, |t |, that is proportional to the square of the scattering angle of the proton or the antiproton due to the interaction. Reproduced under Creative Commons 4.0 license from Physical Review Letters 127, 062003 (2021).

What’s the big deal?

You might think: Why should we bother? What is the big deal with the Odderon? The Particle Data Group (pdg.lbl.gov) lists hundreds of particles so a new one should not make such a difference. And it is not even a particle in the ordinary sense with a mass and a lifetime.

Well, the Odderon is different. It is not made of quarks like the large majority of the others in the Particle Data Group. In addition to the Pomeron, it is only one made only out of gluons. Its existence also suggests that real particles made only of gluons, so-called glueballs, exist, just as QCD predicts. There is still much research to be done:  after establishing the existence, the Odderon should be characterised. TOTEM is pursuing measurements of the behaviour of the Odderon as function of the collision energy, complementing the existing measurements with new ones at 0.9 and 14 TeV. The LHC is also potentially a good environment to find glueballs in the gluon rich environment of central exclusive production, where the two colliding protons loose energy but stay intact and create particles in between them. TOTEM experiment is studying glueball candidates together with the CMS experiment. Stay tuned!

Kenneth Österberg
Professor in Experimental Particle Physics, University of Helsinki
Physics coordinator, TOTEM experiment, CERN

On CMS open data, and numbers big and small

In July 2021, the open data group of the CMS experiment conducted the second CMS open data workshop aimed at physicists interested in research use of these unique public data. In the spirit of openness, the number of registrants was not restricted, and the workshop was actively followed by some 50 participants with diverse backgrounds and origins.

The event was four full days of work, preceded by a set of pre-exercises to be completed before the start. The workshop aimed to cover the skills needed to get started with the experimental particle physics data from the CMS experiment, and all exercises were hands-on. A session practising running CMS data analysis jobs in a cloud computing environment was included. The feedback survey indicates that the workshop was a success: the participants gained confidence in using these data and would recommend the workshop for colleagues with similar interests.

I have been involved in CMS data preservation and open data activities right from the beginning. In 2011, I chaired the working group set up to draft the CMS data preservation, re-use and open access policy, the first of its type in particle physics, and since 2012, I’ve been leading the group that was created to implement the policy after its approval. It is tempting for me to reflect on the evolution in these ten years. Figure 1 shows the timeline of the data releases, which now include most of the Run-1 data (collected in 2010-2012). The first Run-2 data releases of data collected in 2015-2018 are in preparation.

Figure 1: Timeline of the CMS open data releases of proton-proton (pp) and heavy-ion (HI) data with examples of accompanying tools made available with data.

In the drafting of the data policy, I remember well Jesus Marco from Universidad de Cantabria, a member of the data policy working group, proposing that CMS should promote a workshop after the first release to assess whether these data can be usefully exploited by people external to the CMS collaboration. At that time, the concept of open data in particle physics was totally new and even terrifying for many, and organising a workshop on their use certainly sounded rather distant wishful thinking. The proposal, however, boldly made its way to the policy document, and now, ten years after, we are collecting feedback from the participants of the second workshop of this type.

To be able to call the first open data workshops took us several data releases, with gradual and continuous improvements of the accompanying material. For data to be usable, much more is required than public access to them. Data management and re-usability are often described with FAIR principles for Findable, Accessible, Interoperable, and Re-usable data and metadata, i.e. “data about data”. CMS data released through the CERN open data portal satisfy these principles to a large extent. But due to the complexity of experimental particle physics data, the FAIR principles alone do not guarantee the re-usability of these data, and additional effort is needed to pass on the knowledge needed to use and interpret them correctly.

This knowledge includes, first of all, learning the computing environment and software for the first step of data selection. Due to the experiment-specific data format, the first step will almost inevitably be done using the CMS software in a computing environment compatible with the open data. We have been able to benefit from the advance of software containers such as Docker with which we have packaged the CMS software that is required and virtualised the operating system compatible with it. Open data users can download a software container image and run it on their computer, independently of its operating system. Recent developments for Windows Subsystem Linux (WSL2) have also made this feasible in Windows, in addition to Linux and macOS. The CMS open data group has invested a good amount of work in setting up these containers so that the first user experience with the CMS open data remains smooth. It is important to remember that open data users always start with a trial: if they consider that the time needed to overcome difficulties is too much, they will just give up.

After having set up the computing environment, open data users will need to learn the intricacies of experimental particle physics data. How to select the data of interest, how to identify the particles properly, how to understand the efficiencies and uncertainties in the analysis process, how to estimate the backgrounds, and how to address many other challenges with experimental data. This is all brilliantly summarised in the blog posting “The Importance and Challenges of “Open Data” at the Large Hadron Collider” by Matt Strassler who with Jesse Thaler has provided valuable feedback while pioneering the use of CMS open data.

But how come collecting the necessary information has taken so long? Having well over 1000 high-quality scientific publications on CMS data we must know the tiniest details of these data and have well-established procedures for their analysis. Why just not release these guidelines with the data? The challenge is in the size, and I’m not referring to data volumes. In his popular book “The tipping point”, Malcolm Gladwell discusses Dunbar’s number, first proposed by anthropologist Robert Dunbar in the 1990s. This is a suggested limit to the maximum number of individuals with whom an animal can maintain group cohesion and social relationships by personal contact, often cited to be around 150 for humans. Gladwell gave examples of organisations that have successfully limited the number of people in a single establishment or production unit to that number, for efficient work organisation and the wellbeing of people. Dunbar argues that at this size, groups function based on common loyalty and cohesion, with direct person-to-person interactions.

But in big scientific collaborations, there are many more of us. Of over 4000 members of the CMS collaboration, close to 3000 are physicists, most of them active in analysing the data. Work is carried out in physics analysis groups and their subgroups in which the number of people involved is indeed within the limits of estimated Dunbar’s number. This is an obvious working mode, grouping people around similar topics. However, this results in working procedures that diverge within the collaboration. Much effort goes to the development of individual or group-specific software and procedures, while contributions to the software common to the entire collaboration are often lacking. A layer of group or topic-specific software is naturally needed, but the thickness of that layer increases if measures are not taken to counterbalance this drift. Figure 2 illustrates my simplified perception of the data and software landscape in a big collaboration such as CMS. The green arrows indicate the phases in the data analysis process in which each individual or group-specific software most likely implement the same or similar steps. The CMS collaboration has taken measures to address these problematics, through the adoption of slimmer data formats in which a part of the common procedures has already been implemented and by setting up a reflection group on common software tools. I argue that strong and continuous action will always be needed to encourage contributions for the common good of the full collaboration, to compensate for the human tendency of working comfortably in much smaller units. Writing software in a way that benefits everyone in the collaboration should be perceived as a common goal in every group.

Figure 2: Author’s conception of the data and software landscape in a big scientific collaboration. Blue shapes correspond to the centrally processed data and their processing steps with the software common to the entire collaboration. Yellow and brown shapes correspond to intermediate processing steps with individual or group-specific software. Red shapes illustrate the final analysis producing the scientific publication. Green arrows indicate the phases in the data analysis process in which each individual or group-specific code most likely implement the same or similar steps, or in which part of the software could be useful to others. The light blue background shape indicates the area from which the CMS open data group has collected the information needed for the use of open data by scientists external to the collaboration.

From the point of view of open data, the abundance of group-specific data “skims” and software frameworks makes it challenging to come up with generic examples and instructions applicable to public datasets for open data users. We can find code examples within one software framework in use for the analysis of certain physics topics with topic-specific skimmed datasets as input. However, another physics group may use a different implementation of the same analysis steps in their software package. Collecting this knowledge from different sources, indicated with a light blue background colour in Figure 2, is not an obvious task. The open data workshops and the general interest in CMS open data have been a great motivation for this effort, and the CMS open data team has now put together a comprehensive set of tutorials using an example code written for this purpose.

I firmly believe that the experience we are gaining in improving the usability of CMS open data can feedback to the collaboration. During these workshops, we have initiated participants in the use of CMS software using Docker containers. We have found solutions for many common issues, such as opening graphic windows, copy-pasting, passing files between the container and host, etc., i.e., many of those details that determine how efficiently one can work. For many of us, container solutions have turned out to be a practical tool for everyday work. We have also exercised running the analysis jobs in a cloud environment and demonstrated the value of well-defined machine-readable workflows.

I am also convinced that our observations on the difficulty of finding comprehensive examples of basic open data usage with common software are relevant not only to open data but also to the analysis work done in the collaboration. For the efficient use of human resources, I would argue that the questions to be asked before writing new analysis software should be 1) can this be done with software tools available to everyone in the collaboration 2) if this cannot be done with existing, common tools, would a contribution to them be more appropriate than writing a separate piece of software 3) can this be made configurable so that it can be used for other similar use cases 4) can this be reused. This is what is needed to preserve the knowledge inherent in the analysis work so that it remains usable – and not only readable – for immediate use by the collaborators beyond the first small reference group, and into the longer-term future. To make this happen in large collaborations, to counterbalance the human preference of acting to the benefit of the small working unit, the contributions to the common tools need to be actively encouraged and promoted in everyday work and valued in career assessments.

Helsinki Institute of Physics: Helsinki Institute of Physics (HIP) is a strong contributor to the CMS open data project. In addition to the author, the coordinator of the CMS data preservation and open access group, several students and trainees have participated in the activities. HIP’s “Open data and education” project is an important stakeholder for the usability of these data in secondary education.

Kati Lassila-Perini
Project Leader, Education and Open Data
Helsinki Institute of Physics

HIP ja Higgsin bosoni

      No Comments on HIP ja Higgsin bosoni

Fysiikan tutkimuslaitoksen (HIP) perustamisesta tulee tänä vuonna kuluneeksi 25 vuotta.

HIP perustettiin v. 1996 yhdistämällä Helsingin yliopiston Suurenergiafysiikan tutkimuslaitos (SEFT) ja Teoreettisen fysiikan tutkimuslaitos (TFT) sekä Teknillisen korkeakoulun Hiukkasfysiikan teknologian instituutti (HTI). Yhdistämisellä pyrittiin vahvistamaan Suomessa tehtävän teoreettisen ja kokeellisen fysiikan tutkimuksen organisointia ja niiden välistä synergiaa. Tutkimuslaitoksena HIP perustettiin Helsingin yliopiston yhteyteen ja sen rahoitus kanavoitiin yliopiston kautta. Ensimmäiseksi johtajaksi nimitettiin professori Eero Byckling Teknillisestä Korkeakoulusta (TKK).

Kokeelliselle hiukkasfysiikalle HIPin perustaminen oli positiivinen askel, sillä se kokosi kaikki suomalaisen kokeellisen hiukkasfysiikan tutkimuksen resurssit yhteen hyvin suunnitellun, modernin organisaation osaksi. Kokeellisen hiukkasfysiikan tutkimusta oli Suomessa tehty aluksi Helsingin yliopistossa v. 1966 lähtien ja v. 1991 Suomi oli liittynyt CERNin jäsenvaltioksi. HIPin perustamisen aikaan suomalaiset kokeellisen hiukkasfysiikan tutkijat (SEFTistä ja HTIstä) olivat osallistuneet kuuden vuoden ajan CERNin kaavailemalla suurella protoni-protoni-törmäyttimellä tehtävien kokeiden suunnitteluun. Oli liitytty kahteen uudella kiihdytinlaitteistolla suunnitteilla olleeseen kokeeseen, joiden yhtenä päätavoitteena oli standardimallin ennustaman ns. Higgsin hiukkasen löytäminen protoni-protoni-törmäytinkokeissa. Suomalainen panos LHC-tutkimusprojektiin siirtyi nyt HIPin projektiksi.

Seuraavassa lyhyt kuvaus HIPin CMS-projektista aina Higgsin hiukkasen löytymiseen asti v. 2012.

LHC:n ja LHC-kokeiden suunnittelu

Large Hadron Collider (LHC), kuten CERNin uutta kiihdytinkompleksia alettiin nimittää, on uuden sukupolven hiukkaskiihdytinlaitteisto ja protoni-protonitörmäytin, jonka suihkujen energian tavoitteeksi asetettiin 7 TeV, joka oli lähes kymmenkertainen USA:n Fermin kansallisen laboratorion v. 1991 käynnistyneen Tevatron antiprotoni-protoni-törmäyttimen suihkuenergioihin verrattuna. LHC:n energia oli asetettu niin, että törmäyttimellä voitaisiin tuottaa uusia hiukkasia aina 1000 GeV/c2:n massaan asti. Higgsin hiukkanen on Steven Weinbergin ja Abdus Salamin v. 1967 esittämän alkeishiukkasten sähköheikon vuorovaikutuksen teorian (Glashow-Weinberg-Salam teoria) keskeinen rakenneosa. Teoriaa oli laajalti ja menestyksellisesti testattu 1980-luvun loppuun mennessä, mutta Higgsin bosoni ja top-kvarkki olivat löytämättä. Niitä oli etsitty viimeksi CERNin SPS protoni-antiprotoni-törmäyttimellä 1980-luvulla, ilman tulosta. Teoria ei anna Higgsin hiukkasen massalle tarkkaa teoreettista ennustetta, mutta teoria asettaa sen ylärajaksi noin 1000 GeV/c2.

LHC-kokeiden suunnittelu aloitettiin 1980-luvun lopulla ja ensimmäiset konkreettiset koeasema-konseptit esitettiin v. 1990. Näistä ns. Compact Muon Solenoid (CMS) -suunnitelma oli pääasiassa CERNin SPS-törmäyttimellä vv. 1979­–1989 tehtyyn UA1-kokeeseen osallistuneiden tutkijoiden hanke. Helsingin yliopiston Suurenergiafysiikan laitoksen UA1-tutkijaryhmä oli CMS:n suunnittelussa mukana alusta lähtien. Pienempi suomalainen ryhmä LEP-törmäyttimellä meneillään olleesta DELPHI-kokeesta liittyi puolestaan ATLAS-hankkeeseen LHC:llä. CMS- ja ATLAS-koeasemaesitykset (Letters of Intent) hyväksyttiin alustavasti CERNin tutkimusohjelmaan v. 1993.

CMS-koeaseman suunnittelussa suomalainen tutkijaryhmä keskittyi kahteen projektiin. Toinen oli teorian ennustaman protoni-protoni-törmäyksissä syntyvien Higgsin hiukkasten fysiikan simulointi, CMS-koeaseman simulointi sekä sen mittaamien hiukkasten ratojen tunnistamiseen ja rekonstruointiin tarvittavan tietokoneohjelmiston rakentaminen.  Tässä suomalaisilla tutkijoilla oli vahvaa osaamista ja kokemusta UA1-kokeesta. Toinen hanke oli koeaseman laitteiston suunnittelu ja prototyyppirakentaminen. LEPin DELPHI-kokeen verteksi-ilmaisimen (törmäyspisteen mittaamiseen tarvittava ratailmaisin) rakentamisesta saadun osaamisen pohjalta lähdettiin suunnittelemaan piinauhailmaisimiin perustuvaa CMS:n keskusratailmaisinta. Lisäksi tärkeänä osana oli koeaseman ilmaisimista antaman mittaustiedontiedon lukujärjestelmän suunnittelu ja rakentaminen, missä suomalaisille tutkijoilla oli kokemusta UA1- ja DELPHI-kokeista.

LHC-törmäytinkompleksin rakennussuunnitelma valmistui v. 1994. Kun alustavia sitoumuksia hankkeen rahoittamiseen oli saatu riittävästi, CERNin Neuvosto teki joulukuussa 1994 päätöksen LHC:n rakentamisesta. Päätöksen yksityiskohdat vahvistettiin v. 1996, jolloin suihkuenergiaksi varmistettiin 7 TeV ja budjetti kiinnitettiin 2563 milj. Sveitsin frangiin. LHC:n käynnistyminen suunniteltiin tapahtuvaksi v. 2005.

Koeasemien alustavat rakennussuunnitelmat (Technical Proposals) valmistuivat v. 1995 ja niiden perusteella CERNin LHC-komitea suositteli CERNin johdolle ATLAS- ja CMS-projektien lopullista hyväksymistä laitoksen tutkimusohjelmaan. Hyväksymisen vahvisti CERNin pääjohtaja Chris Llewellin-Smith 31.1.1995. Koeasemien rakennuskustannusten ylärajaksi asetettiin 476 milj. Sveitsin frangia.

Suomessa oli nyt tehtävä päätökset koeasemien rakennustöiden rahoittamisesta. Suomen osallistumista rahoitukseen oli kaavailtu n. 5 milj. Sveitsin frangiksi (n. 20 milj. Suomen markkaa). LHC-kokeiden rahoitusta koskevia neuvottelut aloitettiin Opetusministeriössä ja sieltä näytettiinkin vihreää valoa. Tämän perusteella SEFTin johtokunta päätti kokouksessaan 24.8.1995 sitoutua CMS-kokeen rahoitukseen 5 milj. frangilla edellyttäen, että rahoitus järjestyy Opetusministeriön myötävaikutuksella. SEFTin budjettiin summa oli aivan liian suuri. ATLAS-projektiin osallistumisen kustannukset olivat pienet ja mahtuivat SEFTin budjettiin.

HIPin perustaminen ja LHC- tutkimusohjelman organisointi

Fysiikan tutkimuslaitos (HIP) perustettiin syksyllä 1996. HIPin toiminta organisoitiin tutkimusohjelmiin, joilla oli omat johtajansa. LHC-kokeita varten muodostettiin LHC-ohjelma (vuodesta 2003 CMS-ohjelma), jonka johtajaksi tuli v. 1998 lähtien dos. Jorma Tuominiemi.

LHC-ohjelma jakaantui kahteen projektiin, Software and Physics -projektiin ja CMS Outer Tracker-projektiin. Software and Physics -projekti keskittyi CMS-kokeen analyysiohjelmien kehitystyöhön sekä simulaatiotutkimuksiin, joissa selvitettiin suunnitellun CMS-koeaseman potentiaalia löytää Higgsin bosoni LHC-törmäyttimellä saavutettavalla massa-alueella (100­–1000 GeV/c2). Projektin päällikkönä toimi dos. Veikko Karimäki. Tracker-projekti jatkoi CMS:n keskusratailmaisimen uloimman osan (Tracker Outer Barrel, TOB) hiilikuitutukirakenteen suunnittelua ja prototyyppien rakentamista. Projektiin kuului aluksi myös ratailmaisimen hiukkasilmaisimien suunnittelu ja prototyyppirakentaminen. Pääpaino oli kuitenkin TKK:n Hiukkasfysiikan teknologian instituutissa aloitettu TOB:n mekaanisen rakenteen suunnittelu ja prototyyppien testaaminen. HIP nimitti projektin päälliköksi TkT Miikka Kotamäen TKK:sta. Projektin jäseninä olivat DI Niko Eiden, DI Harri Katajisto, DI Kari Tammi ja DI Tommi Vanhala.

Rahoitus

ATLAS- ja CMS-projektien osanottajainstituutit saivat v. 1996 aikana valmiiksi alustavat sopimukset koeasemien rakennussuunnitelmista ja rakentamiskustannuksista (Interim Memorandum of Understanding of the Initial Phase of the ATLAS/CMS Experiment). HIP sitoutui maksamaan ATLAS-projektille 50 000 Sveitsin frangia ja CMS-kokeelle 100 000 frangia vv. 1997–98. Lisäksi HIP sitoutui CMS:n rakennuskustannuksiin 5 milj. frangilla vv. 1998–2005, edellyttäen että tutkimuslaitos saisi tarvittavan määrärahan sen budjetin ulkopuolisena lisärahoituksena.

Rahoituksen järjestäminen Suomessa eteni nopeasti vuoden 1998 aikana. Tässä vaiheessa myös Jyväskylän yliopisto oli tulossa HIPin jäsenyliopistoksi. Se oli liittynyt LHC:llä tehtävään raskasioni-törmäyskokeeseen (ALICE). LHC-kokeiden rahoituksesta käydyissä Opetusministeriön, Suomen Akatemian, Helsingin yliopiston, TKK:n ja Jyväskylän yliopiston välisissä neuvotteluissa päädyttiin rahoitusmalliin, jonka mukaan Opetusministeriö kattaisi kolmasosan, Suomen Akatemia kolmasosan ja HIPin jäseninä olevat Helsingin yliopisto, Teknillinen korkeakoulu ja Jyväskylän yliopisto yhdessä kolmasosan tarvittavista rakennusmäärärahoista. CMS-kollaboraation kanssa sovittu kokonaissumma oli 5 milj. Sveitsin frangia ja ALICE-kollaboraation kanssa sovittu rahoitus 1 milj. frangia, jotka silloisilla valuuttakursseilla olivat yhteensä 21,2, milj. markkaa. ATLAS-kokeeseen osallistumisesta HIP päätti vetäytyä. Rahoituksen varmistaminen oli merkittävä etappi suomalaisen kokeellisen hiukkasfysiikan tutkimuksen ja Suomen CERN-yhteistyön kannalta. Tie Higgsin hiukkasen etsintään oli avattu. HIPin johtokunta saattoi valtuuttaa HIPin johtajan allekirjoittamaan CMS-kollaboraation ja ALICE-kollaboraation lopulliset rakennus- ja rahoitussopimukset (Memoranda of Understanding).

HIPin Tieteellinen neuvottelukunta (Scientific Advisory Board, SAB) asettui tukemaan LHC-kokeisiin osallistumista Memorandum of Understanding -suunnitelmassa määriteltyjen vastuiden mukaan. Neuvottelukunta korosti, että koska CMS-kokeen aikataulu vuosille 1998–­2005 oli tiukka ja vaativa, HIPin tuli nopeasti varmistaa kaikki tarvittavat resurssit.

Professori Eero Byckling -siirtyi eläkkeelle 1.7. 2000. HIPin uudeksi johtajaksi valittiin professori Dan-Olof Riska Helsingin yliopistosta.

HIPin LHC-ohjelman osallistuminen CMS-koeaseman rakentamiseen

CMS-kokeen rakentamiseen osallistuminen sujui hyvin. Vuonna 1999 saatiin TOB:n tukirakenteen täysimittainen prototyyppi ”Big Wheel” valmiiksi CERNissä. Sen lujuustestit tehtiin vuoden 2000 aikana, minkä jälkeen se läpäisi marraskuussa CMS:n Engineering Design Review -evaluaation. CMS saattoi nyt ryhtyä TOB:n tukirakenteen -tilausprosessiin teollisuudesta. Miikka Kotamäen siirryttyä CERNin henkilökuntaan ja ATLAS-projektiin uudeksi projektipäälliköksi nimitettiin TkL Eija Tuominen.

Teknisesti vaativa osa projektia oli Ilmaisinmodulien kiinnityskiskojen suunnittelu ja rakentaminen. Hanke aloitettiin HIPin tiloissa Kumpulassa v. 2002. Kumpulan HIPin ja Helsingin yliopiston Fysiikan laitoksen yhteiseen ilmaisinlaboratorioon rakennettiin kiskojen rakennustilat ja -välineistö sekä palkattiin tarkkuusasennuksiin koulutettu mekaanikko. Tehtävään tuli mekaanikko Jarmo Kortesmaa Suomen kelloseppäkoulusta. Rakennusprojektin koordinaattoriksi nimitettiin DI Harri Katajisto. Vuoden 2003 lopulla palkattiin vielä toinen mekaanikko, Auli Kuronen, kelloseppäkoulusta hänkin. Kiskot rakennettiin Kumpulan ilmaisinlaboratoriossa ja niiden fysikaaliset mitat tarkistettiin TKK:n Konetekniikan laboratoriossa. Erikoishiilikuitumateriaalin kiskoihin toimitti EXEL Compositions Oyj. Kiskojen valmistus saatiin päätökseen v. 2005, jolloin CERNiin oli toimitettu 750 moduli-kiskoa.

HIPin CMS Software and Physics -projektissa jatkettiin protoni-protoni-törmäystapahtumien simulointi- ja rekonstruktioalgoritmien sekä analyysiohjelmistojen kehittämistä. CMS:n Technical Design -raportteja varten tarvittiin huomattava määrä simuloituja törmäystapahtumia, joitten tuottamiseen HIPin ryhmä osallistui. Projektissa työskentelivät dos. Veikko Karimäki (projektin johtaja), dos. Ritva Kinnunen, FT Tomas Lindén, PhD Kati Lassila-Perini, sekä tohtoriopiskelijat FM Aatos Heikkinen, FM Sami Lehti, DI Tapio Lampén, DI Jukka Nystén, DI Mikko Voutilainen ja FM Lauri Wendland.

Tässä vaiheessa CMS-kollaboraatio oli kasvanut jo suureksi, jäsenluettelossa oli lähes 2000 nimeä. CMS-instituutit rekrytoivat mukaan runsaasti tohtoriopiskelijoita, tässä vaiheessa erityisesti fysiikan simulointiin. Tämä aiheutti paineita pienempien instituuttien toiminnalle ja useissa fysiikan analyysiprojekteissa päävastuu luisui suuremmille CMS-instituuteille. Myös HIPin Software and Physics -projekti joutui luovuttamaan johtoaseman joissakin tutkimusaiheissa yksinkertaisesti siksi, että suuremmilla instituuteilla oli enemmän työvoimaa. Standardimallin Higgsin hiukkasen tärkeimpien hajoamiskanavien tutkimukset siirtyivät vähitellen johtavien CMS-instituuttien kontrolliin. HIPin ryhmän osaaminen ja pitkä kokemus riittivät kuitenkin useissa aiheissa johtavan aseman säilyttämiseen. HIPin ryhmä keskittyi mm. tutkimaan Minimal Supersymmetric mallin (MSSM) Higgsin bosonien hajoamisprosessien mittausta CMS-koeasemassa, mistä muodostui pitkäaikainen tutkimusprojekti.  Erityisesti tau-leptoni -kanavat ja niiden liipaisualgoritmit olivat ryhmän vastuulla. Elektromagneettisen kalorimetrin ja ratailmaisimien antaman informaation yhdistämisen avulla voitiin laatia tehokas liipaisualgoritmi High Level Trigger  -vaihetta varten. Aiheesta syntyi v. 2001 FM Sami Lehden väitöskirja:” Prospects for the Detection of Neutral MSSM Higgs Bosons Decaying into Tau Leptons in the CMS Detector”. Se oli HIPin ensimmäinen LHC-fysiikasta tehty väitöskirja.

Välitavoitteen ”CMS Physics Technical Report” -vaihetta varten CMS-kollaboraatio teki v. 2003 laajan simulaatiotutkimuksen CMS:n potentiaalista löytää Higgsin bosoni. Tutkimus käsitti kaikki tärkeimmät hajoamiskanavat sekä standardimallin että MSSM:n Higgsin bosoneille. HIPin fysiikan ryhmän vastuulle annettiin tutkimuksen organisointi ja jo tehtyjen tutkimusten päivittäminen koeaseman viimeisintä suunnitelmaa vastaaviksi. Tutkimukset osoittivat, että 150-500 GeV:n massa-alueella standardimallin Higgsin bosonin oli löydettävissä jo 10 fb-1:n integroidulla luminositeetilla, joka suunnitelmien mukaan voitaisiin saavuttaa ensimmäisen vuoden ajojen aikana.

Lappeenrannan teknillinen yliopisto (LUT) liittyi CMS-kollaboraation jäseneksi syksyllä 2003. CMS:n keskusratailmaisimen pii-ilmaisimien suunnitteluun osallistunut FT Tuure Tuuva oli nimitetty professoriksi Lappeenrantaan ja perustanut sinne Mikroelektroniikan laboratorioon CMS-ryhmän. Ryhmään kuuluivat FM Kukka Banzuzi, FM Ahti Karjalainen, FM Arja Korpela ja M.Sc. Giovanni Polese. LUT otti vastuulleen Resistive Plate Chambers (RPC) -ilmaisinjärjestelmän tiedonkeruujärjestelmän linkkikorttien jatkosuunnittelun yhdessä Varsovan yliopiston CMS-ryhmän ja Varsovan Teknillisen yliopiston ryhmien kanssa. Korttien ensimmäiset tuotantoprototyypit toimitettiin CERNiin v. 2005 lopussa. CMS-toiminta Lappeenrannan teknillisessä yliopistossa oli laajentunut siinä määrin, että se liittyi HIPin jäsenyliopistoksi 27.9.2006.  RPC-ilmaisimilla tehtävän myoniliipaisun linkkikorttien tuotannosta sovittiin keväällä v. 2006 HIPin ja Lappeenrannan yliopiston elektroniikan suunnittelukeskuksen välillä. Tuotanto rahoitettiin HIPin CMS-rakennusbudjetista Memorandum of Understanding-sopimuksen mukaisesti. Tämän jälkeen Lappeenrannan ryhmä osallistui RPC-liipaisujärjestelmän ylläpitoon ja operointiin.

CMS:n keskusratailmaisimen (Tracker) TOB-osan rakennustyöt tehtiin CERNissä vv. 2004–2007. Projekti toteutettiin CERNin, HIPIn ja yhdysvaltalaisten Fermilaboratorion ja Santa Barbaran yliopiston yhteistyönä. Rakennustöihin CERNissä osallistuivat myös ilmaisinmoduli-kiskot Helsingissä rakentanut mekaanikkoryhmä (Jarmo Kortesmaa, Auli Kuronen ja Pauli Engström). Koko CMS Tracker saatiin koottua syksyllä v. 2007 ja joulukuussa se siirrettiin CMS-koeaseman luolaan yhteyteen loppuasennusta varten. Koko CMS-koeasema oli lopullisesti toimintakunnossa ja testattu v. 2008 kesällä.

LHC-kokeiden aloitus v. 2009 ja Higgsin bosonin löytyminen v. 2012

LHC:n rakennustyöt oli aloitettu v. 2000. Törmäyttimen valmistuminen lykkääntyi ensin arvioitujen rakennuskustannusten ylitysten vuoksi vuodesta 2005 vuoteen 2008 ja sitten käyttöönoton yhteydessä tapahtuneen kahden suprajohtavan magneetin välisen suprajohdeliitoksen pettämisen vuoksi marraskuuhun 2009. Uusi käyttöönottoprosessi sujui hyvin ja törmäytinkokeet voitiin aloittaa v. 2010 keväällä, aluksi 3,5 TeV:n suihkuenergioilla. Kaikki koeasemat ATLAS, CMS; ALICE ja LHCb olivat tuolloin valmiina aloittamaan protoni-protoni-törmäysten rekisteröinnin. Vuosien 2010–­2011 ajot osoittivat, että CMS-koeaseman kaikki osat toimivat suunnitellulla tehokkuudella ja tarkkuudella. HIPin CMS-tutkimusryhmä saattoi todeta tyytyväisyydellä, että keskusratailmaisimen TOB-osa toimi moitteettomasti. Perusteellinen laatutarkkailu Ilmaisinjärjestelmien, myös TOB-tukirakenteen rakentamisen kaikissa vaiheissa oli taannut laitteiston toimintavarmuuden. Kokeiden käynnistyttyä HIPin CMS-ryhmä osallistui paitsi kerätyn datan analysointiin, myös koeaseman ajamiseen liittyviin tehtäviin.

Vuonna 2010 HIPin CMS-projektin ohjelmanjohtaja vaihtui. Prof. Jorma Tuominiemi siirtyi eläkkeelle ja hänen tilalleen tuli FT Paula Eerola, joka oli nimitetty Helsingin yliopiston hiukkasfysiikan professoriksi v. 2009.

Vuoden 2012 alussa LHC:n suihkuenergioita nostettiin 4 TeV:hen. Suihkujen intensiteettiä oli saatu nostettua merkittävästi ja teoreettisten laskelmien mukaan Higgsin hiukkasen löytäminen v. 2012 aikana näytti mahdolliselle, jos hiukkasen massa olisi pienempi kuin 150 GeV/c2. Vuoden 2011 kokeissa oli jo saatu alustavia viitteitä Higgsin hiukkasen olemassaololle 120­–130 GeV/c2:n massa-alueella, mutta tarvittiin suurempi määrä törmäyksiä selvittämään, oliko kyseessä tilastollinen heilahdus taustareaktioiden massajakautumassa. Kokeet aloitettiin maaliskuussa suuren jännityksen vallitessa. Kesäkuun loppuun mennessä dataa oli jo kertynyt niin paljon, että datan analyysi vahvisti tilastollisesti merkittävästi Higgsin hiukkasen olemassaolon 125 GeV/c2:n massalla. Signaali näkyi kahden hajoamismoodin massajakautumissa. Nämä kokeellisesti helpoiten mitattavat moodit olivat Higgsin hiukkasen hajoaminen neljään myoniin sekä hajoaminen kahteen fotoniin. Tulokset julkaistiin 4.7. 2012 CERNissä pidetyssä seminaarissa, jossa CMS- ja ATLAS-kokeiden silloiset puhehenkilöt Dr. Fabiola Gianotti (ATLAS) ja professori Joe Incandela (CMS) pitivät esitykset saaduista tuloksista. CERNin suuri auditorio pullisteli kuulijoita. Läsnä olivat myös professorit Peter Higgs ja Francois Englert, jotka v. 1964 ensimmäisinä esittivät teoreettiset tutkimukset Higgsin hiukkasen olemassaoloon johtaneesta sähköheikon vuorovaikutuksen spontaanista symmetriarikosta. CERNin pääjohtaja Rolf Heuer lausui seminaarin päätössanoissaan: ”Results of today were only possible due to the extraordinary performance of the accelerators, experiments and GRID-computing.”

Higgsin hiukkasen löytyminen sai valtavasti huomiota. CERNissä seminaaritapahtumaan osallistui 55 mediaorganisaatiota, joilla oli paikalla oma lähetyskalusto tai ainakin oma toimittaja. Tilaisuutta seurattiin joukolla lehdistön kanssa myös etäyhteydellä Helsingissä Kumpulan kampuksella HIPin tiloissa ja saavutusta juhlittiin samppanjan kera.

Kokeet jatkuivat vuoden 2012 loppuun asti. Koko vuoden aikana kerätystä datasta tehty tarkempi analyysi osoitti, että löydetyn hiukkasen spin ja pariteetti olivat standardimallin Higgsin hypoteesin mukaiset. Näin oli aineen perusrakenteen standardimallin viimeinen puuttuva hiukkanen löydetty ja suunta jatkotutkimuksille viitoitettu. Jatkotutkimuksissa ensimmäinen kysymys luonnollisesti oli, oliko löydetty hiukkanen vain standardimallin Higgsin bosoni vai yksi standardimallin laajennusten ennustamista Higgsin hiukkasista. Jälkimmäisessä tapauksessa niitä pitäisi olla useampia ja havaittu hiukkanen voisi olla niiden ennustama sähkövaraukseltaan neutraali Higgsin hiukkanen. Tämän kysymyksen tutkimista on tätä artikkelia kirjoitettaessa tehty LHC-kokeissa vuosien ajan, dataa on saatu kokeista 30-kertainen määrä vv. 2011–­2012 verrattuna, mutta selvyyttä teorian laajennuksesta ei ole saatu. Kokeet jatkuvat, suunnitelmissa on, että LHC:n tutkimuskapasiteetti riittää aina 2030-luvulle asti. HIPin tutkimusryhmät, jotka nyt koostuvat uusista lupaavista nuorista tutkijoista, jatkavat kokeissa aktiivisina mukana, monet CMS:n tutkimusryhmien koordinaattoreina.

Nobelin palkinto v. 2013

Peter Higgs ja Francois Englert saivat v. 2013 Nobelin fysiikan palkinnon tutkimuksistaan.

Nobel-komitean kunniamaininnassa hiukkasen löytyminen ATLAS- ja CMS-kokeissa on myös eksplisiittisesti mainittu. Euroopan Fyysikkoseura puolestaan myönsi kesällä 2013 vuotuisen fysiikan palkintonsa yhdessä ATLAS- ja CMS-kollaboraatioille sekä kokeiden ensimmäisille puhemiehille (Michelle Della Negra/CMS, Peter Jenni/ATLAS ja Tejinder Virdee/CMS). Laajempi kuvaus CMS-kokeesta löytyy kirjasta ”Kuplakammiofysiikasta Higgsin bosoniin” (kirjoittanut Jorma Tuominiemi), joka on saatavissa HIPin verkkosivuilta.

Jorma Tuominiemi
Adj. vanhempi tutkija ja emeritus ohjelmajohtaja, CMS
Fysiikan tutkimuslaitos

Näkemyksiä inflaatiotutkimuksesta

Maailmankaikkeuden rakenne on kehittynyt hyvin pienistä alkuhäiriöistä, eli tihentymistä ja harventumista aineen jakaumassa. Painovoiman vaikutuksesta tihentymät kasvoivat vetämällä ympäröivää ainetta puoleensa, ja näin muodostui vähitellen verkkomaista suuremman mittakaavan rakennetta. Muutaman sadan miljoonan vuoden ikäisessä maailmankaikkeudessa verkoston tiheimmissä solmukohdissa alkoi syntyä ensimmäisiä tähtiä ja niistä edelleen galakseja. Ensimmäisen sukupolven tähtien jäänteistä muodostui raskaampia alkuaineita sisältäviä pitkäikäisempiä tähtiä, galaksit ja galaksiryhmät kasvoivat suuremmiksi ja maailmankaikkeus kehittyi sellaiseksi kuin se nykyään 13,8 miljardin vuoden ikäisenä on.

Kosmologin kuvaus rakenteen synnystä ei tässä valeuutisten luvatussa ajassa kenties kuullosta juuri sen kummemmalta kuin muinaiskalevalaisissa piireissä kiertänyt vaihtoehtoinen tieto, jonka mukaan maailma syntyi sotkan munasta. Oleellinen ero on tietysti se, että kosmologian tutkimuksen tuottama tieto ei ole kiisteltävissä oleva mielipide, vaan sen taustalla on valtava määrä havaintodataa, vankka teoreettinen pohja ja tuhansien tutkijoiden vuosikymmenten työ. Alkuhäiriöt ovat yhä tänäkin päivänä suoraan havaittavissa kosmisessa mikroaaltotaustasäteilyssä. Taustasäteily on kuin valokuva maailmankaikkeudesta 380 000 vuoden iässä, jolloin baryoninen aine sitoutui neutraaleiksi atomeiksi ja fotonit pääsivät liikkumaan vapaasti. Alkuhäiriöt näkyvät suuruusluokaltaan sadastuhannesosan vaihteluina eri suunnista tulevan fotonitaustan lämpötilassa. Pienten alkuhäiriöiden kehittyminen suuren mittakaavan rakenteiksi on täsmällisesti mallinnettavissa oleva prosessi, jonka yksityiskohdat riippuvat sekä painovoimaa kuvaavasta teoriasta että maailmankaikkeuden koostumuksesta. Havainnot rakenteen ominaisuuksista ja kehityksestä kaikilla mitattavissa olevilla skaaloilla ovat pääosin erittäin hyvin sopusoinnussa yleiseen suhteellisuusteoriaan, kylmän pimeän aineen komponenttiin ja kosmologiseen vakioon perustuvan ns. LCDM-mallin ennusteiden kanssa.

Todennäköisin selitys alkuhäiriöiden synnylle on inflaatioksi kutsuttu kiihtyvän laajenemisen vaihe hyvin varhaisessa maailmankaikkeudessa, jo ennen kuumaa ja tiheää alkuvaihetta. Inflaation aikana minkä tahansa riittävän kevyen skalaarikentän kvanttimekaanisista fluktuaatioista muodostuu alkuhäiriöiksi jäätyvää rakennetta. Inflaatiossa syntyvien häiriöiden jakauma on lähes gaussinen ja varianssi lähes sama kaikilla pituusskaaloilla. Nämä inflaation keskeiset ennusteet vastaavat täsmälleen mikroaaltotaustahavaintoja, missä tarkkuuden huippua edustaa Planck-satelliitin data. Havaintosektorilla on edelleen odotettavissa uusia edistysaskelia, erityisesti mikroaaltotaustan polarisaatiosignaalin ja maailmankaikkeuden suuren skaalan rakenteen yksityiskohtien mittaustarkkuuden kehittyessä. Polarisaatiosignaalin avulla voitaisiin esimerkiksi havaita inflaation synnyttämä gravitaatioaaltotausta. Se olisi melkoinen lottopotti ja harppaus kohti inflaatiomallin varmentamista. Rakenteen entistä tarkempi kartoittaminen taas tuottaa lisää tietoa alkuhäiriöiden rakenteesta ja inflaatiodynamiikan yksityiskohdista. On kuitenkin todennäköistä, että inflaatiovaiheen taustalla vaikuttavaa fysikaalista mekanismia ei tulevaisuudessakaan voida suoraan rekonstruoida mittausdatasta.

Ainakin teoreetikon näkökulmasta kaikkein kiinnostavin kysymys koskee inflaatiovaiheen mikroskooppista luonnetta. Mitä alkuhäiriöiden mitatut ominaisuudet kertovat hiukkasfysiikasta ja gravitaatiosta inflaatioskaalalla, ja miten inflaation aikana tapahtuvat prosessit kytkeytyvät tunnettuun alkeishiukkasfysiikkaan?

Teorian ja havaintojen valossa vaikuttaa vahvasti siltä, että inflaatiovaiheessa jonkin skalaarikentän potentiaalienergia dominoi maailmankaikkeutta. Hiukkasfysiikan standardimallissa on yksi alkeishiukkasiin lukeutuva skalaarivapausaste eli Higgsin bosoni. Hiukkasfysiikan standardimalli selittää yhä edelleen äärimmäisen tarkasti kaikki hiukkaskiihdyttimillä havaitut ilmiöt. Tästä huolimatta on selvää, että se ei sellaisenaan voi olla täydellinen teoria, sillä se ei selitä pimeän aineen luonnetta, valtavaa epäsuhtaa aineen ja antiaineen määrissä, eikä neutriinojen massoja. Nämä havainnot voidaan kuitenkin selittää varsin pienillä lisäyksillä standardimalliin. Onkin erityisen kiinnostavaa tutkia, voisiko odottamattoman menestyksekkääksi teoriaksi osoittautunut standardimalli jollakin minimaalisella laajennuksella täydennettynä kuvata alkeishiukkasfysiikkaa joko kokonaan tai osittain aina inflaatioskaalalle asti. Samalla voidaan kysyä, miten inflaatiofysiikkaan liittyvä havaintodata ja erilaiset teoreettiset konsistenssiusehdot rajoittavat tällaisia malleja. HIP-kosmologiaprojektin inflaatiotutkimus pyrkii tuottamaan uusia vastauksia muun muassa näihin avoimiin kysymyksiin.

Keskeinen tutkimusaihe on Higgsin kentän rooli inflaatiovaiheen aikana. Tässä on kaksi mahdollisuutta: Higgsin kenttä joko dominoi maailmankaikkeuden energiatiheyttä ja aiheuttaa inflaation tai sitten se on inflaatiodynamiikan kannalta merkityksetön, eli ns. spektaattorikenttä. Voisi ajatella, että jälkimmäinen tapaus on merkityksetön myös tutkimuksen kannalta, mutta spektaattorikentillekin syntyy fluktuaatiota inflaation aikana. Näistä fluktuaatioista voi muodostua havaittavia alkuhäiriöitä, jos spektaattorikentän lokaali arvo vaikuttaa maailmankaikkeuden kehitykseen jossakin vaiheessa inflaation jälkeen. Tällainen mekanismi on olemassa esimerkiksi oikeakätisillä neutriinoilla laajennetussa standardimallissa, ja äskettäin osoitimme, että Higgsin kentän fluktuaatioista seuraa kiinnostavia rajoituksia neutriinosektorin kytkennöille. Higgsin kentän fluktuaatioiden tulee myös pysyä tietyn kriittisen rajan alapuolella, jotta ne eivät aiheuttaisi siirtymää sähköheikon potentiaaliminimin lähettyviltä standardimallin absoluuttiseen minimiin, josta ei enää ole paluuta havaittavan maailmankaikkeuden kaltaiseen tilaan. Tämän konsistenssiehdon avulla voidaan testata erilaisten hiukkasfysiikan teorioiden yhteensopivuutta inflaation kanssa. HIP-ryhmän tutkimustulosten perusteella tiedetään esimerkiksi, että vaatimus sähköheikon minimin stabiiliudesta inflaation aikana ja sen jälkeen antaa täsmällisen ennusteen Higgsin kentän epäminimaalisen gravitaatiokytkennän arvolle, joka itse asiassa on viimeinen tuntematon parametri hiukkasfysiikan standardimallissa. Erittäin merkittävä kysymys on se, voisiko Higgsin kentän dynamiikka selittää koko inflaatiomekanismin. Higgs-inflaatiota on tutkittu paljon, mutta aiheeseen liittyy vielä useita avoimia kysymyksiä koskien erityisesti mallien toimivuutta kvanttikenttäteorian tasolla. Tällä saralle ryhmässämme tehty tutkimus on hiljattain tuottanut uutta tietoa muun muassa gravitaatiosektorin rakenteesta ja materiasektorin kvanttikorjauksista.

Inflaatiofysiikka asettaa alkuehdot koko maailmankaikkeuden kehitykselle, joten on oleellista ymmärtää miten inflaation aikaiset prosessit kytkeytyvät paitsi alkuhäiriöiden ominaisuuksiin myös kaikkeen muuhun kosmologiseen havaintoaineistoon. Tutkimuksemme on osoittanut mielenkiintoisia yhteyksiä muun muassa pimeän aineen ja inflaatiofysiikan välillä. Epätasapainoilmiöt inflaatiovaiheen lopussa voivat esimerkiksi synnyttää hiukkasmuotoista pimeää ainetta, jopa puhtaasti gravitaatiokytkentöjen välityksellä. Tiedetään myös, että tietyissä tilanteissa inflaatio voi synnyttää primordiaalisia mustia aukkoja. Havainnot rajoittavat niiden osuuden alle prosenttiin pimeän aineen kokonaisenergiatiheydestä lähes kaikilla massaskaaloilla. Näinkin pieni osuus vaikuttaa kuitenkin hiukkasmuotoisen pimeän aineen klusteroitumiseen ja annihilaatioprosessien voimakkuuteen, joihin liittyviä karakteristisia havaintosignaaleja tutkimme äskettäin termisten reliikkien ja QCD-aksionien tapauksessa. Ryhmässämme tehtiin viime vuonna myös ensimmäinen täydellinen simulaatio primordiaalisten mustien aukkojen syntyyn liittyvästä alkuhäiriöiden kasvusta inflaatiossa.

Vanhan viisauden mukaan elefanttia ei syödä kerralla vaan pieninä paloina. Tämä pätee myös inflaatiofysiikan suhteen. Vegaani tai muuten vaan norsujen ystävä voi tässä kohtaa mielessään korvata elefantin vaikka jättimäisellä kurpitsalla. Alkupaloista on siirrytty jo tukevasti pääruoan puolelle, mutta ymmärryksessä on edelleen suuria aukkoja. Tämä ei oikeastaan ole kovinkaan yllättävää kun pidetään mielessä, että inflaation aikainen energiaskaala on mahdollisesti jopa kaksitoista kertalukua suurempi kuin maailman tehokkaimmalla hiukkaskiihdyttimellä, CERN:in LHC:lla, saavutettu taso. Kosmologisen havaintodatan tarkentuminen ja lisääntyvä tutkimustieto erilaisten teorioiden ennusteista aina inflaatioskaalle asti antaa kuitenkin uusia tehokkaita työkaluja, joiden avulla sitkeämpiäkin paloja voidaan alkaa nostella lautaselle ihan syömistarkoituksessa.

Sami Nurmi
Projektipäällikkö, HIP-projekti (Theoretical cosmology)
Jyväskylän yliopisto ja Fysiikan tutkimuslaitos

The Curious Journey of a Robotics Engineer to the Most Exciting Research Facility on This Planet.

How far can we keep splitting them? Would there be a moment in history that we find the “Atomos” which is truly “indivisible”? What would it mean? Would it be the instant that we realize that we exist in one of countless simulations? The Atomos is the smallest bit of information that can be stored on computers of “Gods” and the speed of light is the fastest rate of data transfer they could accomplish? I bet the ones for “Fine-tuned universe” will bombard us with lots of “I told you so” comments. I for one would be fine with that since there is always relief in knowing the truth as bitter light tastes better than the darkness no matter how sweet it is.

My 2019 was blessed with the privilege of spending six months as a trainee at CERN where the most important question of the origin is the very goal. The facility is awe-inspiring in most regards, from the sheer scale of construction and human collaboration to the very details of technologies utilized and the magnitude of accomplishments are yet far from perfect. In this text, since my expertise is not in the field of physics, I will steer clear of details of experiments and mainly focus on personal observations and experiences which might be interesting for people who are considering working in CERN or visiting.

Tampere to Saint-Genis-Pouilly

 I was invited to work with the Experimental Physics Department as an Associate member of the personnel which is probably the official euphemism for trainee. I would have accepted the position for free just to quench my curiosity so it was nice to hear that the position pays about 1300 euros of allowance which can cover living expenses to some extent. Even though I chose to live on the French side, the prices are hyped by the swiss border and the allowance was gone just for the accommodation and necessary calories, in addition to a few of unnecessary ones. I needed visas for France and Switzerland, however, acquiring them could not have gone smoother. A single visit to the French embassy in Helsinki, no application fee and the swiss visa was taken care of by CERN a few weeks after I arrived.

Many of the people with CERN related jobs live in Saint-Genis-Pouilly, the commune adjacent to the swiss border. It is small and quiet with a lovely nature and crystal-clear skies. The others mostly live in Geneva on the Swiss side. Geneva is a lively city in which many festivals take place throughout the year. In addition to those fun activities, during the weekends, CERN restaurant is the host of employees drinking and sometimes dancing.

CERN is Never Boring

 Just opposite the Meyrin site entrance, Globe of Science and Innovation this exotic wooden building, never fails to grab one’s attention regardless of how many times they have been there. A permanent science exhibition with impressive demonstrations and lots of nourishments for the thoughts of the curious. For the rest of the facilities, it is delightful to see interesting and informative stands and posters here and there especially at the entrances of different CERN sites explaining the science in an understandable way. I was able to join a tour to CMS experiment during my short presence. Again, not only the mere scale of the massive machine, but what it represents, the magnitude of curiosity and the enormous will to appease it, makes one feel lucky to live today and among such fellow sapiens. Similar to the rest of the facilities, the experiments are decorated for visitors and posters and mock-ups to provide a glimpse of working principles and the mechanisms.

In addition to the regular opportunities, CERN open days event happened during my stay. The doors were open to the public and the booths were erected in many buildings to welcome the visitors. During those days I enjoyed explaining the activities of the Robotics section to the curious minds and learning from their perspectives as well as visiting other departments’ exhibitions and learn from other CERNians. It is sad to see COVID had interrupted exhibitions and visits however, luckily, online visits are possible.

Engineering Physics Department and the new ALICE detector

As mentioned, I was invited to take part in activities related to the EP department of CERN and there I had the chance to see the parts of the new ALICE detector being developed in person. In the clean room, where the development was taking place, I saw dedicated scientists, students and bosses working with dedication alongside each other to improve ALICE detection rates by orders of magnitude. My job was to find robotic solutions for inspection purposes in collaboration with the Robotics department. The physics-savvy reader should forgive my crude and qualitative reports due to the lack of deep knowledge in this field however, I will try to mention a few of interesting detector design limitations that my mind manages to process.

The detector is the device inside which the proton collisions happen and becomes radioactively hot overtime. This presents a major challenge for future maintenance since it mandates lengthy cool down periods, up to a few months in some cases, before any human can safely access the detector. The new detector design, as far as I understood, was done with a robot-friendly approach to pave the way for robotic intervention and maintenance.

In addition to such safety limitations, I found the “material-budget” very intriguing. The resulting particles of the collisions scatter away from the collision point and the detector “pixels/sensors” sense them passing through. Comparing the detections is how the trajectory of the particles as well as their properties is determined. Any matter in the path of particles can affect their trajectory and even stop them including the components of the detector itself, the sensor arrays, the parts keeping them in place, wiring, etc. The more massive the objects the more obscuring introduced to the readings. This limitation affects the shape of the components as well as their material.

Robotics Department

I was given a desk in robotics department in order to better collaborate with this section. I spent most of my days there and my experiences there were interesting and exciting, however, very mixed and oddly disappointing considering the CERN factor. This department provides robotic solutions for interventions which cannot be caried out by humans due to limitations such as radiation hazards and accessibility. For example, the train that navigates the LHC for observation and measurement, TIM, is operated by this department. In addition to regular services, researchers, PhD students and experts there, continuously work on developing new solutions for the existing robotic demands as well as working on designs for future CERN projects such as a train for the Future Circular Collider(FCC).

The robots at CERN do not use any of the available operating systems such as ROS but rather use CERN Robotic Framework (CRF) which is developed in-house from scratch. This approach, in theory, should eliminate the confusion about the behavior of the code and the source of errors. In practice though, developing an entire operating system is no small task and in order to benefit from its merits, it must be done by the book. The programming experts might not agree on an exact number however, 20% of effort allocation for documentation is the very least I have encountered. Sadly, according to the leader of the department, it was 5% at the time. In other words, CRF is a very person-oriented work and suffers greatly by changes of the personnel. Surprisingly, the programmers of the department, even the very senior ones, were not offered contract extensions even though the core of the operations, the CRF, would suffer greatly. The silver lining is the people working there are very friendly and welcoming to the new members and working alongside them was truly delightful.

The robotic section, the offices and the workshop are located in a two story temporary building made of sandwich panels which was supposed to be replaced with a proper one after six months however, after more than five years, the team still works there. When one enters the workshop, they will be greeted with an exciting sight of purpose-built robots, industrial robot arms, an advanced VR workstation and young engineers, developers and students improving the robots and making new ones.

The very international composition of the robotic team makes working there enjoyable. I enjoyed working alongside people from Spain, Venezuela, Italy, Austria, Poland, France, Switzerland, Latvia, Denmark, Malta and Iran. Unfortunately, and surprisingly, too many of the members lack enough English skills to communicate in an efficient way and one extreme example could barely do more than the everyday greetings. This begs the question that what are the selection criteria for jobs in the section and why communication ability was not considered as a priority.

Working at CERN

Doing an internship is a perfect way of knowing the work environment, especially in a giant organization such as CERN. Some of the interns are offered PhD positions so they can stay, in case they wanted to extend their collaboration and I think that is an interesting path if one is pursuing a longer presence at CERN. As far as I understood, PhD students are paid twice as much as the interns and the payment difference between a PhD student and CERN employee has roughly the same ratio. Other than the compensation matters, working at CERN provides the opportunity of benefitting from numerous classes such as radiation protection which can be beneficial for one’s future career. Moreover, CERN pushes you to learn the beautiful French language since many of the service staff and guards do not know enough English. Why they were employed in such an international place remains a mystery to me.

Someone who might be interested in pursuing such a career, before putting any effort in that direction, should be aware of a peculiar requirement for employees of CERN. Only “nationals” of the member states can be officially employed by CERN. For the sake of financial exchange, it would make sense to limit the vendors to the ones from member states however, depriving an individual of the opportunity only because of a factor they had no say in, regardless of their qualifications, sounds tribalistic.

Last Words

What is happening at CERN is nothing short of magic and you should learn about it and visit when you get the chance.

May Odin smile upon you and Thor electrify your days.

Damoon, now working as PhD student to continue the development of the continuum inspection robot as part of the HIP Technology Program project ROBOT: www.hip.fi/robot

Damoon Mohamadi
PhD student, HIP Project (Robotics and AI for monitoring and intervention)
Tampere University and Helsinki Institute of Physics

Pimeää ainetta etsimässä

      1 Comment on Pimeää ainetta etsimässä

Näkymätön aine

Pimeälle aineelle ehkä kuvaavampi nimi olisi näkymätön aine. Se on jotain toistaiseksi tuntematonta ainetta, joka ei näy kaukoputkella (eli näkyvän valon aallonpituudella), eikä muitakaan sähkömagneettisen säteilyn aallonpituuksia (kuten infrapunaa tai röntgensäteilyä) havainnoivilla instrumenteilla. Pimeä aine ei siis säteile eikä absorboi sähkömagneettista säteilyä. Hiukkasfysiikan kielellä, se ei vuorovaikuta sähkömagneettisen kentän kanssa.

Tämän näkymättömän aineen olemassaolo käy ilmi painovoiman kautta: Tähdet liikkuvat galakseissa nopeammin kuin galaksien näkyvän aineen jakauma antaisi olettaa. Ylimääräinen liike-energia selittyy sillä, että galaksin gravitaatiopotentiaalista suurin osa on näkymättömän pimeän aineen aiheuttamaa. Vastaavanlaiset havainnot yksittäisten galaksien liikkeistä galaksiryppäiden sisällä kertovat että myös galaksiryppäiden massasta noin viisi kuudesosaa koostuu pimeästä aineesta, ja vain yksi kuudesosa on tavallista näkyvää ainetta, pääosin vetyä.

Yhtälailla painovoimaan perustuen pimeä aine voidaan havaita gravitaatiolinssiefektin avulla: Yleisen suhteellisuusteorian mukaisesti massa kaareuttaa sen ohi kulkevien valonsäteiden reittejä, ja siten massiiviset rakenteet kuten galaksiryppäät toimivat linsseinä taittaen niiden takaa näkyvien valonlähteiden lähettämiä kuvia. Näitä gravitaatiolinssien muokkaamia kuvia analysoimalla voidaan päätellä kuinka paljon linssinä toimivassa rakenteessa on massaa ja miten se on jakautunut. Ehkä tunnetuin esimerkki tällaisista havainnoista on niinkutsuttu bullet cluster. Kuvassa näkyy kahden galaksiryppään törmäys, jonka johdosta näkyvä vetykaasu on irtaantunut pimeästä aineesta, jonka sijainti käy ilmi gravitaatiolinssiefektin avulla.

Painovoimansa avulla pimeä aine myös selittää miten kosmiset rakenteet kuten galaksit ja galaksiryppäät ovat alunperin syntyneet. Varhaisessa maailmankaikkeudessa aine oli hyvin tasaisesti jakautunutta kuumaa hiukkaspuuroa, eli plasmaa. Jossain kohdin ainetta oli hieman tiheämmin ja toisaalla taas harvemmin. Painovoima pyrkii kasvattamaan näitä epätasaisuuksia, kun tiheät kohdat vetävät lisää ainetta puoleensa ja tihentyvät siten entisestään. Kasaantuessaan tavallinen aine kuitenkin kuumenee ja säteilee lämpösäteilyä, joka puolestaan työntää ainetta poispäin tiheämmistä alueista. Tämä ilmiö hidastaisi rakenteen muodostumista, jos kaikki aine olisi tavallista ainetta, eikä aineen jakauma maailmankaikkeudessa näyttäisi sellaiselta kuin sen nyt havaitsemme. Mutta pimeä aine on näkymätöntä juuri siksi, että se ei vuorovaikuta sähkömagneettisen säteilyn kanssa. Se ei siis tunne säteilyn painetta ja pystyy siksi kasautumaan painovoiman vaikutuksesta tehokkaasti jo varhaisessa maailmankaikkeudessa. Näkyvät kosmiset rakenteet ovat syntyneet kun näkyvä aine on luhistunut pimeän aineen tihentymien luomiin gravitaatiopotentiaalin kuoppiin.

Kolme tapaa löytää näkymätön

Pimeän aineen uskotaan koostuvan jostain tuntemattomasta hiukkasesta, koska mikään tunnetuista hiukkasfysiikan standardimallin alkeishiukkasista ei sovi pimeän aineen rooliin. Ominaisuuksiltaan muuten pimeäksi aineeksi sopivat, sähkövarauksettomat neutriinot ovat liian kevyitä muodostaakseen pimeän aineen rakenteet. Pimeän aineen etsinnässä on siis kyse uuden, standardimallin ulkopuolisen alkeishiukkasen etsimisestä. Tämä hiukkasjahti tapahtuu kolmella rintamalla:

Hiukkaskiihdyttimissä, kuten CERNin LHCssa, törmäytetään protoneita yhteen suurella energialla, ja mitataan tarkasti törmäyksessä syntyneiden hiukkasten energiat ja liikemäärät. Miljardien törmäysten joukosta pyritään löytämään sellaisia, joissa syntyneiden hiukasten liikemäärävektorit eivät ole tasapainossa. Tämä kertoisi siitä, että osa liikemäärästä on kulkeutunut pois havaintolaitteiden ohi näkymättömien hiukkasten kantamana. Jos tällaisia tapahtumia nähtäisiin enemmän kuin standardimallin ennustamat neutriinot voivat selittää, voisi se olla osoitus siitä, että törmäyksissä on syntynyt näkymättömiä pimeän aineen hiukkasia.

Jos pimeä aine koostuu tasapuolisesti hiukkasista ja antihiukkasista (toisin kuin näkyvä aine, joka koostuu vain hiukkasista, joita jostain syystä oli varhaisessa maailmankaikkeudessa hieman enemmän kuin antihiukkasia), nämä voivat joskus törmätä toisiinsa ja annihiloitua näkyviksi hiukkasiksi, kuten fotoneiksi tai varatuiksi hiukkasiksi. Toisaalta jos pimeä aine ei ole eliniältään ikuista, mutta vain erittäin pitkäikäistä, pimeän aineen hiukkaset voisivat toisinaan hajota näkyviksi hiukkasiksi. Tällaisia pimeän aineen annihilaatioista tai hajoamisista syntyviä hiukkasia etsitään suuntaamalla teleskoopit tai hiukkasilmaisimet kohti linnunradan keskustaa, galaksiryppäitä, tai linnunradan ympärillä kiertäviä kääpiögalakseja, koska jokaisen näkyvän rakenteen tiedetään sijaitsevan suuren pimeän aineen muodostaman ”kehän” eli halon sisällä. Pimeän aineen halo on tiivein sen keskikohdassa, joten keskellä rakennetta pitäisi myös tapahtua eniten annihilaatioita tai hajoamisia.

Kolmas tapa etsiä pimeää ainetta on niinsanottu suora havainnointi, joka perustuu maapallon liikkeeseen aurinkokunnan mukana linnunrataa ympäröivän pimeän aineen halon läpi. Aurinkokuntamme kiertää linnunradan keskustaa noin 220 km/s nopeudella. Näin ollen, liikkuessamme pimeän aineen halon läpi, on maapallolle kiinnitetyn havaitsijan näkökulmasta vastassamme jatkuva pimeän aineen hiukkasten vuo, ikäänkuin pimeän aineen muodostama tuuli. Suoran havainnoinnin kokeissa tarkkaillaan jotain kohdemateriaalia, esim suurta tankillista nestemäistä Xenon-kaasua, ja pyritään näkemään valotuikkeita jotka syntyisivät kun pimeän aineen hiukkanen osuu kohdeaineen atomiin ja siirtää sille energiaa tässä törmäyksessä.

Pimeän aineen tuulen vuodenajat

Aurinkokunnan kierros galaksin ympäri, eli galaktinen vuosi, kestää yli 200 miljoonaa vuotta. Siten aurinkokunnan liike suhteessa pimeän aineen haloon on ihmiselämän aikaskaalassa vakio. Mutta maapallon mukana matkustavan havaitsijan kokeman pimeän aineen tuulen nopeus vaihtelee hieman vuodenaikojen mukana, johtuen maapallon liikkeestä auringon ympäri. Tämä kiertonopeus on noin 30 km/s, ja siten joko kasvattaa tai pienentää pimeän aineen tuulen nopeutta aurinkokunnan 220 km/s vauhdista sen mukaan, kuljemmeko auringon ympäri myötä- vai vastatuuleen. Vastatuuli osuu kesäkuulle, jolloin siis yhteenlaskettuna pimeän aineen tuulennopeus on suurimmillaan, ja myötätuuli eli pimeän aineen tuulennopeuden minimi puolestaan joulukuulle.

Suoran havainnoinnin kokeissa tämä tuulennopeuden vaihtelu vaikuttaa siten, että kesällä törmäykset tapahtuvat keskimäärin hieman suuremmalla energialla kuin talvella. Jos törmäysenergia on liian pieni, se ei riitä aiheuttamaan havaittavaa valontuiketta, ja siten matalaenergisin osa törmäyksistä saattaa jäädä kokonaan näkemättä. Näin ollen kesällä suurempi osa mahdollisista pimeän aineen törmäyksistä on kokeiden kannalta sopivalla energia-alueella, ja siten kokeen pitäisi nähdä enemmän törmäyksistä kertovia valotuikkeita kesällä kuin talvella.

Italian Gran Sasson vuoren uumenissa sijaitseva DAMA-koe onkin jo vuosikausia raportoinut havaitsevansa juuri odotetunlaisen vuosivaihtelun natriumjodidi-kiteeseen perustuvassa ilmaisimessaan. Ilmaisin tuikkii hieman tiuhempaan kesäisin ja hieman harvemmin talvisin, juuri niinkuin pimeän aineen törmäyksistä kertovien tuikkeiden tulisikin käyttäytyä. Näiden havaintojen tulkinta osoituksena pimeän aineen hiukkasen löytymisestä on kuitenkin ongelmallista, koska monet muut kokeet maailmalla eivät ole nähneet vastaavaa signaalia, vaikka teoreettiset mallit jotka voisivat kuvata DAMAn havaitsemia törmäyksiä, ennustaisivat että nämä törmäykset pitäisi havaita myös esim Xenon-kokeessa. Asia on hämmästyttänyt tiedeyhteisöä jo toistakymmentä vuotta, mutta selvää virhettä DAMAsta tai muistakaan kokeista ei ole löytynyt, joka voisi selittää ristiriitaiselta vaikuttavat tulokset.

Tarkempaa tietoa monipuolisemmilla mittauksilla

DAMAn ja muiden suoran havainnoinnin kokeiden tulosten yhteismitallista tulkintaa hankaloittaa se, että DAMA on näistä kokeista ainoa joka käyttää kohdeaineena natriumjodidia. On mahdollista, että pimeä aine vuorovaikuttaa eritavalla eri alkuaineiden atomien kanssa, ja siten eri kohdeaineisiin perustuvat mittaukset eivät olisi suoraan vertailukelpoisia. Viimevuosina onkin maailmalla ryhdytty rakentamaan muitakin DAMAn kaltaisia natriumjodidi-ilmaisimia, joiden avulla tulosten vertailu olisi selkeämpää.

Vuodesta 2020 alkaen HIP on liittynyt mukaan italialaisten, saksalaisten ja itävaltalaisten tutkimusryhmien yhteistyössä aloittaman COSINUS-kokeen toimintaan. Tämä koe on rakenteilla samaan Gran Sasson laboratorioon jossa myös DAMA toimii, ja kohdeaineena on natriumjodidi-kide kuten DAMAlla. DAMAsta ja muista natriumjodidi-ilmaisimista poiketen COSINUS-kokeen tarkoitus on kuitenkin mitata törmäyksen aiheuttaman valontuikkeen lisäksi myös törmäyksessä kiteeseen siirtynyt lämpö- ja värähtelyenergia. Vertaamalla törmäyksen tuottaman valontuikkeen voimakkuutta värähtelyenergian määrään saadaan tarkempaa tietoa siitä, minkälainen sirontaprosessi on tapahtunut. Tämän tiedon avulla voidaan esimerkiksi erottaa atomiytimistä ja niitä verhoavista elektroneista tapahtuneet sironnat toisistaan. Lisäksi värähtelyenergian mittaus tuottaa paljon tarkemman tiedon törmäysenergiasta kuin pelkän valontuikkeen mittaaminen, ja siten on mahdollista määrittää havaittujen törmäysten energiajakauma entistä tarkemmin. Tämä tieto puolestaan auttaa tulkitsemaan mahdollista signaalia pimeästä aineesta kertovien hiukkasfysiikan teorioiden kannalta. Näin COSINUS-kokeen tuottama moniulotteisempi ja tarkempi data voisi lopulta tuoda selvyyden pitkään jatkuneeseen mysteeriin DAMAn signaalin takana. Yksittäisessä hiukkasen ja atomin törmäyksessä kiteeseen siirtynyt energia on hyvin vähäinen verrattuna huoneenlämpöisen kiteen sisältämään lämpöenergiaan. Tästä johtuen COSINUS-kokeessa kohdeaineena toimiva natriumjodidi-kide jäähdytetään lähelle absoluuttista nollapistettä, alle 10 millikelvinin lämpötilaan kryostaatin avulla. Tämä mahdollistaa pientenkin kidevärähtelyiden mittaamisen erityisen herkkien lämpömittareiden (TES eli transition edge sensor) avulla. TES on mikroskooppinen, suprajohtavasta metallista valmistettu liuska, joka pidetään juuri suprajohtavuuslämpötilan tuntumassa. Tässä kriittisessä lämpötila-alueessa pienikin lämpötilan muutos aiheuttaa suuren muutoksen liuskan sähkönjohtavuudessa, joka voidaan mitata, ja siten sensori toimii äärimmäisen tarkkana lämpöenergian mittarina.

COSINUS-kokeessa kohdeainekide on kytketty kryostaatin tuottamaan alle 10mK lämpökylpyyn lämmönjohtimen kautta, ja TES on sijoitettu lämmönjohtimen ja kiteen väliin, oheisen kuvan mukaisesti. Näin hiukkassironnan kiteeseen synnyttämät värähtelykvantit eli fononit joutuvat kulkemaan TESin kautta matkallaan lämpökylpyyn, ja niiden kuljettama värähtelyenergia voidaan mitata. Tämä mittalaitteisto on taustasäteilyltä suojaamiseksi peitetty kuparilla ja upotettu vesitankkiin, jonka lisäksi kosmiselta säteilyltä suojaa antaa sijainti Gran Sasson vuoren uumenissa. Oheisessa kuvassa näkyy suunnitelma kokeen rakennelmasta, jossa korkean vesitankin ympärille on rakennettu mittauksissa tarvittavat tekniset tilat ja puhdashuone.

HIPistä COSINUS-toimintaan osallistuvat tohtoriopiskelija Alex Stendahl, yliopistotutkija Matti Heikinheimo sekä yliopistonlehtori Kimmo Tuominen.

Matti Heikinheimo
Yliopistotutkija, HIP-projekti (High Energy Phenomenology in the LHC era)
Helsingin yliopisto ja Fysiikan tutkimuslaitos