Yleisöpalvelua ja ilmaisinteknologiaa Tutkijoiden yössä

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on perinteisesti osallistunut Euroopan Tutkijoiden yö -tapahtumaan. Tapahtumassa laboratorio on esitellyt toimintaansa ja yleisö on päässyt kokeilemaan erilaisten anturien toimintaa ja kasaamaan yksinkertaisia elektroniikkapiirejä. Koronan vuoksi yleisötapahtumia ei ole voinut järjestää, joten olemme joutuneet keksimään uusia tapoja toiminnan esittelyyn ja tapahtumaan osallistumiseen.

Tutkijoiden yö

Syyskuun viimeisenä perjantaina järjestetään Euroopan laajuinen tiedetapahtuma, Tutkijoiden yö. Tapahtumassa tutkijat voivat esitellä työtään ja tutkimusalaansa muun muassa erilaisilla näyttelyillä, kokeilla, esityksillä ja tehtävillä. Olennaisena osana tapahtumaa on vuorovaikutus tieteentekijöiden ja yleisön välillä.  

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on ollut aktiivisesti mukana Tutkijoiden yössä useina vuosina. Tilaisuuksissa kävijät ovat päässeet tutustumaan erilaisiin säteilynilmaisimiin, sekä päässeet itse kokeilemaan muun muassa komponenttien kiinnittämistä koekytkentälevyille ja erilaisten anturien toimintaa. Korona-aikana tällaisten yleisötapahtumien järjestäminen ei ole ollut mahdollista, joten jouduimme kehittelemään ohjelmasta virtuaalisemman version.  

Tänä vuonna Tutkijoiden yötä (https://www.tutkijoidenyo.fi/ohjelma/) vietettiin neljällä paikkakunnalla Suomessa. Laajin ohjelma oli Jyväskylän yliopistolla, jossa oli mahdollista myös vierailla tapahtuman aikana. Pääkaupunkiseudulla tapahtumat olivat Arcadan järjestämät verkkoluennot, sekä Ilmaisinlaboratorion virtuaalivierailut esitelmineen. Ainoana ”ulkopuolisena” laboratorioon pääsi tutustumaan Heikki Hupiukko, joka teki tärkeitä havaintoja eri laitteiden ominaisuuksista. 

Heikki Hupiukko tutustumassa Fysiikan tutkimuslaitokseen Tutkijoiden yönä 2021. Videot löytyvät täältä. Kuva ja hahmon kehittely: Juha Aaltonen.

Ilmaisinteknologian esittelyä

Tämän vuoden ohjelmassa meidän tarkoituksenamme oli esitellä mahdollisimman laajasti Ilmaisinlaboratorion erilaisia säteilynilmaisimia, niiden valmistamista, sekä erilaisia laadunvarmistus- ja analysointimenetelmiä, joita tarvitaan ilmaisimien rakentamisessa.  

Monimutkaisimpia esitellyistä laitteista oli germanium-puolijohteesta valmistettu kaupallinen gammasäteilyn ilmaisin, jota voidaan käyttää muun muassa säteilylähteiden paikantamiseen. Yksinkertaisimmasta päästä taas oli ilmaisin, joka oli rakennettu juomatölkistä.  Dosentti Erik Brückenin esittelemänä laitteella kyettiin mittaamaan muun muassa rauta-55 isotooppilähteen spektri.

Erik Brücken esittelemässä juomatölkistä tehtyä säteilynilmaisinta. Kuva: Juha Aaltonen.

Molempien ilmaisimien perustoimintaperiaate on hyvin samanlainen. Säteily ionisoi ilmaisinmateriaalia. Syntyneet varaukset johdetaan laitteen anodille tai katodille ja mitatusta virrasta voidaan määrittää säteilyn energia. Mitatusta spektristä voidaan määrittää esimerkiksi säteilylähteen ominaisuudet.

Tohtorikoulutettava Shudhashil Bharthuar puolestaan esitteli Cernin CMS-kokeeseen asennettavien puolijohdekomponenttien karakterisointia ja laadunvarmistusta. Laboratoriossa olevilla laitteilla kyetään mittaamaan pii-ilmaisimien ominaisuuksia. Kokeessa käytettävien ilmaisimien lisäksi laitteistolla voidaan tutkia uusien valmistusmenetelmien vaikutusta ilmaisimien toimintaan.

Shudhashil Bharthuar esitteli pii-ilmaisimien toimintaperiaatetta ja laadunvarmistusta. Kuva: Juha Aaltonen.

Paluu entiseen

Virtuaalitapahtumat saattoivat olla aluksi kätevän oloisia, mutta lähes puolentoista vuoden virtualisoinnin jälkeen tällaiset tapahtumat alkavat toistaa itseään. Zoom-alusta ei ole myöskään paras mahdollinen järjestelmä lähetyksen tekoon. Tästä huolimatta opimme virtuaalitilaisuuksista paljon varsinkin käytettävän AV-tekniikan osalta. Esimerkiksi kouluvierailut voi toteuttaa samalla menetelmällä, mikäli matkustus Helsinkiin vaatisi liian paljon resursseja. Mikäli päätämme olla mukana jälleen ensi vuonna Tutkijoiden yössä, järjestetään tapahtuma jälleen yleisötapahtumana. Tällöin vuorovaikutus osallistujien ja esittelijöiden välillä on helpompaa ja antoisampaa.

Lisätietoja mahdollisista virtuaalisista kouluvierailuista Ilmaisinlaboratorioon voi tiedustella Matti Kalliokoskelta.

Matti Kalliokoski
Yliopistotutkija
Fysiikan tutkimuslaitos

Säteily- ja ydinturvallisuustutkimuksen ytimessä

Säteilyturvakeskus (STUK) liittyi Fysiikan tutkimuslaitoksen (HIP) jäseneksi vuonna 2018. STUK toimii kansallisena turvallisuusviranomaisena, tutkimuslaitoksena ja mittanormaalilaboratoriona. HIPin jäsenenä STUKin rooli osin onkin toimia linkkinä tutkimusyhteisön, säteilyn käyttäjien, viranomaisten ja kansainvälisten järjestöjen välillä ja tätä kautta edistää säteilyturvallisuuteen liittyvä tutkimusta ja toisaalta tutkimustulosten käyttöönottoa. Viimeaikaiset tutkimusprojektit ovat liittyneet mm. ilmaisimien kehitykseen säteilyn lääketieteellisen käytön tarpeisiin, radioaktiivisten näytteiden analyysimenetelmien kehittämiseen sekä käytetyn ydinpolttoaineen loppusijoitukseen.

Säteilyturvakeskus perustettiin vastaamaan säteilysuojelun tarpeisiin

Säteilysuojelualan kehitys oli alkuaikoina täynnä vauhtia ja vaarallisia tilanteita. Uusi ilmiö innosti tutkijoita, ja ionisoivan säteilyn löytyminen poiki nopeasti mitä erilaisempia sovelluksia erityisesti lääketieteessä. Tietämys säteilyn aiheuttamista haitoista tuli kuitenkin vuosikausia jälkijunassa. Säteilyn lääketieteellisen käytön lisääntyminen ja kasvava tietoisuus säteilyn haitallisista vaikutuksista johti STUKin esi-isän, lääkintöhallituksen alaisen säteilyfysiikan laitoksen, perustamiseen 1958. Tuohon aikaan Kansainvälinen säteilysuojelukomissio (ICRP) oli sen aikaiseen tietoon pohjautuen ansiokkaasti kehittänyt kansainvälistä säteilysuojelujärjestelmää ja siihen liittyviä henkilökohtaisia annosrajoituksia.

Yleinen herääminen tarpeeseen säädellä säteilyn käyttöä johti myös Euroopan atomienergiayhteisön luomiseen (1957). Tähän liittyvä Euratom-sopimus on edelleen voimissaan lähes alkuperäisessä asussaan, ja on myös nykyisen Säteilylakimme taustalla. Säteilysuojelun kulmakivet, eli altistuksen oikeutusharkinta ja altistuksen optimointi sekä yksilön suojaaminen säteilyn haittavaikutuksilta, ovat kestäneet ajan hampaan nakerrusta jo kymmeniä vuosia. Yhteiskunnan kasvanut riskitietoisuus ja tiedonjano vaativat kuitenkin entistä tarkempia ja luotettavampia menetelmiä altistusolosuhteiden ja itse altistuksen määrittämiseen.

Paikkaherkillä ilmaisimilla parempaa kuvanlaatua ja turvallista sädehoitoa Lääketieteen käyttöön kehitetään jatkuvasti uusia ionisoivaa säteilyä käyttäviä diagnoosi- ja hoitomenetelmiä. Esimerkiksi ulkoisessa sädehoidossa käytettävät hoitokeilat muuttuvat jatkuvasti pienemmiksi, tarkemmin rajatuiksi ja dynaamisemmiksi. Tämä asettaa entistä tiukempia vaatimuksia keilojen ominaisuuksien mittaamiselle, jotta hoitojen tehokkuus ja potilaiden turvallisuus pystytään varmistamaan. Olemmekin kehittäneet paikkaherkkiä ilmaisimia, joilla sädehoidossa käytettyjen fotonikeilojen ominaisuudet pystytään mittaamaan sädehoitoklinikoilla lähes reaaliaikaisesti. Kyseisillä kadmiumtelluridi-ilmaisimilla pystytään määrittämään pienikokoisten keilojen dimensiot sekä suhteellinen annosprofiili keilan sisällä. Paikkatarkkuudessa on pyritty siihen, että pienimmätkin käytössä olevat sädehoitokeilat (halkaisijaltaan muutama mm) pystytään luotettavasti mittaamaan.

Kuva 1 Ilmaisintestausta Säteilyturvakeskuksen laboratoriossa (Kuvat: vas. S. Kirschenmann, oik. A. Gäddä)

Kadmiumtelluridi-ilmaisinten ohella olemme kehittäneet piipohjaisia paikkaherkkiä ilmaisimia tietokonetomografiaan. Tietokonetomografia (TT) on suurin väestön altistaja lääketieteellisessä käytössä, ja sen vuoksi mahdollisimman tehokas ja optimoitu säteilyn käyttö on siinä erityisen tärkeää. Kehitetyt ilmaisimet pystyvät lukemaan perinteisen säteilyn intensiteettitiedon lisäksi myös sen energiajakauman, jolloin säteilykeilassa oleva tieto saadaan hyödynnettyä mahdollisimman tehokkaasti ja potilaan altistusta pystytään pienentämään diagnostisen laadun siitä kärsimättä. Projektissa hyödynnetään CERNin CMS-kokeeseen kehitettyä ilmaisinteknologiaa.

Näytteillä ja ilmaisinverkolla parannetaan ympäristön säteilyvalvontaa

Ilmakehässä tehdyt ydinasekokeet sekä Suomessa päätään nostanut ydinenergian käytön suunnittelu laajensivat säteilyfysiikan laitoksen toimintaa ympäristön radioaktiivisuuden seurantaan ja valvontaan, ja laitoksen nimi muutettiinkin Säteilyturvallisuuslaitokseksi (ja myöhemmin nykyiseen muotoonsa Säteilyturvakeskus). Ympäristössä näkyvät ydinasekokeiden jäämät sekä muu luonnossa esiintyvä radioaktiivisuus (mm. myöhemmän Tshernobylin onnettomuuden (1986) aiheuttama laskeuma) ovat olleet jatkuvan seurannan kohteena kuusikymmentäluvulta alkaen. Ympäristön säteilyvalvonnan menetelmät ovat ottaneet valtavia harppauksia viime vuosikymmeninä. Säteilyilmaisimien herkkyys, spesifisyys ja informaation saatavuus ovat parantuneet merkittävästi. Nykyään yksittäisiä mikroskooppisia radioaktiivisia hiukkasia vaikkapa ilmansuodattimista pystytään paikantamaan ja analysoimaan perin pohjin. Mittausmenetelmät ovat myös muuttuneet (lähes) reaaliaikaisiksi ja tuottavat tietoa yksittäisistä radionuklideista pelkän säteilyannosnopeuden lisäksi.

Ympäristön säteilynvalvonnassa käytetään näytteenoton lisäksi reaaliaikaista mittausdataa tuottavia menetelmiä. Suomessa on noin 260 ilmaisinta käsittävä, koko maan kattava ilmaisinverkko, joka lähettää mittaustiedot 10 minuutin välein STUKiin analysoitavaksi, tarkistettavaksi ja julkaistavaksi STUKin www-sivuilla. Meneillään olevassa DEFACTO-projektissa kehitetään täysin uudentyyppistä ilmaisinta tähän verkkoon. Nämä ilmaisimet pystyvät erittelemään säteilylähteen sijainnin, eli ovatko radioaktiiviset aineet ilmassa, laskeumana maassa vaiko kiinnittyneenä ilmaisimen pintaan. Myös radioaktiivisten aineiden tunnistus on mahdollista ilmaisimissa käytetyn tuikeaineen ansiosta. Ilmaisinkehitys on loppusuoralla, ja sen ottamista operatiiviseen käyttöön suunnitellaan parhaillaan. Teknologian kaupallinen potentiaali tullaan myös arvioimaan. STUK-HIP-yhteistyössä kehitetään myös menetelmiä ympäristönäytteiden entistä herkempään ja tarkempaan analysointiin mm. yhdistämällä samanaikainen gamma-, beeta- ja alfasäteilyn havaitseminen näytemittauksissa niin, että paikkaherkkien ilmaisimien avulla radioaktiivisten hiukkasten paikat näytteessä pystytään tunnistamaan (nk. PANDA-laitteisto).

Kuva 2 PANDA-laitteiston mittauspiste. Laitteisto sijaitsee Jyväskylän yliopiston kiihdytinlaboratoriossa.

Ydinjätteen loppusijoituslaitos rakentuu maan alla

Olkiluodon saarelle Eurajoelle rakennetaan parhaillaan geologista loppusijoituslaitosta käytetyn ydinpolttoaineen sijoittamiseksi syvälle peruskallioon. Valmistuessaan laitos tulee olemaan ensimmäinen laatuaan maailmassa. Loppusijoitus on tarkoitus aloittaa 2020-luvun puolivälin tienoilla, ja laitoksen aktiivinen käyttö tulee kestämään noin sata vuotta. Käytetty ydinpolttoaine säteilee vielä satojen tuhansien vuosienkin päästä, joten polttoaineen hautaaminen syvälle maan poveen on turvallisin ratkaisu jälkipolvien kannalta.

Kuva 3 Maanalaisen loppusijoitusluolaston tunnelistoa. Lähde: Posiva.

Loppusijoituksessa hyödynnetään Ruotsissa kehitettyä KBS-3-metodia, jossa käytetty polttoaine suljetaan kuparilla päällystettyjen teräskapseleiden sisään. Kapselit sijoitetaan noin 400 metrin syvyyteen kallioperään louhittuihin loppusijoitusluolastoihin, joita rakennetaan lisää sitä mukaa, kun loppusijoitus etenee. Lopuksi tunnelit ja luolasto täytetään bentoniittisavella, joka on kissanhiekan tavoin kosteutta imevä materiaali, jolla saadaan vähennettyä pohjaveden virtaus kapseleiden lähistöllä minimiin.

Kuva 4 Kuparikapseli, jonka sisään käytetty ydinpolttoaine sijoitetaan. Lähde: Posiva.

Ennen loppusijoitusta tulee varmistua siitä, että luolastoon sijoitettava polttoaine on juuri sitä, mitä sen sanotaan olevan. Ydinpolttoaine varmennetaan ydinmateriaalivalvonnan nimissä erilaisin ainetta rikkomattomin mittausmenetelmin.

Ydinmateriaalivalvonnalla turvataan rauhanomainen ydinenergian käyttö

Kylmän sodan aikaan maailmalla herättiin atomipommin uhkaan. Ydinaseiden leviämisen estämiseksi perustettiin Kansainvälinen atomienergiajärjestö IAEA, jonka tehtävänä on valvoa ydinteknologioita ja varmistaa niiden rauhanomainen käyttö. Vuonna 1970 solmittiin myös ydinsulkusopimus, jonka allekirjoittaneet maat sitoutuivat estämään ydinaseiden leviämisen ydinaseettomille valtioille.

Tätä sopimusta valvotaan aktiivisesti sekä kansainvälisellä että kansallisella tasolla. IAEA ja Euroopan komissio tarkastavat säännöllisesti, että Suomen ydinmateriaalit ovat asianmukaisessa käytössä ja siellä missä pitääkin, ja STUK tekee kansallisena valvovana viranomaisena omaa valvontaansa. Ilman ydinmateriaalivalvontaa ei olisi rauhanomaista ydinenergian ja muiden ydinteknologioiden käyttöä, eikä Suomessakaan ydinreaktoreita.

Tomografia paljastaa ydinpolttoaineen sisällön

Ennen loppusijoitusta jokainen loppusijoitusluolaan matkalla oleva polttoainenippu tulee tarkastaa parhain mahdollisin keinoin, jotta tuleville polville voidaan taata mahdollisimman eheää tietoa siitä, mitä luolastoon on päätynyt. Loppusijoitusluolaston sulkemisen jälkeen sen sisältöön ei enää pääse käsiksi, joten kaikki tieto on mitattava ja talletettava etukäteen. Tähän tarkoitukseen olemme yhdessä STUKin ja HIPin sekä Helsingin yliopiston Matematiikan ja tilastotieteen osaston inversio-ongelmien tutkimusryhmän kanssa kehittämässä varmennusmittalaitteistoa, jolla nippujen sisältö tutkitaan ennen loppusijoitusta.

Varmentamisessa on käytettävä luotettavaa ja tarkkaa menetelmää, jolla pystytään varmistumaan ydinpolttoaineen sisällöstä nippuja vahingoittamatta. Kehitteillä olevassa mittalaitteistossa hyödynnetään kahta eri menetelmää: passiivista gammaemissiotomografiaa (PGET) sekä passiivista neutronialbedoreaktiivisuusmittausta (PNAR). PGET-menetelmällä mitatusta gammaemissiosta saadaan rekonstruoitua inversiomatematiikalla hyvin tarkka poikkileikkauskuva polttoaineesta, josta voidaan havaita jopa yksittäinen puuttuva polttoainesauva. PNAR-menetelmällä puolestaan saadaan selville, kuinka paljon kuvattavassa kohteessa tapahtuu neutronien moninkertaistumista ja vastaako polttoaineen fissiilin materiaalin väitetty määrä mitattua. Näin voidaan varmistaa, että kyseessä todella on käytetty polttoainenippu eikä esimerkiksi radioaktiivinen jäljitelmä.

Kuva 5 Ydinpolttoainenippujen rekonstruoituja aktiivisuuksia. Vasemmalla Olkiluodon kiehutusvesireaktorin ATRIUM10-polttoainenippu, oikealla Loviisan painevesireaktorin VVER-440-polttoainenippu. Vasemmassa kuvassa keskellä näkyy 3×3-kokoinen vesikanava sekä kaksi puuttuvaa sauvaa. Oikealla VVER-440 -polttoaineelle tyypillisesti keskimmäisen sauvan tilalla on vesikanava, ja lisäksi tästä nipusta puuttuu kolme polttoainesauvaa vasemmasta kulmasta.

HIPin jäsenyliopistojen ja Säteilyturvakeskuksen yhteistyö on jo tällä muutaman vuoden aikajänteellä tuottanut useita säteily- ja ydinturvallisuutta parantavia laitteistoja ja mittausmenetelmiä. Yliopistojen syvällinen osaaminen yhdistettynä STUKin tietoon ja kokemukseen säteily- ja ydinturvallisuuden keskeisistä tutkimusongelmista on ollut erityisen hedelmällistä. Yhteistyön jatkuminen onkin avainasemassa kotimaisen säteilyturvallisuusosaamisen varmentamisessa.

Teemu Siiskonen, apulaisjohtaja
Säteilyturvakeskus
Fysiikan tutkimuslaitos

Riina Virta, tutkija
Säteilyturvakeskus
Fysiikan tutkimuslaitos

The discovery of the Odderon

      No Comments on The discovery of the Odderon

Elementary particle physics is about understanding the smallest constituents of matter and their interactions. To do so larger and larger particle colliders are being built to probe the structure of matter at smaller and smaller distances. Currently, the largest particle collider is CERN’s (European Particle Physics Laboratory) Large Hadron Collider (LHC) that collides protons at an impressing collision energy of 13 Tera electron volt (TeV), corresponding to the energy that an electron would obtain if exposed to an electric field of 13 trillion volts! In 2012, the Higgs boson, the last missing piece to complete the Standard Model, the theory of the elementary particles and their interactions, was discovered at the LHC. But we know that there are many phenomena that the Standard Model cannot provide an answer to.

For that reason physicists continue to search for signs of new, yet unknown, physics or particles in the high energy collisions of the LHC that could potential provide answers to these unanswered questions. But the LHC can also be used to discover much lower energy i.e. larger distance phenomena like “exotic” particles or compounds that can be accommodated in the Standard Model. An example is the discovery of the Odderon, which strongly relied on the measurements of elastic proton-proton collisions by the TOTEM experiment at the LHC. What is an elastic collision? An elastic collision is a collision, where the two protons softly bounces of each other and continue onwards only with a slight change of their direction. TOTEM measures the elastic protons very far away (210-220 meters) from the collision point at a very close distance (a few millimetres) from the outgoing proton beam using special movable devices called Roman Pots, seen in Figure 1.

Figure 1: TOTEM Romans Pots in the LHC tunnel 210-220 m from the CMS experiment (Image: CERN)

What is the Odderon?

The Odderon consists of three gluons. Gluons “glue” the quarks together to “hadrons”, particles that are held together by the strong interaction, like the proton and the neutron. Gluons are the mediators of the strong interaction between quarks in a similar way as the photon, the particle which light is made of, is the mediator of the electromagnetic interaction between electrically charged particles. There is however a significant difference: contrary to the photon, the gluons can interact with each other. The gluons themselves carry the charge of the interaction, “colour”, they are mediating. Colour comes in three variants: usually dubbed “green”, “red” and “blue”. Having colour makes quarks and gluons special, they cannot exist by themselves as free particles. They can only exist in colour-neutral combinations made up of all the three colours or by colour-anticolour pairs.

All this is described by the quantum theory of strong interaction, Quantum Chromodynamics (QCD) that together with the quantum theories of electromagnetic and weak interaction make up the Standard Model. Currently, we know that QCD is an accurate description of the strong interaction of quarks and gluons by a multitude of measurements at different colliders. QCD also predicts that there should exist particles made up only of gluons, “glueballs”. So far no conclusive evidence of glueballs has been found despite large efforts over the last 50 years.

QCD also predicts that colourless compounds made up only of gluons should be exchanged during the interaction of particles. In the pre-QCD theory of strong interaction, these compounds were called “Pomeron” and “Odderon”. They differ in the sense that the Pomeron interacts identically with particles and antiparticles, whereas the Odderon interacts in opposite ways with particles and antiparticles. The Odderon was predicted in 1973 by Leszek Lukaszuk and Basarab Nicolescu to potentially explain differences at higher energies between proton-proton and proton-antiproton collisions due to strong interaction but until recently no convincing evidence of its existence had been presented. In QCD, the Pomeron and the Odderon correspond to the exchange of two (or even number of) and three (or odd number of) gluons as shown by Figure 2. The Odderon is not a particle in the ordinary sense since it doesn’t have a definite mass and lifetime. Instead it is a compound of gluons sufficiently bound together to be exchanged between two protons (or a proton and an antiproton) without the gluons of the Odderon interacting individually with the building blocks of the proton, the quarks and the gluons.

Figure 2: Feynman diagrams of Pomeron and Odderon exchange between protons (p) or a proton and an antiproton (p). The wiggly lines are gluons. The direction of time in the diagrams goes from left to right.

How can the Odderon be discovered?

Since the Odderon is exchanged and not produced in the proton-proton collisions, one cannot discover the Odderon by observing a “peak” or a “bump” in a mass distribution like for the Higgs boson. In addition, the Pomeron, being made up by only two gluons with matching colours, is much easier to be exchanged between particles containing gluons than the Odderon, being made up by three gluons whose colours have to match the colour-neutral condition. So two things have to be fulfilled by a process to be able to discover the Odderon: the Odderon can be exchanged and other competing exchanges, especially Pomeron exchange, have to be heavily suppressed.

The ideal process is elastic scattering and its so-called diffractive minimum. What is the diffractive minimum? The diffractive minimum is the part of the elastic scattering distribution as a function of the variable |t |, where there is a large decrease (“dip”) in the distribution followed by a significant increase. Physically it measures the size of the proton in analogy with diffraction of photons on a material surface to find out the three-dimensional periodic structure of the atoms in a crystal. What is tt is a variable that physicists use to describe the transfer of momentum in the collision. It is defined so that it is always negative. For convenience physicists usually use its absolute value. In elastic collisions, |t | corresponds to the square of the scattering angle, the change of direction of the proton due to the collision. So in practice, the diffractive dip is just a certain range of scattering angles, where the probability for elastic collisions to happen is much lower than in the range of scattering angles larger and smaller. Since the probability for elastic collisions is much lower, the dominant Pomeron exchange must be suppressed. Add to this the fact that the Odderon interacts oppositely with antiparticles than with particles, the way to discover of the Odderon is open. Any significant difference between elastic particle-particle scattering and elastic particle-antiparticle scattering in the diffractive dip region at the same collision energy is evidence for the Odderon. To be more precise, such a difference should be observed at very high energies, preferably above about 1 TeV, where gluonic exchanges dominate and quark-antiquark exchanges are very unlikely.

Discovery of the Odderon

In December 2020, the discovery of the Odderon was made public by the TOTEM experiment together with the D0 experiment at Fermilab’s Tevatron collider in the US. Since the LHC cannot accelerate antiprotons, the comparison was made with the existing elastic proton-antiproton measurement in the region of the diffractive dip at the highest possible collision energy, the one by the D0 experiment at 1.96 TeV. In addition, a measurement of elastic proton-proton collisions at a collision energy of 1.96 TeV in the region of the diffractive dip at the LHC is not possible due to the LHC design. That’s why the TOTEM elastic proton-proton measurements at the collision energies of 2.76, 7, 8 and 13 TeV were extrapolated to the collision energy of 1.96 TeV to make a direct comparison with the D0 measurement. In the region of the diffractive dip, the distributions disagree as can be seen in Figure 3 to such a level that the difference can only be due to Odderon exchange. This led to the discovery of the Odderon, when this new evidence was combined with a previous evidence of the Odderon from the inability of Pomeron exchange to describe the TOTEM elastic proton-proton measurements at even smaller scattering angles. The article with the discovery was published in Physical Review Letters last month (August 2021).

Figure 3: Comparison of the elastic proton-proton and proton-antiproton cross section dσ ⁄ dt (”interaction probability”) at a collision energy of 1.96 Tera electron volt (TeV) as function of the square of the momentum transfer at the collision, |t |, that is proportional to the square of the scattering angle of the proton or the antiproton due to the interaction. Reproduced under Creative Commons 4.0 license from Physical Review Letters 127, 062003 (2021).

What’s the big deal?

You might think: Why should we bother? What is the big deal with the Odderon? The Particle Data Group (pdg.lbl.gov) lists hundreds of particles so a new one should not make such a difference. And it is not even a particle in the ordinary sense with a mass and a lifetime.

Well, the Odderon is different. It is not made of quarks like the large majority of the others in the Particle Data Group. In addition to the Pomeron, it is only one made only out of gluons. Its existence also suggests that real particles made only of gluons, so-called glueballs, exist, just as QCD predicts. There is still much research to be done:  after establishing the existence, the Odderon should be characterised. TOTEM is pursuing measurements of the behaviour of the Odderon as function of the collision energy, complementing the existing measurements with new ones at 0.9 and 14 TeV. The LHC is also potentially a good environment to find glueballs in the gluon rich environment of central exclusive production, where the two colliding protons loose energy but stay intact and create particles in between them. TOTEM experiment is studying glueball candidates together with the CMS experiment. Stay tuned!

Kenneth Österberg
Professor in Experimental Particle Physics, University of Helsinki
Physics coordinator, TOTEM experiment, CERN

On CMS open data, and numbers big and small

In July 2021, the open data group of the CMS experiment conducted the second CMS open data workshop aimed at physicists interested in research use of these unique public data. In the spirit of openness, the number of registrants was not restricted, and the workshop was actively followed by some 50 participants with diverse backgrounds and origins.

The event was four full days of work, preceded by a set of pre-exercises to be completed before the start. The workshop aimed to cover the skills needed to get started with the experimental particle physics data from the CMS experiment, and all exercises were hands-on. A session practising running CMS data analysis jobs in a cloud computing environment was included. The feedback survey indicates that the workshop was a success: the participants gained confidence in using these data and would recommend the workshop for colleagues with similar interests.

I have been involved in CMS data preservation and open data activities right from the beginning. In 2011, I chaired the working group set up to draft the CMS data preservation, re-use and open access policy, the first of its type in particle physics, and since 2012, I’ve been leading the group that was created to implement the policy after its approval. It is tempting for me to reflect on the evolution in these ten years. Figure 1 shows the timeline of the data releases, which now include most of the Run-1 data (collected in 2010-2012). The first Run-2 data releases of data collected in 2015-2018 are in preparation.

Figure 1: Timeline of the CMS open data releases of proton-proton (pp) and heavy-ion (HI) data with examples of accompanying tools made available with data.

In the drafting of the data policy, I remember well Jesus Marco from Universidad de Cantabria, a member of the data policy working group, proposing that CMS should promote a workshop after the first release to assess whether these data can be usefully exploited by people external to the CMS collaboration. At that time, the concept of open data in particle physics was totally new and even terrifying for many, and organising a workshop on their use certainly sounded rather distant wishful thinking. The proposal, however, boldly made its way to the policy document, and now, ten years after, we are collecting feedback from the participants of the second workshop of this type.

To be able to call the first open data workshops took us several data releases, with gradual and continuous improvements of the accompanying material. For data to be usable, much more is required than public access to them. Data management and re-usability are often described with FAIR principles for Findable, Accessible, Interoperable, and Re-usable data and metadata, i.e. “data about data”. CMS data released through the CERN open data portal satisfy these principles to a large extent. But due to the complexity of experimental particle physics data, the FAIR principles alone do not guarantee the re-usability of these data, and additional effort is needed to pass on the knowledge needed to use and interpret them correctly.

This knowledge includes, first of all, learning the computing environment and software for the first step of data selection. Due to the experiment-specific data format, the first step will almost inevitably be done using the CMS software in a computing environment compatible with the open data. We have been able to benefit from the advance of software containers such as Docker with which we have packaged the CMS software that is required and virtualised the operating system compatible with it. Open data users can download a software container image and run it on their computer, independently of its operating system. Recent developments for Windows Subsystem Linux (WSL2) have also made this feasible in Windows, in addition to Linux and macOS. The CMS open data group has invested a good amount of work in setting up these containers so that the first user experience with the CMS open data remains smooth. It is important to remember that open data users always start with a trial: if they consider that the time needed to overcome difficulties is too much, they will just give up.

After having set up the computing environment, open data users will need to learn the intricacies of experimental particle physics data. How to select the data of interest, how to identify the particles properly, how to understand the efficiencies and uncertainties in the analysis process, how to estimate the backgrounds, and how to address many other challenges with experimental data. This is all brilliantly summarised in the blog posting “The Importance and Challenges of “Open Data” at the Large Hadron Collider” by Matt Strassler who with Jesse Thaler has provided valuable feedback while pioneering the use of CMS open data.

But how come collecting the necessary information has taken so long? Having well over 1000 high-quality scientific publications on CMS data we must know the tiniest details of these data and have well-established procedures for their analysis. Why just not release these guidelines with the data? The challenge is in the size, and I’m not referring to data volumes. In his popular book “The tipping point”, Malcolm Gladwell discusses Dunbar’s number, first proposed by anthropologist Robert Dunbar in the 1990s. This is a suggested limit to the maximum number of individuals with whom an animal can maintain group cohesion and social relationships by personal contact, often cited to be around 150 for humans. Gladwell gave examples of organisations that have successfully limited the number of people in a single establishment or production unit to that number, for efficient work organisation and the wellbeing of people. Dunbar argues that at this size, groups function based on common loyalty and cohesion, with direct person-to-person interactions.

But in big scientific collaborations, there are many more of us. Of over 4000 members of the CMS collaboration, close to 3000 are physicists, most of them active in analysing the data. Work is carried out in physics analysis groups and their subgroups in which the number of people involved is indeed within the limits of estimated Dunbar’s number. This is an obvious working mode, grouping people around similar topics. However, this results in working procedures that diverge within the collaboration. Much effort goes to the development of individual or group-specific software and procedures, while contributions to the software common to the entire collaboration are often lacking. A layer of group or topic-specific software is naturally needed, but the thickness of that layer increases if measures are not taken to counterbalance this drift. Figure 2 illustrates my simplified perception of the data and software landscape in a big collaboration such as CMS. The green arrows indicate the phases in the data analysis process in which each individual or group-specific software most likely implement the same or similar steps. The CMS collaboration has taken measures to address these problematics, through the adoption of slimmer data formats in which a part of the common procedures has already been implemented and by setting up a reflection group on common software tools. I argue that strong and continuous action will always be needed to encourage contributions for the common good of the full collaboration, to compensate for the human tendency of working comfortably in much smaller units. Writing software in a way that benefits everyone in the collaboration should be perceived as a common goal in every group.

Figure 2: Author’s conception of the data and software landscape in a big scientific collaboration. Blue shapes correspond to the centrally processed data and their processing steps with the software common to the entire collaboration. Yellow and brown shapes correspond to intermediate processing steps with individual or group-specific software. Red shapes illustrate the final analysis producing the scientific publication. Green arrows indicate the phases in the data analysis process in which each individual or group-specific code most likely implement the same or similar steps, or in which part of the software could be useful to others. The light blue background shape indicates the area from which the CMS open data group has collected the information needed for the use of open data by scientists external to the collaboration.

From the point of view of open data, the abundance of group-specific data “skims” and software frameworks makes it challenging to come up with generic examples and instructions applicable to public datasets for open data users. We can find code examples within one software framework in use for the analysis of certain physics topics with topic-specific skimmed datasets as input. However, another physics group may use a different implementation of the same analysis steps in their software package. Collecting this knowledge from different sources, indicated with a light blue background colour in Figure 2, is not an obvious task. The open data workshops and the general interest in CMS open data have been a great motivation for this effort, and the CMS open data team has now put together a comprehensive set of tutorials using an example code written for this purpose.

I firmly believe that the experience we are gaining in improving the usability of CMS open data can feedback to the collaboration. During these workshops, we have initiated participants in the use of CMS software using Docker containers. We have found solutions for many common issues, such as opening graphic windows, copy-pasting, passing files between the container and host, etc., i.e., many of those details that determine how efficiently one can work. For many of us, container solutions have turned out to be a practical tool for everyday work. We have also exercised running the analysis jobs in a cloud environment and demonstrated the value of well-defined machine-readable workflows.

I am also convinced that our observations on the difficulty of finding comprehensive examples of basic open data usage with common software are relevant not only to open data but also to the analysis work done in the collaboration. For the efficient use of human resources, I would argue that the questions to be asked before writing new analysis software should be 1) can this be done with software tools available to everyone in the collaboration 2) if this cannot be done with existing, common tools, would a contribution to them be more appropriate than writing a separate piece of software 3) can this be made configurable so that it can be used for other similar use cases 4) can this be reused. This is what is needed to preserve the knowledge inherent in the analysis work so that it remains usable – and not only readable – for immediate use by the collaborators beyond the first small reference group, and into the longer-term future. To make this happen in large collaborations, to counterbalance the human preference of acting to the benefit of the small working unit, the contributions to the common tools need to be actively encouraged and promoted in everyday work and valued in career assessments.

Helsinki Institute of Physics: Helsinki Institute of Physics (HIP) is a strong contributor to the CMS open data project. In addition to the author, the coordinator of the CMS data preservation and open access group, several students and trainees have participated in the activities. HIP’s “Open data and education” project is an important stakeholder for the usability of these data in secondary education.

Kati Lassila-Perini
Project Leader, Education and Open Data
Helsinki Institute of Physics

HIP ja Higgsin bosoni

      No Comments on HIP ja Higgsin bosoni

Fysiikan tutkimuslaitoksen (HIP) perustamisesta tulee tänä vuonna kuluneeksi 25 vuotta.

HIP perustettiin v. 1996 yhdistämällä Helsingin yliopiston Suurenergiafysiikan tutkimuslaitos (SEFT) ja Teoreettisen fysiikan tutkimuslaitos (TFT) sekä Teknillisen korkeakoulun Hiukkasfysiikan teknologian instituutti (HTI). Yhdistämisellä pyrittiin vahvistamaan Suomessa tehtävän teoreettisen ja kokeellisen fysiikan tutkimuksen organisointia ja niiden välistä synergiaa. Tutkimuslaitoksena HIP perustettiin Helsingin yliopiston yhteyteen ja sen rahoitus kanavoitiin yliopiston kautta. Ensimmäiseksi johtajaksi nimitettiin professori Eero Byckling Teknillisestä Korkeakoulusta (TKK).

Kokeelliselle hiukkasfysiikalle HIPin perustaminen oli positiivinen askel, sillä se kokosi kaikki suomalaisen kokeellisen hiukkasfysiikan tutkimuksen resurssit yhteen hyvin suunnitellun, modernin organisaation osaksi. Kokeellisen hiukkasfysiikan tutkimusta oli Suomessa tehty aluksi Helsingin yliopistossa v. 1966 lähtien ja v. 1991 Suomi oli liittynyt CERNin jäsenvaltioksi. HIPin perustamisen aikaan suomalaiset kokeellisen hiukkasfysiikan tutkijat (SEFTistä ja HTIstä) olivat osallistuneet kuuden vuoden ajan CERNin kaavailemalla suurella protoni-protoni-törmäyttimellä tehtävien kokeiden suunnitteluun. Oli liitytty kahteen uudella kiihdytinlaitteistolla suunnitteilla olleeseen kokeeseen, joiden yhtenä päätavoitteena oli standardimallin ennustaman ns. Higgsin hiukkasen löytäminen protoni-protoni-törmäytinkokeissa. Suomalainen panos LHC-tutkimusprojektiin siirtyi nyt HIPin projektiksi.

Seuraavassa lyhyt kuvaus HIPin CMS-projektista aina Higgsin hiukkasen löytymiseen asti v. 2012.

LHC:n ja LHC-kokeiden suunnittelu

Large Hadron Collider (LHC), kuten CERNin uutta kiihdytinkompleksia alettiin nimittää, on uuden sukupolven hiukkaskiihdytinlaitteisto ja protoni-protonitörmäytin, jonka suihkujen energian tavoitteeksi asetettiin 7 TeV, joka oli lähes kymmenkertainen USA:n Fermin kansallisen laboratorion v. 1991 käynnistyneen Tevatron antiprotoni-protoni-törmäyttimen suihkuenergioihin verrattuna. LHC:n energia oli asetettu niin, että törmäyttimellä voitaisiin tuottaa uusia hiukkasia aina 1000 GeV/c2:n massaan asti. Higgsin hiukkanen on Steven Weinbergin ja Abdus Salamin v. 1967 esittämän alkeishiukkasten sähköheikon vuorovaikutuksen teorian (Glashow-Weinberg-Salam teoria) keskeinen rakenneosa. Teoriaa oli laajalti ja menestyksellisesti testattu 1980-luvun loppuun mennessä, mutta Higgsin bosoni ja top-kvarkki olivat löytämättä. Niitä oli etsitty viimeksi CERNin SPS protoni-antiprotoni-törmäyttimellä 1980-luvulla, ilman tulosta. Teoria ei anna Higgsin hiukkasen massalle tarkkaa teoreettista ennustetta, mutta teoria asettaa sen ylärajaksi noin 1000 GeV/c2.

LHC-kokeiden suunnittelu aloitettiin 1980-luvun lopulla ja ensimmäiset konkreettiset koeasema-konseptit esitettiin v. 1990. Näistä ns. Compact Muon Solenoid (CMS) -suunnitelma oli pääasiassa CERNin SPS-törmäyttimellä vv. 1979­–1989 tehtyyn UA1-kokeeseen osallistuneiden tutkijoiden hanke. Helsingin yliopiston Suurenergiafysiikan laitoksen UA1-tutkijaryhmä oli CMS:n suunnittelussa mukana alusta lähtien. Pienempi suomalainen ryhmä LEP-törmäyttimellä meneillään olleesta DELPHI-kokeesta liittyi puolestaan ATLAS-hankkeeseen LHC:llä. CMS- ja ATLAS-koeasemaesitykset (Letters of Intent) hyväksyttiin alustavasti CERNin tutkimusohjelmaan v. 1993.

CMS-koeaseman suunnittelussa suomalainen tutkijaryhmä keskittyi kahteen projektiin. Toinen oli teorian ennustaman protoni-protoni-törmäyksissä syntyvien Higgsin hiukkasten fysiikan simulointi, CMS-koeaseman simulointi sekä sen mittaamien hiukkasten ratojen tunnistamiseen ja rekonstruointiin tarvittavan tietokoneohjelmiston rakentaminen.  Tässä suomalaisilla tutkijoilla oli vahvaa osaamista ja kokemusta UA1-kokeesta. Toinen hanke oli koeaseman laitteiston suunnittelu ja prototyyppirakentaminen. LEPin DELPHI-kokeen verteksi-ilmaisimen (törmäyspisteen mittaamiseen tarvittava ratailmaisin) rakentamisesta saadun osaamisen pohjalta lähdettiin suunnittelemaan piinauhailmaisimiin perustuvaa CMS:n keskusratailmaisinta. Lisäksi tärkeänä osana oli koeaseman ilmaisimista antaman mittaustiedontiedon lukujärjestelmän suunnittelu ja rakentaminen, missä suomalaisille tutkijoilla oli kokemusta UA1- ja DELPHI-kokeista.

LHC-törmäytinkompleksin rakennussuunnitelma valmistui v. 1994. Kun alustavia sitoumuksia hankkeen rahoittamiseen oli saatu riittävästi, CERNin Neuvosto teki joulukuussa 1994 päätöksen LHC:n rakentamisesta. Päätöksen yksityiskohdat vahvistettiin v. 1996, jolloin suihkuenergiaksi varmistettiin 7 TeV ja budjetti kiinnitettiin 2563 milj. Sveitsin frangiin. LHC:n käynnistyminen suunniteltiin tapahtuvaksi v. 2005.

Koeasemien alustavat rakennussuunnitelmat (Technical Proposals) valmistuivat v. 1995 ja niiden perusteella CERNin LHC-komitea suositteli CERNin johdolle ATLAS- ja CMS-projektien lopullista hyväksymistä laitoksen tutkimusohjelmaan. Hyväksymisen vahvisti CERNin pääjohtaja Chris Llewellin-Smith 31.1.1995. Koeasemien rakennuskustannusten ylärajaksi asetettiin 476 milj. Sveitsin frangia.

Suomessa oli nyt tehtävä päätökset koeasemien rakennustöiden rahoittamisesta. Suomen osallistumista rahoitukseen oli kaavailtu n. 5 milj. Sveitsin frangiksi (n. 20 milj. Suomen markkaa). LHC-kokeiden rahoitusta koskevia neuvottelut aloitettiin Opetusministeriössä ja sieltä näytettiinkin vihreää valoa. Tämän perusteella SEFTin johtokunta päätti kokouksessaan 24.8.1995 sitoutua CMS-kokeen rahoitukseen 5 milj. frangilla edellyttäen, että rahoitus järjestyy Opetusministeriön myötävaikutuksella. SEFTin budjettiin summa oli aivan liian suuri. ATLAS-projektiin osallistumisen kustannukset olivat pienet ja mahtuivat SEFTin budjettiin.

HIPin perustaminen ja LHC- tutkimusohjelman organisointi

Fysiikan tutkimuslaitos (HIP) perustettiin syksyllä 1996. HIPin toiminta organisoitiin tutkimusohjelmiin, joilla oli omat johtajansa. LHC-kokeita varten muodostettiin LHC-ohjelma (vuodesta 2003 CMS-ohjelma), jonka johtajaksi tuli v. 1998 lähtien dos. Jorma Tuominiemi.

LHC-ohjelma jakaantui kahteen projektiin, Software and Physics -projektiin ja CMS Outer Tracker-projektiin. Software and Physics -projekti keskittyi CMS-kokeen analyysiohjelmien kehitystyöhön sekä simulaatiotutkimuksiin, joissa selvitettiin suunnitellun CMS-koeaseman potentiaalia löytää Higgsin bosoni LHC-törmäyttimellä saavutettavalla massa-alueella (100­–1000 GeV/c2). Projektin päällikkönä toimi dos. Veikko Karimäki. Tracker-projekti jatkoi CMS:n keskusratailmaisimen uloimman osan (Tracker Outer Barrel, TOB) hiilikuitutukirakenteen suunnittelua ja prototyyppien rakentamista. Projektiin kuului aluksi myös ratailmaisimen hiukkasilmaisimien suunnittelu ja prototyyppirakentaminen. Pääpaino oli kuitenkin TKK:n Hiukkasfysiikan teknologian instituutissa aloitettu TOB:n mekaanisen rakenteen suunnittelu ja prototyyppien testaaminen. HIP nimitti projektin päälliköksi TkT Miikka Kotamäen TKK:sta. Projektin jäseninä olivat DI Niko Eiden, DI Harri Katajisto, DI Kari Tammi ja DI Tommi Vanhala.

Rahoitus

ATLAS- ja CMS-projektien osanottajainstituutit saivat v. 1996 aikana valmiiksi alustavat sopimukset koeasemien rakennussuunnitelmista ja rakentamiskustannuksista (Interim Memorandum of Understanding of the Initial Phase of the ATLAS/CMS Experiment). HIP sitoutui maksamaan ATLAS-projektille 50 000 Sveitsin frangia ja CMS-kokeelle 100 000 frangia vv. 1997–98. Lisäksi HIP sitoutui CMS:n rakennuskustannuksiin 5 milj. frangilla vv. 1998–2005, edellyttäen että tutkimuslaitos saisi tarvittavan määrärahan sen budjetin ulkopuolisena lisärahoituksena.

Rahoituksen järjestäminen Suomessa eteni nopeasti vuoden 1998 aikana. Tässä vaiheessa myös Jyväskylän yliopisto oli tulossa HIPin jäsenyliopistoksi. Se oli liittynyt LHC:llä tehtävään raskasioni-törmäyskokeeseen (ALICE). LHC-kokeiden rahoituksesta käydyissä Opetusministeriön, Suomen Akatemian, Helsingin yliopiston, TKK:n ja Jyväskylän yliopiston välisissä neuvotteluissa päädyttiin rahoitusmalliin, jonka mukaan Opetusministeriö kattaisi kolmasosan, Suomen Akatemia kolmasosan ja HIPin jäseninä olevat Helsingin yliopisto, Teknillinen korkeakoulu ja Jyväskylän yliopisto yhdessä kolmasosan tarvittavista rakennusmäärärahoista. CMS-kollaboraation kanssa sovittu kokonaissumma oli 5 milj. Sveitsin frangia ja ALICE-kollaboraation kanssa sovittu rahoitus 1 milj. frangia, jotka silloisilla valuuttakursseilla olivat yhteensä 21,2, milj. markkaa. ATLAS-kokeeseen osallistumisesta HIP päätti vetäytyä. Rahoituksen varmistaminen oli merkittävä etappi suomalaisen kokeellisen hiukkasfysiikan tutkimuksen ja Suomen CERN-yhteistyön kannalta. Tie Higgsin hiukkasen etsintään oli avattu. HIPin johtokunta saattoi valtuuttaa HIPin johtajan allekirjoittamaan CMS-kollaboraation ja ALICE-kollaboraation lopulliset rakennus- ja rahoitussopimukset (Memoranda of Understanding).

HIPin Tieteellinen neuvottelukunta (Scientific Advisory Board, SAB) asettui tukemaan LHC-kokeisiin osallistumista Memorandum of Understanding -suunnitelmassa määriteltyjen vastuiden mukaan. Neuvottelukunta korosti, että koska CMS-kokeen aikataulu vuosille 1998–­2005 oli tiukka ja vaativa, HIPin tuli nopeasti varmistaa kaikki tarvittavat resurssit.

Professori Eero Byckling -siirtyi eläkkeelle 1.7. 2000. HIPin uudeksi johtajaksi valittiin professori Dan-Olof Riska Helsingin yliopistosta.

HIPin LHC-ohjelman osallistuminen CMS-koeaseman rakentamiseen

CMS-kokeen rakentamiseen osallistuminen sujui hyvin. Vuonna 1999 saatiin TOB:n tukirakenteen täysimittainen prototyyppi ”Big Wheel” valmiiksi CERNissä. Sen lujuustestit tehtiin vuoden 2000 aikana, minkä jälkeen se läpäisi marraskuussa CMS:n Engineering Design Review -evaluaation. CMS saattoi nyt ryhtyä TOB:n tukirakenteen -tilausprosessiin teollisuudesta. Miikka Kotamäen siirryttyä CERNin henkilökuntaan ja ATLAS-projektiin uudeksi projektipäälliköksi nimitettiin TkL Eija Tuominen.

Teknisesti vaativa osa projektia oli Ilmaisinmodulien kiinnityskiskojen suunnittelu ja rakentaminen. Hanke aloitettiin HIPin tiloissa Kumpulassa v. 2002. Kumpulan HIPin ja Helsingin yliopiston Fysiikan laitoksen yhteiseen ilmaisinlaboratorioon rakennettiin kiskojen rakennustilat ja -välineistö sekä palkattiin tarkkuusasennuksiin koulutettu mekaanikko. Tehtävään tuli mekaanikko Jarmo Kortesmaa Suomen kelloseppäkoulusta. Rakennusprojektin koordinaattoriksi nimitettiin DI Harri Katajisto. Vuoden 2003 lopulla palkattiin vielä toinen mekaanikko, Auli Kuronen, kelloseppäkoulusta hänkin. Kiskot rakennettiin Kumpulan ilmaisinlaboratoriossa ja niiden fysikaaliset mitat tarkistettiin TKK:n Konetekniikan laboratoriossa. Erikoishiilikuitumateriaalin kiskoihin toimitti EXEL Compositions Oyj. Kiskojen valmistus saatiin päätökseen v. 2005, jolloin CERNiin oli toimitettu 750 moduli-kiskoa.

HIPin CMS Software and Physics -projektissa jatkettiin protoni-protoni-törmäystapahtumien simulointi- ja rekonstruktioalgoritmien sekä analyysiohjelmistojen kehittämistä. CMS:n Technical Design -raportteja varten tarvittiin huomattava määrä simuloituja törmäystapahtumia, joitten tuottamiseen HIPin ryhmä osallistui. Projektissa työskentelivät dos. Veikko Karimäki (projektin johtaja), dos. Ritva Kinnunen, FT Tomas Lindén, PhD Kati Lassila-Perini, sekä tohtoriopiskelijat FM Aatos Heikkinen, FM Sami Lehti, DI Tapio Lampén, DI Jukka Nystén, DI Mikko Voutilainen ja FM Lauri Wendland.

Tässä vaiheessa CMS-kollaboraatio oli kasvanut jo suureksi, jäsenluettelossa oli lähes 2000 nimeä. CMS-instituutit rekrytoivat mukaan runsaasti tohtoriopiskelijoita, tässä vaiheessa erityisesti fysiikan simulointiin. Tämä aiheutti paineita pienempien instituuttien toiminnalle ja useissa fysiikan analyysiprojekteissa päävastuu luisui suuremmille CMS-instituuteille. Myös HIPin Software and Physics -projekti joutui luovuttamaan johtoaseman joissakin tutkimusaiheissa yksinkertaisesti siksi, että suuremmilla instituuteilla oli enemmän työvoimaa. Standardimallin Higgsin hiukkasen tärkeimpien hajoamiskanavien tutkimukset siirtyivät vähitellen johtavien CMS-instituuttien kontrolliin. HIPin ryhmän osaaminen ja pitkä kokemus riittivät kuitenkin useissa aiheissa johtavan aseman säilyttämiseen. HIPin ryhmä keskittyi mm. tutkimaan Minimal Supersymmetric mallin (MSSM) Higgsin bosonien hajoamisprosessien mittausta CMS-koeasemassa, mistä muodostui pitkäaikainen tutkimusprojekti.  Erityisesti tau-leptoni -kanavat ja niiden liipaisualgoritmit olivat ryhmän vastuulla. Elektromagneettisen kalorimetrin ja ratailmaisimien antaman informaation yhdistämisen avulla voitiin laatia tehokas liipaisualgoritmi High Level Trigger  -vaihetta varten. Aiheesta syntyi v. 2001 FM Sami Lehden väitöskirja:” Prospects for the Detection of Neutral MSSM Higgs Bosons Decaying into Tau Leptons in the CMS Detector”. Se oli HIPin ensimmäinen LHC-fysiikasta tehty väitöskirja.

Välitavoitteen ”CMS Physics Technical Report” -vaihetta varten CMS-kollaboraatio teki v. 2003 laajan simulaatiotutkimuksen CMS:n potentiaalista löytää Higgsin bosoni. Tutkimus käsitti kaikki tärkeimmät hajoamiskanavat sekä standardimallin että MSSM:n Higgsin bosoneille. HIPin fysiikan ryhmän vastuulle annettiin tutkimuksen organisointi ja jo tehtyjen tutkimusten päivittäminen koeaseman viimeisintä suunnitelmaa vastaaviksi. Tutkimukset osoittivat, että 150-500 GeV:n massa-alueella standardimallin Higgsin bosonin oli löydettävissä jo 10 fb-1:n integroidulla luminositeetilla, joka suunnitelmien mukaan voitaisiin saavuttaa ensimmäisen vuoden ajojen aikana.

Lappeenrannan teknillinen yliopisto (LUT) liittyi CMS-kollaboraation jäseneksi syksyllä 2003. CMS:n keskusratailmaisimen pii-ilmaisimien suunnitteluun osallistunut FT Tuure Tuuva oli nimitetty professoriksi Lappeenrantaan ja perustanut sinne Mikroelektroniikan laboratorioon CMS-ryhmän. Ryhmään kuuluivat FM Kukka Banzuzi, FM Ahti Karjalainen, FM Arja Korpela ja M.Sc. Giovanni Polese. LUT otti vastuulleen Resistive Plate Chambers (RPC) -ilmaisinjärjestelmän tiedonkeruujärjestelmän linkkikorttien jatkosuunnittelun yhdessä Varsovan yliopiston CMS-ryhmän ja Varsovan Teknillisen yliopiston ryhmien kanssa. Korttien ensimmäiset tuotantoprototyypit toimitettiin CERNiin v. 2005 lopussa. CMS-toiminta Lappeenrannan teknillisessä yliopistossa oli laajentunut siinä määrin, että se liittyi HIPin jäsenyliopistoksi 27.9.2006.  RPC-ilmaisimilla tehtävän myoniliipaisun linkkikorttien tuotannosta sovittiin keväällä v. 2006 HIPin ja Lappeenrannan yliopiston elektroniikan suunnittelukeskuksen välillä. Tuotanto rahoitettiin HIPin CMS-rakennusbudjetista Memorandum of Understanding-sopimuksen mukaisesti. Tämän jälkeen Lappeenrannan ryhmä osallistui RPC-liipaisujärjestelmän ylläpitoon ja operointiin.

CMS:n keskusratailmaisimen (Tracker) TOB-osan rakennustyöt tehtiin CERNissä vv. 2004–2007. Projekti toteutettiin CERNin, HIPIn ja yhdysvaltalaisten Fermilaboratorion ja Santa Barbaran yliopiston yhteistyönä. Rakennustöihin CERNissä osallistuivat myös ilmaisinmoduli-kiskot Helsingissä rakentanut mekaanikkoryhmä (Jarmo Kortesmaa, Auli Kuronen ja Pauli Engström). Koko CMS Tracker saatiin koottua syksyllä v. 2007 ja joulukuussa se siirrettiin CMS-koeaseman luolaan yhteyteen loppuasennusta varten. Koko CMS-koeasema oli lopullisesti toimintakunnossa ja testattu v. 2008 kesällä.

LHC-kokeiden aloitus v. 2009 ja Higgsin bosonin löytyminen v. 2012

LHC:n rakennustyöt oli aloitettu v. 2000. Törmäyttimen valmistuminen lykkääntyi ensin arvioitujen rakennuskustannusten ylitysten vuoksi vuodesta 2005 vuoteen 2008 ja sitten käyttöönoton yhteydessä tapahtuneen kahden suprajohtavan magneetin välisen suprajohdeliitoksen pettämisen vuoksi marraskuuhun 2009. Uusi käyttöönottoprosessi sujui hyvin ja törmäytinkokeet voitiin aloittaa v. 2010 keväällä, aluksi 3,5 TeV:n suihkuenergioilla. Kaikki koeasemat ATLAS, CMS; ALICE ja LHCb olivat tuolloin valmiina aloittamaan protoni-protoni-törmäysten rekisteröinnin. Vuosien 2010–­2011 ajot osoittivat, että CMS-koeaseman kaikki osat toimivat suunnitellulla tehokkuudella ja tarkkuudella. HIPin CMS-tutkimusryhmä saattoi todeta tyytyväisyydellä, että keskusratailmaisimen TOB-osa toimi moitteettomasti. Perusteellinen laatutarkkailu Ilmaisinjärjestelmien, myös TOB-tukirakenteen rakentamisen kaikissa vaiheissa oli taannut laitteiston toimintavarmuuden. Kokeiden käynnistyttyä HIPin CMS-ryhmä osallistui paitsi kerätyn datan analysointiin, myös koeaseman ajamiseen liittyviin tehtäviin.

Vuonna 2010 HIPin CMS-projektin ohjelmanjohtaja vaihtui. Prof. Jorma Tuominiemi siirtyi eläkkeelle ja hänen tilalleen tuli FT Paula Eerola, joka oli nimitetty Helsingin yliopiston hiukkasfysiikan professoriksi v. 2009.

Vuoden 2012 alussa LHC:n suihkuenergioita nostettiin 4 TeV:hen. Suihkujen intensiteettiä oli saatu nostettua merkittävästi ja teoreettisten laskelmien mukaan Higgsin hiukkasen löytäminen v. 2012 aikana näytti mahdolliselle, jos hiukkasen massa olisi pienempi kuin 150 GeV/c2. Vuoden 2011 kokeissa oli jo saatu alustavia viitteitä Higgsin hiukkasen olemassaololle 120­–130 GeV/c2:n massa-alueella, mutta tarvittiin suurempi määrä törmäyksiä selvittämään, oliko kyseessä tilastollinen heilahdus taustareaktioiden massajakautumassa. Kokeet aloitettiin maaliskuussa suuren jännityksen vallitessa. Kesäkuun loppuun mennessä dataa oli jo kertynyt niin paljon, että datan analyysi vahvisti tilastollisesti merkittävästi Higgsin hiukkasen olemassaolon 125 GeV/c2:n massalla. Signaali näkyi kahden hajoamismoodin massajakautumissa. Nämä kokeellisesti helpoiten mitattavat moodit olivat Higgsin hiukkasen hajoaminen neljään myoniin sekä hajoaminen kahteen fotoniin. Tulokset julkaistiin 4.7. 2012 CERNissä pidetyssä seminaarissa, jossa CMS- ja ATLAS-kokeiden silloiset puhehenkilöt Dr. Fabiola Gianotti (ATLAS) ja professori Joe Incandela (CMS) pitivät esitykset saaduista tuloksista. CERNin suuri auditorio pullisteli kuulijoita. Läsnä olivat myös professorit Peter Higgs ja Francois Englert, jotka v. 1964 ensimmäisinä esittivät teoreettiset tutkimukset Higgsin hiukkasen olemassaoloon johtaneesta sähköheikon vuorovaikutuksen spontaanista symmetriarikosta. CERNin pääjohtaja Rolf Heuer lausui seminaarin päätössanoissaan: ”Results of today were only possible due to the extraordinary performance of the accelerators, experiments and GRID-computing.”

Higgsin hiukkasen löytyminen sai valtavasti huomiota. CERNissä seminaaritapahtumaan osallistui 55 mediaorganisaatiota, joilla oli paikalla oma lähetyskalusto tai ainakin oma toimittaja. Tilaisuutta seurattiin joukolla lehdistön kanssa myös etäyhteydellä Helsingissä Kumpulan kampuksella HIPin tiloissa ja saavutusta juhlittiin samppanjan kera.

Kokeet jatkuivat vuoden 2012 loppuun asti. Koko vuoden aikana kerätystä datasta tehty tarkempi analyysi osoitti, että löydetyn hiukkasen spin ja pariteetti olivat standardimallin Higgsin hypoteesin mukaiset. Näin oli aineen perusrakenteen standardimallin viimeinen puuttuva hiukkanen löydetty ja suunta jatkotutkimuksille viitoitettu. Jatkotutkimuksissa ensimmäinen kysymys luonnollisesti oli, oliko löydetty hiukkanen vain standardimallin Higgsin bosoni vai yksi standardimallin laajennusten ennustamista Higgsin hiukkasista. Jälkimmäisessä tapauksessa niitä pitäisi olla useampia ja havaittu hiukkanen voisi olla niiden ennustama sähkövaraukseltaan neutraali Higgsin hiukkanen. Tämän kysymyksen tutkimista on tätä artikkelia kirjoitettaessa tehty LHC-kokeissa vuosien ajan, dataa on saatu kokeista 30-kertainen määrä vv. 2011–­2012 verrattuna, mutta selvyyttä teorian laajennuksesta ei ole saatu. Kokeet jatkuvat, suunnitelmissa on, että LHC:n tutkimuskapasiteetti riittää aina 2030-luvulle asti. HIPin tutkimusryhmät, jotka nyt koostuvat uusista lupaavista nuorista tutkijoista, jatkavat kokeissa aktiivisina mukana, monet CMS:n tutkimusryhmien koordinaattoreina.

Nobelin palkinto v. 2013

Peter Higgs ja Francois Englert saivat v. 2013 Nobelin fysiikan palkinnon tutkimuksistaan.

Nobel-komitean kunniamaininnassa hiukkasen löytyminen ATLAS- ja CMS-kokeissa on myös eksplisiittisesti mainittu. Euroopan Fyysikkoseura puolestaan myönsi kesällä 2013 vuotuisen fysiikan palkintonsa yhdessä ATLAS- ja CMS-kollaboraatioille sekä kokeiden ensimmäisille puhemiehille (Michelle Della Negra/CMS, Peter Jenni/ATLAS ja Tejinder Virdee/CMS). Laajempi kuvaus CMS-kokeesta löytyy kirjasta ”Kuplakammiofysiikasta Higgsin bosoniin” (kirjoittanut Jorma Tuominiemi), joka on saatavissa HIPin verkkosivuilta.

Jorma Tuominiemi
Adj. vanhempi tutkija ja emeritus ohjelmajohtaja, CMS
Fysiikan tutkimuslaitos

Näkemyksiä inflaatiotutkimuksesta

Maailmankaikkeuden rakenne on kehittynyt hyvin pienistä alkuhäiriöistä, eli tihentymistä ja harventumista aineen jakaumassa. Painovoiman vaikutuksesta tihentymät kasvoivat vetämällä ympäröivää ainetta puoleensa, ja näin muodostui vähitellen verkkomaista suuremman mittakaavan rakennetta. Muutaman sadan miljoonan vuoden ikäisessä maailmankaikkeudessa verkoston tiheimmissä solmukohdissa alkoi syntyä ensimmäisiä tähtiä ja niistä edelleen galakseja. Ensimmäisen sukupolven tähtien jäänteistä muodostui raskaampia alkuaineita sisältäviä pitkäikäisempiä tähtiä, galaksit ja galaksiryhmät kasvoivat suuremmiksi ja maailmankaikkeus kehittyi sellaiseksi kuin se nykyään 13,8 miljardin vuoden ikäisenä on.

Kosmologin kuvaus rakenteen synnystä ei tässä valeuutisten luvatussa ajassa kenties kuullosta juuri sen kummemmalta kuin muinaiskalevalaisissa piireissä kiertänyt vaihtoehtoinen tieto, jonka mukaan maailma syntyi sotkan munasta. Oleellinen ero on tietysti se, että kosmologian tutkimuksen tuottama tieto ei ole kiisteltävissä oleva mielipide, vaan sen taustalla on valtava määrä havaintodataa, vankka teoreettinen pohja ja tuhansien tutkijoiden vuosikymmenten työ. Alkuhäiriöt ovat yhä tänäkin päivänä suoraan havaittavissa kosmisessa mikroaaltotaustasäteilyssä. Taustasäteily on kuin valokuva maailmankaikkeudesta 380 000 vuoden iässä, jolloin baryoninen aine sitoutui neutraaleiksi atomeiksi ja fotonit pääsivät liikkumaan vapaasti. Alkuhäiriöt näkyvät suuruusluokaltaan sadastuhannesosan vaihteluina eri suunnista tulevan fotonitaustan lämpötilassa. Pienten alkuhäiriöiden kehittyminen suuren mittakaavan rakenteiksi on täsmällisesti mallinnettavissa oleva prosessi, jonka yksityiskohdat riippuvat sekä painovoimaa kuvaavasta teoriasta että maailmankaikkeuden koostumuksesta. Havainnot rakenteen ominaisuuksista ja kehityksestä kaikilla mitattavissa olevilla skaaloilla ovat pääosin erittäin hyvin sopusoinnussa yleiseen suhteellisuusteoriaan, kylmän pimeän aineen komponenttiin ja kosmologiseen vakioon perustuvan ns. LCDM-mallin ennusteiden kanssa.

Todennäköisin selitys alkuhäiriöiden synnylle on inflaatioksi kutsuttu kiihtyvän laajenemisen vaihe hyvin varhaisessa maailmankaikkeudessa, jo ennen kuumaa ja tiheää alkuvaihetta. Inflaation aikana minkä tahansa riittävän kevyen skalaarikentän kvanttimekaanisista fluktuaatioista muodostuu alkuhäiriöiksi jäätyvää rakennetta. Inflaatiossa syntyvien häiriöiden jakauma on lähes gaussinen ja varianssi lähes sama kaikilla pituusskaaloilla. Nämä inflaation keskeiset ennusteet vastaavat täsmälleen mikroaaltotaustahavaintoja, missä tarkkuuden huippua edustaa Planck-satelliitin data. Havaintosektorilla on edelleen odotettavissa uusia edistysaskelia, erityisesti mikroaaltotaustan polarisaatiosignaalin ja maailmankaikkeuden suuren skaalan rakenteen yksityiskohtien mittaustarkkuuden kehittyessä. Polarisaatiosignaalin avulla voitaisiin esimerkiksi havaita inflaation synnyttämä gravitaatioaaltotausta. Se olisi melkoinen lottopotti ja harppaus kohti inflaatiomallin varmentamista. Rakenteen entistä tarkempi kartoittaminen taas tuottaa lisää tietoa alkuhäiriöiden rakenteesta ja inflaatiodynamiikan yksityiskohdista. On kuitenkin todennäköistä, että inflaatiovaiheen taustalla vaikuttavaa fysikaalista mekanismia ei tulevaisuudessakaan voida suoraan rekonstruoida mittausdatasta.

Ainakin teoreetikon näkökulmasta kaikkein kiinnostavin kysymys koskee inflaatiovaiheen mikroskooppista luonnetta. Mitä alkuhäiriöiden mitatut ominaisuudet kertovat hiukkasfysiikasta ja gravitaatiosta inflaatioskaalalla, ja miten inflaation aikana tapahtuvat prosessit kytkeytyvät tunnettuun alkeishiukkasfysiikkaan?

Teorian ja havaintojen valossa vaikuttaa vahvasti siltä, että inflaatiovaiheessa jonkin skalaarikentän potentiaalienergia dominoi maailmankaikkeutta. Hiukkasfysiikan standardimallissa on yksi alkeishiukkasiin lukeutuva skalaarivapausaste eli Higgsin bosoni. Hiukkasfysiikan standardimalli selittää yhä edelleen äärimmäisen tarkasti kaikki hiukkaskiihdyttimillä havaitut ilmiöt. Tästä huolimatta on selvää, että se ei sellaisenaan voi olla täydellinen teoria, sillä se ei selitä pimeän aineen luonnetta, valtavaa epäsuhtaa aineen ja antiaineen määrissä, eikä neutriinojen massoja. Nämä havainnot voidaan kuitenkin selittää varsin pienillä lisäyksillä standardimalliin. Onkin erityisen kiinnostavaa tutkia, voisiko odottamattoman menestyksekkääksi teoriaksi osoittautunut standardimalli jollakin minimaalisella laajennuksella täydennettynä kuvata alkeishiukkasfysiikkaa joko kokonaan tai osittain aina inflaatioskaalalle asti. Samalla voidaan kysyä, miten inflaatiofysiikkaan liittyvä havaintodata ja erilaiset teoreettiset konsistenssiusehdot rajoittavat tällaisia malleja. HIP-kosmologiaprojektin inflaatiotutkimus pyrkii tuottamaan uusia vastauksia muun muassa näihin avoimiin kysymyksiin.

Keskeinen tutkimusaihe on Higgsin kentän rooli inflaatiovaiheen aikana. Tässä on kaksi mahdollisuutta: Higgsin kenttä joko dominoi maailmankaikkeuden energiatiheyttä ja aiheuttaa inflaation tai sitten se on inflaatiodynamiikan kannalta merkityksetön, eli ns. spektaattorikenttä. Voisi ajatella, että jälkimmäinen tapaus on merkityksetön myös tutkimuksen kannalta, mutta spektaattorikentillekin syntyy fluktuaatiota inflaation aikana. Näistä fluktuaatioista voi muodostua havaittavia alkuhäiriöitä, jos spektaattorikentän lokaali arvo vaikuttaa maailmankaikkeuden kehitykseen jossakin vaiheessa inflaation jälkeen. Tällainen mekanismi on olemassa esimerkiksi oikeakätisillä neutriinoilla laajennetussa standardimallissa, ja äskettäin osoitimme, että Higgsin kentän fluktuaatioista seuraa kiinnostavia rajoituksia neutriinosektorin kytkennöille. Higgsin kentän fluktuaatioiden tulee myös pysyä tietyn kriittisen rajan alapuolella, jotta ne eivät aiheuttaisi siirtymää sähköheikon potentiaaliminimin lähettyviltä standardimallin absoluuttiseen minimiin, josta ei enää ole paluuta havaittavan maailmankaikkeuden kaltaiseen tilaan. Tämän konsistenssiehdon avulla voidaan testata erilaisten hiukkasfysiikan teorioiden yhteensopivuutta inflaation kanssa. HIP-ryhmän tutkimustulosten perusteella tiedetään esimerkiksi, että vaatimus sähköheikon minimin stabiiliudesta inflaation aikana ja sen jälkeen antaa täsmällisen ennusteen Higgsin kentän epäminimaalisen gravitaatiokytkennän arvolle, joka itse asiassa on viimeinen tuntematon parametri hiukkasfysiikan standardimallissa. Erittäin merkittävä kysymys on se, voisiko Higgsin kentän dynamiikka selittää koko inflaatiomekanismin. Higgs-inflaatiota on tutkittu paljon, mutta aiheeseen liittyy vielä useita avoimia kysymyksiä koskien erityisesti mallien toimivuutta kvanttikenttäteorian tasolla. Tällä saralle ryhmässämme tehty tutkimus on hiljattain tuottanut uutta tietoa muun muassa gravitaatiosektorin rakenteesta ja materiasektorin kvanttikorjauksista.

Inflaatiofysiikka asettaa alkuehdot koko maailmankaikkeuden kehitykselle, joten on oleellista ymmärtää miten inflaation aikaiset prosessit kytkeytyvät paitsi alkuhäiriöiden ominaisuuksiin myös kaikkeen muuhun kosmologiseen havaintoaineistoon. Tutkimuksemme on osoittanut mielenkiintoisia yhteyksiä muun muassa pimeän aineen ja inflaatiofysiikan välillä. Epätasapainoilmiöt inflaatiovaiheen lopussa voivat esimerkiksi synnyttää hiukkasmuotoista pimeää ainetta, jopa puhtaasti gravitaatiokytkentöjen välityksellä. Tiedetään myös, että tietyissä tilanteissa inflaatio voi synnyttää primordiaalisia mustia aukkoja. Havainnot rajoittavat niiden osuuden alle prosenttiin pimeän aineen kokonaisenergiatiheydestä lähes kaikilla massaskaaloilla. Näinkin pieni osuus vaikuttaa kuitenkin hiukkasmuotoisen pimeän aineen klusteroitumiseen ja annihilaatioprosessien voimakkuuteen, joihin liittyviä karakteristisia havaintosignaaleja tutkimme äskettäin termisten reliikkien ja QCD-aksionien tapauksessa. Ryhmässämme tehtiin viime vuonna myös ensimmäinen täydellinen simulaatio primordiaalisten mustien aukkojen syntyyn liittyvästä alkuhäiriöiden kasvusta inflaatiossa.

Vanhan viisauden mukaan elefanttia ei syödä kerralla vaan pieninä paloina. Tämä pätee myös inflaatiofysiikan suhteen. Vegaani tai muuten vaan norsujen ystävä voi tässä kohtaa mielessään korvata elefantin vaikka jättimäisellä kurpitsalla. Alkupaloista on siirrytty jo tukevasti pääruoan puolelle, mutta ymmärryksessä on edelleen suuria aukkoja. Tämä ei oikeastaan ole kovinkaan yllättävää kun pidetään mielessä, että inflaation aikainen energiaskaala on mahdollisesti jopa kaksitoista kertalukua suurempi kuin maailman tehokkaimmalla hiukkaskiihdyttimellä, CERN:in LHC:lla, saavutettu taso. Kosmologisen havaintodatan tarkentuminen ja lisääntyvä tutkimustieto erilaisten teorioiden ennusteista aina inflaatioskaalle asti antaa kuitenkin uusia tehokkaita työkaluja, joiden avulla sitkeämpiäkin paloja voidaan alkaa nostella lautaselle ihan syömistarkoituksessa.

Sami Nurmi
Projektipäällikkö, HIP-projekti (Theoretical cosmology)
Jyväskylän yliopisto ja Fysiikan tutkimuslaitos

The Curious Journey of a Robotics Engineer to the Most Exciting Research Facility on This Planet.

How far can we keep splitting them? Would there be a moment in history that we find the “Atomos” which is truly “indivisible”? What would it mean? Would it be the instant that we realize that we exist in one of countless simulations? The Atomos is the smallest bit of information that can be stored on computers of “Gods” and the speed of light is the fastest rate of data transfer they could accomplish? I bet the ones for “Fine-tuned universe” will bombard us with lots of “I told you so” comments. I for one would be fine with that since there is always relief in knowing the truth as bitter light tastes better than the darkness no matter how sweet it is.

My 2019 was blessed with the privilege of spending six months as a trainee at CERN where the most important question of the origin is the very goal. The facility is awe-inspiring in most regards, from the sheer scale of construction and human collaboration to the very details of technologies utilized and the magnitude of accomplishments are yet far from perfect. In this text, since my expertise is not in the field of physics, I will steer clear of details of experiments and mainly focus on personal observations and experiences which might be interesting for people who are considering working in CERN or visiting.

Tampere to Saint-Genis-Pouilly

 I was invited to work with the Experimental Physics Department as an Associate member of the personnel which is probably the official euphemism for trainee. I would have accepted the position for free just to quench my curiosity so it was nice to hear that the position pays about 1300 euros of allowance which can cover living expenses to some extent. Even though I chose to live on the French side, the prices are hyped by the swiss border and the allowance was gone just for the accommodation and necessary calories, in addition to a few of unnecessary ones. I needed visas for France and Switzerland, however, acquiring them could not have gone smoother. A single visit to the French embassy in Helsinki, no application fee and the swiss visa was taken care of by CERN a few weeks after I arrived.

Many of the people with CERN related jobs live in Saint-Genis-Pouilly, the commune adjacent to the swiss border. It is small and quiet with a lovely nature and crystal-clear skies. The others mostly live in Geneva on the Swiss side. Geneva is a lively city in which many festivals take place throughout the year. In addition to those fun activities, during the weekends, CERN restaurant is the host of employees drinking and sometimes dancing.

CERN is Never Boring

 Just opposite the Meyrin site entrance, Globe of Science and Innovation this exotic wooden building, never fails to grab one’s attention regardless of how many times they have been there. A permanent science exhibition with impressive demonstrations and lots of nourishments for the thoughts of the curious. For the rest of the facilities, it is delightful to see interesting and informative stands and posters here and there especially at the entrances of different CERN sites explaining the science in an understandable way. I was able to join a tour to CMS experiment during my short presence. Again, not only the mere scale of the massive machine, but what it represents, the magnitude of curiosity and the enormous will to appease it, makes one feel lucky to live today and among such fellow sapiens. Similar to the rest of the facilities, the experiments are decorated for visitors and posters and mock-ups to provide a glimpse of working principles and the mechanisms.

In addition to the regular opportunities, CERN open days event happened during my stay. The doors were open to the public and the booths were erected in many buildings to welcome the visitors. During those days I enjoyed explaining the activities of the Robotics section to the curious minds and learning from their perspectives as well as visiting other departments’ exhibitions and learn from other CERNians. It is sad to see COVID had interrupted exhibitions and visits however, luckily, online visits are possible.

Engineering Physics Department and the new ALICE detector

As mentioned, I was invited to take part in activities related to the EP department of CERN and there I had the chance to see the parts of the new ALICE detector being developed in person. In the clean room, where the development was taking place, I saw dedicated scientists, students and bosses working with dedication alongside each other to improve ALICE detection rates by orders of magnitude. My job was to find robotic solutions for inspection purposes in collaboration with the Robotics department. The physics-savvy reader should forgive my crude and qualitative reports due to the lack of deep knowledge in this field however, I will try to mention a few of interesting detector design limitations that my mind manages to process.

The detector is the device inside which the proton collisions happen and becomes radioactively hot overtime. This presents a major challenge for future maintenance since it mandates lengthy cool down periods, up to a few months in some cases, before any human can safely access the detector. The new detector design, as far as I understood, was done with a robot-friendly approach to pave the way for robotic intervention and maintenance.

In addition to such safety limitations, I found the “material-budget” very intriguing. The resulting particles of the collisions scatter away from the collision point and the detector “pixels/sensors” sense them passing through. Comparing the detections is how the trajectory of the particles as well as their properties is determined. Any matter in the path of particles can affect their trajectory and even stop them including the components of the detector itself, the sensor arrays, the parts keeping them in place, wiring, etc. The more massive the objects the more obscuring introduced to the readings. This limitation affects the shape of the components as well as their material.

Robotics Department

I was given a desk in robotics department in order to better collaborate with this section. I spent most of my days there and my experiences there were interesting and exciting, however, very mixed and oddly disappointing considering the CERN factor. This department provides robotic solutions for interventions which cannot be caried out by humans due to limitations such as radiation hazards and accessibility. For example, the train that navigates the LHC for observation and measurement, TIM, is operated by this department. In addition to regular services, researchers, PhD students and experts there, continuously work on developing new solutions for the existing robotic demands as well as working on designs for future CERN projects such as a train for the Future Circular Collider(FCC).

The robots at CERN do not use any of the available operating systems such as ROS but rather use CERN Robotic Framework (CRF) which is developed in-house from scratch. This approach, in theory, should eliminate the confusion about the behavior of the code and the source of errors. In practice though, developing an entire operating system is no small task and in order to benefit from its merits, it must be done by the book. The programming experts might not agree on an exact number however, 20% of effort allocation for documentation is the very least I have encountered. Sadly, according to the leader of the department, it was 5% at the time. In other words, CRF is a very person-oriented work and suffers greatly by changes of the personnel. Surprisingly, the programmers of the department, even the very senior ones, were not offered contract extensions even though the core of the operations, the CRF, would suffer greatly. The silver lining is the people working there are very friendly and welcoming to the new members and working alongside them was truly delightful.

The robotic section, the offices and the workshop are located in a two story temporary building made of sandwich panels which was supposed to be replaced with a proper one after six months however, after more than five years, the team still works there. When one enters the workshop, they will be greeted with an exciting sight of purpose-built robots, industrial robot arms, an advanced VR workstation and young engineers, developers and students improving the robots and making new ones.

The very international composition of the robotic team makes working there enjoyable. I enjoyed working alongside people from Spain, Venezuela, Italy, Austria, Poland, France, Switzerland, Latvia, Denmark, Malta and Iran. Unfortunately, and surprisingly, too many of the members lack enough English skills to communicate in an efficient way and one extreme example could barely do more than the everyday greetings. This begs the question that what are the selection criteria for jobs in the section and why communication ability was not considered as a priority.

Working at CERN

Doing an internship is a perfect way of knowing the work environment, especially in a giant organization such as CERN. Some of the interns are offered PhD positions so they can stay, in case they wanted to extend their collaboration and I think that is an interesting path if one is pursuing a longer presence at CERN. As far as I understood, PhD students are paid twice as much as the interns and the payment difference between a PhD student and CERN employee has roughly the same ratio. Other than the compensation matters, working at CERN provides the opportunity of benefitting from numerous classes such as radiation protection which can be beneficial for one’s future career. Moreover, CERN pushes you to learn the beautiful French language since many of the service staff and guards do not know enough English. Why they were employed in such an international place remains a mystery to me.

Someone who might be interested in pursuing such a career, before putting any effort in that direction, should be aware of a peculiar requirement for employees of CERN. Only “nationals” of the member states can be officially employed by CERN. For the sake of financial exchange, it would make sense to limit the vendors to the ones from member states however, depriving an individual of the opportunity only because of a factor they had no say in, regardless of their qualifications, sounds tribalistic.

Last Words

What is happening at CERN is nothing short of magic and you should learn about it and visit when you get the chance.

May Odin smile upon you and Thor electrify your days.

Damoon, now working as PhD student to continue the development of the continuum inspection robot as part of the HIP Technology Program project ROBOT: www.hip.fi/robot

Damoon Mohamadi
PhD student, HIP Project (Robotics and AI for monitoring and intervention)
Tampere University and Helsinki Institute of Physics

Pimeää ainetta etsimässä

      1 Comment on Pimeää ainetta etsimässä

Näkymätön aine

Pimeälle aineelle ehkä kuvaavampi nimi olisi näkymätön aine. Se on jotain toistaiseksi tuntematonta ainetta, joka ei näy kaukoputkella (eli näkyvän valon aallonpituudella), eikä muitakaan sähkömagneettisen säteilyn aallonpituuksia (kuten infrapunaa tai röntgensäteilyä) havainnoivilla instrumenteilla. Pimeä aine ei siis säteile eikä absorboi sähkömagneettista säteilyä. Hiukkasfysiikan kielellä, se ei vuorovaikuta sähkömagneettisen kentän kanssa.

Tämän näkymättömän aineen olemassaolo käy ilmi painovoiman kautta: Tähdet liikkuvat galakseissa nopeammin kuin galaksien näkyvän aineen jakauma antaisi olettaa. Ylimääräinen liike-energia selittyy sillä, että galaksin gravitaatiopotentiaalista suurin osa on näkymättömän pimeän aineen aiheuttamaa. Vastaavanlaiset havainnot yksittäisten galaksien liikkeistä galaksiryppäiden sisällä kertovat että myös galaksiryppäiden massasta noin viisi kuudesosaa koostuu pimeästä aineesta, ja vain yksi kuudesosa on tavallista näkyvää ainetta, pääosin vetyä.

Yhtälailla painovoimaan perustuen pimeä aine voidaan havaita gravitaatiolinssiefektin avulla: Yleisen suhteellisuusteorian mukaisesti massa kaareuttaa sen ohi kulkevien valonsäteiden reittejä, ja siten massiiviset rakenteet kuten galaksiryppäät toimivat linsseinä taittaen niiden takaa näkyvien valonlähteiden lähettämiä kuvia. Näitä gravitaatiolinssien muokkaamia kuvia analysoimalla voidaan päätellä kuinka paljon linssinä toimivassa rakenteessa on massaa ja miten se on jakautunut. Ehkä tunnetuin esimerkki tällaisista havainnoista on niinkutsuttu bullet cluster. Kuvassa näkyy kahden galaksiryppään törmäys, jonka johdosta näkyvä vetykaasu on irtaantunut pimeästä aineesta, jonka sijainti käy ilmi gravitaatiolinssiefektin avulla.

Painovoimansa avulla pimeä aine myös selittää miten kosmiset rakenteet kuten galaksit ja galaksiryppäät ovat alunperin syntyneet. Varhaisessa maailmankaikkeudessa aine oli hyvin tasaisesti jakautunutta kuumaa hiukkaspuuroa, eli plasmaa. Jossain kohdin ainetta oli hieman tiheämmin ja toisaalla taas harvemmin. Painovoima pyrkii kasvattamaan näitä epätasaisuuksia, kun tiheät kohdat vetävät lisää ainetta puoleensa ja tihentyvät siten entisestään. Kasaantuessaan tavallinen aine kuitenkin kuumenee ja säteilee lämpösäteilyä, joka puolestaan työntää ainetta poispäin tiheämmistä alueista. Tämä ilmiö hidastaisi rakenteen muodostumista, jos kaikki aine olisi tavallista ainetta, eikä aineen jakauma maailmankaikkeudessa näyttäisi sellaiselta kuin sen nyt havaitsemme. Mutta pimeä aine on näkymätöntä juuri siksi, että se ei vuorovaikuta sähkömagneettisen säteilyn kanssa. Se ei siis tunne säteilyn painetta ja pystyy siksi kasautumaan painovoiman vaikutuksesta tehokkaasti jo varhaisessa maailmankaikkeudessa. Näkyvät kosmiset rakenteet ovat syntyneet kun näkyvä aine on luhistunut pimeän aineen tihentymien luomiin gravitaatiopotentiaalin kuoppiin.

Kolme tapaa löytää näkymätön

Pimeän aineen uskotaan koostuvan jostain tuntemattomasta hiukkasesta, koska mikään tunnetuista hiukkasfysiikan standardimallin alkeishiukkasista ei sovi pimeän aineen rooliin. Ominaisuuksiltaan muuten pimeäksi aineeksi sopivat, sähkövarauksettomat neutriinot ovat liian kevyitä muodostaakseen pimeän aineen rakenteet. Pimeän aineen etsinnässä on siis kyse uuden, standardimallin ulkopuolisen alkeishiukkasen etsimisestä. Tämä hiukkasjahti tapahtuu kolmella rintamalla:

Hiukkaskiihdyttimissä, kuten CERNin LHCssa, törmäytetään protoneita yhteen suurella energialla, ja mitataan tarkasti törmäyksessä syntyneiden hiukkasten energiat ja liikemäärät. Miljardien törmäysten joukosta pyritään löytämään sellaisia, joissa syntyneiden hiukasten liikemäärävektorit eivät ole tasapainossa. Tämä kertoisi siitä, että osa liikemäärästä on kulkeutunut pois havaintolaitteiden ohi näkymättömien hiukkasten kantamana. Jos tällaisia tapahtumia nähtäisiin enemmän kuin standardimallin ennustamat neutriinot voivat selittää, voisi se olla osoitus siitä, että törmäyksissä on syntynyt näkymättömiä pimeän aineen hiukkasia.

Jos pimeä aine koostuu tasapuolisesti hiukkasista ja antihiukkasista (toisin kuin näkyvä aine, joka koostuu vain hiukkasista, joita jostain syystä oli varhaisessa maailmankaikkeudessa hieman enemmän kuin antihiukkasia), nämä voivat joskus törmätä toisiinsa ja annihiloitua näkyviksi hiukkasiksi, kuten fotoneiksi tai varatuiksi hiukkasiksi. Toisaalta jos pimeä aine ei ole eliniältään ikuista, mutta vain erittäin pitkäikäistä, pimeän aineen hiukkaset voisivat toisinaan hajota näkyviksi hiukkasiksi. Tällaisia pimeän aineen annihilaatioista tai hajoamisista syntyviä hiukkasia etsitään suuntaamalla teleskoopit tai hiukkasilmaisimet kohti linnunradan keskustaa, galaksiryppäitä, tai linnunradan ympärillä kiertäviä kääpiögalakseja, koska jokaisen näkyvän rakenteen tiedetään sijaitsevan suuren pimeän aineen muodostaman ”kehän” eli halon sisällä. Pimeän aineen halo on tiivein sen keskikohdassa, joten keskellä rakennetta pitäisi myös tapahtua eniten annihilaatioita tai hajoamisia.

Kolmas tapa etsiä pimeää ainetta on niinsanottu suora havainnointi, joka perustuu maapallon liikkeeseen aurinkokunnan mukana linnunrataa ympäröivän pimeän aineen halon läpi. Aurinkokuntamme kiertää linnunradan keskustaa noin 220 km/s nopeudella. Näin ollen, liikkuessamme pimeän aineen halon läpi, on maapallolle kiinnitetyn havaitsijan näkökulmasta vastassamme jatkuva pimeän aineen hiukkasten vuo, ikäänkuin pimeän aineen muodostama tuuli. Suoran havainnoinnin kokeissa tarkkaillaan jotain kohdemateriaalia, esim suurta tankillista nestemäistä Xenon-kaasua, ja pyritään näkemään valotuikkeita jotka syntyisivät kun pimeän aineen hiukkanen osuu kohdeaineen atomiin ja siirtää sille energiaa tässä törmäyksessä.

Pimeän aineen tuulen vuodenajat

Aurinkokunnan kierros galaksin ympäri, eli galaktinen vuosi, kestää yli 200 miljoonaa vuotta. Siten aurinkokunnan liike suhteessa pimeän aineen haloon on ihmiselämän aikaskaalassa vakio. Mutta maapallon mukana matkustavan havaitsijan kokeman pimeän aineen tuulen nopeus vaihtelee hieman vuodenaikojen mukana, johtuen maapallon liikkeestä auringon ympäri. Tämä kiertonopeus on noin 30 km/s, ja siten joko kasvattaa tai pienentää pimeän aineen tuulen nopeutta aurinkokunnan 220 km/s vauhdista sen mukaan, kuljemmeko auringon ympäri myötä- vai vastatuuleen. Vastatuuli osuu kesäkuulle, jolloin siis yhteenlaskettuna pimeän aineen tuulennopeus on suurimmillaan, ja myötätuuli eli pimeän aineen tuulennopeuden minimi puolestaan joulukuulle.

Suoran havainnoinnin kokeissa tämä tuulennopeuden vaihtelu vaikuttaa siten, että kesällä törmäykset tapahtuvat keskimäärin hieman suuremmalla energialla kuin talvella. Jos törmäysenergia on liian pieni, se ei riitä aiheuttamaan havaittavaa valontuiketta, ja siten matalaenergisin osa törmäyksistä saattaa jäädä kokonaan näkemättä. Näin ollen kesällä suurempi osa mahdollisista pimeän aineen törmäyksistä on kokeiden kannalta sopivalla energia-alueella, ja siten kokeen pitäisi nähdä enemmän törmäyksistä kertovia valotuikkeita kesällä kuin talvella.

Italian Gran Sasson vuoren uumenissa sijaitseva DAMA-koe onkin jo vuosikausia raportoinut havaitsevansa juuri odotetunlaisen vuosivaihtelun natriumjodidi-kiteeseen perustuvassa ilmaisimessaan. Ilmaisin tuikkii hieman tiuhempaan kesäisin ja hieman harvemmin talvisin, juuri niinkuin pimeän aineen törmäyksistä kertovien tuikkeiden tulisikin käyttäytyä. Näiden havaintojen tulkinta osoituksena pimeän aineen hiukkasen löytymisestä on kuitenkin ongelmallista, koska monet muut kokeet maailmalla eivät ole nähneet vastaavaa signaalia, vaikka teoreettiset mallit jotka voisivat kuvata DAMAn havaitsemia törmäyksiä, ennustaisivat että nämä törmäykset pitäisi havaita myös esim Xenon-kokeessa. Asia on hämmästyttänyt tiedeyhteisöä jo toistakymmentä vuotta, mutta selvää virhettä DAMAsta tai muistakaan kokeista ei ole löytynyt, joka voisi selittää ristiriitaiselta vaikuttavat tulokset.

Tarkempaa tietoa monipuolisemmilla mittauksilla

DAMAn ja muiden suoran havainnoinnin kokeiden tulosten yhteismitallista tulkintaa hankaloittaa se, että DAMA on näistä kokeista ainoa joka käyttää kohdeaineena natriumjodidia. On mahdollista, että pimeä aine vuorovaikuttaa eritavalla eri alkuaineiden atomien kanssa, ja siten eri kohdeaineisiin perustuvat mittaukset eivät olisi suoraan vertailukelpoisia. Viimevuosina onkin maailmalla ryhdytty rakentamaan muitakin DAMAn kaltaisia natriumjodidi-ilmaisimia, joiden avulla tulosten vertailu olisi selkeämpää.

Vuodesta 2020 alkaen HIP on liittynyt mukaan italialaisten, saksalaisten ja itävaltalaisten tutkimusryhmien yhteistyössä aloittaman COSINUS-kokeen toimintaan. Tämä koe on rakenteilla samaan Gran Sasson laboratorioon jossa myös DAMA toimii, ja kohdeaineena on natriumjodidi-kide kuten DAMAlla. DAMAsta ja muista natriumjodidi-ilmaisimista poiketen COSINUS-kokeen tarkoitus on kuitenkin mitata törmäyksen aiheuttaman valontuikkeen lisäksi myös törmäyksessä kiteeseen siirtynyt lämpö- ja värähtelyenergia. Vertaamalla törmäyksen tuottaman valontuikkeen voimakkuutta värähtelyenergian määrään saadaan tarkempaa tietoa siitä, minkälainen sirontaprosessi on tapahtunut. Tämän tiedon avulla voidaan esimerkiksi erottaa atomiytimistä ja niitä verhoavista elektroneista tapahtuneet sironnat toisistaan. Lisäksi värähtelyenergian mittaus tuottaa paljon tarkemman tiedon törmäysenergiasta kuin pelkän valontuikkeen mittaaminen, ja siten on mahdollista määrittää havaittujen törmäysten energiajakauma entistä tarkemmin. Tämä tieto puolestaan auttaa tulkitsemaan mahdollista signaalia pimeästä aineesta kertovien hiukkasfysiikan teorioiden kannalta. Näin COSINUS-kokeen tuottama moniulotteisempi ja tarkempi data voisi lopulta tuoda selvyyden pitkään jatkuneeseen mysteeriin DAMAn signaalin takana. Yksittäisessä hiukkasen ja atomin törmäyksessä kiteeseen siirtynyt energia on hyvin vähäinen verrattuna huoneenlämpöisen kiteen sisältämään lämpöenergiaan. Tästä johtuen COSINUS-kokeessa kohdeaineena toimiva natriumjodidi-kide jäähdytetään lähelle absoluuttista nollapistettä, alle 10 millikelvinin lämpötilaan kryostaatin avulla. Tämä mahdollistaa pientenkin kidevärähtelyiden mittaamisen erityisen herkkien lämpömittareiden (TES eli transition edge sensor) avulla. TES on mikroskooppinen, suprajohtavasta metallista valmistettu liuska, joka pidetään juuri suprajohtavuuslämpötilan tuntumassa. Tässä kriittisessä lämpötila-alueessa pienikin lämpötilan muutos aiheuttaa suuren muutoksen liuskan sähkönjohtavuudessa, joka voidaan mitata, ja siten sensori toimii äärimmäisen tarkkana lämpöenergian mittarina.

COSINUS-kokeessa kohdeainekide on kytketty kryostaatin tuottamaan alle 10mK lämpökylpyyn lämmönjohtimen kautta, ja TES on sijoitettu lämmönjohtimen ja kiteen väliin, oheisen kuvan mukaisesti. Näin hiukkassironnan kiteeseen synnyttämät värähtelykvantit eli fononit joutuvat kulkemaan TESin kautta matkallaan lämpökylpyyn, ja niiden kuljettama värähtelyenergia voidaan mitata. Tämä mittalaitteisto on taustasäteilyltä suojaamiseksi peitetty kuparilla ja upotettu vesitankkiin, jonka lisäksi kosmiselta säteilyltä suojaa antaa sijainti Gran Sasson vuoren uumenissa. Oheisessa kuvassa näkyy suunnitelma kokeen rakennelmasta, jossa korkean vesitankin ympärille on rakennettu mittauksissa tarvittavat tekniset tilat ja puhdashuone.

HIPistä COSINUS-toimintaan osallistuvat tohtoriopiskelija Alex Stendahl, yliopistotutkija Matti Heikinheimo sekä yliopistonlehtori Kimmo Tuominen.

Matti Heikinheimo
Yliopistotutkija, HIP-projekti (High Energy Phenomenology in the LHC era)
Helsingin yliopisto ja Fysiikan tutkimuslaitos

Kosmologian tutkimus Euclid-avaruusteleskoopilla

Euroopan avaruusjärjestön (ESA) Euclid-avaruusteleskoopin (https://www.euclid-ec.org/) suunniteltu laukaisu on vuoden 2022 loppupuolella. Euclidin tarkoitus on kartoittaa kuuden vuoden aikana yli kolmasosa taivaasta havaiten yli miljardi galaksia ja mitata kymmenien miljoonien galaksien spektri.  Spektristä voidaan määrittää galaksin punasiirtymä, mikä kertoo galaksin etäisyyden (olettaen, että punasiirtymän ja etäisyyden välinen yhteys tunnetaan).  Näin saadaan maailmankaikkeuden kolmiulotteinen kartta, jossa kukin galaksi on paikallaan.

Kuva 1: Taiteilijan näkemys Euclid-avaruusteleskoopista. (Credit: ESA/ATG medialab (satelliitti); NASA, ESA, CXC, C. Ma, H. Ebeling ja E. Barrett (University of Hawaii/IfA), et al. ja STScI (tausta))

Tällä hetkellä kosmologian merkittävin havaintoaineisto on ESAn edellisen kosmologiaprojektin, Planck-satelliitin, vuosina 2009-2013 tekemien mittausten tuloksena saatu koko taivaan kattava kosmisen mikroaaltotaustasäteilyn kartta.  Kosminen taustasäteily syntyi kun maailmankaikkeuden ikä oli 370 000 vuotta.  Maailmankaikkeuden ikä on nyt noin 13,8 miljardia vuotta, joten taustasäteily ollut matkalla kauan eli se on kulkenut hyvin pitkän matkan.  Kosminen taustasäteily näyttää universumin kaukaisimmat meille näkyvät osat sellaisina kuin ne olivat tuossa nuoressa iässä.  Nämä muodostavat havaittavan maailmankaikkeuden reunan – sen kauemmaksi emme näe, koska ensimmäiset 370 000 vuotta maailmankaikkeuden täyttävä aine oli läpinäkymätöntä plasmaa, vapaita elektroneja, protoneja ja alfa-hiukkasia (helium-ytimiä).   Kosminen taustasäteily vapautui, kun nämä yhtyivät läpinäkyväksi vety- ja heliumkaasuksi.  Kosminen taustasäteily siis kertoo erityisesti varhaisesta maailmankaikkeudesta, sen rakenteesta ja koostumuksesta.   Sen perusteella tiedämme kuinka paljon maailmankaikkeudessa on tavanomaista, siis protoneista, neutroneista ja elektroneista koostuvaa ainetta, ja kuinka paljon on niin sanottua pimeää ainetta.

Koska kosminen taustasäteily on kulkenut läpi koko havaittavan maailmankaikkeuden ja lähes koko sen historian, se kertoo myös jotain maailmankaikkeuden geometriasta ja historiasta: siitä saadaan nimittäin määritettyä havaittavan maailmankaikkeuden reunan niin sanottu kulmahalkaisijaetäisyys hyvin suurella tarkkuudella.  Kulmahalkaisijaetäisyyden määritelmä on havaitun kohteen halkaisija jaettuna sillä kulmalla missä se näkyy.  Jos maailmankaikkeus ei laajenisi ja sen geometria ei ole kaareva, kulmahalkaisijaetäisyys olisi sama kuin todellinen etäisyys.  Käyttämällä hyväksi myös muita kosmologisia havaintoja saamme tietoa maailmankaikkeuden laajenemishistoriasta ja kaarevuudesta ja voimme määrittää mm. maailmankaikkeuden iän.  Kaarevuus on niin vähäistä, että sitä ei ole ainakaan toistaiseksi havaittu – sanomme, että maailmankaikkeus on “laakea”: siis ei kaareva, vaan noudattaa eukleidista kolmiulotteista geometriaa.

Jos tunnetaan punasiirtymän ja etäisyyden välinen yhteys, siitä saadaan maailmankaikkeuden laajenemishistoria: punasiirtymä kertoo suoraan kuinka paljon avaruus on laajentunut sinä aikana kun valo on ollut matkalla ja etäisyys taas on yhteydessä siihen, kuinka kauan aikaa tähän on kulunut.  Punasiirtymä saadaan kohteen spektristä; ongelmaksi jää etäisyyden määritys.  Pääasiallinen menetelmä kosmologisten etäisyyksien määrittämiseksi on perustunut ns. standardikynttilöihin: kohteisiin, joiden voi olettaa olevan keskenään samanlaisia niin, että niiden havaittu kirkkausero on kääntäen verrannollinen niiden etäisyyden neliöön.  Suurille etäisyyksille tähän on käytetty ns. tyypin Ia supernovia. 

Tällaisten supernovahavaintojen perusteella saatiin 1990-luvun loppupuolella selville, että laajenemien on ollut kiihtyvää viimeiset 6 miljardia vuotta.  Tämä oli odottamaton tulos, sillä oli pidetty selvänä, että painovoiman vuoksi laajenemisen täytyy hidastua.  Selitykseksi on ehdotettu uutta universumin täyttävää energiakomponenttia, ns. pimeää energiaa, tai painovoimalain (yleisen suhteellisuusteorian) korjaamista kosmologisilla etäisyyksillä.  Kummassakaan selityskategoriassa ei teoreetikoilla tunnu olevan tarjolla kovin luontevia teoriakandidaatteja.  Jotta pääsisimme asiassa eteenpäin, täytysi laajenemishistoria määrittää mahdollisimman tarkasti.

Ongelma tässä on, että oikeasti supernovat eivät ole keskenään täysin samanlaisia.  Siksi niistä määritetty laajenemishistoria jää epätarkaksi.  Tämä on esimerkki monia kosmologisia havaintoaineistoja vaivaavasta ongelmasta: emme havaitse suoraan kosmologisia suureita, vaan arvioimme niitä astrofysikaalisten kohteiden perusteella ja kosmologisten suureiden määritykseen jää näiden kohteiden vajavaisesti tunnetun monimutkaisen astrofysiikan aiheuttama epävarmuus.  Kosmisen taustasäteilyn havainnot ovat juuri siksi parasta nykyistä kosmologista dataa, että niistä lähes puuttuu tällainen astrofysikaalinen epävarmuus.

Onneksi supernovien tilalle kosmologia tarjoaa standardimittatikun, jota ei vaivaa astrofysikaalinen epävarmuus. 

Varhaisen maailmankaikkeuden plasman tiheysvaihtelut aaltoilivat painovoiman ja säteilypaineen vaikutuksesta.  Tämä aaltoilu lakkasi, kun säteily vapautui, mutta siitä jäi jäljelle aineen tiheysvaihtelu, missä korostuu tietty etäisyys, ns. baryonien akustisen oskillaation (BAO) skaala, joka vastaa sitä aallonpituutta, joka oli juuri saavuttanut maksimikorkeutensa kun aaltoilu lakkasi.  Tämä BAO-skaala on noin 500 miljoonaa valovuotta universumin mukana laajenevissa koordinaateissa (kun se syntyi, se oli noin 500 000 valovuotta todellista etäisyyttä –  maailmankaikkeus on sen jälkeen laajentunut noin tuhatkertaiseksi).  Kun kartoitamme tarkasti galaksien kolmiulotteisen jakauman, tämä BAO-skaala tulee siinä esille. 

Suuremmilla etäisyyksillä BAO-skaala näkyy pienemmässä kulmassa.  Saamme selville punasiirtymän ja etäisyyden välisen yhteyden kun määritämme, missä kulmassa BAO-skaala näkyy minkäkin punasiirtymän galakseille.  BAO-skaala ei ole kovin voimakkaasti korostunut, joten tällainen määritys edellyttää miljoonien galaksien punasiirtymän mittausta, jotta saadaan riittävän suuri aineisto BAO-skaalan tilastolliseen määrittämiseen.

Laajenemishistorian määrittäminen ei vielä riitä ratkaisemaan kumpi selitysmalli laajenemisen kiihtymiselle, pimeä energia vai painovoimalain muuttaminen, on oikea.  Sama laajenemishistoria voidaan näet toteuttaa kummallakin tavalla.  Näiden erottamiseen toisistaan tarvitaan toisenlaisia havaintoja.  Maailmankaikkeuden suuren mittakaavan rakenteet, siis galaksien jakauman tihentymät ja harventumat, ovat muodostuneet painovoiman vaikutuksesta alkuavaruuden pienistä tiheysvaihteluista (samoin ovat muodostuneet pienemmät rakenteet, kuten galaksit ja tähdet, mutta tässä meitä kiinnostavat suuret skaalat).  Universumin laajeneminen jarruttaa näiden rakenteiden kasvua.  Jos painovoimalaki on annettu, laajenemishistorian ja rakenteiden kasvuhistorian välillä on yksikäsitteinen vastaavuus.   Mutta jos muutamme painovoimalakia, tämä vastaavuus muuttuu.  Laajenemisen kiihtymisen kaksi selitysmallia voidaan siis erottaa toisistaan mittaamalla tarkasti sekä laajenemishistoria että rakenteiden kasvuhistoria.

Rakenteiden kasvuhistorian tarkkaan mittaamiseen ei riitä tutkia näkyvien galaksien jakautumaa eri etäisyyksillä, vaan meidän tarvitsisi saada selville koko massajakauma, mitä dominoi pimeä aine.  Massajakauman määrittämiseen voidaan käyttää gravitaatiolinssi-ilmiötä.   Kun valo kulkee kaukaisista galakseista meitä kohti, se ohittaa universumin rakenteiden massatihentymiä, jotka painovoimallaan taivuttavat valon kulkua.  Lopputulos on, että näemme kaukaiset galaksit vääristyneinä.  Tämä vääristymä on suhteessa siihen kuinka paljon yli- ja alitiheyttä valon matkalla oli yhteensä.  Määrittämällä tämä vääristymä kaikissa suunnissa ja havaittuen galaksien etäisyyden funktiona, voidaan ratkaista universumin kolmiulotteinen massajakauma, missä kaukaisemmat osat ovat kauempana menneisyydessä.  Koska oletamme että rakenteet ovat kiinnitettynä ajanhetkenä tilastollisesti samanlaisia kaikissa avaruuden osissa, saamme näin rakenteiden kasvuhistorian.

Ongelma on, että galaksista saamamme kuvan vääristymän määrittämiseksi meidän pitäisi tietää galaksin todellinen muoto; sitä emme kuitenkaan tiedä.  Lisäksi useimpien galaksien kohdalla tämä vääristymä on vain prosentin tai parin luokkaa (tällöin puhutaan heikosta gravitaatiolinssi-ilmiöstä, weak lensing, WL).  Tällaiset pienet vääristymät ilmenevät kuvan venymisenä johonkin suuntaan.  Siksi määritys on tehtävä tilastollisesti.  Likimain samasta suunnasta on havaittava suuri määrä galakseja.  Galaksien todelliset asennot ovat oletettavasti määräytyneet satunnaisesti, joten jos niiden kuvat ovat voittopuolisesti pitkulaisia yhteen suuntaan, tämä on merkki siitä että gravitaatiolinssi-ilmiö on venyttänyt kuvia siihen suuntaan.

2000-luvun alussa alkoi selkiytyä, että merkittävimmät kosmologian edistysaskeleet Planckin taustasäteilyhavaintojen jälkeen olisivat saavutettavissa isoilla panostuksilla BAO-skaalaan ja gravitaatiolinssi-ilmiöön kohdistuvilla galaksikartoituksilla.  Tällä hetkellä suuret tällaiset havaintoaineistot ovat peräisin maanpäällisistä observatorioista.  BAO-skaalan osalta tärkeimmät ovat BOSS (Baryon Oscillation Spectroscopic Survey) ja eBOSS (extended …), osa laajaa SDSS-projektia (Sloan Digital Sky Survey, http://www.sdss.org/), ja gravitaatiolinssien osalta KiDS (Kilo-Degree Survey, http://kids.strw.leidenuniv.nl/) ja DES (Dark Energy Survey, https://www.darkenergysurvey.org/).  Oli kuitenkin heti selvää, että parhaiden tulosten saavuttamiseksi olisi teleskoopit lähetettävä avaruuteen.  Ilmakehä häiritsee pahasti erityisesti galaksien muotojen tarkka mittaamista, vääristäen niitä omalta osaltaan.  Myös kaukaisempien galaksien punasiirtymän määrittäminen on vaikeampaa maan päältä; punasiirtymä on nimittäin siirtänyt voimakkaimmat spektriviivat infrapuna-alueelle, missä ilmakehä absorboi ison osan säteilystä.

Niinpä sekä Euroopassa (ESA), että Yhdysvalloissa (NASA) alettiin valmistella avaruusmissiota, jonka fokus olisi tässä ns. pimeän energian ongelmassa: miksi avaruuden laajeneminen kiihtyy.  Tarvitaan mahdollisimman laaja ja syvä galaksikartoitus, jossa mitataan tarkasti mahdollisimman monen galaksin muoto ja punasiirtymä; reunaehtona kustannuskatto, joka rajoittaa kuinka suuri laite voidaan avaruuteen lähettää.  Tarvittava laite on laajakulmainen optisen ja infrapuna-alueen avaruusteleskooppi.  ESAn projektin nimeksi tuli Euclid eurooppalaisen antiikin matemaatikon Eukleideen mukaan;  Eukleides tutki geometriaa ja Euclid määrittää universumin geometriaa.  NASAn projektin työnimenä oli WFIRST (Wide-Field Infrared Survey Telescope); NASA teki päätöksen sen toteuttamisesta vuonna 2016 ja vuonna 2020 se sai viralliseksi nimekseen Nancy Grace Roman Space Telescope (https://www.nasa.gov/content/goddard/nancy-grace-roman-space-telescope) NASAn edesmenneen pääastronomin mukaan.  Roman-avaruusteleskoopin laukaisu avaruuteen on suunniteltu vuoteen 2025.

ESA teki päätöksen Euclid-projektin toteuttamisesta vuonna 2011.  Tunnustelut Suomen osallistumisesta projektiin alkoivat vuonna 2009, kun eräs italialainen kollegani Planck-projektista, joka oli siirtynyt vastuutehtäviin Euclidissa, otti minuun yhteyttä kysyen mahdollisesta Suomen kiinnostuksesta.  ESAn tiedeprojektit ovat ESAn ja kansallisten avaruusorganisaatioiden yhteisprojekteja.  ESA rahoittaa avaruuteen laukaistavan satelliitin rakentamisen, sen laukaisun ja operoinnit ja kansalliset organisaatiot rahoittavat satelliittiin tulevat mittalaitteet ja havaintodatan analyysin ja siihen tarvittavat tietokonelaitteistot.   Projektiin mukaan pääseminen edellytti Suomen osallistuvan johonkin näistä.  ESA rahoittaa myös teleskoopin, joka on halkaisijaltaan 1,2 metriä.  Kansalliset organisaatiot rahoittavat Euclidin instrumentit, jotka ovat infrapuna-alueen kuvia ottava ja spektrejä mittaava NISP (Near Infrared Spectrometer and Photometer) ja näkyvän valon alueella kuvia ottava VIS (visual imager).  

Kuva 2: Euclid rakenteilla. VIS-instrumentti on vasemmalla mustalle eristekalvolla päällystettynä, NISP-instrumentti ylhäällä kultakalvolla päällystettynä. Kuva on vuoden 2020 heinäkuulta. (Credit: Airbus)

Selvitimme suomalaisen teollisuuden mahdollisuutta osallistua NISP-instrumentin rakentamiseen, mutta osoittautui, että siihen ei ollut saatavissa Suomesta rahoitusta.  Suomen osuudeksi tuli osallistua havaintodatan analyysiin ja tietokonelaitteistoon: sovittiin, että Suomeen perustetaan yksi Euclidin tiededatakeskuksista (Science Data Center, SDC).   Suomi hyväksyttiin (yhdessä Tanskan ja Romanian kanssa) Euclid-konsortion uusiksi jäsenmaiksi vuonna 2011 samalla kun ESA päätti toteuttaa mission.  Alkuperäisiä jäseniä oli yhdeksän Euroopan maata.  Myöhemmin on mukaan hyväksytty vielä kaksi Euroopan maata, Yhdysvallat ja Kanada, joten kaikkiaan jäsenmaita on nyt 16.  Yhdeksällä näistä on oma Euclid-tiededatakeskus. 

Suomesta Euclidiin osallistuu viisi yliopistoa: Helsingin, Turun, Jyväskylän ja Oulun yliopistot sekä Aalto-yliopisto. 

Datakeskuksemme, SDC-FI, toimii CSC:n tiloissa sen Kajaanin datakeskuksessa ja sitä rahoittavat Suomen Akatemia ja osallistuvien yliopistojen ja CSC:n muodostama konsortio.  Tällä hetkellä laitteistossa on 26 laskentanoodia (noin 1000 laskentaydintä) ja noin 200 teratavua tallennustilaa.  Laitteistoa täytyy vielä merkittävästi laajentaa ja erityisesti tallennustilaa kasvattaa useihin petatavuihin, jotta voimme analysoida osuutemme Euclidin datasta.  Tarkoitus on, että kaikissa datakeskuksissa toimii sama analyysiohjemisto ja data jaetaan eri maiden kesken, siten että kukin maa analysoi oman osansa taivasta. Suomen osuudeksi on alustavasti sovitttu 5% datasta.  Analyysin loppuvaihe kohdistuu koko aineiston kattaviin galaksiluetteloihin, joten siinä vaiheessa jakoperiaate ei enää mene taivaanosittain.

Tässä vaiheessa projektissa kehitetään datan analyysimenetelmiä ja testataan niitä simuloidulla datalla.  Fysiikan tutkimuslaitoksessa toimiva Euclid-ryhmä on SDC-FI:n operoinnin lisäksi vastuussa erityisesti NISP-instrumentin datan simuloinnista ja galaksien kaksipistekorrelaatiofunktion määrittämiseen käytettävän menetelmän kehitttämisestä.   BAO-skaala havaitaan piikkinä kaksipistekorrelaatiofunktiossa, joten se on yksi Euclidin keskeisimmistä tuloksista.  Kosmologisten parametrien määrittäminen datasta edellyttää huolellisia datan virhearvoita; tätä varten on määritettävä kaksipistekorrelaation kovarianssimatriisi, mikä edellyttää kaksipistekorrelaation määrittämisestä tuhansista simuloiduista Euclid-datarealisaatioista.  Tämä uhkasi dominoida koko Euclid-data-analyysin laskentabudjettia; mutta olemme onnistuneet tekemään koodista kymmenen kertaa nopeamman optimoimalla käytettyä algoritmia. Euclid-satelliitti on jo lähes valmis: teleskooppi ja instrumentit ovat valmiina ja tällä hetkellä on käynnissä niiden testaus ja integrointi yhteen.  Satelliitin laukaisu on suunniteltu tehtäväksi Soyuz-kantoraketilla ESAn avaruuskeskuksesta Kourosta, Ranskan Guyanasta, lähellä päiväntasaajaa.

Hannu Kurki-Suonio
Yliopistonlehtori, projektipäällikkö (EUCLID)
Helsingin yliopisto ja Fysiikan tutkimuslaitos

Merituulen tuoksahdus CERN:issä – CLOUD kokeessa tutkitaan ilmakehän pienhiukkasten muodostumista

CERN:issä tutkitaan muitakin hiukkasia kuin alkeishiukkasia. Aerosolihiukkasiksi kutsutaan ilmassa leijuvia kiinteitä tai nestemäisiä pienhiukkasia, joiden koko vaihtelee molekyylitasolta eli noin nanometrin kokoluokasta kymmeniin mikrometreihin. Aerosolihiukkaset vaikuttavat ilmastoon sirottamalla ja absorboimalla auringonsäteilyä, sekä osallistumalla pilvien muodostumiseen. Suurina pitoisuuksina aerosolihiukkaset huonontavat ilmanlaatua ja lisäävät kuolleisuutta keuhko- ja verisuonisairauksiin.

Tutkimme aerosolihiukkasten syntyä CERN:issä sijaitsevan CLOUD kammion avulla. CLOUD (Cosmics Leaving Outdoors Droplets) projektin tavoitteena on ymmärtää paremmin niitä fysikaalisia ja kemiallisia prosesseja, joiden seurauksena aerosolihiukkasia muodostuu ilmakehässä. Eräs hiukkasmuodostukseen vaikuttavista tekijöistä on kosminen säteily, joka synnyttää ilmakehässä ioneja. CERN:in protonisynkrotronin avulla voimme säädellä tutkimuskammiossa muodostuvien ionien määrää ja siten simuloida olosuhteita ilmakehän eri korkeuksilla.

Kuva 1. CLOUD kammio CERN:issä mittauslaitteistojen ympäröimänä.

Tutkimuskammioon syötettävä ilma sekoitetaan hapesta ja typestä, jonka jälkeen seokseen lisätään tarvittava määrä hivenkaasuja, kuten otsonia ja vesihöyryä. Kammion ja kokeissa tarvittavan kaasuseoksen on oltava äärimmäisen puhtaita. Aiemmissa kokeissa osoitimme, että erittäin pienet pitoisuudet (jopa pptv) tiettyjä emäksiä, kuten ammoniakkia ja amiineja, voivat ratkaisevasti vaikuttaa hiukkasmuodostukseen.

Viime aikoina olemme tehneet kokeita, joiden tarkoitus on selvittää muodostuuko hiukkasia merestä peräisin olevista kaasumaisista yhdisteistä. Biologinen toiminta merissä tuottaa jodia ja rikkiä sisältäviä yhdisteitä, esimerkiksi dimetyylisulfidia, joka aiheuttaa merivedelle ominaisen hajun. Näiden yhdisteiden tietyt hapetustuotteet voivat muodostaa aerosolihiukkasia, mutta mekanismi on mittausdatan puuteen vuoksi vielä huonosti tunnettu, vaikka meret peittävät suurimman osan maapallosta! Ensimmäisiä tuloksia meriin liittyvästä mittaussarjasta odotetaan julkaistavaksi pian.

Toinen uusi aluevaltaus CLOUD projektille on jäänukleaatiotutkimus. Kylmässä ilmassa jääkiteitä voi alkaa muodostua suoraan aerosolihiukkasten pinnalle, mikä on pilvien syntymisen ja siten ilmaston kannata oleellinen prosessi. Hiukkasten koostumus vaikuttaa niiden kykyyn toimia jäänukleaatioytiminä. Mittaussarjan avulla pyrimme vastaamaan kysymykseen siitä mitkä ilmakehässä muodostuneista hiukkasista voisivat toimia jäänukleaatioytiminä.

Kuva 2. CLOUD projektin väitöskirjatutkijat pääsivät osallistumaan järjestämäämme talvikouluun Hyytiälässä viime keväänä juuri ennen pandemiarajoitusten alkua.

Katrianne Lehtipalo
Apulaisprofessori
INAR Helsingin Yliopisto ja Ilmatieteen laito
s