Kaasutäytteisten säteilynilmaisinten kehitystyö HIPissä ja sen edeltäjissä

Kaasutäytteisiä säteilynilmaisimia käytetään laajasti radioaktiivisen säteilyn mittaamiseen. Tämän tyypin ilmaisimissa säteily irrottaa täytekaasun atomeista elektroneja, jotka kerätään ilmaisimeen liitettyyn lukuelektroniikkaan, jolloin saadaan tietoa säteilyn ominaisuuksista. Fysiikan tutkimuslaitoksessa (HIP) ja sen edeltäjissä on tutkittu ja kehitetty kaasutäytteisiä ilmaisimia kansainvälisiin tieteen suurhankkeisiin jo vuosikymmenten ajan. Alkupiste kaasutäytteisten säteilynilmaisinten tutkimus- ja kehitystoiminnalle  voidaan ajoittaa 1980-luvun puoliväliin, kun Fysiikan tutkimuslaitoksen edeltäjä Suurenergiafysiikan laitos (SEFL) liittyi mukaan CERNin LEP-hankkeeseen. Laitokseen perustettiin ryhmä osallistumaan DELPHI-koeaseman hadronikalorimetrin soihtumoodissa toimivien lankakammioilmaisinten suunnitteluun, testaukseen ja myös itse kokoonpanoon suomalaisen muoviteollisuuden avustuksella (ks. kuva). Tätä varten perustettiin tarvittava infrastruktuuri Siltavuorenpenkereen laboratorioon ja myöhemmin v. 1987 Otaniemen uuteen teknologiakylään. Ilmaisinmoduulit tarkkuusmuoviosineen toimitettiin CERNiin vv. 1986-87 [1].

Soihtuilmaisinmoduuli DELPHI-koeasemaan [kuva Jouni Heino].

Kaasutäytteisten ilmaisinten kehitystyö jatkui 1990-luvun alussa perustetun Suurenergiafysiikan tutkimuslaitoksen (SEFT) Otaniemen teknologiakylän naapuriin valmistuneen uuden Innopoli-rakennuksen avarissa laboratoriotiloissa. Tutkittavat tekniikat olivat pääasiassa yksi- ja monilankakammiot samaten kuin uudet mikronauha-kaasuilmaisimet (MSGC), joista toivottiin vaihtoehtoa suuren hiukkassäteilyintensiteetin olosuhteissa. Hyvin merkittävä tutkimushaara oli myös Kari Kurvisen käynnistämä ns. ikääntymistutkimus kaasutäytteisillä ilmaisimilla. Samaten jatkettiin geneeristä ilmaisintutkimusta.

Samoihin aikoihin, kun Fysiikan tutkimuslaitos (HIP) perustettiin (syksy 1996), ilmaantui myös uudenlainen, mikrokuvioitu kaasuilmaisinteknologia. Tämä Fabio Saulin kehittämä ilmaisin sai nimekseen GEM (Gas Electron Multiplier) eli kaasuelektronimonistin. GEM-ilmaisimen rakenne on hyvin yksinkertainen. Sen tärkein osa on ohut komposiittikalvo (ks.kuva), joka koostuu eristävästä muovikalvosta (paksuus 50 – 75 um) ja sen molemmilla puolilla olevasta metallipinnoitteesta (paksuus n. 5 um). Komposiittikalvon läpi on lisäksi työstetty erittäin tiheä, säännöllinen reikäkuviointi. Metallipinnoitteiden välille on kytketty suurjännite, joka saa aikaan hyvin voimakkaan sähkökentän reikien sisälle, joka moninkertaistaa jo ionisaation yhteydessä syntyneiden, alkuperäisten elektronien määrän. Varauspilvi kerätään lopuksi erillisen sähkökentän avulla lukulevylle, josta saadaan selville tulevan säteilyn paikka- ja energiainformaatio.

Leikkauskuva kaasuelektronimonistinkalvosta (GEM) simuloiden elektronivyöryä yhden reiän sisällä. Valkeat jäljet esittävät monistuvien elektronien kulkua ja keltaiset positiivisesti varautuneita ioneja. [kuva Timo Hilden]

Vuonna 2001, kun Fysiikan tutkimuslaitos sai uudet, keskitetyt tilat Kumpulan kampuksen uudesta Physicum-rakennuksesta, myös Ilmaisinlaboratorio sai paremmat laboratoriotilat laajoine puhdastiloineen. Tämä mahdollisti entistä paremmat mahdollisuudet osallistua erilaisiin, suurten hiukkastutkimuskeskusten kokeellisiin ilmaisinhankkeisiin.

TOTEM T2

Vuodesta 2004 lähtien CERNin LHC-törmäyttimen TOTEM-kokeeseen alettiin suunnitella GEM-ilmaisimiin perustuvaa, varattujen hiukkasten havaitsemiseen tarkoitettua teleskooppia (T2). T2 koostui 40:stä yksittäisestä kolmois-GEM -ilmaisimesta nauha- ja pad-signaalinlukupiireineen siten, että molemmin puolin törmäyspistettä IP5, n. 14 metrin etäisyydelle etusuunnassa, oli sijoitettu 20 puoliympyrän muotoista GEM-ilmaisinta. HIPin TOTEM-ryhmän vastuulla tässä kollaboraatiossa oli kaikkien näiden ilmaisinkomponenttien laadunvarmistus, kokoonpano ja ensimmäiset toimintatestausmittaukset. Tämä työ tehtiin pääosin Ilmaisinlaboratorion puhdastiloissa yhteistyössa ukrainalaisen (Harkov) instituutin työntekijöiden kanssa. Kaikki 40 kolmois-GEM -ilmaisinta (+10 varailmaisinta) saatiin rakennetuksi ja asennetuksi toimintavalmiiksi (ks. kuva) ensimmäisiin TOTEM-ajoihin v. 2009 [2].

Ilmaisinlaboratoriossa kokoonpantu ja testattu T2-ilmaisinyksikkö valmiina kuljetettavaksi CERNiin [kuva Jouni Heino].
T2-teleskoopin 20 GEM-ilmaisinta (10+10) valmiina yhteenpakattavaksi ja paikalleen työnnettäväksi beamiputken ympärille [kuva Jouni Heino].

GEM TPC -prototyyppi

Vireillä oli myös yritys osallistua Saksassa, Darmstadtissa sijaitsevan FAIR (Facility for Antiproton and Ion Research) -tutkimuskeskuksen PANDA (antiProton ANnihilations at DArmstadt) -kokeeseen. Tätä varten valmistettiin GEM-teknologiaan perustuva ajautumiskammio (TPC) -prototyyppi PANDAn kohtiospektrometrin ulompaan ratailmaisimeen.

Kuitenkin vuonna 2008 tehtiin päätös jättää tämä PANDA-yhteistyö ja keskittyä FAIRin NUSTAR (NUclear STructure, Astrophysics and Reactions) -kokeen Super FRS (Super FRagment Separator) -projektiin.

GEM-ilmaisimiin perustuva kaksois-ajautumiskammio (Twin-TPC) FAIRiin

Ollen nyt virallisesti mukana FAIRiin suunnitellussa Super FRS -hankkeessa laboratoriossa kehitettiin ja valmistettiin Francisco Garcian johdolla kaksois-GEM-TPC -prototyyppi jäljitys- ja diagnostiikkatarkoituksiin. Kukin ilmaisinyksikkö koostui kolmois-GEM -kammiosta ja signaalinlukusysteemistä, joka perustui GMX-NYXOR -lukuelektroniikkakortteihin [3].

GEM-tekniikkaan perustuva kaksois-TPC -prototyyppi 2 (HGB4-2) testisäteilytyksessa GSI/FAIR:ssä, Darmstadtissa [kuva Francisco Garcia].

Tällä hetkellä tilanne on sellainen, että yhteistyösopimuksen mukaan viisi GEM-TPC -ilmaisinta tullaan rakentamaan Ilmaisinlaboratorion puhdastiloissa.

TPC-ilmaisinpäivitys CERNin ALICE-koeasemaan

Vuonna 2013, Eija Tuomisen johtama HIPin Ilmaisinlaboratorio käynnisti ALICEn ajautumiskammio-ilmaisinten (TPC) päivityshankkeen [4]. ALICE-kollaboraatio päätti päivittää vanhat lukukammiot (ReadOut Chambers eli ROCs), jotka perustuivat vielä porttimoodissa toimiviin monilankakammioihin. Tulossa olevaa LHC:n kolmatta ajoa (Run 3) varten uudet kammiot rakennettiin käyttäen jatkuvatoimiseen signaalinlukuun perustuvaa GEM-teknologiaa. HIP oli sopinut ottavansa vastuulleen GEM-kalvojen laadunvarmistuksen (yhteensä n. 180 m2), jotka tarvittiin TPC:n kahden päätykannen varustamiseen. Tässä hyödynnettiin aikaisempaa kokemusta TOTEMin T2-teleskoopin tuotannosta.Laadunvarmistusmetodeja kehitettiin edelleen vastaamaan uusia tarkkuusvaatimuksia. Muun muassa kehitettiin optinen tarkkuusskanneri (ks. kuva), jota käytettiin kirjaimellisesti kuvaamaan ja mittaamaan joka ainoa GEM-kalvojen reikä, joita yhdellä tyypillisellä kalvolla oli n. 10 miljoonaa kpl. HIPissä tehdyn tutkimuksen [5,6] perusteella voitiin osoittaa, että GEM-kalvojen vahvistusaste paikallisesti pystytään menestyksellisesti ennustamaan reikien geometristen ominaisuuksien perusteella.

Laboratorion henkilökunnan operoima optinen tarkkuusskanneri, jota käytettiin ALICEn TPC-lukukammioiden (ROCs) laadunvarmistukseen [kuva Erik Brücken].

GEM-kalvoja skannattiin ja testattiin HIPissä yli kahden ja puolen vuoden ajan ja ne lähetettiin edelleen kokoonpanokeskuksiin, joissa ne viimeisteltiin ja testattiin. Tätä nykyä TPC on täysin asennettu ja valmis datan keruuseen.

Kaasutäytteiset ilmaisimet opetuskäytössä

Vuoden 2010 vaiheilla alettiin Rauno Lauhakankaan ja Timo Hildenin johdolla rakentaa yksinkertaisia verrannollisuuslaskureita (proportional counters) opetustarkoituksiin käyttäen materiaalina poisheitettyjä, tavallisia metalliputkia. Tarvittavan sähkökentän luomiseen ja sähkövarausta keräävänä anodi-elektrodina käytettiin 25 um:n paksuista kupari-beryllium -lankaa. Säteilytysikkuna pehmeille röntgensäteille tehtiin poraamalla reikä putken sivulle ja peittämällä se ohuella Mylar-muovikalvolla. Putkenkappaleen päädyt tulpattiin muovikorkeilla jättäen läpiviennit korkeajännitteen syötölle ja kaasuletkulle.

Nämä säteilynilmaisimet toimivat erittäin hyvin, jolloin päätettiin tehdä tästä oma, erillinen laboratoriotyöharjoitus opiskelijoille. Samoihin aikoihin oli käynnistetty uusi, pohjoismainen, ionisoivan säteilyn ilmaisimia käsittelevä intensiivikurssi (Nordic Detector Course). Kurssin teoriaosuus käytiin ensin läpi Kööpenhaminassa ja Tukholmassa, jota seurasi viikon käytännöllinen harjoitusjakso HIPin Ilmaisinlaboratoriossa. Täällä kukin opiskelijaryhmä rakensi itse omat verrannollisuuslaskurinsa, testasi niiden toimivuuden ja raportoi tuloksistaan. Seuraavan tason verrannollisuuslaskureissa käytettiin vielä enemmän kierrätysmateriaaleja, kuten esim. tyhjiä olut- ja virvoitusjuomatölkkejä (ks. kuva) ja poisheitettyjen sähköjohtojen säikeitä, halkaisjaltaan 50 – 100 um. Yksityiskohtaisempi selvitys näistä ilmaisimista löytyy viitteestä [7]. Tarkoitus oli siis levittää ideaa opiskelijakoulutukseen soveltuvasta, erittäin edullisesta, tee-se-itse säteilynilmaimesta. Tästä tuli huikea menestystarina opiskelijoiden keskuudessa, joka päätyi viralliseksi, Erik Brückenin vetämäksi laboratoriokurssiksi (PAP328), nimeltään “Instrumentoinnin laboratoriokurssi” ( Laboratory Course on Instrumentation). Pääasiana oli siis omin käsin rakentaa toimiva säteilynilmaisin ja testata sekä karakterisoida se huippuluokan laboratoriolaitteilla. Tämän kurssin läpäisevät opiskelijat ovat siten hyvin valmistautuneita tekemään esim. gradu-tutkielmansa suurenergiafysiikan instrumentoinnissa.

Opiskelijan (Joshua Reed) virvoitusjuomatölkistä valmistama verrannollisuuslaskuri [kuva Erik Brücken].

Mitä sitten tulee kaasutäytteisten ilmaisinten nykyiseen käyttöön ionisoivan säteilyn havaitsemiseen varsinkin suurissa CERNin LHC- ja BNL:n RHIC-kokeissa, joissa niitä käytetään jäljitykseen ja myonien tunnistukseen, niin voidaan sanoa tämän teknologian olevan nyt huipussaan. Nopeus- ja tarkkuusominaisuuksissa puolijohteisiin perustuvilla ilmaisimilla on monia etuja puolellaan, mutta hinnat ovat edelleen paljon korkeammat kuin kaasutäytteisillä. Tämä näkyy varsinkin silloin, kun ilmaisimilta vaaditaan suurten pinta-alojen kattamista. Kaasutäytteiset detektorit voivat toisaalta toimia myös nopeina ajoitusilmaisimina. Tämän on osoittanut viime vuosina esim. CERNin RD51-ohjelman Picosec Micromegas -kollaboraatio, jossa HIP on mukana. Micromegasilla tarkoitetaan siis jälleen yhtä erilaista versiota kaasutäytteisistä säteilynilmaisimista. Tässä ryhmässä Micromegas-ilmaisinta käytetään yhdessä Cherenkov-säteilijän ja valokatodin kanssa havaitsemaan läpikulkevia hiukkasia noin 10 ps:n aikaresoluutiolla. 

Jouni Heino
laboratorioinsinööri
Helsingin yliopisto, Fysiikan tutkimuslaitos

Erik Brücken
yliopistonlehtori, tutkija HIP-projekti (
CMS Upgrade)
Helsingin yliopisto, Fysiikan tutkimuslaitos

[1] J. Tuominiemi, Kuplakammiofysiikasta Higgsin bosoniin – Suomalaisen kokeellisen hiukkasfysiikan viisi ensimmäistä vuosikymmentä, Fysiikan tutkimuslaitos, Lahti 2018.
[2] T. Hilden et. al., The TOTEM T2 GEM detector assembly and quality assurance, JINST 4 (2009), P11020.
[3] F. García et al., A GEM-TPC in twin configuration for the Super-FRS tracking of heavy ions at FAIR, Nucl. Instrum. Meth. A 884 (2018), 18.
[4] J. Adolfsson et al. (ALICE TPC Collaboration), The upgrade of the ALICE TPC with GEMs and continuous readout, JINST 16 (2021) 03, P03022, doi:10.1088/1748-0221/16/03/P03022.
[5] T. Hildén et al., Optical quality assurance of GEM foils, Nucl. Instrum. Meth. A 770 (2015), 113.
[6] E. Brücken et al.,Hole Misalignment and Gain Performance of Gaseous Electron Multipliers, Nucl. Instrum. Meth. A 1002 (2021) 165271. [7] A. Winkler, et al., A gaseous proportional counter built from a conventional aluminium beverage can, Am. J. Phys. 83 (2015) 733, doi:10.1119/1.4923022.

Magneettisia monopoleja ja muita eksoottisia hiukkasia

Magneettiset monopolit ovat hiukkasia, jotka tavallisesta magneetista poiketen omaavat vain yhden navan – niillä on joko pohjois- tai etelänapa, mutta ei molempia. Ne eivät ole kuitenkaan hiukkasia, jotka synnyttäisivät magnetismin – tämä johtuu sähkövarauksellisten hiukkasten liikkeestä ja alkeishiukkasten magneettisesta momentista. Magneettisia monopoleja ei ole havaittu, mutta useat teoriat ennustavat hiukkasten olemassaolon.

Fysiikan tutkimuslaitos on mukana Cernin MoEDAL-kokeessa [1], joka etsii magneettisia monopoleja ja muita eksoottisia hiukkasia LHC-kiihdyttimellä. MoEDAL poikkeaa muista kiihdyttimelle asennetuista kokeista sillä, että se koostuu pääosin passiivisista ilmaisimista. Kokeen ilmaisimet ovat magneettisten monopolien loukku -ilmaisimet (Magnetic Monopole Trapper, MMT), sekä ydinjälki-ilmaisimet (Nuclear Track Detector, NTD) [2].

MoEDAL-kokeen monopoliloukut ja ydinjälki-ilmaisimet aseteltuina LHC-kiihdyttimen törmäyspiste 8:n ympäristöön. Kuvan keskellä on LHCb-kokeen VELO-ilmaisin (Kuva: MoEDAL-kollaboraatio).

Monopoliloukut ovat alumiiniharkkoja, joita on kasattu eri puolille hiukkassuihkujen törmäyspistettä. Alumiinilla on suuri magneettinen ydinmomentti, joten se voi kaapata ohi kulkevan monopolin sisäänsä. LHC:in ajojen päätyttyä törmäyksille altistetut harkot analysoidaan herkällä magnetometrillä, joka kykenee havaitsemaan monopolin tuottaman poikkeaman alumiinin magneettisissa ominaisuuksissa. Monopolin loukkuuntuminen harkkoon on käytännössä pysyvä, joten mikäli magnetometri havaitsisi poikkeaman harkon ominaisuuksissa, voitaisiin se kuljettaa analysoitavaksi toisilla laitteilla, joiden myös tulisi antaa samanlainen signaali.

Vasemmalla esimerkki laatikoista, joita on kasattu monopoliloukkujen sisään. Oikealla LHC-ympäristöön asennettu loukku, joka sisältää 14–18 laatikkoa (Kuva: MoEDAL-kollaboraatio).

Ydinjälki-ilmaisimet ovat tavallisia muovikalvoja, joita on pinottu päällekkäin. Altistettaessa säteilylle, varatut hiukkaset rikkovat muovin molekyyliketjuja kulkiessaan kalvojen lävitse. Etsaamalla, eli sijoittamalla säteilytetty kalvo esimerkiksi lämpimään lipeäliuokseen, tulevat vauriot esiin kartiomaisina kuoppina. Kuoppien halkaisija ja syvyys on riippuvainen läpikulkeneen hiukkasen massasta, energiasta ja varauksesta. Lisäksi kuopan pyöreydestä voidaan arvioida hiukkasen tulokulma.

Ydinjälki-ilmaisimia käytetään yleisesti esimerkiksi säteilyannosmittareina tai hiukkassuihkujen ominaisuuksia tutkittaessa. Kalvojen jälkiä voidaan tutkia ja mitata tavallisella mikroskoopilla. LHC-ympäristössä säteilyntaso on kuitenkin niin suurta, että ilmaisimet saturoituvat. Tällöin kalvojen jälkikäsittelystä ja analysoinnista tulee huomattavasti monimutkaisempaa ja vaikeampaa. Tämän vuoksi jälkien analysointiin tarvitaan erilaisia konenäkömenetelmiä, sekä koneoppimista, kuten esimerkiksi neuroverkkoja. Ilmaisinlaboratorion puhdastiloissa sijaitseekin laitteisto, jota hyödynnetään jälki-ilmaisimien analysoinnissa.

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorion optinen kuvantamislaitteisto skannaamassa ydinjälki-ilmaisinta, sekä laitteistolla otettu kuva kalvosta, joka on altistettu sekä LHC-ympäristölle, että lyijyionisuihkulle. Kuva kattaa noin 1 mm × 0.8 mm kokoisen alueen kalvosta. Lyijyionien tekemät jäljet erottuvat pyöreinä jälkinä ja niiden hajoamistuotteet mustina. Muut jäljet ovat peräisin LHC:in säteily-ympäristöstä.

Vaikka LHC:in hiukkassuihkut ovat pääosin protonisuihkuja, on laitteen aikataulussa varattu aika myös raskasionisuihkujen käyttöön kiihdyttimellä. Tällöin laitteistolla kiihdytetään ja törmäytetään lyijyioneja. Nobelin fysiikanpalkinnon saanut yhdysvaltalaistutkija Julian Schwinger osoitti, että sähköisesti varattuja hiukkasia voi syntyä voimakkaassa sähkökentässä. Samalla tavalla myös voimakas magneettikenttä voisi synnyttää magneettisia monopoleja.

MoEDAL-kokeen uusimmassa Nature-lehdessä julkaistussa tutkimustuloksessa tarkasteltiin mahdollisuutta havaita magneettisia monopoleja raskasionitörmäysten seurauksena [3]. Vuoden 2018 lyijy-lyijy –törmäyksissä ionien välinen magneettikentän voimakkuus saattoi kohota jopa 1016 teslaan. Tämä on voimakkuudeltaan noin 33 tuhatta biljoonaa kertaa voimakkaampi kuin magneetit, joita käytetään esimerkiksi magneettikuvantamisessa. Julkaistu tutkimus on ensimmäinen, jossa mekanismia hyödynnetään magneettisten monopolien etsimisessä.   Yhdistämällä kokeen simulaatiomallit alumiiniharkkojen mittaamisiin kyettiin saatujen tulosten avulla pienentää aluetta, josta monopoleja ja muita eksoottisia hiukkasia voidaan etsiä hiukkaskiihdyttimillä. Lisäksi tulosten perusteella voidaan suunnitella uusia mittauksia hyödyntäen käytettyä mekanismia ja etsiä jälkiä myös muista harvinaisista vuorovaikutuksista.

Taiteilijan näkemys lyijy-lyijy törmäyksissä syntyvästä monopoliparista. Monopolit syntyvät pareittain, jolloin toisella hiukkasella on pohjois- ja toisella etelänapa (Kuva: James Pinfold, MoEDAL-kollaboraatio).

MoEDAL-koe ei ole vielä havainnut magneettisia monopoleja tai muita eksoottisia hiukkasia, mutta mittauksia jatketaan LHC-kiihdyttimellä tämän vuoden aikana alkavilla ajoilla. Monopoliloukkujen ja jälki-ilmaisimien lisäksi uutena kokeeseen liitetään aktiivinen tuikeilmaisimista koostuva MAPP-ilmaisin, jonka tavoitteena on havaita hiukkasia, joiden sähkövaraus voi olla vain murto-osa elektronin varauksesta. Ilmaisinta ollaan parhaillaan asentamassa yhteen LHC:in sivutunneliin noin sadan metrin päähän törmäyspisteestä. Tullakseen havaituksi tuikeilmaisimilla, törmäyspisteessä syntyvien hiukkasten tulee läpäistä noin 40 metriä kalliota ja betonia.

Monte Carlo -simulaatio millielektronivoltin hiukkasten kulkeutumisesta MAPP-mCP -ilmaisimelle.

Matti Kalliokoski
Yliopistotutkija
Fysiikan tutkimuslaitos

[1] MoEDAL-MAPP Experiment, https://moedal.web.cern.ch/.
[2] B. Acharya et al., Search for Magnetic Monopoles with the MoEDAL Forward Trapping Detector in 13 TeV Proton-Proton Collisions at the LHC, Physical Review Letters 118 (2017) 061801
(https://arxiv.org/abs/1611.06817)
[3] B. Acharya et al., Search for magnetic monopoles produced via the Schwinger mechanism, Nature 602 (2022) 7895, p. 63-67 (https://arxiv.org/abs/2106.11933)

Holografinen dualiteetti hiukkasfyysikon työkalupakissa

1900-luvun kaksi merkittävintä teoreettisen fysiikan pilaria ovat yleinen suhteellisuusteoria sekä kvanttikenttäteoria. Vuosikymmenien ajan näiden pilarien alle yritettiin sovittaa yhteistä jalustaa, kaikki luonnonvoimat sisällään pitävää yhtenäisteorian. Vuosisadan lopussa muotoutui uusi lähestymistapa, vastaavuus kvanttikenttäteorian ja painovoimateorian välillä nk. gauge/gravity -dualiteetti [1]. Tämä vastaavuus auttaa näkemään nämä kaksi perustavanlaatuisesti eri materiaaleista kasattua pilaria saman fysiikan eri ilmentyminä. Ajatusmalli poikkeaa täysin aiemmasta mallista, jossa kaikki luonnonvoimat voitaisiin kuvata yhden yhtenäisteorian turvin.

Gauge/gravity -dualiteetin perusajatus on se, että kvanttikenttäteoriat voidaan muotoilla vaihtoehtoisesti kvanttipainovoiman teorioina. Yksi gauge/gravity -dualiteetin omituisuuksista on se, että kvanttikenttäteoria sekä painovoimateoria elävät paitsi eri aika-avaruuksissa myös vieläpä eri ulottuvuuksissa.  Nämä aika-avaruudet eivät kuitenkaan ole täysin riippumattomat. Tämänhetkisen ymmärryksen mukaan kvanttikenttäteoria eläisi painovoimateorian asuttaman aika-avaruuden reunalla. Tästä syystä gauge/gravity -dualiteettia kutsutaankin useasti holografiseksi dualiteetiksi. Holografia kertoo kuinka korkeampiulotteinen painovoimavuorovaikutus on kudottu kvanttikenttäteorian ilmiömaailmaan, aivan kuin kolmiulotteinen hologrammi voidaan optisesti rekonstruoida kaksiulotteiselta kankaalta.

Kvanttikenttäteorioita on ääretön määrä. Hyvästä syystä yksi tunnetuimmista näistä on hiukkasfysiikan Standardimalli, joka on luonnon tarkka kuvailu korkeimpiin hiukkaskiihdyttimissä testattuihin energioihin asti. Painovoimavuorovaikutuksen välittäjähiukkanen, gravitoni, voi kytkeä materiahiukkasiin monin eri tavoin. Työ säieteorian parissa on opettanut, että matemaattisesti ristiriidattomia tapoja rakentaa kvanttipainovoimateoria on myöskin rajaton määrä. Gauge/gravity -dualiteetin vastaavuus ei kuitenkaan kerro, että mikä tahansa kvanttikenttäteoria voidaan muotoilla kvanttipainovoimateorian sävelin, mutta että sisäisesti ristiriidattomat kvanttipainovoimateoriat ovat itseasiassa piileviä kvanttikenttäteorioita.

On osoittautunut, että hiukkasfysiikan ilmiöiden tarkastelu käyttäen holografista dualiteettia on ollut erittäin palkitsevaa, vaikka tällöin päädytäänkin korkeampiulotteisten maailmojen pariin.  Ehkä tässä vaiheessa onkin hyvä muistaa, että taitavan fyysikon tuleekin osata tehdä hyviä approksimaatioita. Joskus eteen tulee fysiikan ongelmia, jotka ratkeavat analyyttisesti, mutta tämä on ennemminkin poikkeuksellista. Tyypillisesti joudummekin turvautumaan jonkinasteiseen häiriöteoreettiseen menetelmään. Erityisen ansiokas esimerkki tästä on polkuintegraalien Feynmanin diagrammiekspansio, jota Fysiikan tutkimuslaitoksessakin on ansiokkaasti kehitelty vuosien mittaan.

Joskus vastaan tulevan fysiikan ongelman parhainkaan kuvailu ei taivu häiriöteoreettiseksi, tyypillisesti tilanteissa, joissa vuorovaikutuksia kuvaava kytkinvakio on pienen sijaan kertalukua yksi tai jopa suurempi. Tämä ei sinänsä ole teorian ongelma, ongelmaksi muodostuu itse teorian ratkaiseminen. Esim. kvanttiväridynamiikka (QCD) on mitä mainioin teoria vahvojen vuorovaikutuksien kuvailuun korkeilla energioilla, mutta kvarkkien värivankeuden matemaattinen osoittaminen matalilla energioilla on teknisesti hyvin monimutkaista juurikin QCD:n kytkinvakion kasvaessa suureksi.

Tässä päästäänkin holografisen dualiteetin käyttökelpoisimpaan alueeseen: kun toinen teorioista on heikosti vuorovaikuttava, duaalinen teoria on suuren kytkennän alueessa. Valitettavasti tämä ei ole kuitenkaan kaksisuuntainen tie, sillä, jos teoria on vahvasti kytketty, niin siitä ei suoraan pysty päättelemään, että duaalinen kuvailu olisi heikosti kytketty. QCD:n vahvojen vuorovaikutuksien ilmiömaailmaa onnistumme kuitenkin tarkastelemaan heikosti vuorovaikuttavan duaalin avulla.

Jos olemme kiinnostuneet kvanttipainovoimateoriasta, niin holografisen dualiteetin avulla pystymme tutkimaan sitä myös sen alueen ulkopuolella, joka meillä on hallinnassa. Vastaavasti, jos olemme kvanttikenttäteoreetikkoja, duaalisen painovoimateorian avulla pystymme vastamaan kysymyksiin, jotka ovat häiriöteoreettisen tarkastelumme tavoittamattomissa. Vaikka reaalimaailman QCD:n duaalia ei vielä tunneta, on holografia erittäin käyttökelpoinen työkalu. Itseasiassa jo yksinkertaisin duaalimalli joka kuvaa ns. konformaalista suuren värien määrän supersymmetristä Yang-Mills teoriaa on tuottanut uutta kvalitatiivista ymmärrystä raskasionitörmäyksien fysiikasta. Edistyneemmät QCD-mallit, joita Fysiikan tutkimuslaitoksen tutkijatkin ovat kehittäneet, ovat sopusoinnussa lähes kaiken tunnetun QCD-fysiikan kanssa.

Periaatteellisella tasolla hilatutkijat voisivat ratkaista QCD:n myös siinä alueessa, jossa häiriöteoria ei toimi ja meillä ei näin olisi välttämättä tarvetta holografiselle lähestymistavalle. Käytännössä kuitenkin hilalähestymistapa ei tällä hetkellä sovellu lainkaan dynaamisiin prosesseihin kuten esimerkiksi raskasionitörmäyksiin tai kun aineen tiheys on suuri eli ydinaineen kuvailuun. Holografisilla malleilla tällaisia teknisiä rajoitteita ei ole ja Helsingin ryhmä onkin ollut uraauurtavassa asemassa näiden duaalitekniikoiden soveltamisessa mm. neutronitähtien kontekstissa. Kiinnostunut lukija voi tutustua aiheeseen lisää hiljattain valmistuneesta kirjallisuuskatsauksesta [2].

Kuvassa aineen tilanyhtälön (paine vs. energia) teoreettinen ymmärrys. Sininen alue kattaa kaikki fysikaalisesti mahdolliset arvot ja punainen alue kuvastaa holografian ennustavuutta. Punaisen alueen odotetaan entisestään pienentyvän, kun sekä hila-QCD:n että ydinaineen efektiivisen teorian liikkumavarat kaventuvat. Esimerkkikäyrät kuvastavat holografisen mallin (V-QCD) sulautumista hila-QCD:n suomin liikkumavaroin (softista stiffiin) tiettyyn efektiiviseen ydinaineen malliin (APR) pienillä paineilla eli tiheyksillä.

Muita holografian sovelluskohteita, joita Helsingissä on tutkittu lähiaikoina ovat kvantti-informaatioon liittyvät kysymykset (mm. lomittuminen), useat kiinteän aineen ilmiöt (kvantti-Hall-ilmiö, kummalliset metallit, spontaani symmetriarikko) sekä gravitaatioaaltojen tuotto varhaisen maailmankaikkeuden faasitransitioissa. Näistä kertominen jääköön kuitenkin toiseen kertaan.

Holografia on opettanut, että yleinen suhteellisuusteoria ja kvanttikenttäteoria ovat kuin kolikon kääntöpuolet. Kolikkoa, jonka kääntöpuolelle on lyöty QCD on syytä kuitenkin etsiä huolella [3].

Niko Jokela
vanhempi tutkija, HIP-projekti (High Energy Phenomenology in the LHC era)
Fysiikan tutkimuslaitos

[1] A.V. Ramallo, “Introduction to the AdS/CFT correspondence,” arXiv:1310.4319
[2] C. Hoyos, N. Jokela, ja A. Vuorinen, “Holographic approach to compact stars and their binary mergers,”  arXiv:2112.08422
[3] Linkki historianet.fi sivustolle:  Fyysikko Isaac Newtonista tuli rahanväärentäjien kauhu

FAIR-kiihdytinlaboratorion ensimmäiset kokeet pandemian keskellä

Osallistuin vuoden 2020 maaliskuussa erään tutkijayhteisön vuosikokoukseen FAIR-tutkimuslaitoksessa Saksassa. Tämä on minulle arkipäivää, sillä työskentelen tiiviisti FAIR-kiihdytinlaboratorion rakentamisen parissa. Tuohon aikaan teimme kollegoideni kanssa valmisteluja ydinfysiikan koetta varten, joka tehtäisiin kyseisen vuoden huhtikuussa. Tämä koe oli tärkeä, koska se liittyi ensimmäiseen FAIR-kiihdytinlaboratorion koeohjelmaan (FAIR Phase-0). FAIR Phase-0 koeohjelma toteutetaan olemassa olevilla kiihdyttimillä ja uusilla mittalaitteilla.

FAIR Phase-0 kokeen valvontaa etänä huhtikuussa 2020. Tutkijat pystyivät kontrolloimaan koetta reaaliaikaisesti, vaikka kotisohvalta verkon välityksellä. Seurattavia asioita olivat mm. kiihdyttimen ja mittalaitteiden toiminta ja mittausdatan virheetön tallennus sekä laatu. Virhetilanteet järjestelmä ilmoitti käyttäjän ruudulle. Koetta valvottiin kahdeksan tunnin vuoroissa kellon ympäri. Saksassa päivysti fyysikko puhelinsoiton päässä, jos koe vaati ihmisen paikallaoloa.

Olin henkilökohtaisesti odottanut mahdollisuutta kokeelliseen tutkimukseen FAIRissä. Pääsisin vihdoin näkemään kiihdyttimet ja mittalaitteet toiminnassa.

Ajallisesti olimme noin viikon päässä siitä, että koronaviruspandemia levisi laajalti Eurooppaan. Muistan ajatelleeni, että tilanne rauhoittuisi kevääseen ja kokeeni alkuun mennessä. En olisi voinut olla enempää väärässä. Nyt kaksi vuotta kyseisen tapahtuman jälkeen olemme edelleen jotakuinkin samassa tilanteessa.

Kokeellisen kiihdytinpohjaisen fysiikan tutkimus vaatii paljon mittalaitteistojen kehitys-, ylläpito- ja optimointityötä, jonka toteuttaminen etänä on käytännössä mahdotonta. Lisäksi tämä työ tehdään usein laajassa kansainvälisessä yhteistyössä, jolloin tutkijat matkustavat laboratorioon osallistuakseen sekä itse kokeeseen, että sen valmisteluun. Kaiken tämän näytti koronaviruspandemia keväällä 2020 estävän.

Pakon edessä tutkijat, kuten koko ihmiskunta, kehittivät luovia ratkaisuja. Phase-0 koeohjelma saatiin vuoden 2020 osalta käyntiin uuden etäkäyttömahdollisuuden ansiosta. Virtuaalinen osallistuminen kokeisiin on jatkunut läpi pandemian. Kuluva vuosi on tuskin poikkeus, sillä fyysinen osallistuminen on edelleen epävarmaa.

Näiden kahden vuoden aikana suomalaiset tutkijat ovat osallistuneet useisiin kokeisiin, joiden teemat vaihtelevat ydinastrofysiikasta uudenlaisten sädehoitojen kehittämiseen.

Suomalaiset tutkijat ovat mukana tutkimassa raskaiden, neutronirikkaiden atomien ytimiä. Tutkimus toteutettiin törmäyttämällä SIS18-synkrotronilla kiihdytettyjä lyijyatomeita berylliumkohtioon. Törmäyksen vaikutuksesta lyijyatomien ytimet pirstoutuvat kevyemmiksi ytimiksi, jolloin tuotetaan luonnossa esiintymättömiä radioaktiivisia ytimiä.

Osa tuotetuista ytimistä ovat tärkeitä tutkimuskohteita astrofysikaalisen r-prosessi-alkuainesynteesin kannalta. Luonnon raskaimmat alkuaineet aina uraaniin saakka ovat syntyneet r-prosessin välityksellä. Tähän tarvitaan suuria neutronitiheyksiä, joita voi esiintyä esimerkiksi neutronitähtien törmäyksissä ja supernovaräjähdyksissä.

Atomien ytimen muodostavat hiukkaset–protonit ja neutronit–järjestäytyvät eri tavalla riippuen niiden lukumäärästä. Ytimet, joissa protonien ja neutronien lukumäärä on sama (N=Z), ovat erityisen kiinnostavia. Niissä protonien ja neutronien pariutuminen määrittää ytimen kvanttimekaanisia tiloja, joiden hajoamista tutkimalla saadaan tietoa itse vuorovaikutuksesta. N=Z ytimet ovat tärkeitä myös rp-prosessi-alkuainesynteesin ymmärtämisen kannalta. Suomalaiset tutkijat ovat olleet mukana myös näissä FAIR Phase-0 kokeissa mittaamalla atomimassoja ja kvanttimekaanisten tilojen hajoamistodennäköisyyksiä. Kiihdytinpohjaisen fysiikan tutkimusprojektit ovat pitkäkestoisia.

Edellä mainittujen kokeiden aineiston analyysi on vielä kesken, mutta odotan innolla tulosten valmistumista. Uskon, että suomalainen tiedeyhteisö tulee hyötymään FAIRista muutenkin kuin ydinfysiikan tutkimuksen osalta. Sitä ennen on sekä laboratorion rakentaminen että mittalaitteistojen toimitukset saatava loppuun. Kenties nyt vuonna 2022 pääsen osallistumaan kokeisiin paikan päällä FAIRissä.

FAIR-laboratorion rakennustyömaa joulukuussa 2021. Vasemmalla näkyy olemassa oleva kiihdytinhalli, jossa Phase-0 koeohjelma toteutetaan. Kuva: GSI Helmholtzzentrum für Schwerionenforschung GmbH, L. Möller

Lisätietoja: Tuomas Grahn, Fysiikan tutkimuslaitoksen FAIR-toiminnan projektipäällikkö, tuomas.grahn@jyu.fi, Twitter: @TuomasG, HIP blogi vuodelta 2019

Tuomas Grahn
Apulaisprofessori, projektipäällikkö, HIP-projekti (FAIR)
Jyväskylän yliopisto, Fysiikan tutkimuslaitos

Kokeellinen hiukkasfysiikan tutkimus Suomessa ennen Fysiikan tutkimuslaitoksen perustamista

Kokeellinen hiukkasfysiikan tutkimus Suomessa on viimeisen 25 vuoden aikana ollut Fysiikan tutkimuslaitoksen (HIP) vastuulla. Ennen HIPin perustamista alan tutkimusta oli tehty Helsingin yliopiston Suurenergiafysiikan laitoksen (vuoteen 1978 Ydinfysiikan laitoksen) ja v. 1991 perustetun Suurenergiafysiikan tutkimuslaitoksen voimin alkaen vuodesta 1966. Tarkempi kuvaus alan tutkimuksesta Suomessa 1966–2012 löytyy kirjasta ”Kuplakammiofysiikasta Higgsin bosoniin – Suomalaisen kokeellisen hiukkasfysiikan viisi ensimmäistä vuosikymmentä” (J.Tuominiemi 2018). Kirja on ladattavissa HIPin verkkosivuilla annetusta linkistä. Seuraavassa lyhyt yhteenveto tutkimuksen tärkeimmistä vaiheista ennen HIPin perustamista.

Ensimmäiset kokeet, joissa suomalaiset tutkijat olivat mukana, tehtiin CERNissä v. 1966. Tuolloin yksi alan tärkeimmistä tutkimuslaitteistoista oli kuplakammio. Kuplakammiolla otettiin tutkittavista hiukkastörmäyksistä valokuvia. Kuvista mitattiin syntyneiden hiukkasten radat sitä varten kehitetyillä projektoreilla, joita oli hankittu kokeisiin osallistuviin laboratorioihin. Näin kerättiin tutkimusaineistoa hiukkastörmäyksistä fysiikan analyysiä varten. Analyysi tehtiin instituuttien käytössä olevilla tietokoneilla. Kuplakammiokokeiden kulta-aika oli 1950-luvulta aina 1970-luvulle asti. Kokeet olivat aluksi tärkeitä hiukkaskiihdyttimillä tuotettujen uusien alkeishiukkasten etsinnässä. Kokeissa löydettiin suuri joukko uusia hiukkasia, jotka hajosivat edelleen tunnetuiksi stabiileiksi hiukkasiksi.

Yksi tärkeä esimerkki oli Omega-baryonin löytyminen, joka oli amerikkalaisen teoreetikon Murray Gellmanin esittämän SU3-symmetriaan perustuvan ”eightfold way”-teorian ennustama. Kuplakammiomenetelmän kehittämiseen vaikutti merkittävästi amerikkalainen professori Luis Alvarez, joka palkittiin tästä fysiikan Nobelin palkinnolla v. 1968.

Suomessa alan tutkimus alkoi v. 1969, jolloin pieni ryhmä Helsingin yliopiston Ydinfysiikan laitoksen (YFL) fyysikoita liittyi pohjoismaiseen yhteistyöryhmään (Scandinavian collaboration). Yhteistyöryhmäään kuuluivat Helsingin lisäksi Tukholman, Kööpenhaminan ja Oslon yliopisto. Helsinkiin hankittiin kuplakammiokuvien mittauslaitteisto ja aloitettiin kuvien analysointi tietokoneilla. Kuplakammiokokeissa tutkimusryhmät olivat nykyisiin kokeisiin verrattuna vielä pieniä, yleensä parinkymmenen tutkijan yhteenliittymiä.

Scandinavian collaboration teki ensin kokeita CERNin 30 GeV:n PS-protonikiihdyttimen yhteyteen juuri valmistuneella 2 m kuplakammiolla. Ensimmäisissä kokeissa tutkittiin protoni-protoni- ja protoni-deuteroni-törmäyksiä PS-kiihdyttimen protonisuihkuilla. Kiihdyttimestä ulosohjatun protonisuihkun energia oli tuolloin maailman suurin, 19 GeV/c. Kokeita jatkettiin aina 1970-luvulle asti. Suomessa ei aluksi ollut riittävää tietokonekapasiteettia kokeiden analysointiin, vaan YFL:n tutkijaryhmä kävi tekemässä analysointiajot Kööpenhaminassa IBM:n pohjoismaisille yliopistoille v. 1965 perustamassa tietokonekeskuksessa (NEUCC). Siellä oli käytössä upouusi IBM7900 tietokone. Tutkijoitten Suomessa käytössä oleva tietokonekapasiteetti parani ratkaisevasti vuonna 1970, kun Valtion tietokonekeskus sai käyttöönsä modernin suuren UNIVAC 1108-tietokoneen. Kuplakammiokuvien tietokoneanalyysit voitiin nyt tehdä Helsingissä. Tästä alkoi myös Suomessa tietotekniikan kehityskulku, joka on taannut fysiikan tutkimukselle Suomessa kansainvälisesti kilpailukykyiset tietokoneresurssit. Yhdessä Brysselin, Liverpoolin ja Tukholman yliopistojen kanssa tehtiin 1970-luvun alussa kuplakammiokokeita myös CERNin PS:lle rakennetuilla antiprotonisuihkuilla. Niissä kartoitettiin protoni-nukleoni- ja antiprotoni-nukleoni törmäysten fysiikkaa monipuolisesti ja testattiin erilaisia teoreettisia ennusteita.

CERNin 2 m kuplakammio v. 1966 (Kuva CERN)
Kuplakammiokuva protoni-protoni- törmäyksestä 19 GeV:n protonisuihkulla. (Scandinavian collaboration 1967).

Kuplakammiokuvien mittausta SEFLissä Sweepnik-projektorilla v. 1971. (Kuvat SEFL)

Heti CERNin kokeisiin osallistumisen alettua Suomen tiedehallinnossa otettiin esille tutkimusyhteistyö myös sosialististen valtioiden Neuvostoliiton Dubnassa sijaitsevan ydin- ja hiukkasfysiikan laitoksen JINR:n (Joint Institute for Nuclear Research) kanssa. Tähän ei kuitenkaan saatu erillistä rahoitusta. Yhteistyö saatiin silti alulle ja pieni ryhmä YFL:n tutkijoita liittyi JINR:n rakentamalla ”Ludmila”-kuplakammiolla tehtäviin kokeisiin 1970-luvulla. Kokeet olivat tieteellisesti kiinnostavia, sillä ne tehtiin Neuvostoliiton Serpuhovissa sijaitsevassa kiiihdytinkeskuksessa, jossa oli tuolloin käytössä maailman tehokkain protonisynkrotroni. Sen suihkuenergia oli 76 GeV. Kiihdyttimen yhteyteen oli rakennettu antiprotonisuihku, jonka energia, 23 GeV, oli maailman korkein. Ludmila-kokeet saatiin joittenkin alkuvaikeuksien ja parannustöiden jälkeen aloitettua v. 1975 ja niitä jatkettiin vuoteen 1976. Kokeeseen osallistuivat Dubnan tutkimuslaitoksen ja YFL:n lisäksi Alma Atan, Kosicen, Moskovan (MGU), Prahan, Tbilisin, Bukarestin, Sofian ja Yerevanin yliopistot. Koetulosten analyysi jatkui 1980-luvulle asti. Kokeissa saatiin kartoitettua hadronifysiikan ajankohtaisia tutkimuskohteita uudella energia-alueella.

Vuonna 1974 CERN täydensi kuplakammioarsenaaliaan suurella 3,5 m BEBC-kammiolla. Juuri samoihin aikoihin oli Yhdysvalloissa Stanfordin ja Brookhavenin laboratorioissa tehdyissä kokeissa löydetty J/psi-mesoni, jonka massa oli 3.1 GeV/c2. Se tulkittiin oitis neljännen kvarkin (lumokvarkin) kvarkki-antikvarkki-tilaksi. Tämä merkittävä löytö aloitti BEBC-kammiolla laajan tutkimusohjelman, jossa tutkittiin lumohiukkasten tuottoa. CERN oli v. 1976 käynnistänyt myös uuden protonikiihdyttimen (Super Proton Synchrotron, SPS), jolla saavutettiin aluksi 300 GeV/c:n suihkuenergia. Näin BEBC-kokeissa voitiin tutkia hyvin lumohiukkasten tuottoa. Helsingin yliopiston Suurenergiafysiikan laitoksen (SEFL, entinen YFL) tutkimusryhmä osallistui tähän tutkimukseen yhteistyössä Brysselin, Liverpoolin ja Tukholman yliopistojen tutkimusryhmien kanssa (koe WA31) vv. 1976–19­80. Ydinfysiikan laitokseen hankittiin projektorilaitteisto, jolla BEBC-kuvia voitiin tutkia. Päätavoitteena oli lumokvarkkien tuoton tutkimisen lisäksi neutraalien outojen hiukkasten tuotto 70 GeV:n K+-suihkulla tuotetuissa K+p-törmäyksissä.

Seitsemänkymmentäluvun toisella puoliskolla alkoi suuri murros hiukkasfysiikan kokeellisessa tutkimuksessa. Kuplakammiot olivat jäämässä syrjään, lähinnä niiden hitauden takia. Elektronisten hiukkasilmaisimien kehitys oli noussut tasolle, jolla voitiin rakentaa suuriakin ilmaisiinkokonaisuuksia, ”koeasemia”. Mittaustieto hiukkastörmäyksistä toimitettiin suoraan tietokoneille analysoitavaksi ja laitteilla saatettiin rekisteröidä törmäystapahtumia aivan toisella nopeudella kuin kuplakammioilla.

CERN otti lisäksi suuren askelen eteenpäin myös hiukkastörmäysten energiassa.  CERNin fyysikon Carlo Rubbian ehdotuksesta SPS-kiihdytin varustettiin protoni-antiprotoni-törmäyttimeksi. Näin saavutettiin törmäysenergia, joka riitti Glashow-Weinberg-Salamin sähköheikkojen vuorovaikutusten teorian (GWS-teoria) ennustamien W- ja Z-bosonien tuottamiseen. CERNissä ja Fermilabissa tehtyjen kokeiden tulosten perusteella oli voitu laskea ennusteet näiden ” välibosonien” massoille, jos välibosonit olivat olemassa. CERNin ”Underground kokeet” UA1 ja UA2 löysivät nämä hiukkaset vv. 1982–1983.

Suomalaiset tutkijat SEFListä liittyivät UA1-kokeeseen v. 1979. UA1-laitteisto oli tuolloin jo lähes valmis, eikä suomalaisilla ollut aluksi resursseja osallistua laitteiston rakentamiseen. SEFLin ryhmä hyväksyttiin kuitenkin mukaan, sillä sen tutkijoilla oli kuplakammiokokeista hankittua osaamista UA1-koeaseman keskusilmaisimen mittaamien hiukkasten ratojen rekonstruoinnissa. Keskusilmaisin oli suuri sylinterimäinen ajauttamiskammio, joka antoi kahdessa dimensiossa protoni-antiprotoni-törmäyksestä tietokoneella konstruoidun kuvan, joka oli tarkkuudessaan samaa luokkaa kuin kuplakammiokuvat. UA1-kollaboraatio oli jo iso yhteistyöryhmittymä, siihen kuului alussa 11 yliopistoa ja instituuttia ja 150 insinööriä ja fyysikkoa. UA1-koeasema oli ensimmäinen täyden avaruuskulman kattanut elektroninen koelaitteisto. SEFLin ryhmällä oli keskeinen rooli koetulosten analysoinnissa, joka johti W- ja Z- hiukkasten löytämiseen. Carlo Rubbialle myönnettiin v. 1984 fysiikan Nobelin palkinto välibosonien löytämiseen johtaneista töistä yhdessä CERNissä hiukkaskiihdyttimien fysiikkaa tutkineen insinöörin Simon van der Meerin kanssa. Van der Meer oli kehittänyt ns. stokastisen jäähdytysmenetelmän, jolla hiukkaskiihdyttimessä kulkevien hiukkasten muodostamien suihkujen läpimittaa voitiin supistaa niin, että hiukkastiheys kasvoi. Tämä oli oleellista riittävän intensiivisten antiprotonisuihkujen synnyttämisessä.

UA1-koeaseman keskusratailmaisin. (Kuva CERN)
Tietokoneella rekonstruoitu kuva UA1 keskusratailmaisimen rekisteröimästä protoni-antiprotoni-törmäyksestä, jossa on syntynyt W-bosoni, joka on hajonnut elektroniksi ja
Neutrinoksi. Elektronin rata on merkitty punaisella (Kuva CERN).
UA1-koeaseman antama kuva törmäyksestä, jossa on syntynyt Z-bosoni, joka on edelleen hajonnut kahdeksi myoniksi. (Kuva CERN)

UA-kokeita jatkettiin koko 1980-luvun ajan. SPS-törmäyttimen suihkujen intensiteettiä nostettiin. Tähtäimessä oli erityisesti top-kvarkin ja Higgsin hiukkasen löytäminen. SPS-törmäyttimen energia ei kuitenkaan riittänyt tähän. Top-kvarkki löydettiin vasta v. 1995 Fermilabin 1,9 TeV:n Tevatron-törmäyttimellä tehdyissä kokeissa ja Higgsin hiukkanen v. 2012 CERNin LHC-törmäytinkokeissa (törmäysenergia energia 8 TeV). UA1-kokeen toisessa vaiheessa saatiin kuitenkin useita standardimallin kannalta merkittäviä tuloksia b-hadronien tuotosta ja hadroniryöppyjen fysiikasta.

Vuonna 1984 UA1-kokeen ollessa vielä käynnissä SEFL liittyi mukaan CERNiin rakenteilla olleen suuren elektroni-positroni-törmäyttimen yhteyteen rakennettavaan kokeeseen. CERN oli päättänyt v.1981 rakentaa Large Electron Positron collider (LEP) -kiihdyttimen laboratorion viereen. Elektroni- ja positronisuihkujen energiaksi asetettiin aluksi 100 GeV, jolloin sillä voitiin tuottaa suoraan UA-kokeissa löydettyjä Z-hiukkasia. Niitä voitiin tuottaa merkittävästi enemmän kuin SPS-törmäyttimellä. LEP-kokeiden päätavoitteena oli kartoittaa tarkasti välibosonien ominaisuuksia ja tarkistaa niiden yhtäpitävyyttä standardimallin ennusteiden kanssa.

LEPin neljästä kokeesta SEFL liittyi ns. DELPHI-kokeeseen (A Detector with Lepton, Photon and Hadron Identification), jossa se SEFL osallistui DELPHI-koeaseman hadronikalorimetrin ja sen tiedonkeruujärjestelmän rakentamiseen. Suomalaiset tutkijat osallistuivat nyt ensi kertaa suuren koeaseman suunnitteluun ja rakentamiseen. DELPHI-kokeeseen osallistui kaikkiaan viitisen sataa tutkijaa. Koeaseman rakentamiseen, operointiin ja tulosten analysointiin tarvittiin entistä enemmän insinöörejä, tietojenkäsittelyn asiantuntijoita ja hiukkasfyysikoita. SEFLin ryhmässä työskenteli yli kaksikymmentä tutkijaa. LEPin käynnistyessä v. 1989 kaikki neljä koeasemaa olivat valmiina. Ensimmäiset Z-hiukkaset havaittiin heti käynnistyksen jälkeen 14.8. 1989. LEP-kokeet jatkuivat aina vuoden 2000 loppuun. Tutkimukset osoittivat, että standardimalli kuvasi tutkittavia ilmiöitä hyvin suurella tarkkuudella. Eräs tärkeä tulos oli Z-bosonin massapiikin leveydestä saatu mittaus, joka osoitti, että neutriinolajien määrä on kolme.

DELPHI-koeasema asennusvaiheessa. (Kuva CERN)

Tietokoneella konstruoitu kuva DELPHI-koeasemalla rekisteröidystä elektroni-positronitörmäyksestä. (Kuva CERN).

Vuonna 1995 LEPin suihkuenergioita kasvatettiin niin, että voitiin havaita myös W-bosoni-parien tuottoa. Tähän tarvittiin 160 GeV:n törmäysenergia. Samalla uutta energia-aluetta hyödynnettiin Higgsin bosonin etsintään. LEP-törmäyttimen energia riitti nyt 118 GeV/c2:n massaisten hiukkasten tuottoon. Higgsin hiukkasta ei kuitenkaan löydetty ja LEP suljettiin v. 2000.

Suomi oli liittynyt CERNin jäseneksi v. 1991 alussa. Siihen asti Suomessa alan tutkimusta johtanut SEFL jaettiin kahteen osaan. Opetushenkilökunta pysyi matemaattis-luonnontieteellisen tiedekunnan osana ja toisesta osasta muodostettiin Suurenergiafysiikan tutkimuslaitos SEFT, joka toimi yliopiston konsistorin alaisena. DELPHI-koe siirtyi SEFTin projektiksi.

CERN oli alkanut suunnitella LEP-kiihdytintä seuraavaa uutta suurta kiihdytintä 1980-luvun lopulla. Kyseessä oli protoni-protoni-törmäytin, joka oli jo eurooppalaisten hiukkasfyysikoitten piirustuksissa jo 1980-luvun alussa LEP-törmäyttimen rakentamisesta päätettäessä. CERNin pääjohtaja John Adams oli jo v. 1977 tähdentänyt LEP-törmäyttimen kaavailun yhteydessä, että sille rakennettava tunneli tulisi rakentaa riittävän tilavaksi, jotta sinne voitaisiin myöhemmin sijoittaa suprajohteisiin magneetteihin perustuva vähintään 3 TeV:n protoni-protonitörmäytin. Vuonna 1987 tämä suunnitelma sisällytettiin CERNin pitkän tähtäimen ohjelmaan. Törmäyttimen suihkujen energiaksi asetettiin 8 TeV, joka näytti mahdolliselle suprajohteisten magneettien kehitystyön valossa. GWS-teorian ja kvarkkikromodynamiikan yhdistävä standardimalli tarvitsi uutta energia-aluetta sen kokeellisen todentamiseen. Suunnitelmia kehiteltiin edelleen ja vuonna 1994 CERNin neuvosto päätti LHC:n rakentamisesta. Myös LHC-kokeiden suunnittelu aloitettiin 1980-luvun lopussa. Vuosina 1990 ja 1992 CERN ja European Committee for Future Accelerators (ECFA) järjestivät mittavat konferenssit LHC-kokeista Aachenissa ja Evianissa. Niiden tuloksena CERN ja ECFA päätyivät ehdottamaan kahta koetta, jotka eroaisivat toisistaan mittaustekniikoiltaan niin, että tulosten ristiintarkistus oli mahdollista. Vuonna 1993 CERN sitten hyväksyi ATLAS- ja CMS-kokeiden alustavat suunnitelmat kokeiden suunnittelun pohjaksi. CERNin Neuvosto päätti lopullisesti LHC:n rakentamisesta v. 1994 lopulla ja v. 1995 lopulla CERNin johto hyväksyi ATLASin ja CMS:n Technical Proposal dokumentit, joiden pohjalta kokeita ryhdyttiin rakentamaan. CMS-kollaboraatio oli jo hyvin mittava yhteistyöhanke, Technical proposal-dokumentin allekirjoitti 1243 jäsentä 132 instituutista.

CMS-koeasemasuunnitelma 1994. (CMS Technical Proposal 1994)

Suomalaiset tutkimusryhmät SEFTistä, SEFListä, Teknillisestä korkeakoulusta ja Åbo Akademista olivat olivat olleet mukana CMS-kokeen Evianin kokouksen Expression of Interest -ehdotusta tehtäessä. Letter of Intent-vaiheeseen tulivat lisäksi mukaan tutkijaryhmät Jyväskylän ja Oulun yliopistoista. Koe-ehdotuksessa esitetty CMS-koeasema oli jo pääpiirteissään sama kuin lopulta toteutunut laitteisto. Keskusratailmaisin oli suurelta osalta SEFTin ryhmän suunnittelema. Suomalaiset osallistuivat merkittävällä panoksella koeaseman simulointi- ja analysointiohjelmistojen laadintaan. Koeasemasta oli tehty täydellinen GEANT-ohjelmistoon perustuva virtuaalisimulaatio, johon perustuen tehtiin ensimmäiset simulaatiotutkimukset standardimallin Higgsin bosonin etsimisestä ZZ-hajoamiskanavassa sekä MSSM-mallin sähkövarauksellisen Higgsin bosonin etsimisestä. Suomalaisilla tutkijoilla oli kertynyt osaamista suurilla koeasemilla tehtävästä tutkimuksesta UA1- ja DELPHI-kokeista, joten heillä oli alusta alkaen vahva edustus CMS-kokeessa. Teknillinen korkeakoulu oli mukana esityksessä CMS:n suuren keskusratakammion tynnyriosan tukirakenteen suunnittelussa ja prototyypin rakentamisessa. Tampereen teknillinen korkeakoulu osallistui puolestaan CMS-koeaseman tiedonkeruujärjestelmän suunnitteluun ja rakentamiseen. Expression of Interest-ehdotuksessa mukana olevat suomalaiset tutkimusryhmät allekirjoittivat myös CMS:n Technical Proposal-dokumentin. Mukana oli tällöin 18 insinööriä ja fyysikkoa Suomesta.

Tässä vaiheessa v. 1996 CMS-projektin jatko siirtyi Fysiikan tutkimuslaitoksen hallinnoimaksi. CMS-koeaseman rakentamisesta, rahoituksesta ja LHC-kokeista löytyy yksityiskohtainen esitys alussa mainitusta kirjassa ”Kuplakammiofysiikasta Higgsin bosoniin – Suomalaisen kokeellisen hiukkasfysiikan viisi ensimmäistä vuosikymmentä”.

Jorma Tuominiemi
Adj. vanhempi tutkija ja emeritus ohjelmajohtaja, CMS
Fysiikan tutkimuslaitos

Lisätietoa:

HIPin verkkosivuilta löytyvät myös seuraavat aiheeseen liittyvät artikkelit:

Jetit hiukkasfysiikan eturintamalla

      No Comments on Jetit hiukkasfysiikan eturintamalla

CERNin LHC-törmäytin on maailman johtava koe suurenergiafysiikan rintamalla. Yksittäisten protonien osasten eli kvarkkien ja gluonien törmäykset ovat saavuttaneet jopa 8000 GeV:n massakeskipiste-energian, 60% kokonaisenergiasta. Tämä riittäisi tuottamaan yli 8000 uutta protonia, 46 raskainta tunnettua alkeishiukkasta eli top-kvarkkia tai 64 Higgsin bosonia, jos kaikki energia muuttuisi massaksi.

Törmäyksissä vapautuvat sekä näiden raskaiden hiukkasten jälleen hajotessa syntyvät kvarkit ja gluonit eivät voi esiintyä vapaina hiukkasina, vaan ne tuottavat ryöpyn hiukkasia, jota kutsutaan jetiksi. Suuri osa LHC:n fysiikasta nojaa näiden jettien ymmärtämiseen ja tarkkaan kalibrointiin, jossa HIPin tutkimusryhmällämme on johtava rooli.

Kuva 1. (a) Mitatulla Higgsin bosonin massalla tyhjiö on epävakaa, mikäli myös top-kvarkin ja vahvan vuorovaikutuksen kytkentävakioiden arvot on mitattu oikein. (b) Higgsin kentän itseiskytkentä nollautuu Planckin skaalalla eli alkuräjähdyksen energioissa, jos top-kvarkin massa on hieman nyt mitattua pienempi, mikä stabiloi tyhjiön.

Erityisen mielenkiintoisia jetit ovat jäljitettäessä uutta mysteeriä, jonka Higgsin bosonin löytyminen vuonna 2012 paljasti. Mitattu Higgsin bosonin massa nimittäin vaatii kvanttikorjauksia, jotka tekevät tyhjiöstä epävakaan. Näennäisesti elämme siis väliaikaisessa universumissa. Puuttuuko hiukkasfysiikan standardimallistamme hiukkasia ja kenttiä, jotka voisivat vakauttaa tyhjiön? Tai ehkä mittauksissamme on pieni virhe, ja tyhjiö onkin vakaa alkuräjähdyksen energiaskaalaan asti?

Jetit ovat keskeisiä näissä kysymyksissä. Uudet hiukkaset ovat todennäköisesti hyvin raskaita, koska muuten niitä olisi jo nähty LHC:llä tai aiemmissa kokeissa. Niiden täytyy voida hajota takaisin kvarkkeihin ja gluoneihin, koska muuten niitä ei voisi tuottaa protoni-protonitörmäyksissä. Ne voisivat olla myös selitys pimeälle aineelle. Niinpä suurienergisimmät LHC:n törmäykset, jotka tuottavat jettejä ovat hyvä paikka etsiä näitä hiukkasia.

Kuva 2. (a) LHC:n tuottamien jettiparien energian jakauma. Kovimmat törmäykset yltävät 8000 GeV (8 TeV) kohdalle saakka. (b) Toinen 8000 GeV (8 TeV) kohdalla olevista eventeistä sisältää kaksi leveää jettiä, jotka sisältä jakautuvat kahteen alijettiin. Kummankin leveän jetin massa on lähes sama, noin 1800 GeV (1.8 TeV). Tällaisen eventin syntymätodennäköisyys standardimallin ennustamana on varsin matala.

Kutkuttavasti toiseksi energisin CMS-kokeen havaitsemista törmäyksistä tuotti hyvin erikoisen lopputilan, jonka voisi selittää myös raskaalla hiukkasella X, joka hajoaa kahteen keveämpään hiukkaseen Y, jotka edelleen hajoavat pareiksi kvarkkeja ja/tai gluoneita. Yksi eventti on vain sattumaa, mutta tilanne käy mielenkiintoiseksi jos tällaisia eventtejä havaitaan pari lisää ensi vuonna alkavassa LHC:n kolmannessa ajossa.

Kuva 3. (a) LHC:n jettimittaukset testaavat vahvan vuorovaikutuksen kytkentävakion arvoa korkealla energialla. Teoria ennustaa vakion muuttumisen energian funktiona tarkasti. (b) Top-kvarkin massa on mitattu lukuisin eri metodein ja eri hajoamiskanavista. Tarkimmat mittaukset perustuvat top-kvarkin hadronisen hajoamisen rekonstruointiin, jossa syntyy b-kvarkki sekä W-bosoni, joka edelleen hajoaa kvarkkipariin, yleensä u+d tai c+s. Kukin näistä erimakuisista kvarkeista tuottaa hieman erilaisen jetin.

Tärkeimpiä tyhjiön vakauteen vaikuttavia tekijöitä Higgsin bosonin tarkkaan mitatun massan lisäksi ovat top-kvarkin massa sekä vahvan vuorovaikutuksen kytkentävakion suuruus. Molemmat näistä suureista ovat suhteellisen huonosti tunnettuja, ja LHC on ainoa paikka maailmassa, jossa top-kvarkkeja voidaan tuottaa kokeellisesti. Se on myös paras paikka tutkia vahvaa vuorovaikutusta erittäin korkeilla energioilla.

Kuva 4. (a) Jettien kalibroinnin tavoite on palauttaa ilmaisimella mitattu fotonien sekä neutraalien ja varattujen hadronien signaali (kalorimetrien energiat sekä hiukkasten radat) takaisin alkuperäisten hiukkasten energiaan (hiukkastaso). Jetit itsessään approksimoivat niitä tuottaneiden kvarkkien ja gluonien energiaa (partonitaso). (b) HIPin ryhmä mittaa kaikkia tärkeimpiä jettien kalibrointeihin tarvittavia kanavia, joissa jetti kalibroidaan suhteessa tarkasti mitattuun fotoniin tai Z bosonista syntyvään pariin elektroneja tai myoneita. Lisäksi hyödynnämme jettimittauksia sekä uutena kanavana W-bosonin hadronista hajoamista (W>qq) top-kvarkkiparin tuottaneissa eventteissä.

Helsingin ryhmämme jatko-opiskelijat mittaavat sekä top-kvarkin massaa että vahvaa vuorovaikutusta, joista kummassakin mittauksessa jettien energian kalibrointi on ylivoimaisesti tärkein epävarmuustekijä. Tämä sopiikin meille, koska ryhmämme on maailman johtava instituutti nimenomaan näissä tarkkuuskalibroinneissa. Käänteisesti top-kvarkkeja ja suurinergisiä jettejä sisältäviä eventtejä voidaan käyttää edelleen parantamaan kalibrointien tarkkuutta, joten pystymme hyödyntämään mittauksiamme vahvaan positiiviseen palauteketjuun.

Tarkimmat mittaukset LHC:n toisen ajon datasta ovat vielä tulossa, mutta tiedämme jo tärkeimmän haasteen, johon meidän tulee pystyä vastaamaan. Tämä koskee erimakuisista kvarkeista ja gluoneista syntyvien jettien kalibrointien eroja, jota ei ole aiemmin pystytty LHC:llä suoraan mittaamaan. Nämä tarkkuusmittaukset pystyvät ehkä tuomaan universumin kuilun partaalta takaisin vakaaseen maailmankaikkeuteen. Ei mikään pieni saavutus!

Kuvien lähteet:

1a) A. Andreassen, W. Frost, and M. D. Schwartz, “Scale Invariant Instantons and the Complete Lifetime of the Standard Model”, Phys. Rev. D 97 (2018) 056006, doi:10.1103/PhysRevD.97.056006, arXiv:1707.08124.
1b) D. Buttazzo, G. Degrassi, P. P. Giardino et al., “Investigating the near-criticality of the Higgs boson”, JHEP 12 (2013) 089, doi:10.1007/JHEP12(2013)089, arXiv:1307.3536.

2a) CMS-EXO-19-012, JHEP 05 (2020) 033, arXiv:1911.03947.
2b) CMS-EXO-19-012, JHEP 05 (2020) 033, arXiv:1911.03947.

3a) https://twiki.cern.ch/twiki/bin/view/CMSPublic/PhysicsResultsCombined (CMS Summary plots)
3b) Hannu Siikonen, HIP

4a) Henning Kirschenmann, HIP
4b) CMS SP-2021/031, CMS detector performance note.

Mikko Voutilainen
Apulaisprofessori, projektipäällikkö, HIP-projekti
(CMS Experiment)
Fysiikan osasto, Fysiikan tutkimuslaitos

Yleisöpalvelua ja ilmaisinteknologiaa Tutkijoiden yössä

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on perinteisesti osallistunut Euroopan Tutkijoiden yö -tapahtumaan. Tapahtumassa laboratorio on esitellyt toimintaansa ja yleisö on päässyt kokeilemaan erilaisten anturien toimintaa ja kasaamaan yksinkertaisia elektroniikkapiirejä. Koronan vuoksi yleisötapahtumia ei ole voinut järjestää, joten olemme joutuneet keksimään uusia tapoja toiminnan esittelyyn ja tapahtumaan osallistumiseen.

Tutkijoiden yö

Syyskuun viimeisenä perjantaina järjestetään Euroopan laajuinen tiedetapahtuma, Tutkijoiden yö. Tapahtumassa tutkijat voivat esitellä työtään ja tutkimusalaansa muun muassa erilaisilla näyttelyillä, kokeilla, esityksillä ja tehtävillä. Olennaisena osana tapahtumaa on vuorovaikutus tieteentekijöiden ja yleisön välillä.  

Fysiikan tutkimuslaitoksen Ilmaisinlaboratorio on ollut aktiivisesti mukana Tutkijoiden yössä useina vuosina. Tilaisuuksissa kävijät ovat päässeet tutustumaan erilaisiin säteilynilmaisimiin, sekä päässeet itse kokeilemaan muun muassa komponenttien kiinnittämistä koekytkentälevyille ja erilaisten anturien toimintaa. Korona-aikana tällaisten yleisötapahtumien järjestäminen ei ole ollut mahdollista, joten jouduimme kehittelemään ohjelmasta virtuaalisemman version.  

Tänä vuonna Tutkijoiden yötä (https://www.tutkijoidenyo.fi/ohjelma/) vietettiin neljällä paikkakunnalla Suomessa. Laajin ohjelma oli Jyväskylän yliopistolla, jossa oli mahdollista myös vierailla tapahtuman aikana. Pääkaupunkiseudulla tapahtumat olivat Arcadan järjestämät verkkoluennot, sekä Ilmaisinlaboratorion virtuaalivierailut esitelmineen. Ainoana ”ulkopuolisena” laboratorioon pääsi tutustumaan Heikki Hupiukko, joka teki tärkeitä havaintoja eri laitteiden ominaisuuksista. 

Heikki Hupiukko tutustumassa Fysiikan tutkimuslaitokseen Tutkijoiden yönä 2021. Videot löytyvät täältä. Kuva ja hahmon kehittely: Juha Aaltonen.

Ilmaisinteknologian esittelyä

Tämän vuoden ohjelmassa meidän tarkoituksenamme oli esitellä mahdollisimman laajasti Ilmaisinlaboratorion erilaisia säteilynilmaisimia, niiden valmistamista, sekä erilaisia laadunvarmistus- ja analysointimenetelmiä, joita tarvitaan ilmaisimien rakentamisessa.  

Monimutkaisimpia esitellyistä laitteista oli germanium-puolijohteesta valmistettu kaupallinen gammasäteilyn ilmaisin, jota voidaan käyttää muun muassa säteilylähteiden paikantamiseen. Yksinkertaisimmasta päästä taas oli ilmaisin, joka oli rakennettu juomatölkistä.  Dosentti Erik Brückenin esittelemänä laitteella kyettiin mittaamaan muun muassa rauta-55 isotooppilähteen spektri.

Erik Brücken esittelemässä juomatölkistä tehtyä säteilynilmaisinta. Kuva: Juha Aaltonen.

Molempien ilmaisimien perustoimintaperiaate on hyvin samanlainen. Säteily ionisoi ilmaisinmateriaalia. Syntyneet varaukset johdetaan laitteen anodille tai katodille ja mitatusta virrasta voidaan määrittää säteilyn energia. Mitatusta spektristä voidaan määrittää esimerkiksi säteilylähteen ominaisuudet.

Tohtorikoulutettava Shudhashil Bharthuar puolestaan esitteli Cernin CMS-kokeeseen asennettavien puolijohdekomponenttien karakterisointia ja laadunvarmistusta. Laboratoriossa olevilla laitteilla kyetään mittaamaan pii-ilmaisimien ominaisuuksia. Kokeessa käytettävien ilmaisimien lisäksi laitteistolla voidaan tutkia uusien valmistusmenetelmien vaikutusta ilmaisimien toimintaan.

Shudhashil Bharthuar esitteli pii-ilmaisimien toimintaperiaatetta ja laadunvarmistusta. Kuva: Juha Aaltonen.

Paluu entiseen

Virtuaalitapahtumat saattoivat olla aluksi kätevän oloisia, mutta lähes puolentoista vuoden virtualisoinnin jälkeen tällaiset tapahtumat alkavat toistaa itseään. Zoom-alusta ei ole myöskään paras mahdollinen järjestelmä lähetyksen tekoon. Tästä huolimatta opimme virtuaalitilaisuuksista paljon varsinkin käytettävän AV-tekniikan osalta. Esimerkiksi kouluvierailut voi toteuttaa samalla menetelmällä, mikäli matkustus Helsinkiin vaatisi liian paljon resursseja. Mikäli päätämme olla mukana jälleen ensi vuonna Tutkijoiden yössä, järjestetään tapahtuma jälleen yleisötapahtumana. Tällöin vuorovaikutus osallistujien ja esittelijöiden välillä on helpompaa ja antoisampaa.

Lisätietoja mahdollisista virtuaalisista kouluvierailuista Ilmaisinlaboratorioon voi tiedustella Matti Kalliokoskelta.

Matti Kalliokoski
Yliopistotutkija
Fysiikan tutkimuslaitos

Säteily- ja ydinturvallisuustutkimuksen ytimessä

Säteilyturvakeskus (STUK) liittyi Fysiikan tutkimuslaitoksen (HIP) jäseneksi vuonna 2018. STUK toimii kansallisena turvallisuusviranomaisena, tutkimuslaitoksena ja mittanormaalilaboratoriona. HIPin jäsenenä STUKin rooli osin onkin toimia linkkinä tutkimusyhteisön, säteilyn käyttäjien, viranomaisten ja kansainvälisten järjestöjen välillä ja tätä kautta edistää säteilyturvallisuuteen liittyvä tutkimusta ja toisaalta tutkimustulosten käyttöönottoa. Viimeaikaiset tutkimusprojektit ovat liittyneet mm. ilmaisimien kehitykseen säteilyn lääketieteellisen käytön tarpeisiin, radioaktiivisten näytteiden analyysimenetelmien kehittämiseen sekä käytetyn ydinpolttoaineen loppusijoitukseen.

Säteilyturvakeskus perustettiin vastaamaan säteilysuojelun tarpeisiin

Säteilysuojelualan kehitys oli alkuaikoina täynnä vauhtia ja vaarallisia tilanteita. Uusi ilmiö innosti tutkijoita, ja ionisoivan säteilyn löytyminen poiki nopeasti mitä erilaisempia sovelluksia erityisesti lääketieteessä. Tietämys säteilyn aiheuttamista haitoista tuli kuitenkin vuosikausia jälkijunassa. Säteilyn lääketieteellisen käytön lisääntyminen ja kasvava tietoisuus säteilyn haitallisista vaikutuksista johti STUKin esi-isän, lääkintöhallituksen alaisen säteilyfysiikan laitoksen, perustamiseen 1958. Tuohon aikaan Kansainvälinen säteilysuojelukomissio (ICRP) oli sen aikaiseen tietoon pohjautuen ansiokkaasti kehittänyt kansainvälistä säteilysuojelujärjestelmää ja siihen liittyviä henkilökohtaisia annosrajoituksia.

Yleinen herääminen tarpeeseen säädellä säteilyn käyttöä johti myös Euroopan atomienergiayhteisön luomiseen (1957). Tähän liittyvä Euratom-sopimus on edelleen voimissaan lähes alkuperäisessä asussaan, ja on myös nykyisen Säteilylakimme taustalla. Säteilysuojelun kulmakivet, eli altistuksen oikeutusharkinta ja altistuksen optimointi sekä yksilön suojaaminen säteilyn haittavaikutuksilta, ovat kestäneet ajan hampaan nakerrusta jo kymmeniä vuosia. Yhteiskunnan kasvanut riskitietoisuus ja tiedonjano vaativat kuitenkin entistä tarkempia ja luotettavampia menetelmiä altistusolosuhteiden ja itse altistuksen määrittämiseen.

Paikkaherkillä ilmaisimilla parempaa kuvanlaatua ja turvallista sädehoitoa Lääketieteen käyttöön kehitetään jatkuvasti uusia ionisoivaa säteilyä käyttäviä diagnoosi- ja hoitomenetelmiä. Esimerkiksi ulkoisessa sädehoidossa käytettävät hoitokeilat muuttuvat jatkuvasti pienemmiksi, tarkemmin rajatuiksi ja dynaamisemmiksi. Tämä asettaa entistä tiukempia vaatimuksia keilojen ominaisuuksien mittaamiselle, jotta hoitojen tehokkuus ja potilaiden turvallisuus pystytään varmistamaan. Olemmekin kehittäneet paikkaherkkiä ilmaisimia, joilla sädehoidossa käytettyjen fotonikeilojen ominaisuudet pystytään mittaamaan sädehoitoklinikoilla lähes reaaliaikaisesti. Kyseisillä kadmiumtelluridi-ilmaisimilla pystytään määrittämään pienikokoisten keilojen dimensiot sekä suhteellinen annosprofiili keilan sisällä. Paikkatarkkuudessa on pyritty siihen, että pienimmätkin käytössä olevat sädehoitokeilat (halkaisijaltaan muutama mm) pystytään luotettavasti mittaamaan.

Kuva 1 Ilmaisintestausta Säteilyturvakeskuksen laboratoriossa (Kuvat: vas. S. Kirschenmann, oik. A. Gäddä)

Kadmiumtelluridi-ilmaisinten ohella olemme kehittäneet piipohjaisia paikkaherkkiä ilmaisimia tietokonetomografiaan. Tietokonetomografia (TT) on suurin väestön altistaja lääketieteellisessä käytössä, ja sen vuoksi mahdollisimman tehokas ja optimoitu säteilyn käyttö on siinä erityisen tärkeää. Kehitetyt ilmaisimet pystyvät lukemaan perinteisen säteilyn intensiteettitiedon lisäksi myös sen energiajakauman, jolloin säteilykeilassa oleva tieto saadaan hyödynnettyä mahdollisimman tehokkaasti ja potilaan altistusta pystytään pienentämään diagnostisen laadun siitä kärsimättä. Projektissa hyödynnetään CERNin CMS-kokeeseen kehitettyä ilmaisinteknologiaa.

Näytteillä ja ilmaisinverkolla parannetaan ympäristön säteilyvalvontaa

Ilmakehässä tehdyt ydinasekokeet sekä Suomessa päätään nostanut ydinenergian käytön suunnittelu laajensivat säteilyfysiikan laitoksen toimintaa ympäristön radioaktiivisuuden seurantaan ja valvontaan, ja laitoksen nimi muutettiinkin Säteilyturvallisuuslaitokseksi (ja myöhemmin nykyiseen muotoonsa Säteilyturvakeskus). Ympäristössä näkyvät ydinasekokeiden jäämät sekä muu luonnossa esiintyvä radioaktiivisuus (mm. myöhemmän Tshernobylin onnettomuuden (1986) aiheuttama laskeuma) ovat olleet jatkuvan seurannan kohteena kuusikymmentäluvulta alkaen. Ympäristön säteilyvalvonnan menetelmät ovat ottaneet valtavia harppauksia viime vuosikymmeninä. Säteilyilmaisimien herkkyys, spesifisyys ja informaation saatavuus ovat parantuneet merkittävästi. Nykyään yksittäisiä mikroskooppisia radioaktiivisia hiukkasia vaikkapa ilmansuodattimista pystytään paikantamaan ja analysoimaan perin pohjin. Mittausmenetelmät ovat myös muuttuneet (lähes) reaaliaikaisiksi ja tuottavat tietoa yksittäisistä radionuklideista pelkän säteilyannosnopeuden lisäksi.

Ympäristön säteilynvalvonnassa käytetään näytteenoton lisäksi reaaliaikaista mittausdataa tuottavia menetelmiä. Suomessa on noin 260 ilmaisinta käsittävä, koko maan kattava ilmaisinverkko, joka lähettää mittaustiedot 10 minuutin välein STUKiin analysoitavaksi, tarkistettavaksi ja julkaistavaksi STUKin www-sivuilla. Meneillään olevassa DEFACTO-projektissa kehitetään täysin uudentyyppistä ilmaisinta tähän verkkoon. Nämä ilmaisimet pystyvät erittelemään säteilylähteen sijainnin, eli ovatko radioaktiiviset aineet ilmassa, laskeumana maassa vaiko kiinnittyneenä ilmaisimen pintaan. Myös radioaktiivisten aineiden tunnistus on mahdollista ilmaisimissa käytetyn tuikeaineen ansiosta. Ilmaisinkehitys on loppusuoralla, ja sen ottamista operatiiviseen käyttöön suunnitellaan parhaillaan. Teknologian kaupallinen potentiaali tullaan myös arvioimaan. STUK-HIP-yhteistyössä kehitetään myös menetelmiä ympäristönäytteiden entistä herkempään ja tarkempaan analysointiin mm. yhdistämällä samanaikainen gamma-, beeta- ja alfasäteilyn havaitseminen näytemittauksissa niin, että paikkaherkkien ilmaisimien avulla radioaktiivisten hiukkasten paikat näytteessä pystytään tunnistamaan (nk. PANDA-laitteisto).

Kuva 2 PANDA-laitteiston mittauspiste. Laitteisto sijaitsee Jyväskylän yliopiston kiihdytinlaboratoriossa.

Ydinjätteen loppusijoituslaitos rakentuu maan alla

Olkiluodon saarelle Eurajoelle rakennetaan parhaillaan geologista loppusijoituslaitosta käytetyn ydinpolttoaineen sijoittamiseksi syvälle peruskallioon. Valmistuessaan laitos tulee olemaan ensimmäinen laatuaan maailmassa. Loppusijoitus on tarkoitus aloittaa 2020-luvun puolivälin tienoilla, ja laitoksen aktiivinen käyttö tulee kestämään noin sata vuotta. Käytetty ydinpolttoaine säteilee vielä satojen tuhansien vuosienkin päästä, joten polttoaineen hautaaminen syvälle maan poveen on turvallisin ratkaisu jälkipolvien kannalta.

Kuva 3 Maanalaisen loppusijoitusluolaston tunnelistoa. Lähde: Posiva.

Loppusijoituksessa hyödynnetään Ruotsissa kehitettyä KBS-3-metodia, jossa käytetty polttoaine suljetaan kuparilla päällystettyjen teräskapseleiden sisään. Kapselit sijoitetaan noin 400 metrin syvyyteen kallioperään louhittuihin loppusijoitusluolastoihin, joita rakennetaan lisää sitä mukaa, kun loppusijoitus etenee. Lopuksi tunnelit ja luolasto täytetään bentoniittisavella, joka on kissanhiekan tavoin kosteutta imevä materiaali, jolla saadaan vähennettyä pohjaveden virtaus kapseleiden lähistöllä minimiin.

Kuva 4 Kuparikapseli, jonka sisään käytetty ydinpolttoaine sijoitetaan. Lähde: Posiva.

Ennen loppusijoitusta tulee varmistua siitä, että luolastoon sijoitettava polttoaine on juuri sitä, mitä sen sanotaan olevan. Ydinpolttoaine varmennetaan ydinmateriaalivalvonnan nimissä erilaisin ainetta rikkomattomin mittausmenetelmin.

Ydinmateriaalivalvonnalla turvataan rauhanomainen ydinenergian käyttö

Kylmän sodan aikaan maailmalla herättiin atomipommin uhkaan. Ydinaseiden leviämisen estämiseksi perustettiin Kansainvälinen atomienergiajärjestö IAEA, jonka tehtävänä on valvoa ydinteknologioita ja varmistaa niiden rauhanomainen käyttö. Vuonna 1970 solmittiin myös ydinsulkusopimus, jonka allekirjoittaneet maat sitoutuivat estämään ydinaseiden leviämisen ydinaseettomille valtioille.

Tätä sopimusta valvotaan aktiivisesti sekä kansainvälisellä että kansallisella tasolla. IAEA ja Euroopan komissio tarkastavat säännöllisesti, että Suomen ydinmateriaalit ovat asianmukaisessa käytössä ja siellä missä pitääkin, ja STUK tekee kansallisena valvovana viranomaisena omaa valvontaansa. Ilman ydinmateriaalivalvontaa ei olisi rauhanomaista ydinenergian ja muiden ydinteknologioiden käyttöä, eikä Suomessakaan ydinreaktoreita.

Tomografia paljastaa ydinpolttoaineen sisällön

Ennen loppusijoitusta jokainen loppusijoitusluolaan matkalla oleva polttoainenippu tulee tarkastaa parhain mahdollisin keinoin, jotta tuleville polville voidaan taata mahdollisimman eheää tietoa siitä, mitä luolastoon on päätynyt. Loppusijoitusluolaston sulkemisen jälkeen sen sisältöön ei enää pääse käsiksi, joten kaikki tieto on mitattava ja talletettava etukäteen. Tähän tarkoitukseen olemme yhdessä STUKin ja HIPin sekä Helsingin yliopiston Matematiikan ja tilastotieteen osaston inversio-ongelmien tutkimusryhmän kanssa kehittämässä varmennusmittalaitteistoa, jolla nippujen sisältö tutkitaan ennen loppusijoitusta.

Varmentamisessa on käytettävä luotettavaa ja tarkkaa menetelmää, jolla pystytään varmistumaan ydinpolttoaineen sisällöstä nippuja vahingoittamatta. Kehitteillä olevassa mittalaitteistossa hyödynnetään kahta eri menetelmää: passiivista gammaemissiotomografiaa (PGET) sekä passiivista neutronialbedoreaktiivisuusmittausta (PNAR). PGET-menetelmällä mitatusta gammaemissiosta saadaan rekonstruoitua inversiomatematiikalla hyvin tarkka poikkileikkauskuva polttoaineesta, josta voidaan havaita jopa yksittäinen puuttuva polttoainesauva. PNAR-menetelmällä puolestaan saadaan selville, kuinka paljon kuvattavassa kohteessa tapahtuu neutronien moninkertaistumista ja vastaako polttoaineen fissiilin materiaalin väitetty määrä mitattua. Näin voidaan varmistaa, että kyseessä todella on käytetty polttoainenippu eikä esimerkiksi radioaktiivinen jäljitelmä.

Kuva 5 Ydinpolttoainenippujen rekonstruoituja aktiivisuuksia. Vasemmalla Olkiluodon kiehutusvesireaktorin ATRIUM10-polttoainenippu, oikealla Loviisan painevesireaktorin VVER-440-polttoainenippu. Vasemmassa kuvassa keskellä näkyy 3×3-kokoinen vesikanava sekä kaksi puuttuvaa sauvaa. Oikealla VVER-440 -polttoaineelle tyypillisesti keskimmäisen sauvan tilalla on vesikanava, ja lisäksi tästä nipusta puuttuu kolme polttoainesauvaa vasemmasta kulmasta.

HIPin jäsenyliopistojen ja Säteilyturvakeskuksen yhteistyö on jo tällä muutaman vuoden aikajänteellä tuottanut useita säteily- ja ydinturvallisuutta parantavia laitteistoja ja mittausmenetelmiä. Yliopistojen syvällinen osaaminen yhdistettynä STUKin tietoon ja kokemukseen säteily- ja ydinturvallisuuden keskeisistä tutkimusongelmista on ollut erityisen hedelmällistä. Yhteistyön jatkuminen onkin avainasemassa kotimaisen säteilyturvallisuusosaamisen varmentamisessa.

Teemu Siiskonen, apulaisjohtaja
Säteilyturvakeskus
Fysiikan tutkimuslaitos

Riina Virta, tutkija
Säteilyturvakeskus
Fysiikan tutkimuslaitos

The discovery of the Odderon

      No Comments on The discovery of the Odderon

Elementary particle physics is about understanding the smallest constituents of matter and their interactions. To do so larger and larger particle colliders are being built to probe the structure of matter at smaller and smaller distances. Currently, the largest particle collider is CERN’s (European Particle Physics Laboratory) Large Hadron Collider (LHC) that collides protons at an impressing collision energy of 13 Tera electron volt (TeV), corresponding to the energy that an electron would obtain if exposed to an electric field of 13 trillion volts! In 2012, the Higgs boson, the last missing piece to complete the Standard Model, the theory of the elementary particles and their interactions, was discovered at the LHC. But we know that there are many phenomena that the Standard Model cannot provide an answer to.

For that reason physicists continue to search for signs of new, yet unknown, physics or particles in the high energy collisions of the LHC that could potential provide answers to these unanswered questions. But the LHC can also be used to discover much lower energy i.e. larger distance phenomena like “exotic” particles or compounds that can be accommodated in the Standard Model. An example is the discovery of the Odderon, which strongly relied on the measurements of elastic proton-proton collisions by the TOTEM experiment at the LHC. What is an elastic collision? An elastic collision is a collision, where the two protons softly bounces of each other and continue onwards only with a slight change of their direction. TOTEM measures the elastic protons very far away (210-220 meters) from the collision point at a very close distance (a few millimetres) from the outgoing proton beam using special movable devices called Roman Pots, seen in Figure 1.

Figure 1: TOTEM Romans Pots in the LHC tunnel 210-220 m from the CMS experiment (Image: CERN)

What is the Odderon?

The Odderon consists of three gluons. Gluons “glue” the quarks together to “hadrons”, particles that are held together by the strong interaction, like the proton and the neutron. Gluons are the mediators of the strong interaction between quarks in a similar way as the photon, the particle which light is made of, is the mediator of the electromagnetic interaction between electrically charged particles. There is however a significant difference: contrary to the photon, the gluons can interact with each other. The gluons themselves carry the charge of the interaction, “colour”, they are mediating. Colour comes in three variants: usually dubbed “green”, “red” and “blue”. Having colour makes quarks and gluons special, they cannot exist by themselves as free particles. They can only exist in colour-neutral combinations made up of all the three colours or by colour-anticolour pairs.

All this is described by the quantum theory of strong interaction, Quantum Chromodynamics (QCD) that together with the quantum theories of electromagnetic and weak interaction make up the Standard Model. Currently, we know that QCD is an accurate description of the strong interaction of quarks and gluons by a multitude of measurements at different colliders. QCD also predicts that there should exist particles made up only of gluons, “glueballs”. So far no conclusive evidence of glueballs has been found despite large efforts over the last 50 years.

QCD also predicts that colourless compounds made up only of gluons should be exchanged during the interaction of particles. In the pre-QCD theory of strong interaction, these compounds were called “Pomeron” and “Odderon”. They differ in the sense that the Pomeron interacts identically with particles and antiparticles, whereas the Odderon interacts in opposite ways with particles and antiparticles. The Odderon was predicted in 1973 by Leszek Lukaszuk and Basarab Nicolescu to potentially explain differences at higher energies between proton-proton and proton-antiproton collisions due to strong interaction but until recently no convincing evidence of its existence had been presented. In QCD, the Pomeron and the Odderon correspond to the exchange of two (or even number of) and three (or odd number of) gluons as shown by Figure 2. The Odderon is not a particle in the ordinary sense since it doesn’t have a definite mass and lifetime. Instead it is a compound of gluons sufficiently bound together to be exchanged between two protons (or a proton and an antiproton) without the gluons of the Odderon interacting individually with the building blocks of the proton, the quarks and the gluons.

Figure 2: Feynman diagrams of Pomeron and Odderon exchange between protons (p) or a proton and an antiproton (p). The wiggly lines are gluons. The direction of time in the diagrams goes from left to right.

How can the Odderon be discovered?

Since the Odderon is exchanged and not produced in the proton-proton collisions, one cannot discover the Odderon by observing a “peak” or a “bump” in a mass distribution like for the Higgs boson. In addition, the Pomeron, being made up by only two gluons with matching colours, is much easier to be exchanged between particles containing gluons than the Odderon, being made up by three gluons whose colours have to match the colour-neutral condition. So two things have to be fulfilled by a process to be able to discover the Odderon: the Odderon can be exchanged and other competing exchanges, especially Pomeron exchange, have to be heavily suppressed.

The ideal process is elastic scattering and its so-called diffractive minimum. What is the diffractive minimum? The diffractive minimum is the part of the elastic scattering distribution as a function of the variable |t |, where there is a large decrease (“dip”) in the distribution followed by a significant increase. Physically it measures the size of the proton in analogy with diffraction of photons on a material surface to find out the three-dimensional periodic structure of the atoms in a crystal. What is tt is a variable that physicists use to describe the transfer of momentum in the collision. It is defined so that it is always negative. For convenience physicists usually use its absolute value. In elastic collisions, |t | corresponds to the square of the scattering angle, the change of direction of the proton due to the collision. So in practice, the diffractive dip is just a certain range of scattering angles, where the probability for elastic collisions to happen is much lower than in the range of scattering angles larger and smaller. Since the probability for elastic collisions is much lower, the dominant Pomeron exchange must be suppressed. Add to this the fact that the Odderon interacts oppositely with antiparticles than with particles, the way to discover of the Odderon is open. Any significant difference between elastic particle-particle scattering and elastic particle-antiparticle scattering in the diffractive dip region at the same collision energy is evidence for the Odderon. To be more precise, such a difference should be observed at very high energies, preferably above about 1 TeV, where gluonic exchanges dominate and quark-antiquark exchanges are very unlikely.

Discovery of the Odderon

In December 2020, the discovery of the Odderon was made public by the TOTEM experiment together with the D0 experiment at Fermilab’s Tevatron collider in the US. Since the LHC cannot accelerate antiprotons, the comparison was made with the existing elastic proton-antiproton measurement in the region of the diffractive dip at the highest possible collision energy, the one by the D0 experiment at 1.96 TeV. In addition, a measurement of elastic proton-proton collisions at a collision energy of 1.96 TeV in the region of the diffractive dip at the LHC is not possible due to the LHC design. That’s why the TOTEM elastic proton-proton measurements at the collision energies of 2.76, 7, 8 and 13 TeV were extrapolated to the collision energy of 1.96 TeV to make a direct comparison with the D0 measurement. In the region of the diffractive dip, the distributions disagree as can be seen in Figure 3 to such a level that the difference can only be due to Odderon exchange. This led to the discovery of the Odderon, when this new evidence was combined with a previous evidence of the Odderon from the inability of Pomeron exchange to describe the TOTEM elastic proton-proton measurements at even smaller scattering angles. The article with the discovery was published in Physical Review Letters last month (August 2021).

Figure 3: Comparison of the elastic proton-proton and proton-antiproton cross section dσ ⁄ dt (”interaction probability”) at a collision energy of 1.96 Tera electron volt (TeV) as function of the square of the momentum transfer at the collision, |t |, that is proportional to the square of the scattering angle of the proton or the antiproton due to the interaction. Reproduced under Creative Commons 4.0 license from Physical Review Letters 127, 062003 (2021).

What’s the big deal?

You might think: Why should we bother? What is the big deal with the Odderon? The Particle Data Group (pdg.lbl.gov) lists hundreds of particles so a new one should not make such a difference. And it is not even a particle in the ordinary sense with a mass and a lifetime.

Well, the Odderon is different. It is not made of quarks like the large majority of the others in the Particle Data Group. In addition to the Pomeron, it is only one made only out of gluons. Its existence also suggests that real particles made only of gluons, so-called glueballs, exist, just as QCD predicts. There is still much research to be done:  after establishing the existence, the Odderon should be characterised. TOTEM is pursuing measurements of the behaviour of the Odderon as function of the collision energy, complementing the existing measurements with new ones at 0.9 and 14 TeV. The LHC is also potentially a good environment to find glueballs in the gluon rich environment of central exclusive production, where the two colliding protons loose energy but stay intact and create particles in between them. TOTEM experiment is studying glueball candidates together with the CMS experiment. Stay tuned!

Kenneth Österberg
Professor in Experimental Particle Physics, University of Helsinki
Physics coordinator, TOTEM experiment, CERN

On CMS open data, and numbers big and small

In July 2021, the open data group of the CMS experiment conducted the second CMS open data workshop aimed at physicists interested in research use of these unique public data. In the spirit of openness, the number of registrants was not restricted, and the workshop was actively followed by some 50 participants with diverse backgrounds and origins.

The event was four full days of work, preceded by a set of pre-exercises to be completed before the start. The workshop aimed to cover the skills needed to get started with the experimental particle physics data from the CMS experiment, and all exercises were hands-on. A session practising running CMS data analysis jobs in a cloud computing environment was included. The feedback survey indicates that the workshop was a success: the participants gained confidence in using these data and would recommend the workshop for colleagues with similar interests.

I have been involved in CMS data preservation and open data activities right from the beginning. In 2011, I chaired the working group set up to draft the CMS data preservation, re-use and open access policy, the first of its type in particle physics, and since 2012, I’ve been leading the group that was created to implement the policy after its approval. It is tempting for me to reflect on the evolution in these ten years. Figure 1 shows the timeline of the data releases, which now include most of the Run-1 data (collected in 2010-2012). The first Run-2 data releases of data collected in 2015-2018 are in preparation.

Figure 1: Timeline of the CMS open data releases of proton-proton (pp) and heavy-ion (HI) data with examples of accompanying tools made available with data.

In the drafting of the data policy, I remember well Jesus Marco from Universidad de Cantabria, a member of the data policy working group, proposing that CMS should promote a workshop after the first release to assess whether these data can be usefully exploited by people external to the CMS collaboration. At that time, the concept of open data in particle physics was totally new and even terrifying for many, and organising a workshop on their use certainly sounded rather distant wishful thinking. The proposal, however, boldly made its way to the policy document, and now, ten years after, we are collecting feedback from the participants of the second workshop of this type.

To be able to call the first open data workshops took us several data releases, with gradual and continuous improvements of the accompanying material. For data to be usable, much more is required than public access to them. Data management and re-usability are often described with FAIR principles for Findable, Accessible, Interoperable, and Re-usable data and metadata, i.e. “data about data”. CMS data released through the CERN open data portal satisfy these principles to a large extent. But due to the complexity of experimental particle physics data, the FAIR principles alone do not guarantee the re-usability of these data, and additional effort is needed to pass on the knowledge needed to use and interpret them correctly.

This knowledge includes, first of all, learning the computing environment and software for the first step of data selection. Due to the experiment-specific data format, the first step will almost inevitably be done using the CMS software in a computing environment compatible with the open data. We have been able to benefit from the advance of software containers such as Docker with which we have packaged the CMS software that is required and virtualised the operating system compatible with it. Open data users can download a software container image and run it on their computer, independently of its operating system. Recent developments for Windows Subsystem Linux (WSL2) have also made this feasible in Windows, in addition to Linux and macOS. The CMS open data group has invested a good amount of work in setting up these containers so that the first user experience with the CMS open data remains smooth. It is important to remember that open data users always start with a trial: if they consider that the time needed to overcome difficulties is too much, they will just give up.

After having set up the computing environment, open data users will need to learn the intricacies of experimental particle physics data. How to select the data of interest, how to identify the particles properly, how to understand the efficiencies and uncertainties in the analysis process, how to estimate the backgrounds, and how to address many other challenges with experimental data. This is all brilliantly summarised in the blog posting “The Importance and Challenges of “Open Data” at the Large Hadron Collider” by Matt Strassler who with Jesse Thaler has provided valuable feedback while pioneering the use of CMS open data.

But how come collecting the necessary information has taken so long? Having well over 1000 high-quality scientific publications on CMS data we must know the tiniest details of these data and have well-established procedures for their analysis. Why just not release these guidelines with the data? The challenge is in the size, and I’m not referring to data volumes. In his popular book “The tipping point”, Malcolm Gladwell discusses Dunbar’s number, first proposed by anthropologist Robert Dunbar in the 1990s. This is a suggested limit to the maximum number of individuals with whom an animal can maintain group cohesion and social relationships by personal contact, often cited to be around 150 for humans. Gladwell gave examples of organisations that have successfully limited the number of people in a single establishment or production unit to that number, for efficient work organisation and the wellbeing of people. Dunbar argues that at this size, groups function based on common loyalty and cohesion, with direct person-to-person interactions.

But in big scientific collaborations, there are many more of us. Of over 4000 members of the CMS collaboration, close to 3000 are physicists, most of them active in analysing the data. Work is carried out in physics analysis groups and their subgroups in which the number of people involved is indeed within the limits of estimated Dunbar’s number. This is an obvious working mode, grouping people around similar topics. However, this results in working procedures that diverge within the collaboration. Much effort goes to the development of individual or group-specific software and procedures, while contributions to the software common to the entire collaboration are often lacking. A layer of group or topic-specific software is naturally needed, but the thickness of that layer increases if measures are not taken to counterbalance this drift. Figure 2 illustrates my simplified perception of the data and software landscape in a big collaboration such as CMS. The green arrows indicate the phases in the data analysis process in which each individual or group-specific software most likely implement the same or similar steps. The CMS collaboration has taken measures to address these problematics, through the adoption of slimmer data formats in which a part of the common procedures has already been implemented and by setting up a reflection group on common software tools. I argue that strong and continuous action will always be needed to encourage contributions for the common good of the full collaboration, to compensate for the human tendency of working comfortably in much smaller units. Writing software in a way that benefits everyone in the collaboration should be perceived as a common goal in every group.

Figure 2: Author’s conception of the data and software landscape in a big scientific collaboration. Blue shapes correspond to the centrally processed data and their processing steps with the software common to the entire collaboration. Yellow and brown shapes correspond to intermediate processing steps with individual or group-specific software. Red shapes illustrate the final analysis producing the scientific publication. Green arrows indicate the phases in the data analysis process in which each individual or group-specific code most likely implement the same or similar steps, or in which part of the software could be useful to others. The light blue background shape indicates the area from which the CMS open data group has collected the information needed for the use of open data by scientists external to the collaboration.

From the point of view of open data, the abundance of group-specific data “skims” and software frameworks makes it challenging to come up with generic examples and instructions applicable to public datasets for open data users. We can find code examples within one software framework in use for the analysis of certain physics topics with topic-specific skimmed datasets as input. However, another physics group may use a different implementation of the same analysis steps in their software package. Collecting this knowledge from different sources, indicated with a light blue background colour in Figure 2, is not an obvious task. The open data workshops and the general interest in CMS open data have been a great motivation for this effort, and the CMS open data team has now put together a comprehensive set of tutorials using an example code written for this purpose.

I firmly believe that the experience we are gaining in improving the usability of CMS open data can feedback to the collaboration. During these workshops, we have initiated participants in the use of CMS software using Docker containers. We have found solutions for many common issues, such as opening graphic windows, copy-pasting, passing files between the container and host, etc., i.e., many of those details that determine how efficiently one can work. For many of us, container solutions have turned out to be a practical tool for everyday work. We have also exercised running the analysis jobs in a cloud environment and demonstrated the value of well-defined machine-readable workflows.

I am also convinced that our observations on the difficulty of finding comprehensive examples of basic open data usage with common software are relevant not only to open data but also to the analysis work done in the collaboration. For the efficient use of human resources, I would argue that the questions to be asked before writing new analysis software should be 1) can this be done with software tools available to everyone in the collaboration 2) if this cannot be done with existing, common tools, would a contribution to them be more appropriate than writing a separate piece of software 3) can this be made configurable so that it can be used for other similar use cases 4) can this be reused. This is what is needed to preserve the knowledge inherent in the analysis work so that it remains usable – and not only readable – for immediate use by the collaborators beyond the first small reference group, and into the longer-term future. To make this happen in large collaborations, to counterbalance the human preference of acting to the benefit of the small working unit, the contributions to the common tools need to be actively encouraged and promoted in everyday work and valued in career assessments.

Helsinki Institute of Physics: Helsinki Institute of Physics (HIP) is a strong contributor to the CMS open data project. In addition to the author, the coordinator of the CMS data preservation and open access group, several students and trainees have participated in the activities. HIP’s “Open data and education” project is an important stakeholder for the usability of these data in secondary education.

Kati Lassila-Perini
Project Leader, Education and Open Data
Helsinki Institute of Physics