For å lese pluss-artikler må du være abonnent
Et abonnement gir tilgang til alt innhold og vi har følgende tilbud
DEBATT
Går du tilbake til 60-tallet og leser omtrent hva det måtte være av scenarioer for framtidig energimiks, finner du at omtrent alle eksperter trodde kjernekraft skulle overta fullstendig innen århundreskiftet.
Og det var gode grunner til det. Plutselig hadde vi mennesker funnet en helt ubegripelig futuristisk energikilde som kunne varme opp vann helt uten å brenne noe. I tillegg viste energikilden seg så kostnadseffektiv at den albuet seg vei inn på markedet i et tiår der energi var ekstremt billig.
Med en energitetthet i størrelsesorden 500 000 til 1 i favør uran kunne en reaktor få tilkjørt drivstoff på en liten lastebil en gang i året, i motsetning til kullkraftverkene som måtte ha en kontinuerlig tilførsel av hundrevis av togvogner daglig.
Når ingenting brenner, er det heller ingen utslipp av partikler eller avgasser. Det er ikke aske som må deponeres i enorme landfyllinger.
På 60-tallet var kjernekraft framtidas energikilde. Men framtida endte på 80-tallet. Da var det plutselig bom stopp i byggingen av nye kjernekraftverk både i USA og i Europa, og siden har det praktisk talt stått stille på begge sider av Atlanterhavet.
Og det til tross for en massiv økning i global strømproduksjon og i vår bevissthet rundt hvordan økt utslipp av klimagasser vil påvirke jordens klima.
Jeg og mange andre har pekt på miljøbevegelsens motstand mot denne energikilden som en av de store årsakene til at vi ikke bruker det mer.
Men miljøbevegelsen er også motstandere av vannkraft, store veiprosjekter, moderne landbruk, fiskeoppdrett og etter hvert nå også storskala utbygging av landbasert vind. I de sektorene har knapt miljøbevegelsens motstand gjort særlig fra eller til.
Nei, framtidas energikilde har i stedet vært stille kvalt til døde av en regulatorisk filosofi som ikke tillater kjernekraft å bli billig noensinne. En regulatorisk filosofi som ikke er basert på forskning, data og vitenskap, men på tro, dogmer og overbevisning.
For å finne hvor dette startet må vi nesten 100 år tilbake i tid, til noen fruktfluer bestrålt av ekstreme doser røntgenstråler og som igjen avfødte teorien om at all ioniserende stråling er farlig, uansett hvor lave doser vi mottar.
I 1926 gjennomførte amerikaneren Hermann J. Muller forsøk der han bestrålte Drosophila, en slekt små fruktfluer, med røntgenstråler. Studien viste at bestråling økte frekvensen av mutasjoner i fluene og på dette viset fikk forskere en kunstig måte å fremkalle mutasjoner på. I 1946 mottok Muller Nobelprisen i medisin for oppdagelsen.
I sin tale til Nobelinstituttet sa Muller at mutasjoner i all hovedsak er skadelige og påfører langt mer skade enn de forbedrer og at hans forsøk hadde vist at antallet mutasjoner var proporsjonal med dosen av stråling de mottok, skriver Richard Rhodes i boka Energy: A Human History.
Dette måtte igjen bety, argumenterte Muller, at det ikke finnes noen grenseverdi for ioniserende stråling. Hver eneste stråledose, samme hvor liten, forårsaket en mutasjon, og de fleste mutasjoner var enten skadelige eller dødelige, og de er permanente og irreversible, sa han til Nobelinstituttet.
Det var en lineær sammenheng, og det fantes ingen grense for skadeeffekter (Linear no-threshold model, LNT).
Men som professor i toksikologi ved University of Massachusetts Edward Calabrese har avdekket, var Muller allerede før foredraget i Stockholm forelagt utkastet til en stor studie som kom til en helt annen konklusjon.
Mullers studie og og andre studier gjort fram til da hadde på effektene av strålingsdoser som var ekstremt høye. Mullers opprinnelige fluestudie så på strålingsdoser i størrelsen 2750 millisievert (mSv) gitt over en periode på en time, eller mindre.
Dette er helt ekstremt høye doser, til sammenlikning får vi over et år en dose på rundt 5 mSv fra naturlig bakgrunnsstråling i Norge. Muller så altså på doser tusen ganger høyere gitt på en fraksjon av tiden.
Men da hadde Ernst Caspari, en insektsforsker, satt opp en studie som så på effekten av lave doser spredt over tid.
Caspari så på strålingsdoser som lå på 2500 ganger lavere enn det Muller hadde forsket på. Målet var å se om det også da var noe sammenheng mellom stråling og mutasjonsfrekvens. Han utsatte fluene for 2,5 millisievert om dagen i 21 dager, og til alles store overraskelse var det ikke noe forskjell mellom de bestrålte fluene og fluene i kontrollgruppen.
I utkastet til studien skreiv Caspari;
«This result seems to be in direct contradiction to finding that acute irradiation with 50 rem and even 25 rem X-rays causes a significant increase in mutation rate.»
(rem er en gammel måleenhet, som nå er erstattet av sievert)
Men innen studien ble publisert hadde Muller manøvrert seg til å fagfellevurdere studien for Genetics, det vitenskapelige tidsskriftet som den ble publisert i, og da var setningen fjernet.
Etter dette fortsatte Muller, sammen med flere andre forskere, å promotere LNT-hypotesen, om at det ikke finnes noen nedre grenseverdi for skadelige effekter av ioniserende stråling.
Utover på 50-tallet ble LNT-modellen antatt av internasjonale komiteer som utarbeider retningslinjer som alle lands regulatoriske myndigheter følger og av Atomenergikommisjonen (AEC) som brukte den som fundament for hvordan de utformet regelverket for den nukleære industrien i USA.
I dag er LNT-modellen basis for praktisk talt all regulering av alt fra kjernekraftverk til bruk av radioaktive isotoper i medisin verden over.
Problemet er bare at funnene til Caspari står som en påle den dag i dag. Vi vet med stor sikkerhet at det er en sammenheng mellom risiko for kreft og stråling i høye doser. Men nyere metastudier gjort på feltet (McLean et.al 2017) finner ikke statistisk sikre sammenhenger under 100 millisievert per år, og og dette har vært situasjonen i de mer enn 70 årene som har gått siden Caspari publiserte sine resultater.
En vanlig nordmann får rundt 5 millisievert (mSv) per år, i hovedsak fra radon i hus og naturlig bakgrunnsstråling. Det globale snittet ligger på 2,4 millisievert, men det er steder som i Kerala i India og i Ramsar i Iran der folk lever med naturlig bakgrunnsstråling som gir dem mellom 40 og 130 mSv per år uten at det gir utslag på noe kreftstatistikk.
Spesielt lite egnet blir LNT-modellen når en overfører den til store befolkningsgrupper som har fått lave stråledoser og bunter dem sammen i såkalte kollektivdoser.
For å tro at LNT-modellen stemmer er vi nødt til å tro på en del merkelige antakelser. Det første er at vi ikke har mekanismer i cellene våre som reparerer hvis DNA-strengen brytes. Noe vi nå vet vi har, som Brian P. Hanley skriver i boka Exposure and its Treatment: A Modern Handbook.
Livet på denne jorda oppsto på en langt mer radioaktiv planet, og alle sammen har vi radioaktivitet i kroppene våre. Opp til en eller annen grenseverdi klarer kroppene våre helt fint å håndtere radioaktiv stråling, hadde vi ikke hatt det ville det ikke vært liv på denne planeten. LNT-modellen har ingen biologisk forankring.
Det andre er at LNT ikke har noen funksjon av tid. Akutt dose, eller samme dose spredt over tid, er like farlig ifølge LNT. I den norske læreboka Stråling og helse illustrerer forfatterne det med følgende eksempel på side 124;
«Hvis 10 mennesker hver spiste 1000 tabletter med aspirin ville den kollektive dose være 10 000 tabletter.
Risikoen for å dø av 1000 tabletter aspirin er stor og resultatet kunne vel være at 9 av de 10 døde (det ville da gi oss en risikofaktor som kunne brukes videre).
Hvis 10 000 mennesker hver tok 1 aspirintablett ville kollektivdosen fortsatt være 10 000 tabletter.
Risikoen for å dø av en tablett er uhyre liten, men hvis en slavisk bruker den lineære dose effekt kurve uten terskel vil 9 personer fortsatt dø etter en kollektivdose på 10 000 tabletter.»
Gitt LNT-modellen ville vi også fått ni dødsfall om 10 000 personer tok 1 asprintablett og delte den i 365 små biter som de spiste fordelt på et år.
Med disse åpenbare logiske kortslutningene fra LNT-modellen til grunn kunne de regulatoriske myndighetene sette nådestøtet på kjernekraftindustrien på 70- og 80-tallet ved å bidra til en kostnadsvekst som var helt ute av kontroll.
For det er helt rett som kritikere av kjernekraft ofte viser til; byggekostnadene for kjernekraft har økt radikalt siden 70-tallet.
I publikasjonen «NVE informerer om kjernekraftverk» fra 1970 antok NVE at en nøkkelferdig reaktor vil ha byggekostnader, omregnet til dagens verdi, på opptil 22 600 kroner per kilowatt.
I stedet ligger britenes nye kjernekraftverk Hinkley Point C til å bli kostende rundt fire ganger så mye per kilowatt.
Det samme ser vi i flere land i denne studien fra 2016, som ser på historiske byggekostnader for nye reaktorer. Selv i Frankrike, landet som bygde flest reaktorer på kortest tid på 70- og 80-tallet, vises en dobling i byggekostnadene fra tidlig på 70-tallet til 80-tallet.
Men vi må til USA for å finne de største utslagene. Fra at kostnadene jevnt gikk nedover mot slutten av 70-tallet, eksploderte plutselig byggekostnadene og flere reaktorer endte opp på med kostnader både 8 og 10 ganger så høye utover 80-tallet.
Det som skjedde var en helt naturlig kombinasjon av den feilaktige LNT-modellen som feilinformerer oss om risikoen ved lave strålingsdoser i kombinasjon med det regulatoriske prinsippet ALARA.
Men først må vi sette scenen – tilbake til 60-tallet. Dette var et tiår der olje, grunnet store nye forekomster i Midtøsten og radikalt lavere fraktkostnader på grunn av større tankskip, ble så billig at det albuet seg inn i strømmarkedet som fram til da hadde vært kullets domene. Olje gikk fra null til 15 prosent av USAs strømmarked på det tiåret og i Europa ble hele 20 prosent av strømmen produsert av oljekraftverk i 1971.
60-tallet var et tiår med knallhard konkurranse og ekstremt lave energikostnader, men likevel klarte enda en nykommer å albue seg inn på markedet og konkurrere godt med kull og olje; kjernekraft.
Over bare to år, 1966 og 1977, bestilte amerikanske strømselskaper hele 49 reaktorer. Totalt sett lå det inne ordrer på slutten av 60-tallet på så mange reaktorer at de kunne ha tatt mer enn en tredjedel av strømproduksjonen i USA.
Dette var bare 10 år etter USAs første kommersielle strømproduserende reaktor ble koblet til nettet. Selskaper som General Electric leverte reaktorer som konkurrerte godt med kullkraftverk som på sin side fikk stadig strengere utslippskrav.
Men utrolig nok var det oljekrisa (krisene) på 70-tallet som reddet kullkrafta og som etterhvert knuste muligheten for at kjernekraft skulle overta, skriver Jack Devanney i boka Why Nuclear Power has been a Flop.
Da OPEC innførte oljeembargoen som reaksjon på USAs støtte til Israel i 1973, ble olje plutselig alt annet enn billig. Våren 1974 kostet olje fem ganger så mye som den gjorde i 1968. Resultatet var en umiddelbar renessanse for både kull og kjernekraft.
Problemet var bare at kullprisene også økte utover 70-tallet som, i kombinasjon med stadig strengere krav til partikler og svovelutslipp, gjorde at prisene på strøm fra kullkraftverk også økte. Det gjorde igjen at det knapt fantes kostnader kjernekraftindustrien kunne påta seg, og likevel være billigere enn sin argeste konkurrenter.
Det fantes heller ikke grenser for hvilke reguleringer AEC og senere Nuclear Regulatory Committee (NRC) med LNT-modellen i hånd kunne pålegge industrien for å hindre eksponering av helt marginale doser stråling.
Det nye regulatoriske prinsippet ALARA var basert på LNT-modellen og ble innført i 1975 og krever at eksponeringen for radioaktiv stråling skal holdes så lav som rimelig oppnåelig (as low as reasonably achievable, forkortet ALARA).
Med begrepet «rimelig» er det knapt noen begrensning på høyt de kan sette kravene.
Blant annet ble det innført et krav om at kjernekraftverk skulle tåle det som kalles et dobbelt giljotin-brudd på den primære kjølekretsen. Det vil si de må bygge for at et rørstykke i mange centimeter tykt stål plutselig forsvinner, selv om det ikke akkurat er sånn det går hull på rør. Dette førte til helt ekstreme krav til oppstartstid på nødgeneratorer, overdimensjonering av nødkjøling og så videre.
I 1971 hadde USA rundt 100 koder og standarder som regulerer hvordan kjernekraftverk skulle bygges. I 1975 passerte de 1600. I 1978 ble det vedtatt 1,3 nye reguleringer hver eneste dag. Reguleringer som også ble påtvunget reaktorer allerede under bygging.
Dette førte til at antall timer som gikk med til å bygge et kjernekraftverk, økte nesten seks gangen mellom 1967 og 1980. Mengden stål og betong doblet seg. Antall meter kabel økte nesten firegangeren.
All den tid at kull og olje var skamdyrt på 70-tallet var ikke dette noe problem, men i 1979 begynte plutselig kullprisene å bikke nedover, mens kjernekraft fortsatte sin himmelflukt. Der kullprisene ble bestemt av markedet, var det ikke noe marked som begrenset antallet reguleringer.
Når så kullprisen sank og kjernekraftverkene bare økte i pris, stagnerte plutselig også etterspørselen etter mer strøm i USA, noe som gjorde at det ble bom stopp på all utbygging av nye reaktorer etter 80-tallet.
De to reaktorene som i disse dager ferdigstilles ved Vogtle Kjernekraftverk i delstaten Georgia er de første reaktorene som har gått gjennom godkjenningsprosessen hos NRC og senere blitt bygd siden NRC ble opprettet i 1974. Alle andre reaktorer bygd på 70- og 80-tallet var godkjent av AEC før 1974.
Det har ikke vært noen mangel på ytterligere reguleringer etter 70-tallet. Med alle ulykker og hendelser har nye reguleringer vært tilføyd. En enkelt 1 meter tykk kuppel i armert betong som omslutter hele reaktoren har blitt til to kupler på halvannen meter tykk armert betong i tillegg til en helsveist innervegg i stål.
To backup dieselgeneratorer som hver kan levere all strøm anlegget trenger ved en ulykke har blitt til to ganger fire stasjonære dieselgeneratorer i tillegg til to eller tre mobile dieselgeneratorer ved kraftverket.
De har fått krav om det som kalles en core-catcher som i tilfelle en ulykke der drivstoffet i kjernen smelter er et kammer dit den smeltede massen kan renne. Reaktorene må utstyres med utstyr som rekombinerer fritt hydrogen som potensielt ved en ulykke kan antennes, noe vi så ved Fukushima.
Listen bare fortsetter, og nå spekuleres det i om at kamphandlinger rundt Zaporizjzja kjernekraftverk i Ukraina vil føre til enda flere reguleringer.
Og all den tid ALARA og LNT ligger til grunn for hvordan industrien er regulert, er det ikke noe poeng å komme opp med en ny og revolusjonerende type reaktor som er radikalt billigere å bygge. Da flytter du samtidig bare på hva som kan defineres «rimelig» og de regulatoriske myndighetene kan pushe kostnadene opp til annen kraftproduksjon.
Det som er helt vanvittig med alle disse reguleringene som har kommet, er at vi nå begynner å ha veldig god forståelse for risikoen ved en ulykke ved et vestlig designet kjernekraftverk fra 70-tallet.
Three Mile Island-ulykken (TMI) i USA i 1979 skjedde som følge av defekt utstyr, dårlig trente operatører, kaotisk instrumentering og førte til tap av kjølevann til reaktoren og at brenselet i reaktortrykktanken delvis smelta.
Men de passive sikkerhetssystemene i form av betongkuppelen og ventilasjonssystemet fungerte akkurat etter planen, og med unntak av noen veldig kortlivede edelgasser var det knapt noe radioaktivt materiale som unnslapp til atmosfæren.
NRC anslår at selv basert på LNT-modellen er helsekonsekvensene av TMI-ulykken for små til å kunne måles, og skriver at 2 millioner mennesker i gjennomsnitt fikk en dose fra ulykken på under 1 prosent av de naturlige bakgrunnsstrålinga. Et røntgenbilde av brystet ville gitt seks ganger dosen til de som bodde rundt TMI.
Det samme gjelder Fukushima, der kjernen i ikke mindre enn tre reaktorer smelta. Selv ikke der forventes noen dødsfall knyttet til radioaktiv stråling.
Og det var selvsagt også LNT og ALARA som lå til grunn for at det var nødvendig å evakuere området rundt Fukushima i 2011. En evakuering som beviselig tok livet av rundt 1600 mennesker grunnet de kaotiske omstendighetene de skjedde under rett etter tsunamien.
Evakueringen skjedde for å unngå strålingsdoser på mellom 1,4 og 5,4 millisievert for en person som sto utendørs en måneds tid etter ulykken i byene som lå nærmest kraftverket (Takeo Ohnishi 2012). Om vedkommende gikk inn og sov om natta ville dosen vært lavere.
Dette tilsvarer dosen en får av en CT-skanning, bare fordelt utover mye lenger tid.
I stedet for LNT-modellen, som åpenbart ikke gir mening for lave strålingsdoser, mener Hanley at vi trenger en ny modell som passer dataene i langt større grad. Og det er jo sånn forskning i alle andre fagområder fungerer, passer ikke dataene med modellen, så forkastes modellen.
I stedet for en lineær respons mener Hanley en kurve som passer mye bedre til dataene er en S-kurve. Liten til ingen vekst i starten, før den øker tilnærmet lineært og flater ut igjen på toppen. Dette er en respons som er veldig vanlig i biologien.
Det ville bety at det finnes en grense der det ikke lenger er særlig poeng å sette inn tiltak. Jack Devanney mener for eksempel at det vil være liten vits i å evakuere et område med mindre strålingen overstiger 25 millisievert per måned. Det tilsvarer omtrent strålingsdosen en kan få i de områdene med høyest naturlig bakgrunnsstråling.
Om denne grensen ble brukt ved Fukushima, ville det ikke vært behov for å evakuere mer enn et område på fire kilometer i radius rundt kraftverket og det ville vært snakk om noen tusen evakuerte, i stedet for 160 000 personer.
Minst 1600 liv kunne vært spart og summen japanske myndigheter ville brukt på opprydningen etter ulykken ville vært en fraksjon av det de planlegger å bruke.
Til tross for all den vanvittige overreguleringen er det fortsatt mulig å bygge nye kjernekraftverk som konkurrerer helt fint med kostnadene til annen utslippsfri energiproduksjon. Med en finansieringsmodell mer egnet for slike politisk risikable og langtlevende investeringer anslår det franske elektrisitetsselskapet EDF at de kan bygge et nytt kjernekraftverk i Storbritannia for en avtalt strømpris på 40 til 60 øre per kilowattime.
Men det kan ikke være målet.
Målet må være å regulere industrien på et fornuftig vis slik at verdens eneste utslippsfrie energikilde uavhengig av været og med det minste fysiske fotavtrykket av alle energikilder kan realisere potensialet vi drømte om på 60-tallet.
Målet må være å pushe kostnadene for disse, i utgangspunktet veldig enkle maskinene for å varme vann, radikalt nedover.
Regulert rett kan vi få en energikilde som kan erstatte bunkersolje på skip, kan levere høytemperatur industriell prosessvarme til produksjon av hydrogen, kan kobles opp som energikilde i fjernvarmenett, eller kan produsere massive mengder strøm året rundt. Regulert rett finnes det fortsatt masse ny anvendelse av radioaktive isotoper innen industri og medisin.
Vi har virkelig ikke råd til å regulere denne sektoren feil. Men det er nettopp hva vi har tatt oss råd til å gjøre i et halvt århundre.