Horisonten til førstnevnte - og utover ...
Teknologi

Horisonten til førstnevnte - og utover ...

På den ene siden skulle de hjelpe oss med å beseire kreft, forutsi været nøyaktig og mestre kjernefysisk fusjon. På den annen side er det frykt for at de vil forårsake global ødeleggelse eller slavebinde menneskeheten. For øyeblikket er imidlertid beregningsmonstrene fortsatt ikke i stand til å gjøre stort godt og universelt ondt på samme tid.

På 60-tallet hadde de mest effektive datamaskinene kraften megaflopper (millioner av flyttalloperasjoner per sekund). Første datamaskin med prosessorkraft ovenfor 1 GFLOPS (gigaflops) var Cray 2, produsert av Cray Research i 1985. Den første modellen med prosessorkraft over 1 TFLOPS (teraflops) var ASCI rød, opprettet av Intel i 1997. Effekt 1 PFLOPS (petaflops) nådd Roadrunner, utgitt av IBM i 2008.

Den nåværende datakraftrekorden tilhører den kinesiske Sunway TaihuLight og er 9 PFLOPS.

Selv om, som du kan se, de kraftigste maskinene ennå ikke har nådd hundrevis av petaflops, flere og flere exascale systemerhvor kraften må tas i betraktning exaflopsach (EFLOPS), dvs. ca. mer enn 1018 operasjoner per sekund. Imidlertid er slike design fortsatt bare på stadiet av prosjekter av ulik grad av raffinement.

REDUKSJONER (, flytepunktoperasjoner per sekund) er en enhet for datakraft som hovedsakelig brukes i vitenskapelige applikasjoner. Den er mer allsidig enn den tidligere brukte MIPS-blokken, som betyr antall prosessorinstruksjoner per sekund. En flopp er ikke en SI, men den kan tolkes som en enhet på 1/s.

Du trenger en exascale for kreft

En exaflops, eller tusen petaflops, er mer enn alle de XNUMX beste superdatamaskinene til sammen. Forskere håper at en ny generasjon maskiner med slik kraft vil gi gjennombrudd på ulike felt.

Exascale datakraft kombinert med raskt avanserte maskinlæringsteknologier bør hjelpe, for eksempel, endelig knekke kreftkoden. Datamengden legene må ha for å kunne diagnostisere og behandle kreft er så stor at det er vanskelig for vanlige datamaskiner å takle oppgaven. I en typisk enkelttumorbiopsistudie blir det tatt mer enn 8 millioner målinger, der leger analyserer svulstens oppførsel, dens respons på farmakologisk behandling og effekten på pasientens kropp. Dette er et ekte hav av data.

sa Rick Stevens fra US Department of Energy (DOE) Argonne Laboratory. -

Å kombinere medisinsk forskning med datakraft, jobber forskerne med CANDLE nevrale nettverkssystem (). Dette lar deg forutsi og utvikle en behandlingsplan tilpasset de individuelle behovene til hver enkelt pasient. Dette vil hjelpe forskere til å forstå det molekylære grunnlaget for nøkkelproteininteraksjoner, utvikle prediktive medisinresponsmodeller og foreslå optimale behandlingsstrategier. Argonne mener at exascale-systemer vil kunne kjøre CANDLE-applikasjonen 50 til 100 ganger raskere enn de kraftigste supermaskinene som er kjent i dag.

Derfor ser vi frem til utseendet til exascale superdatamaskiner. De første versjonene vil imidlertid ikke nødvendigvis vises i USA. Selvfølgelig er USA i kappløpet om å skape dem, og de lokale myndighetene i et prosjekt kjent som Aurora samarbeider med AMD, IBM, Intel og Nvidia, og streber etter å komme foran utenlandske konkurrenter. Dette forventes imidlertid ikke å skje før 2021. I mellomtiden, i januar 2017, kunngjorde kinesiske eksperter etableringen av en exascale prototype. En fullt fungerende modell av denne typen beregningsenhet er − Tianhe-3 – det er imidlertid lite sannsynlig at den blir klar i løpet av de neste årene.

Kineserne holder godt fast

Faktum er at siden 2013 har kinesisk utvikling toppet listen over de kraftigste datamaskinene i verden. Han dominerte i årevis Tianhe-2og nå hører palmen til de nevnte Sunway TaihuLight. Det antas at disse to kraftigste maskinene i Midtriket er mye kraftigere enn alle de tjueen superdatamaskinene i det amerikanske energidepartementet.

Amerikanske forskere ønsker selvfølgelig å gjenvinne den ledende posisjonen de hadde for fem år siden, og jobber med et system som vil tillate dem å gjøre dette. Det bygges ved Oak Ridge National Laboratory i Tennessee. Toppmøte (2), en superdatamaskin som skal settes i drift senere i år. Den overgår kraften til Sunway TaihuLight. Det vil bli brukt til å teste og utvikle nye materialer som er sterkere og lettere, for å simulere det indre av jorden ved hjelp av akustiske bølger, og for å støtte astrofysikkprosjekter som undersøker universets opprinnelse.

2. Romlig plan for Summit-superdatamaskinen

Ved det nevnte Argonne National Laboratory planlegger forskerne snart å bygge en enda raskere enhet. Kjent som A21Ytelsen forventes å nå 200 petaflops.

Japan deltar også i superdatakappløpet. Selv om det nylig har blitt overskygget av rivaliseringen mellom USA og Kina, er det dette landet som planlegger å lansere ABKI system (), som tilbyr 130 petaflops med kraft. Japanerne håper at en slik superdatamaskin kan brukes til å utvikle AI (kunstig intelligens) eller dyp læring.

I mellomtiden har EU-parlamentet nettopp besluttet å bygge en superdatamaskin på milliarder euro. Dette datamonsteret vil begynne sitt arbeid for forskningssentrene på kontinentet vårt ved årsskiftet 2022 og 2023. Maskinen skal bygges innenfor EuroGPC-prosjektetog byggingen vil bli finansiert av medlemslandene – så Polen vil også delta i dette prosjektet. Dens forutsagte kraft blir ofte referert til som "pre-exascale".

Så langt, ifølge 2017-rangeringen, av de fem hundre raskeste superdatamaskinene i verden, har Kina 202 slike maskiner (40 %), mens Amerika kontrollerer 144 (29 %).

Kina bruker også 35 % av verdens datakraft sammenlignet med 30 % i USA. De neste landene med flest superdatamaskiner på listen er Japan (35 systemer), Tyskland (20), Frankrike (18) og Storbritannia (15). Det er verdt å merke seg at, uavhengig av opprinnelsesland, bruker alle fem hundre av de kraftigste superdatamaskinene forskjellige versjoner av Linux ...

De designer selv

Superdatamaskiner er allerede et verdifullt verktøy som støtter vitenskapelige og teknologiske industrier. De gjør det mulig for forskere og ingeniører å gjøre jevn fremgang (og noen ganger til og med store sprang fremover) på områder som biologi, vær- og klimavarsling, astrofysikk og atomvåpen.

Resten avhenger av deres makt. I løpet av de neste tiårene kan bruken av superdatamaskiner i betydelig grad endre den økonomiske, militære og geopolitiske situasjonen til de landene som har tilgang til denne typen banebrytende infrastruktur.

Fremgangen på dette feltet er så rask at utformingen av nye generasjoner mikroprosessorer allerede har blitt for vanskelig selv for mange menneskelige ressurser. Av denne grunn spiller avansert dataprogramvare og superdatamaskiner i økende grad en ledende rolle i utviklingen av datamaskiner, inkludert de med prefikset "super".

3. Japansk superdatamaskin

Farmasøytiske selskaper vil snart kunne operere fullt ut takket være datasuperkrefter behandle et stort antall menneskelige genomer, dyr og planter som vil bidra til å skape nye medisiner og behandlinger for ulike sykdommer.

En annen grunn (faktisk en av de viktigste) til at regjeringer investerer så mye i utviklingen av superdatamaskiner. Mer effektive kjøretøy vil hjelpe fremtidige militære ledere med å utvikle klare kampstrategier i enhver kampsituasjon, tillate utvikling av mer effektive våpensystemer, og støtte rettshåndhevelse og etterretningsbyråer i å identifisere potensielle trusler på forhånd.

Ikke nok kraft til hjernesimulering

Nye superdatamaskiner skal bidra til å tyde den naturlige superdatamaskinen som har vært kjent for oss i lang tid – menneskehjernen.

Et internasjonalt team av forskere har nylig utviklet en algoritme som representerer et viktig nytt skritt i å modellere hjernens nevrale forbindelser. Ny NEST-algoritme, beskrevet i en åpen artikkel publisert i Frontiers in Neuroinformatics, forventes å simulere 100 milliarder sammenkoblede menneskelige hjerneneuroner på superdatamaskiner. Forskere fra det tyske forskningssenteret Jülich, Norges miljø- og biovitenskapelige universitet, Universitetet i Aachen, det japanske RIKEN-instituttet og KTH Kungliga Tekniska Högskolan i Stockholm var involvert i arbeidet.

Siden 2014 har storskala nevrale nettverkssimuleringer kjørt på RIKEN og JUQUEEN superdatamaskiner ved Jülich Supercomputing Center i Tyskland, og simulerer forbindelsene til omtrent 1 % av nevronene i den menneskelige hjernen. Hvorfor bare så mange? Kan superdatamaskiner simulere hele hjernen?

Susanne Kunkel fra det svenske selskapet KTH forklarer.

Under simuleringen må et nevronaksjonspotensial (korte elektriske impulser) sendes til omtrent alle 100 XNUMX personer. små datamaskiner, kalt noder, hver utstyrt med en rekke prosessorer som utfører selve beregningene. Hver node sjekker hvilke av disse impulsene som er relatert til de virtuelle nevronene som finnes i denne noden.

4. Modellering av hjerneforbindelsene til nevroner, dvs. vi er bare i begynnelsen av reisen (1 %)

Det er klart at mengden dataminne som kreves av prosessorer for disse ekstra bitene per nevron øker med størrelsen på det nevrale nettverket. Å gå utover 1% simulering av hele den menneskelige hjernen (4) ville kreve XNUMX ganger mer minne enn det som er tilgjengelig i alle superdatamaskiner i dag. Derfor ville det være mulig å snakke om å oppnå en simulering av hele hjernen bare i sammenheng med fremtidige exascale superdatamaskiner. Det er her neste generasjons NEST-algoritme skal fungere.

TOP-5 superdatamaskiner i verden

1. Sanway TaihuLight – En 93 PFLOPS superdatamaskin lansert i 2016 i Wuxi, Kina. Siden juni 2016 har den toppet TOP500-listen over superdatamaskiner med den høyeste datakraften i verden.

2. Tianhe-2 (Melkeveien-2) er en superdatamaskin med en datakraft på 33,86 PFLOPS bygget av NUDT () i Kina. Fra juni 2013

frem til juni 2016 var det den raskeste superdatamaskinen i verden.

3. Pease Dynt - et design utviklet av Cray, installert ved Swiss National Supercomputing Center (). Den ble nylig oppgradert – Nvidia Tesla K20X-akseleratorer ble erstattet med nye, Tesla P100, som gjorde det mulig å øke datakraften fra 2017 til 9,8 PFLOPS sommeren 19,6.

4. Gyokou er en superdatamaskin utviklet av ExaScaler og PEZY Computing. Lokalisert ved Japan Agency for Marine Science and Technology (JAMSTEC) ved Yokohama Institute of Geosciences; i samme etasje som Jordsimulatoren. Effekt: 19,14 PFLOPs.

5. Titan er en 17,59 PFLOPS superdatamaskin produsert av Cray Inc. og ble lansert i oktober 2012 ved Oak Ridge National Laboratory i USA. Fra november 2012 til juni 2013 var Titan verdens raskeste superdatamaskin. Den ligger for øyeblikket på femteplass, men er fortsatt den raskeste superdatamaskinen i USA.

De konkurrerer også om overlegenhet i kvante

IBM tror at i løpet av de neste fem årene, ikke superdatamaskiner basert på tradisjonelle silisiumbrikker, men vil begynne å kringkaste. Industrien begynner så vidt å forstå hvordan kvantedatamaskiner kan brukes, ifølge selskapets forskere. Ingeniører forventes å oppdage de første store bruksområdene for disse maskinene på bare fem år.

Kvantedatamaskiner bruker en dataenhet kalt kubitem. Vanlige halvledere representerer informasjon i form av sekvenser på 1 og 0, mens qubits viser kvanteegenskaper og kan samtidig utføre beregninger som 1 og 0. Dette betyr at to qubits samtidig kan representere sekvenser på 1-0, 1-1, 0-1 . ., 0-0. Datakraften vokser eksponentielt for hver qubit, så teoretisk sett kan en kvantedatamaskin med bare 50 qubits ha mer prosessorkraft enn verdens kraftigste superdatamaskiner.

D-Wave Systems selger allerede en kvantedatamaskin, som det sies å være 2 av. qubits. derimot D-Wav kopiere(5) er diskutable. Selv om noen forskere har brukt dem godt, har de fortsatt ikke utkonkurrert klassiske datamaskiner og er bare nyttige for visse klasser av optimaliseringsproblemer.

5. D-Wave kvantedatamaskiner

For noen måneder siden viste Google Quantum AI Lab frem en ny 72-qubit kvanteprosessor kalt bustkjegler (6). Den kan snart oppnå "kvanteoverlegenhet" ved å overgå en klassisk superdatamaskin, i hvert fall når det gjelder å løse noen problemer. Når en kvanteprosessor viser en tilstrekkelig lav feilrate i drift, kan den være mer effektiv enn en klassisk superdatamaskin med en veldefinert IT-oppgave.

6. Bristlecone 72 qubit kvanteprosessor

Neste i rekken var Google-prosessoren, for i januar kunngjorde for eksempel Intel sitt eget 49-qubit kvantesystem, og tidligere introduserte IBM en 50-qubit-versjon. Intel-brikke, Loihi, den er nyskapende på andre måter også. Det er den første "nevromorfe" integrerte kretsen designet for å etterligne hvordan den menneskelige hjernen lærer og forstår. Den er «fullt funksjonell» og vil være tilgjengelig for forskningspartnere senere i år.

Dette er imidlertid bare begynnelsen, for for å kunne håndtere silisiummonstre trenger du z millioner av qubits. En gruppe forskere ved det nederlandske tekniske universitetet i Delft håper at måten å oppnå slik skala på er å bruke silisium i kvantedatamaskiner, fordi medlemmene deres har funnet en løsning på hvordan man bruker silisium for å lage en programmerbar kvanteprosessor.

I deres studie, publisert i tidsskriftet Nature, kontrollerte det nederlandske teamet rotasjonen av et enkelt elektron ved hjelp av mikrobølgeenergi. I silisium vil elektronet snurre opp og ned på samme tid, og effektivt holde det på plass. Når det var oppnådd, koblet teamet to elektroner sammen og programmerte dem til å kjøre kvantealgoritmer.

Det var mulig å lage på basis av silisium to-bits kvanteprosessor.

Dr Tom Watson, en av forfatterne av studien, forklarte til BBC. Hvis Watson og teamet hans klarer å smelte sammen enda flere elektroner, kan det føre til et opprør. qubit-prosessorerdette vil bringe oss et skritt nærmere fremtidens kvantedatamaskiner.

- Den som bygger en fullt fungerende kvantedatamaskin vil styre verden Manas Mukherjee fra National University of Singapore og hovedetterforsker ved National Center for Quantum Technology sa nylig i et intervju. Kappløpet mellom de største teknologiselskapene og forskningslaboratoriene er for tiden fokusert på den såkalte kvanteoverlegenhet, punktet der en kvantedatamaskin kan utføre beregninger utover alt de mest avanserte moderne datamaskiner kan tilby.

Eksemplene ovenfor på prestasjonene til Google, IBM og Intel indikerer at selskaper fra USA (og dermed staten) dominerer på dette området. Nylig lanserte imidlertid Kinas Alibaba Cloud en 11-qubit prosessorbasert cloud computing-plattform som lar forskere teste nye kvantealgoritmer. Dette betyr at Kina innen kvanteberegningsblokker heller ikke dekker pærene med aske.

Arbeidet med å lage kvantesuperdatamaskiner er imidlertid ikke bare begeistret for nye muligheter, men forårsaker også kontrovers.

For noen måneder siden, under den internasjonale konferansen om kvanteteknologi i Moskva, sa Alexander Lvovsky (7) fra Russian Quantum Center, som også er professor i fysikk ved University of Calgary i Canada, at kvantedatamaskiner ødeleggelsesverktøyuten å skape.

7. Professor Alexander Lvovsky

Hva mente han? Først av alt, digital sikkerhet. Foreløpig er all sensitiv digital informasjon som overføres over Internett kryptert for å beskytte personvernet til interesserte parter. Vi har allerede sett tilfeller der hackere kunne fange opp disse dataene ved å bryte krypteringen.

Ifølge Lvov vil utseendet til en kvantedatamaskin bare gjøre det lettere for nettkriminelle. Ingen krypteringsverktøy kjent i dag kan beskytte seg mot prosessorkraften til en ekte kvantedatamaskin.

Medisinske journaler, finansiell informasjon og til og med hemmelighetene til regjeringer og militære organisasjoner ville være tilgjengelig i en boks, noe som ville bety, som Lvovsky bemerker, at ny teknologi kan true hele verdensordenen. Andre eksperter mener at russernes frykt er ubegrunnet, siden opprettelsen av en ekte kvantesuperdatamaskin vil også tillate sette i gang kvantekryptografi, anses som uforgjengelig.

En annen tilnærming

I tillegg til tradisjonell datateknologi og utvikling av kvantesystemer, jobber ulike sentre med andre metoder for å bygge fremtidens superdatamaskiner.

Det amerikanske byrået DARPA finansierer seks sentre for alternative datadesignløsninger. Arkitekturen som brukes i moderne maskiner kalles konvensjonelt von Neumann arkitekturÅ, han er allerede sytti år gammel. Forsvarsorganisasjonens støtte til universitetsforskere har som mål å utvikle en smartere tilnærming til å håndtere store datamengder enn noen gang før.

Bufring og parallell databehandling Her er noen eksempler på de nye metodene disse teamene jobber med. En annen ADA (), som forenkler applikasjonsutvikling ved å konvertere CPU- og minnekomponenter med moduler til én enhet, i stedet for å håndtere problemer med tilkoblingen deres på hovedkortet.

I fjor demonstrerte et team av forskere fra Storbritannia og Russland at typen "Magisk støv"som de er sammensatt av lys og materie - til syvende og sist overlegen i "ytelse" til selv de kraftigste superdatamaskinene.

Forskere fra de britiske universitetene i Cambridge, Southampton og Cardiff og det russiske Skolkovo Institute brukte kvantepartikler kjent som polaritonersom kan defineres som noe mellom lys og materie. Dette er en helt ny tilnærming til databehandling. Ifølge forskere kan den danne grunnlaget for en ny type datamaskin som er i stand til å løse foreløpig uløselige spørsmål – innen ulike felt, som biologi, finans og romfart. Resultatene av studien er publisert i tidsskriftet Nature Materials.

Husk at dagens superdatamaskiner bare kan håndtere en liten brøkdel av problemene. Selv en hypotetisk kvantedatamaskin, hvis den endelig bygges, vil i beste fall gi en kvadratisk hastighet for å løse de mest komplekse problemene. I mellomtiden skapes polaritonene som skaper "fe-støv" ved å aktivere lag av gallium-, arsen-, indium- og aluminiumatomer med laserstråler.

Elektronene i disse lagene absorberer og sender ut lys av en bestemt farge. Polaritoner er ti tusen ganger lettere enn elektroner og kan nå tilstrekkelig tetthet til å gi opphav til en ny materietilstand kjent som Bose-Einstein kondensat (åtte). Kvantefasene til polaritonene i den er synkronisert og danner et enkelt makroskopisk kvanteobjekt, som kan oppdages ved fotoluminescensmålinger.

8. Plott som viser et Bose-Einstein-kondensat

Det viser seg at i denne spesielle tilstanden kan et polariton-kondensat løse optimaliseringsproblemet vi nevnte når vi beskrev kvantedatamaskiner mye mer effektivt enn qubit-baserte prosessorer. Forfatterne av britisk-russiske studier har vist at når polaritoner kondenserer, er deres kvantefaser ordnet i en konfigurasjon som tilsvarer det absolutte minimum av en kompleks funksjon.

"Vi er i begynnelsen av å utforske potensialet til polaritonplott for å løse komplekse problemer," skriver Nature Materials medforfatter Prof. Pavlos Lagoudakis, leder for Hybrid Photonics Laboratory ved University of Southampton. "Vi skalerer enheten vår til hundrevis av noder mens vi tester den underliggende prosessorkraften."

I disse eksperimentene fra verden av subtile kvantefaser av lys og materie, ser til og med kvanteprosessorer ut til å være noe klønete og fast forbundet med virkeligheten. Som du kan se, jobber forskerne ikke bare med morgendagens superdatamaskiner og maskinene i overmorgen, men de planlegger allerede hva som skal skje i overmorgen.

På dette tidspunktet vil det være litt av en utfordring å nå exascale, da vil du tenke på de neste milepælene på floppskalaen (9). Som du kanskje har gjettet, er det ikke nok å bare legge til prosessorer og minne til det. Hvis man skal tro forskere, vil det å oppnå en så kraftig datakraft tillate oss å løse megaproblemer som er kjent for oss, for eksempel å tyde kreft eller analysere astronomiske data.

9. Fremtiden til superdatabehandling

Match spørsmålet med svaret

Hva blir det neste?

Vel, når det gjelder kvantedatamaskiner dukker det opp spørsmål om hva de skal brukes til. I følge det gamle ordtaket løser datamaskiner problemer som ikke ville eksistert uten dem. Så vi bør sannsynligvis bygge disse futuristiske supermaskinene først. Da vil problemer oppstå av seg selv.

På hvilke områder kan kvantedatamaskiner være nyttige?

Kunstig intelligens. AI () jobber etter prinsippet om læring gjennom erfaring, som blir mer og mer nøyaktig ettersom tilbakemeldinger mottas og til dataprogrammet blir «smart». Tilbakemeldingen er basert på beregninger av sannsynlighetene for en rekke mulige alternativer. Vi vet allerede at Lockheed Martin, for eksempel, planlegger å bruke sin D-Wave kvantedatamaskin til å teste autopilotprogramvare som for tiden er for kompleks for klassiske datamaskiner, og Google bruker en kvantedatamaskin for å utvikle programvare som kan skille biler fra landemerker.

Molekylær modellering. Takket være kvantedatamaskiner vil det være mulig å nøyaktig modellere molekylære interaksjoner, på jakt etter de optimale konfigurasjonene for kjemiske reaksjoner. Kvantekjemi er så kompleks at moderne digitale datamaskiner bare kan analysere de enkleste molekylene. Kjemiske reaksjoner er kvante i naturen fordi de skaper svært sammenfiltrede kvantetilstander som overlapper hverandre, så fullt utviklede kvantedatamaskiner kan enkelt evaluere selv de mest komplekse prosessene. Google har allerede utviklingen på dette området – de har modellert hydrogenmolekylet. Resultatet vil bli mer effektive produkter, fra solcellepaneler til medisiner.

Kryptografi. Sikkerhetssystemer i dag er avhengige av effektiv primærgenerering. Dette kan oppnås med digitale datamaskiner ved å se etter alle mulige faktorer, men den store mengden tid som kreves for å gjøre det, gjør "kodebryting" kostbart og upraktisk. I mellomtiden kan kvantedatamaskiner gjøre dette eksponentielt, mer effektivt enn digitale maskiner, noe som betyr at dagens sikkerhetsmetoder snart vil bli foreldet. Det er også lovende kvantekrypteringsmetoder som utvikles for å dra nytte av den ensrettede karakteren til kvantesammenfiltring. Byomfattende nettverk er allerede demonstrert i flere land, og kinesiske forskere annonserte nylig at de sender sammenfiltrede fotoner fra en "kvantesatellitt" i bane til tre separate basestasjoner tilbake til jorden.

Finansiell modellering. Moderne markeder er blant de mest komplekse systemene som finnes. Selv om det vitenskapelige og matematiske apparatet for deres beskrivelse og kontroll er utviklet, er effektiviteten av slike aktiviteter fortsatt stort sett utilstrekkelig på grunn av den grunnleggende forskjellen mellom vitenskapelige disipliner: det er ikke noe kontrollert miljø der eksperimenter kan utføres. For å løse dette problemet har investorer og analytikere vendt seg til kvantedatabehandling. En umiddelbar fordel er at tilfeldigheten som ligger i kvantedatamaskiner er i samsvar med finansmarkedenes stokastiske natur. Investorer ønsker ofte å evaluere fordelingen av utfall i et svært stort antall tilfeldig genererte scenarier.

Værmelding. NOAAs sjeføkonom Rodney F. Weiher hevder at nesten 30 % av USAs BNP (6 billioner dollar) er direkte eller indirekte avhengig av været. for matproduksjon, transport og detaljhandel. Dermed vil evnen til å bedre forutsi auraen være svært nyttig på mange områder, for ikke å nevne den lengre tiden som er tildelt for beskyttelse mot naturkatastrofer. Storbritannias nasjonale meteorologiske arm, Met Office, har allerede begynt å investere i slike innovasjoner for å møte kraft- og skalerbarhetsbehovene den vil måtte håndtere fra 2020 og fremover, og har publisert en rapport om sine egne databehov i exascale.

Partikkelfysikk. Faste partikkelfysikkmodeller er ofte ekstremt komplekse, intrikate løsninger som krever mye beregningstid for numeriske simuleringer. Dette gjør dem ideelle for kvanteberegning, og forskere har allerede utnyttet dette. Forskere ved Universitetet i Innsbruck og Institute for Quantum Optics and Quantum Information (IQOQI) brukte nylig et programmerbart kvantesystem for å utføre denne simuleringen. I følge en publikasjon i Nature brukte gruppen en enkel versjon av en kvantedatamaskin der ioner utførte logiske operasjoner, de grunnleggende trinnene i enhver datamaskinberegning. Simuleringen viste fullstendig samsvar med de virkelige eksperimentene i den beskrevne fysikken. sier teoretisk fysiker Peter Zoller. - 

Legg til en kommentar