Det har blitt foreslått av en rekke akademikere og politiske eksperter at International Science Council – med sitt pluralistiske medlemskap fra samfunns- og naturvitenskapene – etablerer en prosess for å produsere og vedlikeholde et kommentert rammeverk/sjekkliste over risikoer, fordeler, trusler og muligheter knyttet til raskt bevegelige digitale teknologier, inkludert – men ikke begrenset til – AI. Hensikten med sjekklisten ville være å informere alle interessenter – inkludert regjeringer, handelsforhandlere, regulatorer, sivilsamfunn og industri – om potensielle fremtidige scenarier, og ville ramme hvordan de kan vurdere mulighetene, fordelene, risikoene og andre problemer.
ISC er glad for å presentere dette diskusjonspapiret om evaluering av raskt utviklende digital og relatert teknologi. Kunstig intelligens, syntetisk biologi og kvanteteknologier er gode eksempler på innovasjon, informert av vitenskap, som dukker opp i et enestående tempo. Det kan være utfordrende å systematisk forutse ikke bare deres søknader, men også deres implikasjoner.
Evaluering av de samfunnsmessige aspektene ved generativ AI som store språkmodeller, som forutsigbart representerer hoveddelen av denne diskusjonsartikkelen, er en nødvendig bro innenfor den nåværende diskursen – noen ganger panikkdrevet, andre ganger ikke dyptgående nok i tankene – og de nødvendige kursene for tiltak vi kan ta. ISC er overbevist om at et analytisk rammeverk mellom sosial aksept av slike nye teknologier og deres mulige regulering er nødvendig for å lette diskusjonene med flere interessenter som er nødvendige for å ta informerte og ansvarlige beslutninger om hvordan man kan optimalisere de sosiale fordelene med denne raskt fremvoksende teknologien.
ISC er åpen for reaksjoner fra samfunnet vårt gjennom dette diskusjonspapiret for å vurdere hvordan man best kan fortsette å være en del av og bidra til debatten rundt teknologi.
Salvatore Aricò, administrerende direktør
Et ISC-diskusjonspapir
Et rammeverk for å evaluere raskt utviklende digitale og relaterte teknologier: AI, store språkmodeller og mer
Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.
Last ned rapportenNy! Les 2024-versjonen for beslutningstakere med et nedlastbart rammeverk for organisasjonen din.
En veiledning for beslutningstakere: Evaluering av raskt utviklende teknologier, inkludert AI, store språkmodeller og mer
Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.
Innhold
Introduksjon
Raskt fremvoksende teknologier byr på utfordrende problemer når det gjelder styring og potensiell regulering. Politikken og den offentlige debatten om kunstig intelligens (AI) og bruken av den har satt disse spørsmålene i akutt fokus. Mens brede prinsipper for AI har blitt kunngjort av UNESCO, OECD og andre, og det er begynnende diskusjoner angående global eller jurisdiksjonell regulering av teknologien, er det et ontologisk gap mellom utviklingen av prinsipper på høyt nivå og deres inkorporering i regulering, politikk, tilnærminger til styring og forvaltning. Det er her det ikke-statlige vitenskapelige miljøet kan ha en spesiell rolle.
Det har blitt foreslått av en rekke akademikere og politiske eksperter at International Science Council (ISC) – med sitt pluralistiske medlemskap fra samfunns- og naturvitenskap – etablerer en prosess for å produsere og vedlikeholde et kommentert rammeverk/sjekkliste over risikoer, fordeler, trusler og muligheter knyttet til raskt bevegelige digitale teknologier, inkludert – men ikke begrenset til – AI. Hensikten med sjekklisten ville være å informere alle interessenter – inkludert regjeringer, handelsforhandlere, regulatorer, sivilsamfunn og industri – om potensielle fremtidige scenarier, og ville ramme hvordan de kan vurdere mulighetene, fordelene, risikoene og andre problemer.
Resultatene vil ikke fungere som et vurderingsorgan, men som et adaptivt og utviklende analytisk rammeverk som kan underbygge enhver vurderings- og reguleringsprosess som kan utvikles av interessenter, inkludert regjeringer og det multilaterale systemet. Ethvert analytisk rammeverk bør ideelt sett utvikles uavhengig av påstander fra myndigheter og industri, gitt deres forståelige interesser. Den må også være maksimalt pluralistisk i sine perspektiver, og dermed omfatte alle aspekter av teknologien og dens implikasjoner.
Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.
Bakgrunn: Hvorfor et analytisk rammeverk?
Den raske fremveksten av en teknologi med kompleksiteten og implikasjonene til AI driver mange påstander om store fordeler. Det vekker imidlertid også frykt for betydelige risikoer, fra individ til geostrategisk nivå. Mye av diskusjonen har en tendens til å foregå i de ytterste ender av spekteret av synspunkter, og en mer pragmatisk tilnærming er nødvendig. AI-teknologi vil fortsette å utvikle seg og historien viser at praktisk talt hver teknologi har både fordelaktige og skadelige bruksområder. Spørsmålet er derfor: hvordan kan vi oppnå fordelaktige resultater fra denne teknologien, samtidig som vi reduserer risikoen for skadelige konsekvenser, hvorav noen kan være eksistensielle i omfang?
Fremtiden er alltid usikker, men det er tilstrekkelig med troverdige og ekspertstemmer angående AI og generativ AI til å oppmuntre til en relativt føre-var-tilnærming. I tillegg er det nødvendig med en systemtilnærming, fordi AI er en klasse av teknologier med bred bruk og anvendelse av flere typer brukere. Dette betyr at hele konteksten må tas i betraktning når man vurderer implikasjonene av AI for individer, sosialt liv, samfunnsliv, samfunnsliv og i global kontekst.
I motsetning til de fleste tidligere teknologier, har digitale og relaterte teknologier svært kort tid fra utvikling til utgivelse, i stor grad drevet av interessene til produksjonsselskapene eller byråene. AI er raskt gjennomgripende; noen egenskaper kan først bli synlige etter utgivelsen, og teknologien kan ha både ondsinnede og velvillige applikasjoner. Viktige verdidimensjoner vil påvirke hvordan enhver bruk oppfattes. Videre kan det være geostrategiske interesser i spill.
Til dags dato har reguleringen av en virtuell teknologi i stor grad blitt sett gjennom linsen av "prinsipper" og frivillig etterlevelse. I senere tid har diskusjonen imidlertid dreid seg om spørsmål om nasjonal og multilateral styring, inkludert bruk av regulatoriske og andre politiske verktøy. Påstandene som fremsettes for eller mot AI er ofte hyperbolske og – gitt teknologiens natur – vanskelig å vurdere. Det vil være utfordrende å etablere et effektivt globalt eller nasjonalt teknologireguleringssystem, og det vil være behov for flere lag med risikoinformert beslutningstaking langs kjeden, fra oppfinner til produsent, til bruker, til myndigheter og til det multilaterale systemet.
Mens prinsipper på høyt nivå har blitt kunngjort av blant annet UNESCO, OECD og EU-kommisjonen, og ulike diskusjoner på høyt nivå er i gang angående spørsmål om potensiell regulering, er det et stort ontologisk gap mellom slike prinsipper og et styrings- eller regelverk. Hva er taksonomien av hensyn som en regulator kan trenge å vurdere? En snevert fokusert innramming ville være uklokt, gitt de brede implikasjonene av disse teknologiene. Dette potensialet har vært gjenstand for mange kommentarer, både positive og negative.
Utvikling av et analytisk rammeverk
ISC er den primære globale NGO som integrerer natur- og samfunnsvitenskap. Dens globale og disiplinære rekkevidde betyr at den er godt posisjonert til å generere uavhengige og globalt relevante råd for å informere om de komplekse valgene fremover, spesielt ettersom de nåværende stemmene på denne arenaen i stor grad er fra industrien eller fra de store teknologiske maktene. Etter omfattende diskusjoner de siste månedene, inkludert vurdering av en ikke-statlig vurderingsprosess, konkluderte ISC med at dens mest nyttige bidrag ville være å produsere og opprettholde et adaptivt analytisk rammeverk som kan brukes som grunnlag for diskurs og beslutningstaking av alle interessenter, inkludert under enhver formell vurderingsprosess som dukker opp.
Dette rammeverket vil ha form av en overordnet sjekkliste som kan brukes av både statlige og ikke-statlige institusjoner. Rammeverket identifiserer og utforsker potensialet til en teknologi som AI og dens derivater gjennom en vid linse som omfatter menneskelig og samfunnsmessig velvære, så vel som eksterne faktorer, som økonomi, politikk, miljø og sikkerhet. Noen aspekter av sjekklisten kan være mer relevante enn andre, avhengig av konteksten, men bedre beslutninger er mer sannsynlig hvis alle domener vurderes. Dette er den iboende verdien av en sjekklistetilnærming.
Det foreslåtte rammeverket er avledet fra tidligere arbeid og tenkning, inkludert International Network for Governmental Science Advice (INGSA) sin digitale velværerapport1 og OECD AI Classification Framework2 å presentere helheten av de potensielle mulighetene, risikoene og virkningene av AI. Disse tidligere produktene var mer begrenset i sin hensikt gitt deres tid og kontekst, det er behov for et overordnet rammeverk som presenterer hele spekteret av problemstillinger både på kort og lang sikt.
Selv om dette analytiske rammeverket er utviklet med tanke på kunstig intelligens, kan det brukes på hvilken som helst raskt voksende teknologi. Problemstillingene er grovt sett gruppert i følgende kategorier for videre undersøkelse:
En liste over hensyn for hver av kategoriene ovenfor er inkludert sammen med deres respektive muligheter og konsekvenser. Noen er relevante for spesifikke tilfeller eller applikasjoner av AI, mens andre er generiske og agnostiske for plattform eller bruk. Ingen enkelt hensyn inkludert her bør behandles som en prioritet, og som sådan bør alle undersøkes.
Hvordan kan dette rammeverket brukes?
Dette rammeverket kan brukes på, men ikke begrenset til, følgende måter:
Tabellen nedenfor er en tidlig utforming av dimensjonene til et analytisk rammeverk. Avhengig av teknologien og bruken av den, vil noen komponenter være mer relevante enn andre. Eksemplene er gitt for å illustrere hvorfor hvert domene kan ha betydning; i sammenheng vil rammeverket kreve kontekstuelt relevant utvidelse. Det er også viktig å skille mellom plattformutvikling og de generiske problemene som kan dukke opp under spesifikke applikasjoner.
Dimensjoner å vurdere når man vurderer en ny teknologi
| Opprinnelig utkast til dimensjonene som må vurderes ved evaluering av en ny teknologi | ||
| Dimensjoner for påvirkning | Kriterier | Eksempler på hvordan dette kan gjenspeiles i analyse |
| Individuelt/ selv | Brukernes AI-kompetanse | Hvor kompetente og bevisste på systemets egenskaper er de sannsynlige brukerne som vil samhandle med systemet? Hvordan vil de få relevant brukerinformasjon og advarsler? |
| Berørte interessenter | Hvem er de primære interessentene som vil bli påvirket av systemet (dvs. enkeltpersoner, lokalsamfunn, sårbare, sektorarbeidere, barn, beslutningstakere, fagfolk)? | |
| Valgfrihet | Får brukere mulighet til å velge bort systemet; skal de gis muligheter til å utfordre eller korrigere resultatet? | |
| Risikoer for menneskerettigheter og demokratiske verdier | Kan systemet påvirke (og i hvilken retning) menneskerettigheter, inkludert, men ikke begrenset til, personvern, ytringsfrihet, rettferdighet, risiko for diskriminering osv.? | |
| Potensielle effekter på folks velvære | Kan systemet påvirke (og i hvilken retning) den enkelte brukers velvære (dvs. jobbkvalitet, utdanning, sosiale interaksjoner, psykisk helse, identitet, miljø)? | |
| Potensial for menneskelig fortrengning av arbeidskraft | Er det et potensial for systemet til å automatisere oppgaver eller funksjoner som ble utført av mennesker? I så fall, hva er konsekvensene nedstrøms? | |
| Potensial for identitets-, verdi- eller kunnskapsmanipulasjon | Er systemet designet for eller potensielt i stand til å manipulere brukerens identitet eller verdier, eller spre desinformasjon? Er det et potensial for falske eller ukontrollerbare påstander om ekspertise? | |
| Mål for egenverd | Er det press for å fremstille et idealisert selv? Kan automatisering erstatte en følelse av personlig oppfyllelse? Er det press for å konkurrere med systemet på arbeidsplassen? Er individuell omdømme gjort vanskeligere å beskytte mot desinformasjon? | |
| Privatliv | Er det spredte ansvar for å ivareta personvernet og gjøres det noen forutsetninger om hvordan personopplysninger brukes? | |
| Autonomi | Kan systemet påvirke menneskelig autonomi ved å generere overavhengighet av teknologien hos sluttbrukere? | |
| Menneskelig utvikling | Er det en innvirkning på tilegnelse av nøkkelferdigheter for menneskelig utvikling som eksekutive funksjoner, mellommenneskelige ferdigheter, endringer i oppmerksomhetstid som påvirker læring, personlighetsutvikling, psykiske helseproblemer, etc.? | |
| Personlig helsevesen | Er det påstander om personlig tilpassede helsetjenester? Hvis ja, er de validert i henhold til regulatoriske standarder? | |
| Mental Helse | Er det en risiko for økt angst, ensomhet eller andre psykiske problemer, eller kan teknologien dempe slike påvirkninger? | |
| Menneskelig evolusjon | Kan teknologien føre til endringer i menneskelig evolusjon? | |
| Dimensjoner for påvirkning | Kriterier | Tekniske beskrivelser |
| Samfunn/sosialt liv | Samfunnsverdier | Endrer systemet fundamentalt samfunnets natur eller muliggjør normalisering av ideer som tidligere ble ansett som antisosiale, eller bryter det med samfunnsverdiene til kulturen det blir brukt i? |
| Sosial interaksjon | Er det en effekt på meningsfull menneskelig kontakt, inkludert følelsesmessige relasjoner? | |
| Egenkapital | Er det sannsynlig at applikasjonen/teknologien reduserer eller øker ulikheter (dvs. økonomisk, sosial, pedagogisk, geografisk)? | |
| Befolknings helse | Er det et potensial for systemet til å fremme eller undergrave befolkningens helseintensjoner? | |
| Kulturelt uttrykk | Er en økning i kulturell appropriasjon eller diskriminering sannsynlig eller vanskeligere å håndtere? Utelukker eller marginaliserer avhengighet av systemet for beslutningstaking potensielt deler av samfunnet? | |
| Offentlig utdanning | Er det en effekt på lærerroller eller utdanningsinstitusjoner? Fremhever eller reduserer systemet ulikhet blant studenter og det digitale skillet? Er den iboende verdien av kunnskap eller kritisk forståelse avansert eller undergravd? | |
| Forvrengte virkeligheter | Er metodene vi bruker for å finne ut hva som er sant fortsatt gjeldende? Er virkelighetsoppfatningen kompromittert? | |
| Økonomisk kontekst (handel) | Industrisektoren | Hvilken industrisektor er systemet utplassert i (dvs. finans, landbruk, helsevesen, utdanning, forsvar)? |
| Forretningsmodell | I hvilken forretningsfunksjon brukes systemet, og i hvilken kapasitet? Hvor brukes systemet (privat, offentlig, non-profit)? | |
| Påvirkning på kritiske aktiviteter | Vil en forstyrrelse av systemets funksjon eller aktivitet påvirke viktige tjenester eller kritisk infrastruktur? | |
| Pust av utplassering | Hvordan er systemet distribuert (snevert innenfor en organisasjon kontra utbredt nasjonalt/internasjonalt)? | |
| Teknisk modenhet (TRL) | Hvor teknisk modent er systemet? | |
| Teknologisk suverenitet | Driver teknologien større konsentrasjon av teknologisk suverenitet. | |
| Inntektsomfordeling og nasjonale finanspolitiske grep | Kan kjernerollene til den suverene staten kompromitteres (dvs. Reserve Banks)? Vil statens evne til å møte innbyggernes forventninger og implikasjoner (dvs. sosiale, økonomiske, politiske) bli fremmet eller redusert? | |
| Dimensjoner for påvirkning | Kriterier | Tekniske beskrivelser |
| Borgerliv | Styresett og offentlig tjeneste | Kan styringsmekanismer og globale styringssystemer påvirkes positivt eller negativt? |
| Nyhetsmedia | Er det sannsynlig at den offentlige diskursen blir mer eller mindre polarisert og forankret på befolkningsnivå? Vil det være en effekt på graden av tillit til media? Vil konvensjonell journalistikk etikk og integritetsstandarder bli ytterligere påvirket? | |
| Rettssikkerhet | Vil det være en effekt på evnen til å identifisere enkeltpersoner eller organisasjoner som skal holdes ansvarlige (dvs. hva slags ansvarlighet å tildele en algoritme for uønskede utfall)? Skaper dette tap av suverenitet (dvs. miljø, finans, sosialpolitikk, etikk)? | |
| Politikk og sosialt samhold | Er det en mulighet for mer forankret politiske synspunkter og mindre mulighet for konsensusbygging? Er det mulighet for ytterligere marginalisering av grupper? Er motstridende politikkstiler mer eller mindre sannsynlige? | |
| Geostrategisk/ geopolitisk kontekst | Presisjonsovervåking | Er systemene trent på individuelle atferdsmessige og biologiske data, og i så fall kan de brukes til å utnytte individer eller grupper? |
| Digital kolonisering | Er statlige eller ikke-statlige aktører i stand til å utnytte systemer og data for å forstå og kontrollere andre lands befolkninger og økosystemer, eller for å undergrave jurisdiksjonell kontroll? | |
| Geopolitisk konkurranse | Påvirker systemet konkurransen mellom nasjoner og teknologiplattformer for tilgang til individuelle og kollektive data for økonomiske eller strategiske formål? | |
| Handel og handelsavtaler | Har systemet implikasjoner for internasjonale handelsavtaler? | |
| Skift i globale makter | Er nasjonalstatenes status som verdens primære geopolitiske aktører truet? Vil teknologiselskaper utøve makt en gang forbeholdt nasjonalstater og blir de uavhengige suverene aktører? | |
| desinformasjon | Er det lettere for statlige og ikke-statlige aktører å produsere og spre desinformasjon som påvirker sosialt samhold, tillit og demokrati? | |
| Miljø | Energi- og ressursforbruk (karbonfotavtrykk) | Øker systemet og kravene opptak av energi og ressursforbruk utover effektivitetsgevinstene som oppnås gjennom søknaden? |
| Dimensjoner for påvirkning | Kriterier | Tekniske beskrivelser |
| Data og input | Deteksjon og innsamling | Er dataene og inndataene samlet inn av mennesker, automatiserte sensorer eller begge deler? |
| Opprinnelsen til dataene | Med hensyn til dataene er disse gitt, observert, syntetiske eller avledet? Er det vannmerkebeskyttelse for å bekrefte herkomst? | |
| Dynamisk karakter av dataene | Er dataene dynamiske, statiske, oppdatert fra tid til annen eller oppdatert i sanntid? | |
| Rettigheter | Er data proprietære, offentlige eller personlige (dvs. relatert til identifiserbare individer)? | |
| Identifiserbarhet av personopplysninger | Hvis personopplysninger, er de anonymisert eller pseudonymisert? | |
| Strukturen til dataene | Er dataene strukturerte, semistrukturerte, komplekse strukturerte eller ustrukturerte? | |
| Formatet på dataene | Er formatet på dataene og metadataene standardisert eller ikke-standardisert? | |
| Skalaen til dataene | Hva er skalaen til datasettet? | |
| Hensiktsmessighet og kvalitet på dataene | Er datasettet egnet til formålet? Er prøvestørrelsen tilstrekkelig? Er den representativ og fullstendig nok? Hvor støyende er dataene? Er den utsatt for feil? | |
| Modell | Informasjon tilgjengelig | Er informasjon om systemets modell tilgjengelig? |
| Type AI-modell | Er modellen symbolsk (menneskeskapte regler), statistisk (bruker data) eller hybrid? | |
| Rettigheter knyttet til modellen | Er modellen åpen kildekode, eller proprietær, egen- eller tredjepartsadministrert? | |
| Enkelt eller flere modeller | Er systemet sammensatt av én modell eller flere sammenkoblede modeller? | |
| Generativ eller diskriminerende | Er modellen generativ, diskriminerende eller begge deler? | |
| Modellbygg | Lærer systemet basert på menneskeskrevne regler, fra data, gjennom veiledet læring eller gjennom forsterkende læring? | |
| Modellutvikling (AI-drift) | Utvikler modellen seg og/eller tilegner seg evner ved å samhandle med data i feltet? | |
| Federert eller sentral læring | Er modellen trent sentralt eller i flere lokale servere eller "edge"-enheter? | |
| Utvikling og vedlikehold | Er modellen universell, tilpassbar eller skreddersydd til AI-aktørens data? | |
| Deterministisk eller probabilistisk | Er modellen brukt på en deterministisk eller sannsynlig måte? | |
| Modelltransparens | Er informasjon tilgjengelig for brukere slik at de kan forstå modellutdata og begrensninger eller bruke begrensninger? | |
| Beregningsbegrensning | Er det beregningsbegrensninger for systemet? Kan vi forutsi kapasitetshopp eller skaleringslover? | |
| Dimensjoner for påvirkning | Kriterier | Tekniske beskrivelser |
| Oppgave og utgang | Oppgave(r) utført av systemet | Hvilke oppgaver utfører systemet (f.eks. gjenkjenning, hendelsesdeteksjon, prognoser)? |
| Kombinere oppgaver og handlinger | Kombinerer systemet flere oppgaver og handlinger (dvs. innholdsgenereringssystemer, autonome systemer, kontrollsystemer)? | |
| Systemets nivå av autonomi | Hvor autonome er systemets handlinger og hvilken rolle spiller mennesker? | |
| Grad av menneskelig involvering | Er det noe menneskelig involvering for å overvåke den generelle aktiviteten til AI-systemet og evnen til å bestemme når og hvordan systemet skal brukes i enhver situasjon? | |
| Kjerneapplikasjon | Tilhører systemet et kjerneapplikasjonsområde som menneskelig språkteknologi, datasyn, automatisering og/eller optimalisering, eller robotikk? | |
| Evaluering | Er standarder eller metoder tilgjengelige for å evaluere systemets produksjon eller håndtere uforutsette nye egenskaper? | |
Nøkkelen til kildene til deskriptorene
Ren tekst:
Gluckman, P. og Allen, K. 2018. Forstå velvære i sammenheng med raske digitale og tilhørende transformasjoner. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Fet tekst:
OECD. 2022. OECDs rammeverk for klassifisering av AI-systemer. OECD Digital Economy Papers, nr. 323, OECD Publishing, Paris. https://oecd.ai/en/classification
Kursiv tekst:
Nye beskrivelser (fra flere kilder)
En vei fremover
Avhengig av svaret på dette diskusjonsdokumentet, vil en ekspertarbeidsgruppe bli dannet av ISC for å videreutvikle eller endre det ovennevnte analytiske rammeverket, der interessenter kan se på en omfattende utvikling enten av plattformer eller bruksdimensjoner. Arbeidsgruppen vil være disiplinært, geografisk og demografisk mangfoldig, med ekspertise som spenner fra teknologivurdering til offentlig politikk, fra menneskelig utvikling til sosiologi og fremtids- og teknologistudier.
For å engasjere seg i dette diskusjonspapiret, vennligst besøk Council.science/publications/framework-digital-technologies
Takk til
Mange personer har blitt konsultert i utviklingen av denne artikkelen, som ble utarbeidet av Sir Peter Gluckman, president, ISC og Hema Sridhar, tidligere sjefsforsker, Forsvarsdepartementet, og nå seniorforsker, University of Auckland, New Zealand.
Spesielt takker vi Lord Martin Rees, tidligere president i Royal Society og medgründer av Center for the Study of Existential Risks, University of Cambridge; professor Shivaji Sondhi, professor i fysikk, University of Oxford; Professor K Vijay Raghavan, tidligere hovedvitenskapelig rådgiver for Indias regjering; Amandeep Singh Gill, FNs generalsekretærs utsending for teknologi; Dr Seán Óh Éigeartaigh, administrerende direktør, Senter for studier av eksistensielle risikoer, University of Cambridge; Amanda-June Brawner, seniorpolitisk rådgiver og Ian Wiggins, direktør for internasjonale anliggender, Royal Society UK; Dr Jerome Duberry, Dr Marie-Laure Salles, direktør, Geneva Graduate Institute; Mr Chor Pharn Lee, Center for Strategic Futures, Statsministerens kontor, Singapore; Barend Mons og Dr Simon Hodson, Datakomiteen (CoDATA); Prof Yuko Harayama, Japan; professor Rémi Quirion, president, INGSA; Dr. Claire Craig, University of Oxford og tidligere sjef for fremsyn, Government Office of Science; og prof Yoshua Bengio, FNs generalsekretærs vitenskapelige råd og ved Université de Montréal. Sjekklistetilnærmingen ble generelt godkjent, og aktualiteten til enhver handling fra ISC ble vektlagt.
Bilde: adamichi på iStock