Meld deg på

Posisjonspapir

Et rammeverk for å evaluere raskt utviklende digitale og relaterte teknologier: AI, store språkmodeller og mer

Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.

Det har blitt foreslått av en rekke akademikere og politiske eksperter at International Science Council – med sitt pluralistiske medlemskap fra samfunns- og naturvitenskapene – etablerer en prosess for å produsere og vedlikeholde et kommentert rammeverk/sjekkliste over risikoer, fordeler, trusler og muligheter knyttet til raskt bevegelige digitale teknologier, inkludert – men ikke begrenset til – AI. Hensikten med sjekklisten ville være å informere alle interessenter – inkludert regjeringer, handelsforhandlere, regulatorer, sivilsamfunn og industri – om potensielle fremtidige scenarier, og ville ramme hvordan de kan vurdere mulighetene, fordelene, risikoene og andre problemer.

ISC er glad for å presentere dette diskusjonspapiret om evaluering av raskt utviklende digital og relatert teknologi. Kunstig intelligens, syntetisk biologi og kvanteteknologier er gode eksempler på innovasjon, informert av vitenskap, som dukker opp i et enestående tempo. Det kan være utfordrende å systematisk forutse ikke bare deres søknader, men også deres implikasjoner.

Evaluering av de samfunnsmessige aspektene ved generativ AI som store språkmodeller, som forutsigbart representerer hoveddelen av denne diskusjonsartikkelen, er en nødvendig bro innenfor den nåværende diskursen – noen ganger panikkdrevet, andre ganger ikke dyptgående nok i tankene – og de nødvendige kursene for tiltak vi kan ta. ISC er overbevist om at et analytisk rammeverk mellom sosial aksept av slike nye teknologier og deres mulige regulering er nødvendig for å lette diskusjonene med flere interessenter som er nødvendige for å ta informerte og ansvarlige beslutninger om hvordan man kan optimalisere de sosiale fordelene med denne raskt fremvoksende teknologien.

ISC er åpen for reaksjoner fra samfunnet vårt gjennom dette diskusjonspapiret for å vurdere hvordan man best kan fortsette å være en del av og bidra til debatten rundt teknologi.

Salvatore Aricò, administrerende direktør
Et ISC-diskusjonspapir

Et ISC-diskusjonspapir

Et rammeverk for å evaluere raskt utviklende digitale og relaterte teknologier: AI, store språkmodeller og mer

Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.

Last ned rapporten

Ny! Les 2024-versjonen for beslutningstakere med et nedlastbart rammeverk for organisasjonen din.

En veiledning for beslutningstakere: Evaluering av raskt utviklende teknologier, inkludert AI, store språkmodeller og mer

Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI.

Les 2023 ISC-diskusjonspapiret på nettet eller på ditt foretrukne språk

Innhold

  • Introduksjon 
  • Bakgrunn 
  • Utvikling av et analytisk rammeverk 
  • Bruke det analytiske rammeverket 
  • Dimensjoner å vurdere når man vurderer en ny teknologi 
  • En vei fremover 
  • Takk til

Introduksjon

Raskt fremvoksende teknologier byr på utfordrende problemer når det gjelder styring og potensiell regulering. Politikken og den offentlige debatten om kunstig intelligens (AI) og bruken av den har satt disse spørsmålene i akutt fokus. Mens brede prinsipper for AI har blitt kunngjort av UNESCO, OECD og andre, og det er begynnende diskusjoner angående global eller jurisdiksjonell regulering av teknologien, er det et ontologisk gap mellom utviklingen av prinsipper på høyt nivå og deres inkorporering i regulering, politikk, tilnærminger til styring og forvaltning. Det er her det ikke-statlige vitenskapelige miljøet kan ha en spesiell rolle. 

Det har blitt foreslått av en rekke akademikere og politiske eksperter at International Science Council (ISC) – med sitt pluralistiske medlemskap fra samfunns- og naturvitenskap – etablerer en prosess for å produsere og vedlikeholde et kommentert rammeverk/sjekkliste over risikoer, fordeler, trusler og muligheter knyttet til raskt bevegelige digitale teknologier, inkludert – men ikke begrenset til – AI. Hensikten med sjekklisten ville være å informere alle interessenter – inkludert regjeringer, handelsforhandlere, regulatorer, sivilsamfunn og industri – om potensielle fremtidige scenarier, og ville ramme hvordan de kan vurdere mulighetene, fordelene, risikoene og andre problemer. 

Resultatene vil ikke fungere som et vurderingsorgan, men som et adaptivt og utviklende analytisk rammeverk som kan underbygge enhver vurderings- og reguleringsprosess som kan utvikles av interessenter, inkludert regjeringer og det multilaterale systemet. Ethvert analytisk rammeverk bør ideelt sett utvikles uavhengig av påstander fra myndigheter og industri, gitt deres forståelige interesser. Den må også være maksimalt pluralistisk i sine perspektiver, og dermed omfatte alle aspekter av teknologien og dens implikasjoner. 

Dette diskusjonspapiret gir skissen til et innledende rammeverk for å informere om de mange globale og nasjonale diskusjonene som finner sted relatert til AI. 

Bakgrunn: Hvorfor et analytisk rammeverk?

Den raske fremveksten av en teknologi med kompleksiteten og implikasjonene til AI driver mange påstander om store fordeler. Det vekker imidlertid også frykt for betydelige risikoer, fra individ til geostrategisk nivå. Mye av diskusjonen har en tendens til å foregå i de ytterste ender av spekteret av synspunkter, og en mer pragmatisk tilnærming er nødvendig. AI-teknologi vil fortsette å utvikle seg og historien viser at praktisk talt hver teknologi har både fordelaktige og skadelige bruksområder. Spørsmålet er derfor: hvordan kan vi oppnå fordelaktige resultater fra denne teknologien, samtidig som vi reduserer risikoen for skadelige konsekvenser, hvorav noen kan være eksistensielle i omfang? 

Fremtiden er alltid usikker, men det er tilstrekkelig med troverdige og ekspertstemmer angående AI og generativ AI til å oppmuntre til en relativt føre-var-tilnærming. I tillegg er det nødvendig med en systemtilnærming, fordi AI er en klasse av teknologier med bred bruk og anvendelse av flere typer brukere. Dette betyr at hele konteksten må tas i betraktning når man vurderer implikasjonene av AI for individer, sosialt liv, samfunnsliv, samfunnsliv og i global kontekst. 

I motsetning til de fleste tidligere teknologier, har digitale og relaterte teknologier svært kort tid fra utvikling til utgivelse, i stor grad drevet av interessene til produksjonsselskapene eller byråene. AI er raskt gjennomgripende; noen egenskaper kan først bli synlige etter utgivelsen, og teknologien kan ha både ondsinnede og velvillige applikasjoner. Viktige verdidimensjoner vil påvirke hvordan enhver bruk oppfattes. Videre kan det være geostrategiske interesser i spill. 

Til dags dato har reguleringen av en virtuell teknologi i stor grad blitt sett gjennom linsen av "prinsipper" og frivillig etterlevelse. I senere tid har diskusjonen imidlertid dreid seg om spørsmål om nasjonal og multilateral styring, inkludert bruk av regulatoriske og andre politiske verktøy. Påstandene som fremsettes for eller mot AI er ofte hyperbolske og – gitt teknologiens natur – vanskelig å vurdere. Det vil være utfordrende å etablere et effektivt globalt eller nasjonalt teknologireguleringssystem, og det vil være behov for flere lag med risikoinformert beslutningstaking langs kjeden, fra oppfinner til produsent, til bruker, til myndigheter og til det multilaterale systemet. 

Mens prinsipper på høyt nivå har blitt kunngjort av blant annet UNESCO, OECD og EU-kommisjonen, og ulike diskusjoner på høyt nivå er i gang angående spørsmål om potensiell regulering, er det et stort ontologisk gap mellom slike prinsipper og et styrings- eller regelverk. Hva er taksonomien av hensyn som en regulator kan trenge å vurdere? En snevert fokusert innramming ville være uklokt, gitt de brede implikasjonene av disse teknologiene. Dette potensialet har vært gjenstand for mange kommentarer, både positive og negative.

Utvikling av et analytisk rammeverk

ISC er den primære globale NGO som integrerer natur- og samfunnsvitenskap. Dens globale og disiplinære rekkevidde betyr at den er godt posisjonert til å generere uavhengige og globalt relevante råd for å informere om de komplekse valgene fremover, spesielt ettersom de nåværende stemmene på denne arenaen i stor grad er fra industrien eller fra de store teknologiske maktene. Etter omfattende diskusjoner de siste månedene, inkludert vurdering av en ikke-statlig vurderingsprosess, konkluderte ISC med at dens mest nyttige bidrag ville være å produsere og opprettholde et adaptivt analytisk rammeverk som kan brukes som grunnlag for diskurs og beslutningstaking av alle interessenter, inkludert under enhver formell vurderingsprosess som dukker opp. 

Dette rammeverket vil ha form av en overordnet sjekkliste som kan brukes av både statlige og ikke-statlige institusjoner. Rammeverket identifiserer og utforsker potensialet til en teknologi som AI og dens derivater gjennom en vid linse som omfatter menneskelig og samfunnsmessig velvære, så vel som eksterne faktorer, som økonomi, politikk, miljø og sikkerhet. Noen aspekter av sjekklisten kan være mer relevante enn andre, avhengig av konteksten, men bedre beslutninger er mer sannsynlig hvis alle domener vurderes. Dette er den iboende verdien av en sjekklistetilnærming. 

Det foreslåtte rammeverket er avledet fra tidligere arbeid og tenkning, inkludert International Network for Governmental Science Advice (INGSA) sin digitale velværerapport1 og OECD AI Classification Framework2 å presentere helheten av de potensielle mulighetene, risikoene og virkningene av AI. Disse tidligere produktene var mer begrenset i sin hensikt gitt deres tid og kontekst, det er behov for et overordnet rammeverk som presenterer hele spekteret av problemstillinger både på kort og lang sikt. 

Selv om dette analytiske rammeverket er utviklet med tanke på kunstig intelligens, kan det brukes på hvilken som helst raskt voksende teknologi. Problemstillingene er grovt sett gruppert i følgende kategorier for videre undersøkelse: 

  • Velvære (inkludert individers eller selvtillit, samfunn og sosialt liv, og samfunnsliv) 
  • Handel og økonomi 
  • Miljø 
  • Geostrategisk og geopolitisk 
  • Teknologisk (systemegenskaper, design og bruk) 

En liste over hensyn for hver av kategoriene ovenfor er inkludert sammen med deres respektive muligheter og konsekvenser. Noen er relevante for spesifikke tilfeller eller applikasjoner av AI, mens andre er generiske og agnostiske for plattform eller bruk. Ingen enkelt hensyn inkludert her bør behandles som en prioritet, og som sådan bør alle undersøkes. 

Hvordan kan dette rammeverket brukes?

Dette rammeverket kan brukes på, men ikke begrenset til, følgende måter: 

  • Å bygge bro mellom prinsipper og vurdering ved å etablere en validert felles taksonomi av spekteret av hensyn som kan brukes av relevante interessenter som grunnlag for å informere og forme videre tenkning, inkludert ethvert vurderingsrammeverk som kan utvikles av myndighetene. 
  • Å informere konsekvensutredninger. EU AI Act krever at organisasjoner som tilbyr AI-verktøy eller tar i bruk AI i sine prosesser, skal gjennomføre en konsekvensanalyse for å identifisere risikoen ved deres initiativer og anvende en passende risikostyringstilnærming. Rammeverket som presenteres her kan brukes som grunnlag for dette. 
  • For å forbedre de etiske prinsippene som trengs for å veilede og styre bruken av AI. Rammeverket kan gjøre dette ved å gi et fleksibelt grunnlag som pålitelige systemer kan utvikles på og sikre lovlig, etisk, robust og ansvarlig bruk av teknologien. Disse prinsippene kan testes mot hele spekteret av virkninger presentert i dette rammeverket. 
  • For å legge til rette for en oversikt over eksisterende tiltak (dvs. regulatoriske, lovgivende, politikk) og identifisere eventuelle hull som trenger ytterligere vurdering. 
  • Rammeverket er agnostisk for teknologien og bruken av den. Den kan derfor brukes på ganske forskjellige områder som syntetisk biologi. 

Tabellen nedenfor er en tidlig utforming av dimensjonene til et analytisk rammeverk. Avhengig av teknologien og bruken av den, vil noen komponenter være mer relevante enn andre. Eksemplene er gitt for å illustrere hvorfor hvert domene kan ha betydning; i sammenheng vil rammeverket kreve kontekstuelt relevant utvidelse. Det er også viktig å skille mellom plattformutvikling og de generiske problemene som kan dukke opp under spesifikke applikasjoner.  

Dimensjoner å vurdere når man vurderer en ny teknologi

Opprinnelig utkast til dimensjonene som må vurderes ved evaluering av en ny teknologi
Dimensjoner for påvirkning Kriterier Eksempler på hvordan dette kan gjenspeiles i analyse  
Individuelt/ selv  Brukernes AI-kompetanse  Hvor kompetente og bevisste på systemets egenskaper er de sannsynlige brukerne som vil samhandle med systemet? Hvordan vil de få relevant brukerinformasjon og advarsler? 
Berørte interessenter  Hvem er de primære interessentene som vil bli påvirket av systemet (dvs. enkeltpersoner, lokalsamfunn, sårbare, sektorarbeidere, barn, beslutningstakere, fagfolk)? 
Valgfrihet Får brukere mulighet til å velge bort systemet; skal de gis muligheter til å utfordre eller korrigere resultatet?  
Risikoer for menneskerettigheter og demokratiske verdier  Kan systemet påvirke (og i hvilken retning) menneskerettigheter, inkludert, men ikke begrenset til, personvern, ytringsfrihet, rettferdighet, risiko for diskriminering osv.? 
Potensielle effekter på folks velvære Kan systemet påvirke (og i hvilken retning) den enkelte brukers velvære (dvs. jobbkvalitet, utdanning, sosiale interaksjoner, psykisk helse, identitet, miljø)?  
Potensial for menneskelig fortrengning av arbeidskraft Er det et potensial for systemet til å automatisere oppgaver eller funksjoner som ble utført av mennesker? I så fall, hva er konsekvensene nedstrøms? 
Potensial for identitets-, verdi- eller kunnskapsmanipulasjon Er systemet designet for eller potensielt i stand til å manipulere brukerens identitet eller verdier, eller spre desinformasjon? Er det et potensial for falske eller ukontrollerbare påstander om ekspertise? 
Mål for egenverd Er det press for å fremstille et idealisert selv? Kan automatisering erstatte en følelse av personlig oppfyllelse? Er det press for å konkurrere med systemet på arbeidsplassen? Er individuell omdømme gjort vanskeligere å beskytte mot desinformasjon? 
Privatliv Er det spredte ansvar for å ivareta personvernet og gjøres det noen forutsetninger om hvordan personopplysninger brukes?  
Autonomi Kan systemet påvirke menneskelig autonomi ved å generere overavhengighet av teknologien hos sluttbrukere? 
Menneskelig utvikling Er det en innvirkning på tilegnelse av nøkkelferdigheter for menneskelig utvikling som eksekutive funksjoner, mellommenneskelige ferdigheter, endringer i oppmerksomhetstid som påvirker læring, personlighetsutvikling, psykiske helseproblemer, etc.?  
Personlig helsevesen Er det påstander om personlig tilpassede helsetjenester? Hvis ja, er de validert i henhold til regulatoriske standarder? 
Mental Helse Er det en risiko for økt angst, ensomhet eller andre psykiske problemer, eller kan teknologien dempe slike påvirkninger? 
Menneskelig evolusjon Kan teknologien føre til endringer i menneskelig evolusjon?  
Dimensjoner for påvirkning Kriterier Tekniske beskrivelser 
Samfunn/sosialt liv Samfunnsverdier  Endrer systemet fundamentalt samfunnets natur eller muliggjør normalisering av ideer som tidligere ble ansett som antisosiale, eller bryter det med samfunnsverdiene til kulturen det blir brukt i?  
Sosial interaksjon Er det en effekt på meningsfull menneskelig kontakt, inkludert følelsesmessige relasjoner?  
Egenkapital Er det sannsynlig at applikasjonen/teknologien reduserer eller øker ulikheter (dvs. økonomisk, sosial, pedagogisk, geografisk)? 
Befolknings helse Er det et potensial for systemet til å fremme eller undergrave befolkningens helseintensjoner? 
Kulturelt uttrykk Er en økning i kulturell appropriasjon eller diskriminering sannsynlig eller vanskeligere å håndtere? Utelukker eller marginaliserer avhengighet av systemet for beslutningstaking potensielt deler av samfunnet? 
Offentlig utdanning Er det en effekt på lærerroller eller utdanningsinstitusjoner? Fremhever eller reduserer systemet ulikhet blant studenter og det digitale skillet? Er den iboende verdien av kunnskap eller kritisk forståelse avansert eller undergravd?  
Forvrengte virkeligheter Er metodene vi bruker for å finne ut hva som er sant fortsatt gjeldende? Er virkelighetsoppfatningen kompromittert?  
Økonomisk kontekst (handel)         Industrisektoren Hvilken industrisektor er systemet utplassert i (dvs. finans, landbruk, helsevesen, utdanning, forsvar)? 
Forretningsmodell I hvilken forretningsfunksjon brukes systemet, og i hvilken kapasitet? Hvor brukes systemet (privat, offentlig, non-profit)? 
Påvirkning på kritiske aktiviteter  Vil en forstyrrelse av systemets funksjon eller aktivitet påvirke viktige tjenester eller kritisk infrastruktur?  
Pust av utplassering Hvordan er systemet distribuert (snevert innenfor en organisasjon kontra utbredt nasjonalt/internasjonalt)? 
Teknisk modenhet (TRL) Hvor teknisk modent er systemet?  
Teknologisk suverenitet Driver teknologien større konsentrasjon av teknologisk suverenitet.  
Inntektsomfordeling og nasjonale finanspolitiske grep Kan kjernerollene til den suverene staten kompromitteres (dvs. Reserve Banks)? Vil statens evne til å møte innbyggernes forventninger og implikasjoner (dvs. sosiale, økonomiske, politiske) bli fremmet eller redusert?  
Dimensjoner for påvirkning Kriterier Tekniske beskrivelser 
Borgerliv     Styresett og offentlig tjeneste Kan styringsmekanismer og globale styringssystemer påvirkes positivt eller negativt? 
Nyhetsmedia Er det sannsynlig at den offentlige diskursen blir mer eller mindre polarisert og forankret på befolkningsnivå? Vil det være en effekt på graden av tillit til media? Vil konvensjonell journalistikk etikk og integritetsstandarder bli ytterligere påvirket?  
Rettssikkerhet Vil det være en effekt på evnen til å identifisere enkeltpersoner eller organisasjoner som skal holdes ansvarlige (dvs. hva slags ansvarlighet å tildele en algoritme for uønskede utfall)? Skaper dette tap av suverenitet (dvs. miljø, finans, sosialpolitikk, etikk)?  
Politikk og sosialt samhold Er det en mulighet for mer forankret politiske synspunkter og mindre mulighet for konsensusbygging? Er det mulighet for ytterligere marginalisering av grupper? Er motstridende politikkstiler mer eller mindre sannsynlige? 
Geostrategisk/ geopolitisk kontekst     Presisjonsovervåking Er systemene trent på individuelle atferdsmessige og biologiske data, og i så fall kan de brukes til å utnytte individer eller grupper? 
Digital kolonisering Er statlige eller ikke-statlige aktører i stand til å utnytte systemer og data for å forstå og kontrollere andre lands befolkninger og økosystemer, eller for å undergrave jurisdiksjonell kontroll? 
Geopolitisk konkurranse Påvirker systemet konkurransen mellom nasjoner og teknologiplattformer for tilgang til individuelle og kollektive data for økonomiske eller strategiske formål? 
Handel og handelsavtaler Har systemet implikasjoner for internasjonale handelsavtaler? 
Skift i globale makter Er nasjonalstatenes status som verdens primære geopolitiske aktører truet? Vil teknologiselskaper utøve makt en gang forbeholdt nasjonalstater og blir de uavhengige suverene aktører?  
desinformasjon Er det lettere for statlige og ikke-statlige aktører å produsere og spre desinformasjon som påvirker sosialt samhold, tillit og demokrati?  
Miljø   Energi- og ressursforbruk (karbonfotavtrykk) Øker systemet og kravene opptak av energi og ressursforbruk utover effektivitetsgevinstene som oppnås gjennom søknaden?  
Dimensjoner for påvirkning Kriterier Tekniske beskrivelser 
Data og input          Deteksjon og innsamling  Er dataene og inndataene samlet inn av mennesker, automatiserte sensorer eller begge deler?  
Opprinnelsen til dataene  Med hensyn til dataene er disse gitt, observert, syntetiske eller avledet? Er det vannmerkebeskyttelse for å bekrefte herkomst? 
Dynamisk karakter av dataene Er dataene dynamiske, statiske, oppdatert fra tid til annen eller oppdatert i sanntid? 
Rettigheter Er data proprietære, offentlige eller personlige (dvs. relatert til identifiserbare individer)?  
Identifiserbarhet av personopplysninger  Hvis personopplysninger, er de anonymisert eller pseudonymisert?  
Strukturen til dataene Er dataene strukturerte, semistrukturerte, komplekse strukturerte eller ustrukturerte? 
Formatet på dataene  Er formatet på dataene og metadataene standardisert eller ikke-standardisert?  
Skalaen til dataene  Hva er skalaen til datasettet?  
Hensiktsmessighet og kvalitet på dataene Er datasettet egnet til formålet? Er prøvestørrelsen tilstrekkelig? Er den representativ og fullstendig nok? Hvor støyende er dataene? Er den utsatt for feil?  
Modell             Informasjon tilgjengelig  Er informasjon om systemets modell tilgjengelig?  
Type AI-modell  Er modellen symbolsk (menneskeskapte regler), statistisk (bruker data) eller hybrid?  
Rettigheter knyttet til modellen  Er modellen åpen kildekode, eller proprietær, egen- eller tredjepartsadministrert? 
Enkelt eller flere modeller  Er systemet sammensatt av én modell eller flere sammenkoblede modeller?  
Generativ eller diskriminerende Er modellen generativ, diskriminerende eller begge deler?  
Modellbygg  Lærer systemet basert på menneskeskrevne regler, fra data, gjennom veiledet læring eller gjennom forsterkende læring?  
Modellutvikling (AI-drift) Utvikler modellen seg og/eller tilegner seg evner ved å samhandle med data i feltet?  
Federert eller sentral læring Er modellen trent sentralt eller i flere lokale servere eller "edge"-enheter?  
Utvikling og vedlikehold  Er modellen universell, tilpassbar eller skreddersydd til AI-aktørens data?  
Deterministisk eller probabilistisk  Er modellen brukt på en deterministisk eller sannsynlig måte?  
Modelltransparens  Er informasjon tilgjengelig for brukere slik at de kan forstå modellutdata og begrensninger eller bruke begrensninger?  
Beregningsbegrensning Er det beregningsbegrensninger for systemet? Kan vi forutsi kapasitetshopp eller skaleringslover? 
Dimensjoner for påvirkning Kriterier Tekniske beskrivelser 
Oppgave og utgang       Oppgave(r) utført av systemet Hvilke oppgaver utfører systemet (f.eks. gjenkjenning, hendelsesdeteksjon, prognoser)?  
Kombinere oppgaver og handlinger  Kombinerer systemet flere oppgaver og handlinger (dvs. innholdsgenereringssystemer, autonome systemer, kontrollsystemer)?  
Systemets nivå av autonomi Hvor autonome er systemets handlinger og hvilken rolle spiller mennesker?  
Grad av menneskelig involvering Er det noe menneskelig involvering for å overvåke den generelle aktiviteten til AI-systemet og evnen til å bestemme når og hvordan systemet skal brukes i enhver situasjon? 
Kjerneapplikasjon Tilhører systemet et kjerneapplikasjonsområde som menneskelig språkteknologi, datasyn, automatisering og/eller optimalisering, eller robotikk?  
Evaluering  Er standarder eller metoder tilgjengelige for å evaluere systemets produksjon eller håndtere uforutsette nye egenskaper?  

Nøkkelen til kildene til deskriptorene

Ren tekst:
Gluckman, P. og Allen, K. 2018. Forstå velvære i sammenheng med raske digitale og tilhørende transformasjoner. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Fet tekst:
OECD. 2022. OECDs rammeverk for klassifisering av AI-systemer. OECD Digital Economy Papers, nr. 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

Kursiv tekst:
Nye beskrivelser (fra flere kilder) 

En vei fremover

Avhengig av svaret på dette diskusjonsdokumentet, vil en ekspertarbeidsgruppe bli dannet av ISC for å videreutvikle eller endre det ovennevnte analytiske rammeverket, der interessenter kan se på en omfattende utvikling enten av plattformer eller bruksdimensjoner. Arbeidsgruppen vil være disiplinært, geografisk og demografisk mangfoldig, med ekspertise som spenner fra teknologivurdering til offentlig politikk, fra menneskelig utvikling til sosiologi og fremtids- og teknologistudier. 

For å engasjere seg i dette diskusjonspapiret, vennligst besøk Council.science/publications/framework-digital-technologies 

Takk til

Mange personer har blitt konsultert i utviklingen av denne artikkelen, som ble utarbeidet av Sir Peter Gluckman, president, ISC og Hema Sridhar, tidligere sjefsforsker, Forsvarsdepartementet, og nå seniorforsker, University of Auckland, New Zealand. 

Spesielt takker vi Lord Martin Rees, tidligere president i Royal Society og medgründer av Center for the Study of Existential Risks, University of Cambridge; professor Shivaji Sondhi, professor i fysikk, University of Oxford; Professor K Vijay Raghavan, tidligere hovedvitenskapelig rådgiver for Indias regjering; Amandeep Singh Gill, FNs generalsekretærs utsending for teknologi; Dr Seán Óh Éigeartaigh, administrerende direktør, Senter for studier av eksistensielle risikoer, University of Cambridge; Amanda-June Brawner, seniorpolitisk rådgiver og Ian Wiggins, direktør for internasjonale anliggender, Royal Society UK; Dr Jerome Duberry, Dr Marie-Laure Salles, direktør, Geneva Graduate Institute; Mr Chor Pharn Lee, Center for Strategic Futures, Statsministerens kontor, Singapore; Barend Mons og Dr Simon Hodson, Datakomiteen (CoDATA); Prof Yuko Harayama, Japan; professor Rémi Quirion, president, INGSA; Dr. Claire Craig, University of Oxford og tidligere sjef for fremsyn, Government Office of Science; og prof Yoshua Bengio, FNs generalsekretærs vitenskapelige råd og ved Université de Montréal. Sjekklistetilnærmingen ble generelt godkjent, og aktualiteten til enhver handling fra ISC ble vektlagt. 


Bli med i diskusjonen

Navn
Kjønn
Databeskyttelse: Respondentene bør være klar over at ISC vil holde informasjonen som sendes inn så lenge initiativet varer (se: https://council.science/privacy-policy)
Vi inviterer deg til å abonnere på ISCs nyhetsbrev.

Bilde: adamichi på iStock