USA’s regering får adgang til Googles AI-modeller før offentlig lancering
Center for AI Standards and Innovation udvider partnerskab med Google DeepMind, Microsoft og xAI for at evaluere avancerede AI-systemer før udgivelse.

DENMARK —
Fakta
- CAISI indgik aftaler med Google DeepMind, Microsoft og xAI den 6. maj 2026.
- Aftalerne giver den amerikanske regering mulighed for at evaluere AI-modeller før offentlig tilgængelighed.
- CAISI har gennemført over 40 evalueringer, herunder af endnu ikke udgivne modeller.
- Partnerskaberne bygger på tidligere aftaler med OpenAI og Anthropic fra 2024.
- Aftalerne er genforhandlet under handelsminister Howard Lutnicks direktiver.
- Det Hvide Hus overvejer at oprette en ny AI-arbejdsgruppe til tilsyn.
- CAISI er en del af National Institute of Standards and Technology under handelsministeriet.
- Udviklere leverer ofte modeller uden sikkerhedsforanstaltninger til evaluering.
Regeringen får indblik i AI-modeller før offentligheden
Den amerikanske regering har sikret sig retten til at teste avancerede kunstig intelligens-modeller fra Google DeepMind, Microsoft og Elon Musks xAI, før de bliver tilgængelige for offentligheden. Aftalerne, der blev offentliggjort tirsdag, giver Center for AI Standards and Innovation (CAISI) mulighed for at udføre præ-lancerings evalueringer og målrettet forskning. CAISI, som hører under handelsministeriets National Institute of Standards and Technology, vil vurdere AI-systemernes kapaciteter og sikkerhedsrisici. Direktør Chris Fall understregede, at uafhængig målevidenskab er afgørende for at forstå AI’s nationale sikkerhedsimplikationer.
Udvidelse af eksisterende partnerskaber
De nye aftaler bygger på tidligere partnerskaber med OpenAI og Anthropic fra 2024, som nu er blevet genforhandlet. Ifølge CAISI er aftalerne tilpasset handelsminister Howard Lutnicks direktiver og USA’s AI-handlingsplan. CAISI er blevet udpeget som industriens primære kontaktpunkt i regeringen for testning, samarbejdsforskning og udvikling af bedste praksis. Partnerskaberne omfatter også post-lanceringsvurderinger og informationsdeling, der skal fremme frivillige produktforbedringer og sikre regeringens forståelse af AI-kapaciteter.
Over 40 evalueringer allerede gennemført
CAISI har til dato gennemført mere end 40 evalueringer, herunder af state-of-the-art modeller, der endnu ikke er udgivet. For at vurdere nationale sikkerhedsrisici leverer udviklere ofte modeller, hvor sikkerhedsforanstaltninger er fjernet eller reduceret. Evalueringshold fra forskellige regeringsorganer deltager i testene og giver feedback gennem TRAINS Taskforce, en tværetatlig ekspertgruppe. Testene kan foregå i klassificerede miljøer, og aftalerne er udformet med fleksibilitet til at håndtere hurtige AI-fremskridt.
Hvidt Hus overvejer yderligere tilsyn
Ud over CAISI’s initiativ overvejer Det Hvide Hus at oprette en ny AI-arbejdsgruppe, der skal undersøge mulige tilsynsprocedurer, herunder planer om at godkende modeller før offentlig frigivelse. Ifølge en kilde tæt på forhandlingerne vil gruppen samle teknologiledere og regeringsembedsmænd og kan blive etableret gennem en præsidentiel bekendtgørelse. Det Hvide Hus afviste dog spekulationer om konkrete bekendtgørelser og henviste til, at eventuelle politiske udmeldinger vil komme direkte fra præsident Donald Trump.
Baggrund og strategisk betydning
Aftalerne markerer en eskalering af regeringens engagement i at overvåge AI-udvikling, især med fokus på nationale sikkerhedstrusler. CAISI’s rolle som industriel kontaktpunkt blev styrket under handelsminister Lutnick, og partnerskaberne afspejler en voksende bekymring for, at AI-modeller kan udgøre risici, hvis de ikke testes grundigt. Samtidig viser aftalerne en tættere offentlig-privat koordination, hvor regeringen får adgang til ellers lukkede systemer. Dette kan sætte en præcedens for fremtidig regulering af AI.
Udfordringer og fremtidsperspektiver
Selvom aftalerne er frivillige, rejser de spørgsmål om, hvorvidt regeringen har tilstrækkelig kapacitet til at evaluere den hastigt udviklende teknologi. CAISI har allerede gennemført et betydeligt antal tests, men antallet af nye modeller vokser eksponentielt. Arbejdsgruppen i Det Hvide Hus kan potentielt føre til mere bindende regulering, men dens præcise mandat er endnu uklart. Udfaldet af disse initiativer vil få stor betydning for, hvordan AI udvikles og implementeres i USA.
Opsummering
- CAISI har indgået aftaler med Google DeepMind, Microsoft og xAI om præ-lanceringsevaluering af AI-modeller.
- Over 40 evalueringer er allerede gennemført, herunder af ikke-offentliggjorte modeller.
- Partnerskaberne bygger på aftaler fra 2024 med OpenAI og Anthropic, nu genforhandlet.
- Det Hvide Hus overvejer en ny AI-arbejdsgruppe til tilsyn, muligvis via præsidentiel bekendtgørelse.
- Udviklere leverer ofte modeller uden sikkerhedsforanstaltninger for at muliggøre grundig test.
- Aftalerne understreger regeringens fokus på nationale sikkerhedsrisici ved AI.



tvSyd-appen får ny videoafspiller og brugere kan nu stemme om dagsordenen
Danmark får solrige dage, men kolde nætter – tåge truer morgentrafikken

Efter 14 døgns tørke: Regn rammer Sydfyn og Langeland med op til 19,6 millimeter
