Home International Amerikaanse veiligheidsdienst omarmt AI-technologie van Anthropic ondanks eerdere restricties

Amerikaanse veiligheidsdienst omarmt AI-technologie van Anthropic ondanks eerdere restricties

0

Een Amerikaanse veiligheidsdienst heeft besloten om een AI-systeem van het technologiebedrijf Anthropic te gebruiken, ondanks eerdere beperkingen op het inzetten van dergelijke technologieën. Dit blijkt uit berichten van internationale media, waaronder Reuters en Axios, die zich baseren op anonieme bronnen binnen de Amerikaanse overheid.

De betrokken overheidsinstantie, verantwoordelijk voor nationale veiligheid, zou een model uit de zogenaamde ‘Mythos’-lijn van Anthropic inzetten voor operationele of analytische doeleinden. Dit gebruik vindt plaats te midden van vooraf vastgestelde beleidskaders die het gebruik van bepaalde externe AI-systemen hebben ingeperkt of aan voorwaarden hebben gebonden.

Uit de beschikbare informatie blijkt dat het hier niet gaat om een volledig openbaar gedocumenteerd programma. De toepassingen vinden plaats binnen een beveiligde of beperkte context, en de exacte aard van het gebruik – of het nu gaat om data-analyse, dreigingsdetectie of ondersteuning bij besluitvorming – is nog niet officieel bevestigd.

De berichten wijzen op de mogelijkheid dat het gebruik van deze technologie voortkomt uit uitzonderingen binnen bestaande regels of uit interne herinterpretaties van beleidsrichtlijnen. Officiële documenten die de beslissing toelichten, zijn tot op heden niet openbaar gemaakt.

In de Verenigde Staten vallen AI-toepassingen door overheidsinstanties onder een combinatie van nationale veiligheidswetgeving, aanbestedingsregels en interne richtlijnen. Sinds de afgelopen jaren zijn er aanvullende kaders ontwikkeld die gericht zijn op transparantie, risicoanalyse en nationale veiligheid.

Wanneer een technologie op een ‘blacklist’ of restrictielijst staat, betekent dit doorgaans dat gebruik verboden of beperkt is, tenzij specifieke uitzonderingen worden toegestaan. Deze uitzonderingen kunnen bijvoorbeeld gebaseerd zijn op nationale veiligheidsbelangen of operationele noodzaak. De juridische relevantie van het huidige gebruik van het Anthropic-model binnen deze uitzonderingen is nog niet definitief beantwoord in het publieke debat.

Zowel de betrokken Amerikaanse instantie als Anthropic hebben niet publiekelijk gedetailleerd commentaar gegeven op de specifieke toepassing van het AI-model. In algemene zin heeft Anthropic eerder aangegeven samen te werken met overheden binnen vastgestelde ethische en veiligheidskaders, maar een formele ontkenning van het gebruik is voor zover bekend niet gedaan.

Deze ontwikkeling benadrukt de groeiende rol van private AI-bedrijven binnen nationale veiligheidsstructuren en roept vragen op over toezicht, transparantie en de consistentie van beleid met betrekking tot technologische afhankelijkheid. Voor kleinere jurisdicties binnen het Koninkrijk der Nederlanden, zoals Aruba, is deze kwestie van belang in het kader van digitalisering en het gebruik van AI binnen overheidsprocessen. Het inzetten van externe AI-systemen door staten raakt aan fundamentele thema’s zoals databeheer, soevereiniteit en juridische controlemechanismen.

De situatie laat zien dat de beleidsvorming rondom AI zich nog in ontwikkeling bevindt, en dat de praktijk mogelijk sneller evolueert dan de regulerende kaders die daarop van toepassing zijn.

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Mobiele versie afsluiten