Het debat over de afstemming van kunstmatige intelligentie (AI) is dramatisch veranderd en is voorbij de technische uitdagingen gegaan en is een politiek kernprobleem geworden. Naarmate AI-systemen krachtiger worden, worstelen overheden met de realiteit dat de ‘waarden’ van AI zullen worden bepaald door degenen die de ontwikkeling ervan controleren – hetzij door opzettelijk ontwerp, hetzij simpelweg door de blootstelling aan bestaande gegevens.
De politieke aard van afstemming
Deskundigen erkennen nu dat het afstemmen van AI niet alleen een technisch probleem is; het is fundamenteel politiek. De handeling van het bouwen van AI-systemen omvat morele en filosofische keuzes, wat betekent dat het creëren van ‘uitgelijnde’ AI een inherent politieke daad is. Dit roept de vraag op of één enkel moreel raamwerk moet domineren, of dat meerdere, diverse filosofieën in verschillende AI-modellen moeten worden opgenomen.
De belangrijkste zorg gaat niet alleen over het voorkomen dat AI ‘ondeugdzaam’ wordt, maar ook over de erkenning dat overheden zelf als onbetrouwbaar kunnen worden gezien door AI-systemen die zijn getraind op historische gegevens. Toekomstige modellen zullen leren van de huidige acties, inclusief waargenomen politieke overmacht, wat mogelijk kan leiden tot verkeerd op elkaar afgestemde reacties.
Risico’s voor de toeleveringsketen en wantrouwen bij de overheid
Overheden beschouwen AI-bedrijven steeds meer als potentiële risico’s voor de toeleveringsketen. Het hypothetische scenario van een toekomstige regering die een AI wantrouwt die op basis van verschillende ideologische principes is ontwikkeld, wordt realistisch. Een liberale regering zou bijvoorbeeld een AI-model dat aansluit bij conservatieve waarden (zoals de waarden die mogelijk zijn ontwikkeld door xAI van Elon Musk) kunnen beschouwen als een bedreiging voor de nationale belangen.
Dit gaat verder dan directe contracten; zelfs onderaannemingen brengen risico’s met zich mee. Als een overheid afhankelijk is van een hoofdaannemer als Palantir, die op zijn beurt afhankelijk is van een AI-aanbieder als Anthropic, blijft de overheid kwetsbaar voor de mogelijke verkeerde afstemming van de AI.
De grens tussen toezicht en onderdrukking
De meest alarmerende ontwikkeling is de bereidheid van de regering om haar macht te gebruiken om bedrijven te vernietigen die als slecht verbonden worden beschouwd. Als de ontwikkeling van AI wordt behandeld als een puur politieke daad, en de afstemming uitsluitend wordt gedicteerd door het staatsgezag, is het resultaat in feite fascisme: de onderdrukking van elk AI-systeem dat niet in overeenstemming is met de ideologie van de regering die de voorkeur heeft.
Het debat gaat niet over de vraag of AI gecontroleerd moet worden; het gaat over hoe en door wie. Als regeringen prioriteit geven aan controle over open ontwikkeling, lopen ze het risico innovatie te onderdrukken en een toekomst te creëren waarin AI alleen de belangen dient van degenen die aan de macht zijn.
Dit is een reëel en groeiend probleem, een probleem dat onmiddellijke aandacht vereist van zowel beleidsmakers als technologieleiders. De vraag is of regeringen zullen optreden als verantwoordelijke toezichthouders of als autoritaire poortwachters, en AI naar hun eigen beeld vorm zullen geven.






























