
We beoordelen verkiezingsprogramma’s op digitalisering vanuit onze professie: informatiearchitectuur en publieke informatiehuishouding. Recente berichtgeving over conceptprogramma’s was de aanleiding om dit thema er uit te lichten.
De analyse is bewust selectief: we kijken uitsluitend naar digitalisering in de volle breedte:
- rechten en inclusie,
- informatiehuishouding en openbaarheid,
- AI en geautomatiseerde besluitvorming,
- veiligheid/weerbaarheid,
- afhankelijkheden en soevereiniteit,
- openheid en standaarden,
- uitvoerbaarheid,
- adaptiviteit.
We doen dat met een open blik, maar persoonlijk getint: vanuit de visie op Moderne Informatie-architectuur (MIA) en de aanvulling over informatieposities en informatietoestanden. Waar relevant spiegelen we bevindingen aan de lessen uit Dwars door de Orde, omdat dat rapport juist vraagt om een werkende leercyclus in de publieke i-functie.
Het volledige onderzoekskader (A–H) staat hieronder. Voor het doorgronden van omvangrijke teksten zetten we AI in (ChatGPT 5), die we uitvoerig hebben geïnstrueerd en bijgestuurd om de beoogde, MIA-conforme analyse uit te voeren. AI versnelt ons werk; het oordeel blijft van ons: elk resultaat wordt door mensen gelezen, gewogen en waar nodig gecorrigeerd—de mens blijft in de loop. Zodra partijprogramma’s formeel zijn gepubliceerd, beoordelen we ze met dezelfde methodiek, zodat vergelijkingen eerlijk en reproduceerbaar zijn.
Het resultaat is geen stemadvies en we schrijven geen specifieke technologieën of producten voor. We beoordelen visie, politieke kaders, realisme en samenhang. We waarderen waar partijen concreet, toetsbaar en toekomstgericht zijn—en prikken door oneliners heen die goed klinken, maar niet helpen om echte problemen op te lossen.
De analyses vind je hier:
Onderzoekskader
A. Visie, rol en leercyclus
Rolopvatting: duidelijke afbakening wetgeving/beleid – toezicht – uitvoering?
Toekomstgerichtheid: maatschappelijke doelen (5–10 jaar) en technologie neutrale, risico-gebaseerde kaders?
Dwars door de Orde: toepassing van een structurele leercyclus (PDCA) met verplicht bijsturen?
B. Rechten, inclusie en toegankelijkheid
Eerlijke behandeling: recht op inzage, uitleg, bezwaar, herstel bij digitale besluiten?
Toegankelijkheid: erkende toegankelijkheidsnormen + alternatieve kanalen verankerd?
Digitale vaardigheden: opgenomen als basisvaardigheid (onderwijs/bijscholing)?
C. Informatiehuishouding en openbaarheid
Kaders: openbaar-tenzij, grondslag voor delen, privacy-bescherming, doelbinding?
Duurzame toegankelijkheid/archivering en verantwoordelijkheden voor informatieobjecten?
Transparantie: registers/uitlegbaarheid en bezwaar/herstel
D. AI en geautomatiseerde besluitvorming
Risico-gebaseerde inzet, mens-in-de-loop, uitlegbaarheid en aansprakelijkheid als kader?
Verantwoorde innovatie: expirimenteren onder waarborgen, duidelijke opschaalcriteria?
E. Veiligheid en weerbaarheid (maatschappijbreed)
Cyberweerbaarheid-kaders voor overheid én private ketens (incl. supply-chain-verantwoordelijkheid)?
Incidentkaders: melding, respons, herstel, aansprakelijkheid en publieke verantwoording?
F. Macht, afhankelijkheden en soevereiniteit
Lock-in én machtsconcentratie door controle over toegang/infra/platforms geadresseerd?
Criteria voor soevereine/kritieke voorzieningen en open interfaces/portabiliteit/exit?
Toegang voor iedereen in een eerlijk speelveld?
G. Openheid, standaarden en ontwerpprincipes
‘Open standaarden & Open source, tenzij’ + pas-toe-of-leg-uit en soevereiniteits-/interoperabiliteitstoets?
Ethiek-by-design en privacy-by-design verplicht voor alle systemen met maatschappelijke impact?
H. Uitvoerbaarheid, toezicht en adaptiviteit
Toezicht/handhaving: mandaat, middelen/capaciteit, coördinatie, publieke verantwoording?
Voorafgaande impacttoetsen en verplicht meewegen van uitkomsten?
Adaptieve kaderstelling: starten-evalueren-bijsturen + menselijke-maat-voorzieningen?
Periodieke herijking (vervaldata/herzieningsplichten) + één-overheid-samenhang?