Als OR-lid heb je toegang tot gevoelige bedrijfsinformatie. Wil je AI-tools gebruiken voor OR-werk? Dan moet je bedrijfsgeheimen en privacy beschermen. Een verkeerde keuze kan juridische gevolgen hebben.
Veilig gebruik van AI voor OR-leden vraagt om concrete regels. Je hebt toegang tot vertrouwelijke documenten via je OR-functie. ChatGPT en andere AI-tools kunnen deze informatie opslaan of delen. Bovendien bevatten AI-resultaten vaak grote fouten die OR-leden niet herkennen. Dit artikel geeft praktische richtlijnen voor verantwoord AI-gebruik als OR-lid.
op deze pagina:
- welke risico's vormen AI-tools voor jou als OR-lid?
- waarom AI-templates voor OR-werk vaak fout zijn
- concrete do's en don'ts voor OR AI-gebruik
- template: OR AI-beleid voor eigen gebruik
- checklist: veilige AI-tools voor OR-werk
dit artikel is onderdeel van een complete AI-serie voor OR-en
Dit artikel "AI voor OR-leden: veilig werken" gaat over veilig persoonlijk AI-gebruik door OR-leden. Er volgen nog meer artikelen in deze serie. De onderwerpen van de andere artikelen in deze serie zijn o.a. de OR en AI-wet: termijnen 2026-2027 + praktische voorbereiding (timing van deadlines voor EU AI-wet) en de WOR-rechten bij AI: wanneer welk artikel (WOR-procedures bij AI-implementaties). Het OR praktijkboek AI geeft je vier concrete scenario's, strategieën voor verschillende bedrijfssectoren en uitgebreide templates voor de invoering van AI-beleid in jouw organisatie. Met al deze onderdelen bij elkaar is de dadelijk jouw OR grondig voorbereid op de komende AI-veranderingen in jouw organisatie.
Log zonder kosten in om de complete antwoorden op deze vragen te bekijken. [binnenkort gaan wij werken met een inlog zonder kosten; zo willen we de inhoud en vakkennis op deze website beschermen tegen misbruik, AI-gebruik en herpublicatie.]
welke risico's vormen AI-tools voor jou als OR-lid?
Als OR-lid heb je een bijzondere positie. Je krijgt vertrouwelijke informatie van de Bestuurder. Dit kunnen reorganisatieplannen, financiële cijfers of personeelsgegevens zijn. De WOR geeft je deze toegang om goed advies te kunnen geven.
AI-tools zoals ChatGPT kunnen deze informatie opslaan en hergebruiken. Dit gebeurt vaak automatisch. Je bedrijf kan hierdoor concurrentievoordeel verliezen. Ook juridische schade, financiële schade en privacyschendingen zijn mogelijk.
WOR-toepassing in de praktijk is complex - elk bedrijf heeft andere situaties. AI kent jouw specifieke context niet. Je kunt het ook niet specifiek maken zonder geheimhouding of privacy te schenden.
| Let op: Je hebt als OR-lid een geheimhoudingsplicht. Deze geldt ook voor AI-gebruik. Schending kan juridische gevolgen hebben voor jou persoonlijk. |
je kunt AI-fouten niet altijd herkennen
AI-output ziet er professioneel en logisch uit. Maar er ontbreekt vaak (hele) belangrijke informatie. Je kunt niet altijd zien wat er ontbreekt bij AI-antwoorden.
Ontbrekende informatie in AI-resultaten valt niet op. Een incomplete reactie op een instemmingsaanvraag of adviesaanvraag kan verregaande juridische problemen veroorzaken. De WOR verplicht OR-leden tot zorgvuldige besluitvorming. Verkeerde afhandeling kan leiden tot aansprakelijkheid en verlies van OR-rechten. AI geeft soms verkeerde antwoorden die wel goed lijken. Dat is gevaarlijk.
geheimhoudingsplicht en AI-gebruik
De WOR verplicht OR-leden tot geheimhouding van vertrouwelijke informatie. Dit geldt ook voor AI-tools. Je mag geen bedrijfsgeheimen invoeren in externe AI-systemen. Dit betekent alle vertrouwelijke informatie die je als OR-lid krijgt van de Bestuurder.
Persoonsgegevens vallen onder de AVG. Het invoeren van namen, functies of andere persoonsgegevens in AI-tools is verboden zonder specifieke toestemming van iedere persoon.
waarom AI-resultaten voor OR-werk vaak fout zijn
AI maakt vaak fouten die niet direct duidelijk zijn. Dit valt veel OR-leden niet (meteen) op. Wees daarom alert en neem niet alles meteen aan. Of vraag het een expert van de OR. AI kent jouw specifieke situatie niet. WOR-artikelen toepassen vraagt kennis van de specifieke bedrijfssituatie. AI maakt aannames zonder context te vragen.
concrete voorbeelden van AI-fouten
AI kent jouw WOR-situatie niet
- Welke specifieke afspraken heeft jouw OR met de Bestuurder?
- Wat zijn de eigen procedures binnen jouw organisatie?
- Welke aanvullende bevoegdheden heeft jouw OR gekregen?
- Is er een convenant en zo ja, wat zijn de afspraken?
ontbrekende WOR-details
- Termijnen voor OR-reacties kunnen per organisatie verschillen
- Overlegprocedures zijn niet altijd standaard
- Escalaties zijn organisatiespecifiek
algemene antwoorden passen niet
- AI geeft standaard WOR-uitleg
- Specifieke omstandigheden worden genegeerd
- Praktische toepassingen ontbreken
- Elke sector heeft een andere cao
| TIP: Elke OR-situatie is anders en algemene AI-antwoorden passen vaak niet. Laat AI-output altijd controleren door iemand met praktijkervaring. |
concrete do's en don'ts voor OR AI-gebruik
In de hoofdstukken hiervoor is al veel gezegd over allerlei gevaren bij het werken met AI. Gevaren voor wat betreft privacy, (geheime) bedrijfsgegevens enz. Het verkeerd gebruiken van AI kan je zelfs persoonlijk aansprakelijk maken. Daarom zetten we de belangrijkste do’en dont’s op een rijtje.
WEL doen:
gebruik AI alleen als hulp bij het brainstormen
- Algemene WOR-vragen stellen
- Ideeën verzamelen voor een vergaderagenda
- Structuur maken voor eigen teksten
- Woordkeuze verbeteren van eigen teksten
altijd controleren en aanpassen
- Laat AI-output controleren door iemand met (OR-)ervaring en (OR-)kennis
- Vergelijk AI-advies met WOR-tekst
- Pas aan voor jouw specifieke situatie
- Voeg ontbrekende details toe
anonimiseer alle informatie
- Gebruik "organisatie x" in plaats van bedrijfsnaam
- Vervang namen door "medewerker a"
NIET doen:
AI-resultaten overnemen zonder controle
- Nooit AI-teksten direct gebruiken
- Geen reacties op instemmingsaanvragen van AI kopiëren
- Niet vertrouwen op AI-juridisch advies
- Geen AI-geluidsopnames gebruiken van vergaderingen
invoeren van vertrouwelijke informatie
- Reorganisatieplannen
- Financiële cijfers van je organisatie
- Personeelsgegevens (namen, functies, salarissen)
- Interne documenten van de Bestuurder
- Geluidsopnames van OR-vergaderingen of gesprekken met Bestuurder
- specifieke bedrijfscijfers of bedrijfsgegevens
onveilige AI-tools gebruiken
- Gratis versies van ChatGPT (data wordt opgeslagen)
- AI-tools zonder privacybeleid (vooral buiten Europa)
- Onbekende AI-platforms
| TIP: Gebruik de "broodnodige informatie"-regel. Vraag jezelf af: heeft de AI deze specifieke informatie echt nodig voor mijn vraag? |
| Let op: AI-output ziet er vaak professioneel uit, maar er kan belangrijke informatie ontbreken. Controleer altijd voordat je het gebruikt. |
| Let op: Geluidsopnames voor AI-transcriptie zijn strafbaar zonder toestemming van alle aanwezigen. Bovendien gaan de OR-gesprekken dan naar externe AI-bedrijven, en hoe is daar de geheimhouding gegarandeerd? |
infogram: OR AI-beleid voor eigen gebruik
Belangrijk voor de OR: het hebben van een eigen AI-beleid voorkomt problemen. Je kunt dit ook delen met de Bestuurder. Raadpleeg de OR-toolbox voor meer voorbeelden en handige overzichten.
OR AI-beleid infogram
toegestane AI-activiteiten
- Brainstormen over OR-onderwerpen
- Algemene WOR-vragen (altijd controleren)
- Structuur maken voor eigen teksten
- Vertaling van documenten (geanonimiseerd)
verboden activiteiten
- Bedrijfsspecifieke informatie invoeren
- Personeelsgegevens gebruiken
- Vertrouwelijke documenten uploaden
- AI-resultaten direct overnemen zonder controle
- Geluidsopnames maken voor AI-transcriptie
verplichte controle
- Alle AI-output laten controleren door iemand met OR-ervaring
- Vergelijken met WOR, jurisprudentie en cao
- Aanpassen voor specifieke situatie
- Ontbrekende details toevoegen
veilige werkwijze
- Altijd anonimiseren voor AI-gebruik
- Fictieve bedrijfsnamen gebruiken
- Geen echte namen of cijfers
- Privacy-vriendelijke AI-tools kiezen
controle en evaluatie
- Maandelijkse evaluatie AI-gebruik
- Delen ervaringen met OR-collega's
- Bijstellen beleid indien nodig
checklist: veilige AI-tools voor OR-werk
Niet alle AI-tools zijn even veilig. Daarom is het ook belangrijk dat de organisatie een AI-beleid ontwikkelt waarin duidelijk staat wat wel of niet kan en hoe je daar als medewerker mee om moet gaan.
Het uiteindelijke AI-beleid zal ook moeten worden nagekeken door de OR, waarschijnlijk als een adviesaanvraag (of misschien wel instemmingsaanvraag). Het is een lastig onderwerp en het kan een goed idee zijn om dit nieuwe A-beleid na te laten kijken door een externe deskundige.
Dit is een voorbeeld van onderdelen voor een externe deskundige om het AI-beleid bij jou in de organisatie aan te toetsen.
evaluatie AI-tool
privacy en beveiliging
- Tool heeft duidelijk privacybeleid
- Geen opslag van ingevoerde gegevens
- Europese servers (AVG/GDPR compliant)
- Encryptie van alle communicatie
functionaliteit voor OR-werk
- Ondersteunt Nederlandse taal goed
- Waarschuwing dat output gecontroleerd moet worden
- Geen juridische claims over correctheid
- Exportfunctie beschikbaar
- Begrijpt Nederlandse wetgeving, gewoonten en gebruiken
organisatie-acceptatie
- Toegestaan door IT-beleid organisatie
- Bekend bij Bestuurder
- Geen conflict met bestaande systemen
- Ondersteuning beschikbaar
| TIP: Bespreek je AI-keuzes met de Bestuurder via overleg OR-Bestuurder. Transparantie voorkomt problemen achteraf. |
concrete afspraken maken met de Bestuurder
gesprek met Bestuurder over het gebruik van AI door de OR AI
Bespreekpunten
Open communicatie met de Bestuurder over AI-gebruik bouwt vertrouwen op. Om het gesprek daarover zinvol te voeren is een goede voorbereiding belangrijk. Bereid daarom deze punten eerst voor:
- Welke AI-tools zijn toegestaan?
- Wie controleert de AI-output voordat we het gebruiken?
- Mogen we geluidsopnames maken voor AI-transcriptie?
- Wat is het escalatieplan bij problemen?
- Welke training heeft de OR nodig?
Om het gesprek over de afspraken goed en duidelijk te starten geven we een paar ‘gespreksstarters’
voorbeelden van gespreksstarters
Voor eerste gesprek: "We willen als OR graag AI-tools gebruiken voor het brainstormen en voor algemene vragen. Kunnen we samen afspraken maken over veilig gebruik?"
Bij twijfel over tool: "We overwegen [AI-tool naam] te gebruiken voor algemene OR-vragen. Past dit binnen ons bedrijfsbeleid?"
Na probleem met AI-resultaat: "We hebben gemerkt dat AI-resultaten vaak fouten bevatten. Hoe zorgen we ervoor dat we alleen correcte informatie gebruiken?"
Bij vragen over geluidsopnames: "Mogen we AI-tools gebruiken die gespreksverslagen maken van opnames? Wat zijn de juridische risico's?"
Voor beleidsontwikkeling: "Kunnen we samen een OR AI-beleid opstellen? We hebben alvast een voorstel voorbereid."
Als je een adviseur wilt inschakelen voor complexere AI-governance vraagstukken, plan dit ook in het gesprek.
kennis van AI voor OR-leden ontwikkelen
Goede AI-vaardigheden maken je effectiever als OR-lid. Je kunt beter meepraten over AI-beleid.
basiskennis van AI voor OR-leden omvat:
- Hoe AI werkt
- Waarom AI fouten maakt en aannames doet
- Privacy-risico's van verschillende AI-tools
- Het niet objectief zijn of vooroordelen (bias) hebben over AI-systemen
- Discriminatie in AI-systemen
praktische vaardigheden:
- Kritisch beoordelen van AI-resultaten
- Herkennen wat er ontbreekt in AI-output
- Bronnen controleren en verifiëren
- Privacy-instellingen correct configureren
Neem contact op voor maatwerk OR-training over AI-geletterdheid en 2025 wetswijzigingen.
start nu meteen met veilig OR AI-gebruik
nu meteen resultaat met deze aanpak:
- Je voorkomt juridische problemen door concrete regels te volgen.
- De infogram AI-beleid geeft je direct houvast.
- De checklist helpt je veilige tools kiezen.
- Gespreksopeners maken het gesprek met de Bestuurder makkelijker.
- Je OR kan efficiënter werken door AI-tools in te zetten om te brainstormen.
- Door alles te laten controleren waar AI mee komt vermijd je gevaarlijke fouten.
- Voer geen vertrouwelijke informatie in; daarmee houd je bedrijfsgeheimen veilig.
contact opnemen voor:
Specifieke AI-governance begeleiding voor jouw OR-situatie. Controle van huidige AI-gebruik binnen je organisatie. Opstellen OR AI-beleid samen met Bestuurder.
Raadpleeg de OR-toolbox voor meer praktische hulpmiddelen.

We helpen je graag én meteen.
bronnen en verdere verdieping
Voor betrouwbare kaders rond privacy en AI verwijzen we naar de Autoriteit Persoonsgegevens: Algoritmes, AI en de AVG, de toelichting op regels bij gebruik van AI & algoritmes, de uitleg over DPIA (wanneer en hoe) en de DPIA-checklist (PDF).
Voor het wettelijke kader van AI zelf zie de EU AI-verordening (EUR-Lex); rijksbrede duiding van DPIA's bij beleid en projecten vind je bij het Kenniscentrum Wetgeving & Regeldruk.
Dit artikel is geschreven door Sander Vrugt van Keulen met ondersteuning van Claude.ai en ChatGPT5.




