• Spring naar de hoofdnavigatie
  • Door naar de hoofd inhoud
  • Spring naar de eerste sidebar
Logo CT2 2018

  • over ons
    • artikelen
    • toolbox
    • workshops
    • video’s
    • CT², wie wij zijn
    • CT² nieuws
    • klantverhalen
    • veelgestelde vragen
    • contact
  • training
    • training door CT²
    • OR-training
  • coaching
    • directiecoaching
    • personal coaching
    • groepscoaching
    • CT² methode
  • ondernemingsraad
    • maatwerk OR-training
    • OR-coaching
    • OR adviestrajecten
    • OR toolbox
    • workshops OR
    • de WOR
    • dossiers wetswijzigingen
    • klantverhalen
  • contact
  • Mijn account
    • inloggen
    • lid worden
Logo CT2 2018

  • over ons
    • artikelen
    • toolbox
    • workshops
    • video’s
    • CT², wie wij zijn
    • CT² nieuws
    • klantverhalen
    • veelgestelde vragen
    • contact
  • training
    • training door CT²
    • OR-training
  • coaching
    • directiecoaching
    • personal coaching
    • groepscoaching
    • CT² methode
  • ondernemingsraad
    • maatwerk OR-training
    • OR-coaching
    • OR adviestrajecten
    • OR toolbox
    • workshops OR
    • de WOR
    • dossiers wetswijzigingen
    • klantverhalen
  • contact
  • Mijn account
    • inloggen
    • lid worden

AI voor OR-leden: veilig werken

8 september 2025 |

Als OR-lid heb je toegang tot gevoelige bedrijfsinformatie. Wil je AI-tools gebruiken voor OR-werk? Dan moet je bedrijfsgeheimen en privacy beschermen. Een verkeerde keuze kan juridische gevolgen hebben.

Veilig gebruik van AI voor OR-leden vraagt om concrete regels. Je hebt toegang tot vertrouwelijke documenten via je OR-functie. ChatGPT en andere AI-tools kunnen deze informatie opslaan of delen. Bovendien bevatten AI-resultaten vaak grote fouten die OR-leden niet herkennen. Dit artikel geeft praktische richtlijnen voor verantwoord AI-gebruik als OR-lid.

AI artikel 1 web

op deze pagina:

  • welke risico's vormen AI-tools voor jou als OR-lid?
  • waarom AI-templates voor OR-werk vaak fout zijn
  • concrete do's en don'ts voor OR AI-gebruik
  • template: OR AI-beleid voor eigen gebruik
  • checklist: veilige AI-tools voor OR-werk

dit artikel is onderdeel van een complete AI-serie voor OR-en

Dit artikel "AI voor OR-leden: veilig werken" gaat over veilig persoonlijk AI-gebruik door OR-leden. Er volgen nog meer artikelen in deze serie. De onderwerpen van de andere artikelen in deze serie zijn o.a. de OR en AI-wet: termijnen 2026-2027 + praktische voorbereiding (timing van deadlines voor EU AI-wet) en de WOR-rechten bij AI: wanneer welk artikel  (WOR-procedures bij AI-implementaties). Het OR praktijkboek AI geeft je vier concrete scenario's, strategieën voor verschillende bedrijfssectoren en uitgebreide templates voor de invoering van AI-beleid in jouw organisatie. Met al deze onderdelen bij elkaar is de dadelijk jouw OR grondig voorbereid op de komende AI-veranderingen in jouw organisatie.

Log zonder kosten in om de complete antwoorden op deze vragen te bekijken. [binnenkort gaan wij werken met een inlog zonder kosten; zo willen we de inhoud en vakkennis op deze website beschermen tegen misbruik, AI-gebruik en herpublicatie.]

welke risico's vormen AI-tools voor jou als OR-lid?

Als OR-lid heb je een bijzondere positie. Je krijgt vertrouwelijke informatie van de Bestuurder. Dit kunnen reorganisatieplannen, financiële cijfers of personeelsgegevens zijn. De WOR geeft je deze toegang om goed advies te kunnen geven.

AI-tools zoals ChatGPT kunnen deze informatie opslaan en hergebruiken. Dit gebeurt vaak automatisch. Je bedrijf kan hierdoor concurrentievoordeel verliezen. Ook juridische schade, financiële schade en privacyschendingen zijn mogelijk.

WOR-toepassing in de praktijk is complex - elk bedrijf heeft andere situaties. AI kent jouw specifieke context niet. Je kunt het ook niet specifiek maken zonder geheimhouding of privacy te schenden.

Let op: Je hebt als OR-lid een geheimhoudingsplicht. Deze geldt ook voor AI-gebruik. Schending kan juridische gevolgen hebben voor jou persoonlijk.

je kunt AI-fouten niet altijd herkennen

AI-output ziet er professioneel en logisch uit. Maar er ontbreekt vaak (hele) belangrijke informatie. Je kunt niet altijd zien wat er ontbreekt bij AI-antwoorden.

Ontbrekende informatie in AI-resultaten valt niet op. Een incomplete reactie op een instemmingsaanvraag of adviesaanvraag kan verregaande juridische problemen veroorzaken. De WOR verplicht OR-leden tot zorgvuldige besluitvorming. Verkeerde afhandeling kan leiden tot aansprakelijkheid en verlies van OR-rechten. AI geeft soms verkeerde antwoorden die wel goed lijken. Dat is gevaarlijk.

geheimhoudingsplicht en AI-gebruik

De WOR verplicht OR-leden tot geheimhouding van vertrouwelijke informatie. Dit geldt ook voor AI-tools. Je mag geen bedrijfsgeheimen invoeren in externe AI-systemen. Dit betekent alle vertrouwelijke informatie die je als OR-lid krijgt van de Bestuurder.

Persoonsgegevens vallen onder de AVG. Het invoeren van namen, functies of andere persoonsgegevens in AI-tools is verboden zonder specifieke toestemming van iedere persoon.

waarom AI-resultaten voor OR-werk vaak fout zijn

AI maakt vaak fouten die niet direct duidelijk zijn. Dit valt veel OR-leden niet (meteen) op. Wees daarom alert en neem niet alles meteen aan. Of vraag het een expert van de OR. AI kent jouw specifieke situatie niet. WOR-artikelen toepassen vraagt kennis van de specifieke bedrijfssituatie. AI maakt aannames zonder context te vragen.

concrete voorbeelden van AI-fouten

AI kent jouw WOR-situatie niet

  • Welke specifieke afspraken heeft jouw OR met de Bestuurder?
  • Wat zijn de eigen procedures binnen jouw organisatie?
  • Welke aanvullende bevoegdheden heeft jouw OR gekregen?
  • Is er een convenant en zo ja, wat zijn de afspraken?

ontbrekende WOR-details

  • Termijnen voor OR-reacties kunnen per organisatie verschillen
  • Overlegprocedures zijn niet altijd standaard
  • Escalaties zijn organisatiespecifiek

algemene antwoorden passen niet

  • AI geeft standaard WOR-uitleg
  • Specifieke omstandigheden worden genegeerd
  • Praktische toepassingen ontbreken
  • Elke sector heeft een andere cao
TIP: Elke OR-situatie is anders en algemene AI-antwoorden passen vaak niet. Laat AI-output altijd controleren door iemand met praktijkervaring.

concrete do's en don'ts voor OR AI-gebruik

In de hoofdstukken hiervoor is al veel gezegd over allerlei gevaren bij het werken met AI. Gevaren voor wat betreft privacy, (geheime) bedrijfsgegevens enz. Het verkeerd gebruiken van AI kan je zelfs persoonlijk aansprakelijk maken. Daarom zetten we de belangrijkste do’en dont’s op een rijtje.

WEL doen:

gebruik AI alleen als hulp bij het brainstormen

  • Algemene WOR-vragen stellen
  • Ideeën verzamelen voor een vergaderagenda
  • Structuur maken voor eigen teksten
  • Woordkeuze verbeteren van eigen teksten

altijd controleren en aanpassen

  • Laat AI-output controleren door iemand met (OR-)ervaring en (OR-)kennis
  • Vergelijk AI-advies met WOR-tekst
  • Pas aan voor jouw specifieke situatie
  • Voeg ontbrekende details toe

anonimiseer alle informatie

  • Gebruik "organisatie x" in plaats van bedrijfsnaam
  • Vervang namen door "medewerker a"

NIET doen:

AI-resultaten overnemen zonder controle

  • Nooit AI-teksten direct gebruiken
  • Geen reacties op instemmingsaanvragen van AI kopiëren
  • Niet vertrouwen op AI-juridisch advies
  • Geen AI-geluidsopnames gebruiken van vergaderingen

invoeren van vertrouwelijke informatie

  • Reorganisatieplannen
  • Financiële cijfers van je organisatie
  • Personeelsgegevens (namen, functies, salarissen)
  • Interne documenten van de Bestuurder
  • Geluidsopnames van OR-vergaderingen of gesprekken met Bestuurder
  • specifieke bedrijfscijfers of bedrijfsgegevens

onveilige AI-tools gebruiken

  • Gratis versies van ChatGPT (data wordt opgeslagen)
  • AI-tools zonder privacybeleid (vooral buiten Europa)
  • Onbekende AI-platforms
TIP: Gebruik de "broodnodige informatie"-regel. Vraag jezelf af: heeft de AI deze specifieke informatie echt nodig voor mijn vraag?
Let op: AI-output ziet er vaak professioneel uit, maar er kan belangrijke informatie ontbreken. Controleer altijd voordat je het gebruikt.
Let op: Geluidsopnames voor AI-transcriptie zijn strafbaar zonder toestemming van alle aanwezigen. Bovendien gaan de OR-gesprekken dan naar externe AI-bedrijven, en hoe is daar de geheimhouding gegarandeerd?

 

infogram: OR AI-beleid voor eigen gebruik

Belangrijk voor de OR: het hebben van een eigen AI-beleid voorkomt problemen. Je kunt dit ook delen met de Bestuurder. Raadpleeg de OR-toolbox voor meer voorbeelden en handige overzichten.

OR AI-beleid infogram

toegestane AI-activiteiten

  • Brainstormen over OR-onderwerpen
  • Algemene WOR-vragen (altijd controleren)
  • Structuur maken voor eigen teksten
  • Vertaling van documenten (geanonimiseerd)

verboden activiteiten

  • Bedrijfsspecifieke informatie invoeren
  • Personeelsgegevens gebruiken
  • Vertrouwelijke documenten uploaden
  • AI-resultaten direct overnemen zonder controle
  • Geluidsopnames maken voor AI-transcriptie

verplichte controle

  • Alle AI-output laten controleren door iemand met OR-ervaring
  • Vergelijken met WOR, jurisprudentie en cao
  • Aanpassen voor specifieke situatie
  • Ontbrekende details toevoegen

veilige werkwijze

  • Altijd anonimiseren voor AI-gebruik
  • Fictieve bedrijfsnamen gebruiken
  • Geen echte namen of cijfers
  • Privacy-vriendelijke AI-tools kiezen

controle en evaluatie

  • Maandelijkse evaluatie AI-gebruik
  • Delen ervaringen met OR-collega's
  • Bijstellen beleid indien nodig

checklist: veilige AI-tools voor OR-werk

Niet alle AI-tools zijn even veilig. Daarom is het ook belangrijk dat de organisatie een AI-beleid ontwikkelt waarin duidelijk staat wat wel of niet kan en hoe je daar als medewerker mee om moet gaan.

Het uiteindelijke AI-beleid zal ook moeten worden nagekeken door de OR, waarschijnlijk als een adviesaanvraag (of misschien wel instemmingsaanvraag). Het is een lastig onderwerp en het kan een goed idee zijn om dit nieuwe A-beleid na te laten kijken door een externe deskundige.

Dit is een voorbeeld van onderdelen voor een externe deskundige om het AI-beleid bij jou in de organisatie aan te toetsen.

evaluatie AI-tool

privacy en beveiliging

  • Tool heeft duidelijk privacybeleid
  • Geen opslag van ingevoerde gegevens
  • Europese servers (AVG/GDPR compliant)
  • Encryptie van alle communicatie

functionaliteit voor OR-werk

  • Ondersteunt Nederlandse taal goed
  • Waarschuwing dat output gecontroleerd moet worden
  • Geen juridische claims over correctheid
  • Exportfunctie beschikbaar
  • Begrijpt Nederlandse wetgeving, gewoonten en gebruiken

organisatie-acceptatie

  • Toegestaan door IT-beleid organisatie
  • Bekend bij Bestuurder
  • Geen conflict met bestaande systemen
  • Ondersteuning beschikbaar
TIP: Bespreek je AI-keuzes met de Bestuurder via overleg OR-Bestuurder. Transparantie voorkomt problemen achteraf.

concrete afspraken maken met de Bestuurder

gesprek met Bestuurder over het gebruik van AI door de OR AI

Bespreekpunten

Open communicatie met de Bestuurder over AI-gebruik bouwt vertrouwen op. Om het gesprek daarover zinvol te voeren is een goede voorbereiding belangrijk. Bereid daarom deze punten eerst voor:

  • Welke AI-tools zijn toegestaan?
  • Wie controleert de AI-output voordat we het gebruiken?
  • Mogen we geluidsopnames maken voor AI-transcriptie?
  • Wat is het escalatieplan bij problemen?
  • Welke training heeft de OR nodig?

Om het gesprek over de afspraken goed en duidelijk te starten geven we een paar ‘gespreksstarters’

voorbeelden van gespreksstarters

Voor eerste gesprek: "We willen als OR graag AI-tools gebruiken voor het brainstormen en voor algemene vragen. Kunnen we samen afspraken maken over veilig gebruik?"

Bij twijfel over tool: "We overwegen [AI-tool naam] te gebruiken voor algemene OR-vragen. Past dit binnen ons bedrijfsbeleid?"

Na probleem met AI-resultaat: "We hebben gemerkt dat AI-resultaten vaak fouten bevatten. Hoe zorgen we ervoor dat we alleen correcte informatie gebruiken?"

Bij vragen over geluidsopnames: "Mogen we AI-tools gebruiken die gespreksverslagen maken van opnames? Wat zijn de juridische risico's?"

Voor beleidsontwikkeling: "Kunnen we samen een OR AI-beleid opstellen? We hebben alvast een voorstel voorbereid."

Als je een adviseur wilt inschakelen voor complexere AI-governance vraagstukken, plan dit ook in het gesprek.

kennis van AI voor OR-leden ontwikkelen

Goede AI-vaardigheden maken je effectiever als OR-lid. Je kunt beter meepraten over AI-beleid.

basiskennis van AI voor OR-leden omvat:

  • Hoe AI werkt
  • Waarom AI fouten maakt en aannames doet
  • Privacy-risico's van verschillende AI-tools
  • Het niet objectief zijn of vooroordelen (bias) hebben over AI-systemen
  • Discriminatie in AI-systemen

praktische vaardigheden:

  • Kritisch beoordelen van AI-resultaten
  • Herkennen wat er ontbreekt in AI-output
  • Bronnen controleren en verifiëren
  • Privacy-instellingen correct configureren

Neem contact op voor maatwerk OR-training over AI-geletterdheid en 2025 wetswijzigingen.

start nu meteen met veilig OR AI-gebruik

nu meteen resultaat met deze aanpak:

  • Je voorkomt juridische problemen door concrete regels te volgen. 
  • De infogram AI-beleid geeft je direct houvast.
  •  De checklist helpt je veilige tools kiezen. 
  • Gespreksopeners maken het gesprek met de Bestuurder makkelijker.
  • Je OR kan efficiënter werken door AI-tools in te zetten om te brainstormen. 
  • Door alles te laten controleren waar AI mee komt vermijd je gevaarlijke fouten. 
  • Voer geen vertrouwelijke informatie in; daarmee houd je bedrijfsgeheimen veilig.

contact opnemen voor:

Specifieke AI-governance begeleiding voor jouw OR-situatie. Controle van huidige AI-gebruik binnen je organisatie. Opstellen OR AI-beleid samen met Bestuurder.

Raadpleeg de OR-toolbox voor meer praktische hulpmiddelen.

Dit is de box titel
Bel met assistent Elma Harmans op 040-2813128 of mail meteen naar info@CT2.nl.Elma Harmans - CT2.nl
We helpen je graag én meteen.

neem nu contact op

bronnen en verdere verdieping

Voor betrouwbare kaders rond privacy en AI verwijzen we naar de Autoriteit Persoonsgegevens: Algoritmes, AI en de AVG, de toelichting op regels bij gebruik van AI & algoritmes, de uitleg over DPIA (wanneer en hoe) en de DPIA-checklist (PDF).

Voor het wettelijke kader van AI zelf zie de EU AI-verordening (EUR-Lex); rijksbrede duiding van DPIA's bij beleid en projecten vind je bij het Kenniscentrum Wetgeving & Regeldruk.

Dit artikel is geschreven door Sander Vrugt van Keulen met ondersteuning van Claude.ai en ChatGPT5.

 

artikelen die wellicht ook interessant zijn:

  • illustratie AI en WOR
    rechten OR bij AI: wanneer welk WOR-artikel?
  • De OR en de AI-wet
    De OR en de AI-wet: praktische voorbereiding en termijnen
  • 2025 wetswijzigingen en belangrijke zaken voor de OR
    2025: wetswijzigingen en belangrijke zaken voor de OR
  • 14 wetswijzigingen en belangrijke zaken voor de OR in 2024 - CT2.nl
    14 wetswijzigingen en belangrijke zaken voor de OR in 2024
  • Europese ondernemingsraad 5 wijzigingen door EOR-richtlijn 2025
    Europese ondernemingsraad: 5 wijzigingen door…

Categorie: blog, ondernemingsraad, OR informatie vraag en antwoord, over CT² Tags: CoachSander, CT², kennis, ondernemingsraad, OR, Sander Vrugt van Keulen

Primaire Sidebar

Nieuwsbriefbanner_A_NL
maatwerk ondernemingsraad training - CT2.nl
Logo CT2 2018

SNEL CONTACT OPNEMEN?

info@CT2.nl
040-2813128

CT² is een CoachSander organisatie

ONZE MEEST BEZOCHTE PAGINA'S

  • adviesaanvraag: eenvoudige checklist voor OR en Bestuurder
  • 2025: wetswijzigingen en belangrijke zaken voor de OR
  • dagelijks bestuur van de OR: wat doen de voorzitter en secretaris?
  • OR expertgids werkkostenregeling

ONZE NIEUWSTE BLOGS

Recente berichten

  • OR-jaarverslag: op één A4!
  • writing the Works Council annual report: a mandatory task, but how do I do this?
  • het OR-jaarverslag schrijven: verplicht, maar hoe doe ik dat?
Beheer cookie toestemming
Om de beste ervaringen te bieden, gebruiken wij technologieën zoals cookies om informatie over je apparaat op te slaan en/of te raadplegen. Door in te stemmen met deze technologieën kunnen wij gegevens zoals surfgedrag of unieke ID's op deze site verwerken. Als je geen toestemming geeft of uw toestemming intrekt, kan dit een nadelige invloed hebben op bepaalde functies en mogelijkheden.
Functioneel Altijd actief
De technische opslag of toegang is strikt noodzakelijk voor het legitieme doel het gebruik mogelijk te maken van een specifieke dienst waarom de abonnee of gebruiker uitdrukkelijk heeft gevraagd, of met als enig doel de uitvoering van de transmissie van een communicatie over een elektronisch communicatienetwerk.
Voorkeuren
De technische opslag of toegang is noodzakelijk voor het legitieme doel voorkeuren op te slaan die niet door de abonnee of gebruiker zijn aangevraagd.
Statistieken
De technische opslag of toegang die uitsluitend voor statistische doeleinden wordt gebruikt. De technische opslag of toegang die uitsluitend wordt gebruikt voor anonieme statistische doeleinden. Zonder dagvaarding, vrijwillige naleving door uw Internet Service Provider, of aanvullende gegevens van een derde partij, kan informatie die alleen voor dit doel wordt opgeslagen of opgehaald gewoonlijk niet worden gebruikt om je te identificeren.
Marketing
De technische opslag of toegang is nodig om gebruikersprofielen op te stellen voor het verzenden van reclame, of om de gebruiker op een website of over verschillende websites te volgen voor soortgelijke marketingdoeleinden.
  • Beheer opties
  • Beheer diensten
  • Beheer {vendor_count} leveranciers
  • Lees meer over deze doeleinden
Bekijk voorkeuren
  • {title}
  • {title}
  • {title}