Verantwoord gebruik van Artificiële Intelligentie (AI) bij lokaal bestuur Lanaken
Waarom een AI-beleid?
het lokaal bestuur Lanaken wil haar dienstverlening en interne werking moderniseren en verbeteren met behulp van Artificiële Intelligentie (AI). Tegelijk willen we burgers en medewerkers beschermen tegen risico’s en onzekerheden die AI met zich meebrengt. Met dit beleid informeren we iedereen over hoe, waarom en onder welke voorwaarden wij AI inzetten.
Wat verstaan we onder AI?
AI is technologie die taken uitvoert waarvoor normaal menselijke intelligentie nodig is, zoals leren, redeneren, plannen of creatief denken. Denk aan systemen die teksten samenvatten, beelden genereren, vertalen of voorspellingen doen. Generatieve AI, zoals ChatGPT of Copilot, kan zelfs nieuwe teksten, beelden of code maken op basis van grote hoeveelheden data.
Visie
Het lokaal bestuur Lanaken wil op een verantwoorde manier gebruik maken van de kansen die AI biedt. We zien AI niet als een doel op zich, maar als een middel dat ons helpt bij het realiseren van onze organisatiedoelstellingen. We erkennen de beperkingen en risico’s van AI en houden “the human in the loop”.
We onderzoeken hoe AI optimaal kan worden ingezet. De technologische ontwikkelingen gaan snel en dat vraagt een gemeente die mee verandert. Daarom ondersteunen we medewerkers met trainingen om hun kennis en bewustzijn over AI te vergroten.
Draagwijdte
Het AI-beleid is van toepassing op alle medewerkers, vrijwilligers en leerkrachten van het lokaal bestuur Lanaken, OCMW Lanaken, AGB Lanaken, VZW Toerisme, de kunstkoepel en de kleuter - en lagere school. Ook is het van toepassing op onze leveranciers of partners die voor ons werken.
We maken voorafgaand aan de inzet van AI-toepassingen altijd een zorgvuldige afweging, waarin we kijken naar nut, noodzaak, risico’s en maatschappelijke impact.
De inzet van AI moet meerwaarde hebben en bijdragen aan de organisatie. Als AI niet de beste oplossing is voor een probleem of als we eventuele risico’s onvoldoende kunnen beheersen, wordt AI niet ingezet.
Bij het aankopen van AI-toepassingen worden specifieke contractvoorwaarden gehanteerd afhankelijk van de voorgestelde oplossing en altijd in regel met de op dat moment geldende wetgevingen. We werken bij voorkeur met leveranciers waarmee we reeds een contract hebben en die kunnen aantonen dat ze voldoen aan geldende wet- en regelgeving en aan eisen die wij als gemeente stellen op het gebied van informatiebeveiliging en ethisch verantwoord gebruik. Zo dienen leveranciers minstens te voldoen aan GDPR, AI act en NIS2 wetgeving.
De inzet van AI mag er niet toe leiden dat persoonsgegevens worden gebruikt voor doeleinden die niet verenigbaar zijn met het doel waarvoor de gegevens oorspronkelijk zijn verzameld (zoals voor training van een AI-model).
AI wordt zo veel mogelijk gebruikt binnen gesloten omgevingen van het lokaal bestuur Lanaken.
De mens centraal
AI-toepassingen moeten de mens en het lokaal bestuur Lanaken dienen. Technologie is ondersteunend, niet leidend. Het principe van "human in the loop" staat centraal in het AI-beleid van het lokaal bestuur Lanaken. AI-systemen worden ingezet als ondersteunende hulpmiddelen, niet als vervangers van menselijke expertise. De mens blijft altijd verantwoordelijk voor het verrijken, interpreteren en beoordelen van data die door AI wordt verwerkt. Medewerkers controleren en verbeteren AI-output, zodat deze aansluit bij de lokale context en beleidsdoelstellingen. AI mag nooit zelfstandig beslissingen nemen over personen of beleid; er is altijd menselijke controle en tussenkomst mogelijk en noodzakelijk. De mens blijft eindverantwoordelijk en kan altijd ingrijpen aangezien AI kan hallucineren.
AI-hallucinaties zijn situaties waarin een AI-model vol overtuiging informatie presenteert die feitelijk onjuist, verzonnen of onlogisch is. Dit is geen bewuste leugen, maar een gevolg van hoe de technologie achter de schermen werkt.
Wetgeving, gegevensbescherming en privacy
Het lokaal bestuur Lanaken hecht groot belang aan het wettelijk en ethisch verantwoord inzetten van Artificiële Intelligentie (AI). Daarom volgen wij strikt de Europese AI Act, de Algemene Verordening Gegevensbescherming (AVG) en alle relevante Vlaamse en federale wetgeving. Deze regelgeving vormt het fundament van ons AI-beleid en waarborgt dat de rechten en vrijheden van burgers en medewerkers steeds centraal staan.
We baseren ons hiervoor op de AI Act risico driehoek.

In overeenstemming met de Europese AI Act zijn AI-systemen die onaanvaardbare risico’s met zich meebrengen, zoals sociale scoring, manipulatie van gedrag of biometrische identificatie in de publieke ruimte, binnen onze gemeente uitdrukkelijk verboden.
Social scoring betekend dat AI-systemen mensen beoordelen op basis van hun sociale gedrag of persoonlijke kenmerken. Dit kan voor problemen zorgen, zoals discriminatie en uitsluiting van bepaalde groepen.
Voor elk AI-project dat binnen het lokaal bestuur Lanaken wordt opgestart en als risiconiveau hoog krijgt, voeren we een grondige risicoanalyse uit in de vorm van een Data Protection Impact Assessment (DPIA). Deze analyse brengt de mogelijke gevolgen voor privacy, veiligheid en ethiek in kaart, en bepaalt welke maatregelen nodig zijn om risico’s te minimaliseren. Pas wanneer uit deze beoordeling blijkt dat het project voldoet aan alle wettelijke en ethische eisen, kan het AI-systeem daadwerkelijk in gebruik worden genomen. Deze analyse dient te gebeuren door de eindgebruikers van het AI systeem.
Waarvoor gebruiken we AI?
AI mag in Lanaken worden ingezet voor:
- Het leesbaar maken, samenvatten, vertalen en structureren van publieke teksten en documenten.
- Het genereren van beelden ter ondersteuning van communicatie, mits geen persoonsgegevens of vertrouwelijke informatie wordt verwerkt.
- Interne procesoptimalisatie, bijvoorbeeld om administratieve taken te versnellen of te verbeteren.
Waarvoor gebruiken we AI niet?
Het nemen van besluiten over personen zonder menselijke tussenkomst.
- Het formuleren van (politieke) standpunten of het genereren van beslissingen zonder menselijke tussenkomst.
- Het verwerken van persoonsgegevens, bedrijfsgeheime of vertrouwelijke informatie in publiek toegankelijke AI-systemen, tenzij dit expliciet is toegestaan na een risicoanalyse en goedkeuring.
Transparantie
Transparantie is een fundamenteel principe in het AI-beleid van het lokaal bestuur Lanaken. We vinden het belangrijk dat burgers en medewerkers altijd weten wanneer en hoe AI wordt ingezet binnen onze organisatie. Daarom communiceren we duidelijk over het gebruik van AI-systemen. Bij elke toepassing van AI maken we kenbaar dat er AI-technologie wordt gebruikt.
Werk & privé ai gebruik (Shadow AI)
Het voorkomen van “shadow AI” is een belangrijk aandachtspunt binnen het lokaal bestuur Lanaken.
Shadow AI is het gebruik van AI tools door medewerkers zonder toestemming of toezicht van de informatieveiligheidscel. Dit gebeurt vaak wanneer mensen externe AI-diensten gebruiken om sneller te werken, zonder dat de organisatie weet welke gegevens worden gedeeld. Het kan risico’s opleveren voor privacy, beveiliging en naleving van regels.
Medewerkers mogen hierdoor uitsluitend goedgekeurde AI-toepassingen gebruiken voor hun werk en dienen privégebruik strikt te scheiden van professioneel gebruik. Dit betekent dat men voor werkgerelateerde AI-systemen altijd het gemeentelijke account gebruikt, met een uniek en sterk wachtwoord dat niet overeenkomt met privéwachtwoorden. Het is niet toegestaan om persoonlijke accounts of privé- emailadressen te gebruiken voor gemeentelijke AI-toepassingen. Door deze scheiding te respecteren, beschermen we zowel de privacy van medewerkers als de veiligheid van gemeentelijke data.
Het zorgt ervoor dat gemeentelijke data niet in privé systemen terecht komt en andersom. Zo beschermen we ook persoonlijke gegevens en voorkomen we datalekken.
Training en bewustwording (AI-geletterdheid)
Een veilige en verantwoorde inzet van AI valt of staat met het juiste gebruik van AI door medewerkers. Het trainen van medewerkers en stimuleren van bewustwording is dan ook cruciaal. Wanneer we een nieuwe AI-toepassing in gebruik nemen, zorgen we daarom voor training en ondersteuning voor gebruikers.
Daarnaast organiseren we bewustwordingscampagnes om medewerkers de juiste digitale vaardigheden mee te geven en voldoende weerbaar te maken tegen digitale risico’s en bedreigingen. Ook het werken met AI is hier onderdeel van, zowel vanuit technisch, juridisch als ethisch perspectief. Een toenemende inzet van AI vraagt ook om een toenemende inzet op het gebied van AI-geletterdheid.
Duurzaamheid
Het gebruik van Artificiële Intelligentie (AI) vraagt aanzienlijke hoeveelheden stroom, vooral bij het trainen en inzetten van grote modellen. Dit energieverbruik heeft een directe impact op het milieu, onder andere door CO₂-uitstoot.
Het lokaal bestuur Lanaken kiest daarom bewust voor een verantwoord en efficiënt gebruik van AI-systemen. We vermijden onnodig intensief gebruik en zetten AI alleen in wanneer het een duidelijke meerwaarde biedt voor onze dienstverlening of interne processen.
Bij de selectie van AI-oplossingen geven we de voorkeur aan systemen die energiezuinig zijn en bij voorkeur draaien op groene stroom. Medewerkers worden aangemoedigd om kritisch te zijn op het nut van AI en verspilling te voorkomen.
Melden en opvolgen van incidenten
Incidenten met AI, zoals een datalek of misbruik van AI, worden onmiddellijk gemeld aan de informatieveiligheidscel via de bestaande procedures voor het melden van informatiebeveiligingsincidenten en datalekken.
Evaluatie
AI ontwikkelt zich snel. Daarom evalueren we dit beleid minimaal één keer per jaar binnen de informatieveiligheidscel. Ook op vraag van het management team kan dit beleid aangepast worden en goedgekeurd binnen de informatieveiligheidscel.
Zo zorgen we dat het beleid actueel blijft en aansluit bij nieuwe inzichten, technologieën en wetgeving.
