Inloggen Geen profiel? Registreer hier.

Denk na over een policy bij het gebruik van Generatieve Kunstmatige Intelligentie (AI)

09/10/2023

AI-technologieën kunnen aanzienlijke voordelen bieden in diverse sectoren zoals milieu, gezondheid, openbare diensten, financiën, mobiliteit en landbouw. Ze zijn nuttig voor het verbeteren van voorspellingen, optimaliseren van operaties en het personaliseren van diensten. Echter, er zijn zorgen over de implicaties van AI-systemen voor fundamentele rechten beschermd onder het EU-Handvest van de grondrechten:

  • AI-systemen geven risico's tav de fundamentele rechten zoals het recht op non-discriminatie, vrijheid van meningsuiting, menselijke waardigheid, gegevensbescherming en privacy in gevaar brengen.
  • Er zijn specifieke regels voorgesteld voor 'hoog risico' AI-systemen die een negatieve impact kunnen hebben op de veiligheid van mensen of hun fundamentele rechten.
  • Er zijn zorgen geuit over het gebrek aan effectieve handhavingsstructuren in de AI-act. Er zijn aanbevelingen gedaan om het voorstel te wijzigen om onder andere een expliciet recht op verhaal voor individuen op te nemen.
  • De Raad heeft zijn gemeenschappelijk standpunt in december 2022 aangenomen met voorstellen om onder andere de definitie van AI-systemen te verfijnen en het nalevingskader voor de AI-act te vereenvoudigen.

Tijdens onze [CIS] Cyber- en Informatiesecurity dag heeft Samantha Smith, Director of Institute van de Society For Innovation Technology and Modernisation (Socitm) er de nadruk op gelegd dat lokale overheden dienen na te denken over een beleid rond het gebruik van AI binnen de eigen organisaties. We voorzien hierbij graag een voorbeeld van een "policy" die een aantal fundamentele aspecten meeneemt waarmee men rekening kan houden.

Dergelijke policy verdient minstens evenveel aandacht dan andere policies rond security of rond het gebruik van devices en software. Het kan een uitbreiding/bijlage zijn op de arbeidsovereenkomst om ervoor te zorgen dat medewerkers op een deontologische, ethische en vooral veilige manier omgaan met gegevens die ze verwerking via AI-systemen. 

----------------------------------------------

Voorbeeld van een Beleid (policy) voor het Gebruik van Generatieve Kunstmatige Intelligentie (AI)

  1. Inleiding en Achtergrond:

Kunstmatige intelligentie (AI) heeft de kracht om de manier waarop we werken te transformeren, van het creëren van rijke inhoud tot het analyseren van complexe datasets. Terwijl we deze technologieën omarmen, is het van cruciaal belang dat we de bijbehorende risico's begrijpen en beheren, in overeenstemming met de European AI Act.

  1. Doelstellingen van AI:
  • Mensen in staat stellen efficiënter en effectiever te werken.
  • Klantverzoeken beantwoorden via geautomatiseerde gesprekken.
  • Documenten genereren en analyseren voor betere besluitvorming.
  • Samenvatten van grote hoeveelheden informatie.
  • Identificeren van trends en waardevolle inzichten uit gegevens.
  1. Algemene Regels:
  • AI-chatbots mogen alleen worden gebruikt voor werkgerelateerde doeleinden en moeten voldoen aan de eisen van de European AI Act, met name de bepalingen over transparantie en verantwoordelijkheid (Artikelen 13-15).
  • Alle interacties met AI-chatbots zijn onderworpen aan ons gegevensprivacy- en beveiligingsbeleid, in lijn met de European AI Act's bepalingen over gegevensbescherming (Artikel 10).
  • Medewerkers mogen geen vertrouwelijke of persoonlijke informatie delen met AI-chatbots zonder de juiste beveiligingsmaatregelen.
  1. Richtlijnen voor Gebruik:
  • Deel geen gevoelige bedrijfsinformatie met openbare AI-tools, in overeenstemming met de European AI Act's bepalingen over gegevensbeveiliging (Artikel 11).
  • Gebruik AI op een ethische manier, rekening houdend met de European AI Act's bepalingen over het voorkomen van schadelijk gebruik van AI (Artikel 5).
  • Bescherm persoonlijke gegevens en respecteer de privacy van individuen, zoals uiteengezet in de European AI Act (Artikel 9).
  • Gebruik AI-tools alleen voor goedgekeurde doeleinden, zoals onderzoek en brainstorming, en vermijd het gebruik van AI-output zonder de juiste verificatie.
  1. Training en Ondersteuning:
  • We zullen regelmatige trainingen en updates bieden over het juiste gebruik van AI-tools, in overeenstemming met de European AI Act's bepalingen over het bevorderen van AI-opleiding en -bewustzijn (Artikel 29).
  1. Volgende Stappen en Implementatie:
  • Moedig experimenten met AI aan, maar zorg ervoor dat alle implementaties voldoen aan de European AI Act.
  • Blijf op de hoogte van de nieuwste ontwikkelingen in de AI-sector en de relevante wetgeving.
  1. Contact en Rapportage:
  • Bij vragen of zorgen over het gebruik van AI, of als u een mogelijke schending van dit beleid of de European AI Act opmerkt, neem dan contact op met een juridisch expert.