Blogs
AI-gedragscode: Hoe kom je tot een doordacht beleid in het onderwijs?
‘Mogen de leerlingen eigenlijk ChatGPT gebruiken voor deze opdracht?’ of ‘Volgens mij gebruikt mijn docent ChatGPT voor de feedback, maar ik weet dat niet zeker’. Met de opkomst van AI in onderwijsland, is er veel onduidelijkheid over dit soort zaken ontstaan. Vaak bieden de eerste reacties, zoals individueel verbieden of juist omarmen, niet de meest wenselijke oplossingen. Ze geven alleen maar meer onduidelijkheid voor docenten en leerlingen/studenten. Beter is om met elkaar gestructureerd na te denken over meer structureel beleid over het gebruik van AI-tools. Een belangrijk onderdeel hiervan is het opstellen van een gedragscode, met daaronder liggend allerlei ethische dilemma’s. In dit artikel bespreek ik de meest voor de hand liggende dilemma’s waarover je kunt nadenken als onderwijsorganisatie.
Geen onderwerp waar mensen zo divers over denken als over ethische dilemma’s. Bij het vormen van beleid over gedragsregels met betrekking tot AI-tools in het onderwijs zal dit niet anders zijn. Om wat meer handvatten te bieden voor deze dialoog, zet ik hieronder de 5 meest voor de hand liggende aspecten van zo’n gedragscode uiteen, in willekeurige volgorde. Mocht je zaken missen, dan zie ik die graag terug in de comments, we learn as we go!
1) Transparantie.
Meteen een veelkoppig monster. Allereerst gaat het hier over de mate waarin je als docent en als leerling/student open moet zijn over je gebruik van AI. Geldt deze transparantie altijd, of zijn er situaties waarin het niet nodig/wenselijk is open te zijn? En hoe communiceer je dan hierover? Zet je in je handleiding als docent dat je gebruik hebt gemaakt van ChatGPT? En zet je in je Powerpoint dat het plaatje uit Midjourney komt?
Transparantie gaat ook over de mate waarin de bedrijven achter de AI-tools transparant zijn in hoe ze de modellen hebben getraind en wat ze doen met de data die ze van de gebruikers krijgen. Dit tweede aspect zal vaak een zaak van de juristen van een onderwijsorganisatie zijn en hangt nauw samen met het derde dilemma hieronder, namelijk privacy.
2) Privacy
In het verlengde van transparantie over wat er met de data gebeurt die in AI-tools wordt gestopt, is natuurlijk ook de vraag hoe zich dat verhoudt tot privacy van groot belang. Welke data zijn privacygevoelig? Mag ik geanonimiseerd een verslag in ChatGPT stoppen? Of kan ik AI-tools inzetten om de onderzoeksgegevens die ik bij een stage heb verkregen, te analyseren? Of kan ik als onderwijsinstelling studenten/leerlingen vragen een account aan te maken voor een AI-tool dat ik wil inzetten? En wat gebeurt er dan met hun gegevens?
3) Verantwoordelijkheid.
De kernvraag hier is wie er bij gebruik van AI-tools verantwoordelijk is voor de output. Kan een student/leerling verhaal halen over een casus uit een toets die door AI is gegenereerd bv? En wie is de ‘eigenaar’ van een essay dat samen met ChatGPT is geschreven door een student?
Een ander belangrijk aspect hier is het voorkomen van overafhankelijkheid. Hoe voorkom je dat er teveel geleund wordt op AI-tools? Hoe voorkom je dat leren en zelf kritisch nadenken in het geding komen?
4) Eerlijkheid
AI belooft een democratisering voor ‘intelligentie-ondersteuning’. Iedereen heeft toegang tot een chatbot die met je meedenkt. Maar als een beperkt deel het geld heeft voor een GPT4 account en anderen niet, hoe eerlijk is het dan? Moet je dan nog op dezelfde criteria toetsen bv? Een leerling/student met de gratis versie is dan in het nadeel. Dat geldt nog meer voor de leerling/student die nog niet voldoende is geschoold in het gebruik van zelfs maar de gratis versie. Is dat scholen de verantwoordelijkheid van de onderwijsinstelling?
5) Duurzaamheid
AI-tools werken door in gigantische datacenters allerlei supercomputers heel veel berekeningen te laten maken. Dat kost heel erg veel stroom. Is het dan nodig om een plaatje te laten genereren om je PowerPoint mooier te maken? Ga je dan stimuleren om ChatGPT te gebruiken bij het corrigeren van de taal in een geschreven stuk? Bewustwording van dit duurzaamheidsaspect, legt een verantwoorde keuze in de mate van inzet van AI-tools bij de onderwijsinstelling.
Wanneer over bovenstaande 5 aspecten goed wordt nagedacht, bij voorkeur met een grote groep docenten, kom je vanzelf tot een gedragscode die acceptabel en werkbaar is.
NB1. In het kader van transparantie: Bovenstaand stuk heb ik zelf geschreven, maar ik heb ChatGPT4 gevraagd om feedback. Deze feedback heb ik gewogen en waar ik deze relevant vond heb ik deze verwerkt.