Blogs

Kritiek op GPTs (1): Wat gebeurt er met de data? En is dit een probleem?

Kritiek op GPTs (1): Wat gebeurt er met de data? En is dit een probleem?

Iets meer dan een week geleden deelde ik GPTs voor docenten en onze AI-docent Aisha. Gratis te gebruiken voor iedereen aangezien GPT-4o (de beste AI-chatbot) nu gratis is! Link naar vorige artikel. Ik heb daar veel positieve reacties op gehad en mensen deelden hun positieve ervaringen:

  • Mensen zien eindelijk in hoeveel krachtiger ChatGPT is dan bijvoorbeeld CoPilot. Niet alleen qua inhoudelijke reactie, maar ook qua mogelijkheden. De mogelijkheid om bijlages te uploaden is bijvoorbeeld heel handig. Tip: heb je je studiehandleiding er al ingezet en de eindopdracht laten maken?
  • Het limiet voor de gratis gebruikers is ongeveer 10 prompts per 3 uur (maar dat verschilt per dag). Als je hier net mee gaat werken, bereik je dit heel snel, maar als dit een paar keer is gebeurd, ga je steeds slimmer deze prompts inzetten. Met 10 prompts kan je gemakkelijk een goede opzet maken voor je toets of brainstormen voor je lesopzet.
  • De GPTs maken het veel laagdrempeliger om met een chatbot te werken. Je hoeft minder over je prompts na te denken omdat die al voor een deel zijn voorgeprogrammeerd. Bij de spellingscheck GPT hoef je bijvoorbeeld alleen nog de tekst erin te zetten. En bij het toets ontwerpen krijg je allerlei vragen vanuit de GPT om het zo concreet mogelijk te maken.
  • Ook wordt Aisha gebruikt. Het is een hele nieuwe, andere manier van leren omdat het zo interactief is. Het reageert snel op de vragen. Leerlingen hebben nog wel moeite met de juiste vragen stellen.

Ook heb ik negatieve reacties gehad:

  • Een belangrijk topic is de privacy. De vraag ‘wat gebeurt er met de data?’ is hierin een belangrijke. Sommige mensen zijn zeer kritisch op het gebruik van GPTs voor het onderwijs. Iemand heeft het zelfs onethisch genoemd dat ik dit aanbied.
  • Een ander belangrijk nadeel is dat chatbots hallucineren. Het is dus niet 100% correct.
  • Een derde nadeel die ik hoor, is dat studenten dit nu ook kunnen gebruiken. Ze kunnen nu makkelijker ‘valsspelen’ op hun schoolwerk en ze kunnen hier lui van worden.

Ik wil graag ingaan op de kritiek. In dit artikel ga ik in op de privacyvraagstukken.

TLDR: Ik vind de kritiek niet op z’n plaats en ik heb het gevoel dat we wel wat meer ons ‘boerenverstand’ mogen gebruiken. Lees mijn argumenten in het artikel.

Wat gebeurt er met de data?

De meeste mensen kennen vast de uitspraak ‘als je niet betaalt voor het product, ben jij het product’. Daarmee wordt bedoeld dat de makers van een technologie waarschijnlijk jouw data gebruiken om hun product/service te kunnen verbeteren. Dat is bij ChatGPT ook het geval. Ze zullen jouw data opslaan (op dit moment in de VS) en gebruiken om hun volgende chatmodellen te verbeteren. Omdat onderwijsinstellingen geen dataverwerkingsovereenkomst hebben met OpenAI en ze de data opslaan in de VS, gaat dit in tegen de AVG. We mogen dus officieel ChatGPT niet inzetten voor bepaalde werkzaamheden of het leerlingen verplichten te gebruiken.

De praktijk is wat genuanceerder dan de wetgeving. Het is goed om te bedenken dat OpenAI er alles aan zal doen dat deze data veilig is opgeslagen. Als er een datalek bij hun is, dan zullen ze enorme reputatieschade leiden. Ik zie daar zeer weinig risico. Ook in het trainen van het nieuwe model met jouw data zie ik in de praktijk niet zoveel gevolgen. Jouw prompt is een van de biljoenen datapunten en dit zal praktisch geen invloed hebben op het nieuwe model.

Grijs gebied en boerenverstand

Wat bijvoorbeeld wel mag, is als wij leerlingen erop wijzen dat er zoiets bestaat als Aisha. Leerlingen kunnen dit prima inzetten, maar het wordt niet ondersteund vanuit school. Maar je mag hier wel de vraag stellen of we dit moeten willen. Dat het vanuit de onderwijsinstelling ingaat tegen de AVG zal wel iets betekenen, toch?

De GPTs voor docenten en Aisha zijn bedoeld om het werk- en leerproces te verbeteren. Een voorbeeld is als een leerling gaat leren met Aisha voor zijn eindexamen voor een bepaald vak. De vragen die de leerling stelt worden dan opgeslagen in de VS en het model wordt er verder op getraind. Is dit nou waar mensen zich druk over maken? Dat de vragen die we stellen ergens worden opgeslagen? Ik zie hier totaal geen probleem in.

Even voor de duidelijkheid: als je er zeer persoonlijke dingen of bijvoorbeeld bedrijfsgeheimen inzet, vind ik het een ander verhaal. Ik denk nog steeds dat de kans dat er iets negatiefs mee gebeurt erg klein is, maar daar zou ik zeker voor waken. Maar de prompts die hangen aan het ontwerpen van een toets of het leren voor een bepaalde toets zijn volgens mij van een veel onschuldigere categorie.

Zaken die erger zijn waar we ons niet druk over maken

Ik snap dus niet zo goed waarom mensen heel kritisch zijn op het gebruik van ChatGPT voor het onderwijs. En op andere vlakken zijn we helemaal niet zo kritisch. Gisteren stond er op NU.nl nog een artikel over data dat META haar nieuwe AI-modellen gaat trainen met al jouw posts van Instagram. Link naar artikel. Dat lijkt me toch een stuk kwalijker dan je prompts om te leren.

Maar dit gaat natuurlijk niet over het onderwijs en de werksetting. Maar ook in deze setting gebeuren er veel ergere dingen op het gebied van privacy dan je prompts. Ik ken veel docenten die WhatsAppgroepen hebben met studenten en onderling met docenten (en ik zelf ook overigens). Dit is ook niet met een dataverwerkingsovereenkomst geregeld en hierin worden veel persoonlijkere dingen gedeeld. Dit wordt een soort van gedoogd maar dit lijkt me veel kwalijker dan ChatGPT gebruiken voor het onderwijs.

Uploaden van het werk van de student

Ik zei net al dat ik vind dat er een belangrijk onderscheid ligt tussen prompts waarin je persoonlijke gegevens of geheime bedrijfsgegevens stuurt en prompts die veel onschuldiger zijn, zoals het leren voor een examen. Maar zelfs binnen die eerste categorie wil ik nog wel wat nuanceren. Een ding wat bijvoorbeeld echt niet mag, is het uploaden van het werk van een student in ChatGPT om zodoende betere feedback te kunnen geven aan de student. Ik heb dit ook in workshops wel eens besproken of dit mocht en veel docenten vinden dat dit een absolute no-go. Het belangrijkste argument is dat de student eigenaar is van hun werk en geen toestemming heeft gegeven dat het naar de servers van OpenAI gaat.

In theorie vind ik dit een goed argument. In de praktijk is het studentenwerk al bij de servers van OpenAI geweest omdat studenten ChatGPT hebben gebruikt om het werk te schrijven of op z’n minst de taalfouten er laten uithalen door ChatGPT. Wie houden we nog voor de gek dat ze dit niet gebruiken? Dit jaar kreeg ik voor het eerst allerlei eindproducten binnen van mijn afstudeerders zonder spel- en taalfouten. Volgens mij is dat geen toeval. Bovendien, het meeste schoolwerk dat wordt ingeleverd, is ook niet zo spannend qua privacy.

Kunnen we dus niet de standaard veranderen in: de docent mag het werk van de student in ChatGPT zetten, behalve als de student aangeeft dat hij/zij dat liever niet wil.

Conclusie

Er zijn een hoop mensen in onderwijsland zeer kritisch over wat er met de data gebeurt als mensen gebruik maken van ChatGPT. Voor veel werk- en leerprocessen zie ik het probleem hier niet zo van in. Wat maakt het uit als OpenAI de prompts opslaat hoe een docent een toets ontwerpt of hoe een leerling leert voor een examen?

Disclaimer en discussie

Dit is mijn eigen mening en niet die van de HAN of van anderen. Ik verwacht dat er mensen zeer kritisch zijn op mijn mening op dit gebied. Ik heb deze gedachtegang langer, maar durfde het niet eerder te posten omdat sommige mensen hier heel boos over kunnen worden. Ik hoop dat we hier een goede en positieve discussie over kunnen hebben. Ik sta open voor andere standpunten.

 

Scroll naar boven
Chat openen
Hallo 👋
Kunnen we je helpen?