Angst voor AI in het onderwijs: Een gevaarlijke rem op vooruitgang
Mogelijke gevaren uitvergroten en de enorme kansen missen, kansen die we ons niet kunnen permitteren te missen. Het plaatje bij dit artikel is een karikatuur natuurlijk. Maar wel een met een kern van waarheid waar ik vaak letterlijk van wakker lig. Ik zal de aanleiding voor mijn gepieker schetsen en dan mijn visie delen. Die visie is de basis van alles wat ik met AI doe met Tom Naberink. Leek me wel eens goed om te delen.
Het grote nieuwe argument dat gebruikt wordt om het wijzen op mogelijke risico’s te onderbouwen is een interpretatie van de EU AI-act. In deze wet zijn risico’s opgenomen voor het gebruik van AI in het onderwijs (oa). Zo is er een sectie over hoog risicovolle zaken rondom summatieve toetsing. Wat je daar echter niet in vindt is dat iets concreets is verboden. Wel vind je dat bepaalde consequenties van AI in toetsing verboden zijn, maar dat is echt niet hetzelfde. Dat betekent wel dat je verantwoord moet omgaan, door bv AI niet zonder menselijk toezicht een eindoordeel te laten geven en eventuele inzet van AI bij toetsing goed te verantwoorden, maar niet dat je AI niet mag inzetten bij toetsing bv. Maw deze wet moet het gesprek over kansen van AI in het onderwijs niet de kop indrukken, en dat zie ik nu helaas wel vaak gebeuren
Ik zal één voorbeeld geven uit mijn privé-situatie om mijn betoog verder kracht bij te zetten, want het echt niet allemaal de ver van mijn bed schow. Mijn zoon zit in 5 VWO en staat aan de start van zijn studiekeuze proces. Maar welke studie moet hij nu kiezen die hem straks een baan oplevert die niet is overgenomen door AI? En waarom is dat niet een heel belangrijk thema vanuit het decanaat? Ga je nu leerlingen naar studies sturen waarvan het werkveld zeer ingrijpend gaat veranderen zonder daar eerst het gesprek met ze over te voeren? Ik vind dat niet kunnen. Zeker omdat de studies zelf ook nog nauwelijks bevatten wat er op ze afkomt en leerlingen op voorlichtingen daarover ook nauwelijks informatie krijgen.
Visie
Als je al een beetje mee kunt gaan in bovenstaande, dan kun je mijn visie wel begrijpen denk ik. Ik schets die hieronder heel eenvoudig in 2 punten.
De kansen die AI voor het onderwijs bieden én de impact die AI het onderwijs ‘aandoet’, maken het ethisch onverantwoord om niet veel te gaan experimenteren in het onderwijs met AI, en wel meteen. Dat weegt zwaarder dan op basis van risicoanalyses alles te blokkeren. We hebben de verantwoordelijkheid om onze kinderen goed voor te bereiden op de toekomst en daarbij hoort een grondige kennismaking met AI. NB. dit betekent niet blind voor risico’s alles maar doen, dat is niet wat ik hier wil zeggen.
Zelfs als de risico-argumenten winnen, kun je het mi nog niet uit het onderwijs houden. Er zijn bv al ruim 300 miljoen mensen die thuis Chatgpt gebruiken, waaronder zo’n beetje alle leerlingen en studenten in Nederland. Die stoppen daar echt niet mee als het op school niet mag. Het ‘mag niet’ in onze onderwijsinstelling is naïef en creëert een gat tussen beleid en realiteit. Dat gat is dan vervolgens het probleem van de docenten in de klas, en niet van de beleidsmakers die voor het gat hebben gezorgd. Geen wenselijke situatie lijkt me.
Mogelijke gevaren uitvergroten en de enorme kansen missen, kansen die we ons niet kunnen permitteren te missen. Het plaatje bij dit artikel is een karikatuur natuurlijk. Maar wel een met een kern van waarheid waar ik vaak letterlijk van wakker lig. Ik zal de aanleiding voor mijn gepieker schetsen en dan mijn visie delen. Die visie is de basis van alles wat ik met AI doe met Tom Naberink. Leek me wel eens goed om te delen.
Aanleiding
In mijn AI-bubbel is er een trend gaande de laatste tijd. Op zo’n beetje alle suggesties en initiatieven om de kansen te gaan verkennen en benutten van AI-tools komt een storm van waarschuwingen en soms ronduit afkeuringen. Veel gehoorde bezwaren gaan over privacy en daarmee samenhangend de vermeende ‘kwaadwillendheid’ van de grote AI-bedrijven. Dat werd helemaal onhygiënisch toen ik van de week postte dat een Chinees bedrijf een gratis open source model had vrijgegeven (https://www.linkedin.com/posts/marcelmutsaarts_deepseek-activity-7287737928405901312-Vyxi?utm_source=share&utm_medium=member_desktop). Nauwelijks reacties aan de kansenkant, heel veel kritiek op de risico-kant. Alexander Klöpping (https://www.linkedin.com/posts/alexanderklopping_je-moet-deepseek-even-proberen-de-nieuwste-activity-7288112326019362816-qH5_?utm_source=share&utm_medium=member_desktop) postte hetzelfde en daar waren de reacties nog veel heftiger. Let wel, ik ontken niet dat er geen risico’s zijn en dat alles maar moet kunnen. Maar iets alleen maar veroordelen vind ik niet ok, zoals ik hieronder zal betogen.
Het grote nieuwe argument dat gebruikt wordt om het wijzen op mogelijke risico’s te onderbouwen is een interpretatie van de EU AI-act. In deze wet zijn risico’s opgenomen voor het gebruik van AI in het onderwijs (oa). Zo is er een sectie over hoog risicovolle zaken rondom summatieve toetsing. Wat je daar echter niet in vindt is dat iets concreets is verboden. Wel vind je dat bepaalde consequenties van AI in toetsing verboden zijn, maar dat is echt niet hetzelfde. Dat betekent wel dat je verantwoord moet omgaan, door bv AI niet zonder menselijk toezicht een eindoordeel te laten geven en eventuele inzet van AI bij toetsing goed te verantwoorden, maar niet dat je AI niet mag inzetten bij toetsing bv. Maw deze wet moet het gesprek over kansen van AI in het onderwijs niet de kop indrukken, en dat zie ik nu helaas wel vaak gebeuren
Wakker worden en wakker liggen
Ik heb mijn sentiment over de snelheid waarmee AI zich ontwikkeld en de traagheid waarmee de impact hiervan doordringt tot iedereen in dit artikel beschreven met ‘wakker worden’ (https://www.linkedin.com/posts/marcelmutsaarts_wakker-worden-dit-gevoel-heb-ik-vanochtend-activity-7276143236430135296-OC9k?utm_source=share&utm_medium=member_desktop). De reden waarom ik vaak wakker lig, hangt hier nauw mee samen. Deze week zijn de ontwikkelingen op AI-gebied weer niet bij te houden (volg hiervoor het ai-tussenuurtje, onze podcast). De wereld gaat de komende jaren enorm ingrijpend veranderen, voor iedereen. Ik kan dit interview met Demis Hassabis – nobelprijs-winnaar en baas van Google Deepmind – erg aanraden. Een even nuchtere als ingrijpende blik op de mate van impact van AI op zo’n beetje alles (Google DeepMind CEO Demis Hassabis: The Path To AGI, Deceptive AIs, Building a Virtual Cell).
Ik zal één voorbeeld geven uit mijn privé-situatie om mijn betoog verder kracht bij te zetten, want het echt niet allemaal de ver van mijn bed schow. Mijn zoon zit in 5 VWO en staat aan de start van zijn studiekeuze proces. Maar welke studie moet hij nu kiezen die hem straks een baan oplevert die niet is overgenomen door AI? En waarom is dat niet een heel belangrijk thema vanuit het decanaat? Ga je nu leerlingen naar studies sturen waarvan het werkveld zeer ingrijpend gaat veranderen zonder daar eerst het gesprek met ze over te voeren? Ik vind dat niet kunnen. Zeker omdat de studies zelf ook nog nauwelijks bevatten wat er op ze afkomt en leerlingen op voorlichtingen daarover ook nauwelijks informatie krijgen.
Visie
Als je al een beetje mee kunt gaan in bovenstaande, dan kun je mijn visie wel begrijpen denk ik. Ik schets die hieronder heel eenvoudig in 2 punten.
Dus
Dit alles is dus de reden waarom ik met Tom zoveel energie stop in AI voor Docenten | Uw bron voor AI in het onderwijs, AI voor Docenten | Uw bron voor AI in het onderwijs, aivoorleerlingen.nl & https://open.spotify.com/show/5yGT1cDSqLtdR6qp6rx6pO?si=f9a0171207dc4dbb. En ik krijg heel veel energie van alle kansen die er liggen om het onderwijs fundamenteel te verbeteren en ook van alle samenwerkingen die onze initiatieven opleveren. Het is dus niet alleen maar wakker liggen hoor, maak je geen zorgen ;-). Hoe kan ik dit betoog nu anders afsluiten dan met onze slogan: Niet bang zijn, gewoon doen!