Artificiële intelligentie (AI) biedt grote kansen in het onderwijs. Tegelijk zijn er risico’s voor privacy, gelijke kansen en onderwijskwaliteit. Wat mag wel? Wat moet je regelen? En hoe houd je grip op risico’s? Het toetsingskader AI, ontwikkeld door SIVON in samenwerking met Kennisnet, helpt daarbij. Het toetsingskader vertaalt de AI-Verordening (de Europese wet die regels stelt voor de ontwikkeling en het gebruik van AI-systemen) naar de onderwijspraktijk.
Het toetsingskader richt zich in eerste plaats op leveranciers. Zij kunnen hiermee, op basis van de AI-Verordening, nagaan of hun ict-systeem met AI onder de nieuwe regels valt, welke risico’s dat meebrengt en welke maatregelen nodig zijn om aan de wettelijke eisen te voldoen en risico’s voor leerlingen en medewerkers te beperken.
Voor scholen is het met name interessant om zich bewust te zijn van de hoog-risico-toepassingen, omdat je dan als school extra maatregelen moet nemen. Hoog-risico-toepassingen kunnen zijn een:
AI-systeem voor toelating tot of toewijzing van (beroeps)onderwijs
AI-systeem voor het evalueren van leerresultaten
AI-systeem voor het beoordelen van het (beroeps)onderwijsniveau
AI-systeem voor het monitoren van deelnemers tijdens examens
In het toetsingskader wordt uitgelegd wanneer een systeem hieronder valt (wat is precies de definitie van een AI-systeem volgens de verordening), welke mogelijke uitzonderingen er zijn en welke maatregelen de leverancier en het schoolbestuur moeten nemen als ze gebruik maken van een hoog-risico-applicatie.
Ondertussen meldt de NOS dat niet alleen scholieren, maar ook docenten op middelbare scholen kunstmatige intelligentie (AI) gebruiken, bijvoorbeeld om toetsen na te kijken. Daarbij gaat het niet alleen om antwoorden op meerkeuzevragen, maar ook om antwoorden op open vragen. Met tools als ToetsPers en ToetsTester kunnen docenten zelfs handgeschreven antwoorden laten controleren.
Docenten hopen op deze manier minder tijd kwijt te zijn aan nakijken, blijkt uit een rondgang van de NOS. Ook zeggen sommigen door de analyses van de AI-programma's meer zicht te krijgen op de vaardigheden van hun leerlingen.
Maar nakijken met AI is risicovol, zegt Felienne Hermans, hoogleraar vakdidactiek van de informatica aan de Vrije Universiteit in Amsterdam. ‘Nakijken geeft docenten waardevolle informatie over hun leerlingen. Als je dat overlaat aan AI, verlies je een belangrijke didactische waarde.’
De AI-ontwikkelingen hebben de beleidsmakers ingehaald. Komende zomer zou het deel van de Europese AI-wet ingaan over toepassingen met een hoog risico. Hierbij gaat het ook om nakijken met AI in het onderwijs. Maar onlangs werd de invoering van deze regels uitgesteld naar volgend jaar. Tot die tijd is het voor scholen en leveranciers aftasten wat wel en niet kan.