Vi pratar ofta om vad AI kan göra.
Men allt oftare märker jag att de mest intressanta frågorna handlar om vad den inte ska göra.
För när man har arbetat med AI ett tag händer något märkligt.
I början är man mest nyfiken: “Tänk att den kan skriva så här!”
Sedan blir man imponerad: “Oj, den förstår ju vad jag menar!”
Men ganska snart börjar de där mer stillsamma tankarna smyga sig in:
“Vänta nu… kan jag verkligen använda det här svaret? Var kommer informationen ifrån? Vem bär ansvaret om det blir fel?”
Det är då man inser att AI inte är ett tekniskt fenomen längre – det är ett etiskt.
För den som arbetar i skolan är det här egentligen inget nytt.
Vi lever redan i ett ständigt växelspel mellan kunskap och ansvar, mellan förtroende och prövning.
Vi fostrar elever till källkritiska medborgare, vi pratar om värdegrund, vi lär ut att språk formar verklighet.
AI för in samma samtal i en ny kontext.
Och plötsligt är det vi – inte eleverna – som behöver öva vår källkritiska blick.
När du pratar med en språkmodell är det lätt att glömma att det du ser är en språklig konstruktion, inte en garanti.
AI är skicklig på att låta säker, men den har inget samvete, ingen källa, inget ansvar.
Det är vår uppgift att stå för de tre sakerna: samvete, källa, ansvar.
Det betyder att vi behöver läsa AI:s svar på samma sätt som vi lär eleverna läsa internet: med nyfikenhet, men också med vaksamhet.
Att ställa frågor som:
- Var kommer den här informationen ifrån?
- Vem vinner på att jag tänker på det här sättet?
- Vad saknas i det här perspektivet?
AI blir då inte ett orakel, utan ett träningsredskap för kritiskt tänkande.
Jag minns en gång under en workshop när en lärare bad AI skriva ett exempel på ett etiskt dilemma i undervisningen.
AI svarade blixtsnabbt med en berättelse om en lärare som upptäckte att en elev plagierat en text.
Allt såg välskrivet ut – men när vi började läsa närmare upptäckte gruppen att dilemmat var… ganska grunt.
Det handlade mest om “rätt eller fel”, inte om mänsklig förståelse, relationer eller förtroende.
Och någon sa tyst:
“AI kan ju inte känna skam. Den vet inte hur det känns att svika ett förtroende.”
Precis.
Det är där skillnaden mellan oss och tekniken blir tydlig.
AI kan imitera resonemang, men inte ansvar.
Den kan analysera värderingar, men inte känna deras tyngd.
Och därför måste vi vara människan i mitten – den som tänker, väger, tolkar.
När skolor börjar använda AI i planering, analys eller kommunikation, är det lätt att vilja lita på effektiviteten.
Men den verkliga tilliten i skolan byggs inte genom att något går snabbare.
Den byggs genom att människor känner att deras omdöme betyder något.
AI kan hjälpa oss formulera, förklara, tydliggöra – men den kan aldrig bära förtroendet.
Det är ett mänskligt uppdrag.
Samtidigt finns det något hoppfullt här.
AI kan faktiskt stärka etiken, om vi använder den rätt.
För varje gång vi diskuterar ett AI-svar, varje gång vi jämför, ifrågasätter och reflekterar – tränar vi vår egen professionella integritet.
Vi blir mer medvetna om hur vi värderar kunskap, språk och perspektiv.
Och kanske är det just det skolan behöver just nu – inte fler svar, utan fler samtal om hur vi tänker när vi hittar dem.
När jag föreläser brukar jag ibland säga att AI inte är ett hot mot lärarrollen – det är ett test av den.
Ett test på vår förmåga att hålla fast vid det som gör oss mänskliga: nyfikenheten, omtanken, förmågan att säga “jag vet inte än, men låt oss tänka tillsammans.”
För i slutändan handlar allt detta – promptteknik, scaffolding, roller, planering – inte om att få bättre svar.
Det handlar om att skapa bättre samtal.
Mellan lärare och elever. Mellan skolledning och verksamhet. Mellan människa och maskin.
Så låt oss fortsätta samtalet.
Om vad vi vill att AI ska vara i skolan – och, ännu viktigare, vad vi själva vill vara i relation till den.
För teknik kan visserligen forma framtiden, men det är samtalet som avgör hur den känns att leva i.






Lämna en kommentar