0 varer
0,00 dkk

2025, nr. 2

125,00 dkk

Antal sider: 109

ISBN:
978-87-92914-86-6

2025, nr. 2

Tema: Chatbots - Kritik og didaktik med kunstig intelligens i undervisningen
LEDER

Chatbots – Kritik og didaktik med kunstig intelligens i undervisningen

“Det triste ved den kunstige intelligens er, at den ikke er
særlig kunstig og derfor heller ikke særlig intelligent”

— Jean Baudrillard (1996 s. 125)

Smag lige på ordene “kunstig”, “intelligens”. Hvad smager de af, og hvad betyder de? Hvordan kan intelligens være kunstig? Og hvad er intelligens overhovedet for en størrelse? Når Baudrillard hævder, at den kunstige intelligens ikke er særlig kunstig, så peger han på, at kunstig intelligens bare er regnekraft, hvilket der ikke er noget kunstigt over. Hvis intelligens har noget med det kunstige og kunstfærdige at gøre, så skulle det overskride de begrænsninger, der ligger i at være bundet til logik og opskrifter (algoritmer). Men sådan forholder det sig ikke. Tværtimod – synes Baudrillard at sige. Den kunstige intelligens har ingen intuition, der kan overskride beregninger og sandsynligheder. Og det er trist. Hvis den kunstige intelligens var kunstig, ville den kunne bryde de logikker, der allerede er på spil i det moderne samfund, og pege på det forbløffende, det fortryllede og det forførende, som han bruger som modbegreb til fornuftens distancerede kølighed.


Faktaboks

Når vi ´her anvender begrebet ”chatbot”, dækker det over tjenester, der baserer sig på kunstig intelligens. Brugerfladen af chatbots ligner det vi kender fra chat med mennesker, men vi taler ikke om de simple regelbaserede chatbots, man fx har kunnet finde på Ikeas hjemmeside fra begyndelsen af 2000’erne. Det er derimod den nye generation, der er baseret på generativ kunstig intelligens. Forespørgsler til chatbotten kaldes ”prompts”, og de output, du modtager, er genereret af avancerede matematiske algoritmer. Man kan ikke forklare direkte, hvorfor en chatbot svarer, som den gør, det er en såkaldt ”black box”. Moderne chatbots bygger på store sprogmodeller (LLM), der kan imitere menneskelignende sprog og indgå en række sammenhænge fra vejledning, naturvidenskab til mere eller mindre intime relationer. Deres output er en simulation af et svar givet af et menneske med indsigt, men man kan ikke være sikker på fakta eller etiske forhold, ligesom man skal passe på, hvilke personhenførbare data og ophavsretsbeskyttede data man fodrer dem med.


Selvom kunstig intelligens – generativ eller ej – fylder meget i offentligheden og ikke mindst inden for uddannelsessektoren, så er det uklart, hvad begrebet betyder. Der findes ikke almindeligt anerkendte definitioner på kunstig intelligens. I EU’s forordning om kunstig intelligens (AI Act) findes ganske vist en definition, men den forekommer temmelig ubrugelig i en hverdagssammenhæng. Kunstig intelligens omtales her som et AI-system og defineres på følgende måde: “et maskinbaseret system, som er udformet med henblik på at fungere med en varierende grad af autonomi, og som efter idriftsættelsen kan udvise en tilpasningsevne, og som til eksplicitte eller implicitte mål af det input, det modtager, udleder, hvordan det kan generere output såsom forudsigelser, indhold, anbefalinger eller beslutninger, som kan påvirke fysiske eller virtuelle miljøer” (EU, 2024).

Og selvom der er masser af hype om udviklingen inden for generativ kunstig intelligens, er der heller ikke klarhed over, hvad ”intelligens” betyder. Tony Prescott (2025) har i bogen The Psychology of AI en længere diskussion af begrebet “intelligens” ud fra, hvordan det er blevet forstået i udviklingen af kunstig intelligens. Han følger David Weschlers definition af intelligens som individets “samlede eller globale evne til at handle målrettet, tænke rationelt og håndtere sine omgivelser effektivt” (citeret efter Prescott, 2025, s. 15). Kunstig intelligens vil med denne definition falde udenfor og kun være kunstig. Og kombineret med Baudrillard er den kunstige intelligens hverken kunstig eller intelligent, men en tom betegner, vi kan putte meget forskelligt i. Og det gør vi så. Talen om kunstig intelligens i dag handler typisk om noget, man kan kalde for pladsholdere for intelligens. Især generativ kunstig intelligens siges at komme med output, der “ligner” noget, et menneske kunne have produceret. Dens output kan ikke klart skelnes fra noget, et menneske kunne have produceret. Sammenligningen med noget kunstigt, der er menneskeagtigt, har en lang historie, der går mindst tilbage til antikken. I Homers Iliaden bevæger tjenere, “Som var af Guld, og grandt saae ud som levende Piger” (Homer, u.å., sang 18, linje 418), sig rundt og hjælper til i Hefaistos smedje. De kan både tænke og tale, selvom de er mekaniske dukker lavet af guld.
Figur 1: Eksempel på brugerens ”prompt” og chatbottens output (SkoleGPT, 8. marts 2025).
Og der findes utallige eksempler på kulturprodukter, der beskriver det særegne ved, at noget skabt og kunstigt får egenskaber af noget, der ser ud til at være organisk, levende og naturligt. Og her spiller ikke mindst tænkning og bevidsthed en rolle – noget som vi genkender i omgangen med generativ kunstig intelligens, som man kan have en fornemmelse af, har kognitive egenskaber, der gør dem menneskelige. Vi kommer let til at antropomorfi sere chatbots, hvilket kan være uheldigt, hvis man vil fastholde en (teknologi)forståelse for, at det er en teknologi uden bevidsthed, viden eller moral, man anvender. Desuden kan det give en følelse af ubehag, når man ikke kan skelne det naturlige fra det kunstige, hvilket er en pointe i Ida Ebbensgaards (2025) lille bog om kunstig intelligens: Ægte.
Alan Turing skrev i 1950 en meget indfl ydelsesrig artikel om kunstig intelligens: “Computing machinery and intelligence”. Han stiller her spørgsmålet, om maskiner kan tænke. Men da han mener, at man ikke kan afgøre tænkning som egenskab, så vil han besvare spørgsmålet om, hvordan man kan afgøre, om
maskiner tænker ved at se på, om maskiner kan imitere menneskelige svar. Hvis en maskine kan svare på spørgsmål på en måde, hvor en eksaminator ikke kan afgøre, om svaret kommer fra en maskine eller et menneske, så må man sige, at maskinen tænker. Turing kaldte dette for the imitation game.
En interessant illustration af Turingtesten fi nder vi i Ridley Scotts fi lm Blade Runner fra 1982 baseret på Philip K. Dicks roman Drømmer androider om elektriske får? fra 1968. I en scene skal hovedpersonen Deckard afgøre, om en person er en robot eller et menneske. Og selvom det i dette tilfælde kræver langt flere spørgsmål end normalt at afgøre, så lykkes det for ham gennem det, der i filmen kaldes for Voight-Kampff -testen. Filmen fastholder dog spørgsmålet om, hvad forskellen på at være et menneske og en tænkende maskine, der oplever sig selv som levende, egentlig er.
Lige siden Turing har en dominerende retning set på kunstig intelligens som et spørgsmål om at imitere noget menneskeligt; den menneskelige evne til at ræsonnere og bruge fornuft i kombination med indsigt og intuition. Det handler således ikke om intelligens i sig selv, men om imitation. Eller man kan også sige, at det er uklart, hvad der tæller som intelligens, fordi det er meget vanskeligt at afgøre, hvad intelligens er. Som vi tidligere har set, så kan intelligens ifølge Prescot betragtes som en proces, hvor et input fra omgivelserne mødes af en passende respons. “Vi er intelligente i det omfang, vi handler hensigtsmæssigt i det miljø, vi lever i, opretholder os selv og (forhåbentlig) når vores personlige mål” (Prescott, 2025, s. 5). Men det forskyder blot problemet til, hvad der er en “passende respons”.
Vi lader spørgsmålet stå åbent som en problemstilling og har ingen ambitioner om her endegyldigt at besvare spørgsmålet om, hvad intelligens kunstig eller ej skulle være. Vi lever med uafklaretheden, men anerkender samtidig at det er en problemstilling, der hele tiden kalder på vores overvejelser.
I uddannelsesmæssige sammenhænge har den dominerende reaktion på tilgængelige chatbots været panik over mulighederne for at kunne snyde til skriftlige eksamener og omgåelse af besværet med at lære noget. Panikken har ikke helt lagt sig, og vi kommer nok ikke uden om en gentænkning af mange af de traditionelle skriftlige eksamener. Men efter panikken kommer de didaktiske overvejelser. Der gemmer sig nemlig også læringspotentialer i at anvende generativ kunstig intelligens til at understøtte forskellige læreprocesser. Derudover kalder fremkomsten af teknologien både på en generel og en professionsrettet teknologiforståelse eller AI-literacy (Cox, 2024). Elever og studerende skal ikke blot kunne anvende botterne kompetent i egne læreprocesser og uddannelsespraksis, men også kritisk og reflekteret kunne forstå hvordan kunstig intelligens påvirker de professioner, de uddannes til – og samfundet helt generelt. Ikke mindst må studerende lære, at det er nødvendigt med en solid grundfaglighed for at kunne vurdere, om et genereret output er fagligt korrekt og relevant i forhold til formålet. Samtidig kræver det solid traditionel faglighed at lave gode prompts. Med andre ord kalder fremkomsten af GenAI i uddannelser på en faglig dømmekraft. Der er fortsat brug for fagligt kompetente professionsudøvere og dygtige mennesker, som kan være ”human in the loop”, for selvom AI kan give hurtige og ofte gode svar, er det behov for etiske, kritiske og dygtige mennesker, der kan tage det endelige ansvar.
Men også på det samfundsmæssige plan kræver genererede output et modsvar fra kompetente mennesker. At være deltagende medborger kræver en vis kompetence til at håndtere uregerlige informationsstrømme, der ikke nødvendigvis har nogen menneskelig afsender og ikke forholder sig til om informationen er sand eller ej. Misinformation og deep-fakes florerer og bliver boostet af generativ kunstig intelligens, hvilket udfordrer et aktivt medborgerskab og mere generelt de demokratiske processer, der skal sikre mennesker indflydelse på egne livsforhold (Coeckelbergh 2024; Sætra 2025).
I det hele taget bliver kritisk tænkning i forhold til kunstig intelligens en mere efterspurgt vare i uddannelsessystemet – for studerende, for undervisere og for den praksis, vi uddanner til. I en rapport fra EU-kommissionen (European Commission, 2024) om højere uddannelse ses kritisk tænkning som en grundlæggende værdi for borgere i et digitaliseret Europa. Kritisk tænkning defineres her som det at kunne tænke klart og rationelt om, hvad man vil gøre og tro. Der er en risiko for, at jo flere beslutninger, vi overlader til AI (cognitive offloading (Gerlich, 2025)), jo mindre indflydelse får vi på kvaliteten af undervisning, læremidler og indhold. I hvert fald på den måde, som kunstig intelligens fungerer i øjeblikket, hvor store dele, af hvad der foregår i maskinrummet af kunstige intelligenser, er blackboxed. Som sagt betyder det, at vi ofte ikke selv kan stå inde for de outputs, vi får genereret – og dette bliver meget problematisk, hvis teknologien bruges som beslutningsstøtte.
Forskellige former for AI indgår i vores hverdag, og en række digitale teknologier bliver koblet til eksisterende digitale territorier. Der er risiko for, at disse mere eller mindre autonome teknologier koloniserer mere af vores tid, kommunikations- og tænkeformer. Det bliver sværere at agere uden, at teknologien involveres, og vi bliver i højere grad ”androider” eller cyborgs – mennesker hvis tanker og handlinger er tæt integreret med teknologi. Med gratis-tjenester bliver vi mennesker samtidig betragtet som produkter for profilering, hvor virksomhederne stiller deres redskaber til rådighed for til gengæld at tjene penge på at forudsige og påvirke vores adfærd – det giver yderligere næring til den overvågningskapitalisme, som den kritiske Harvard professor Shoshana Zuboff beskrev i 2019. Personlige AI-assistenter kan lytte med på dit møde og give gode resumér. Ja, endda lytte med på din date og tilbyde dig gode råd til, hvordan du siger det rigtige for at forføre den anden. De kan også give dig et output, som angiveligt giver et indblik i, hvordan verden hænger sammen, så du kan deltage ”rigtigt” i den demokratiske debat. Du kan i det hele taget slippe for at tænke selv.
Den slags scenarier kalder på refleksion over, hvordan vi ønsker at leve vores individuelle liv, dyrke vores fællesskaber, og hvad der skal til for den fortsatte udvikling af et demokratisk samfund med AI som aktør i vores liv. Det rejser også et spørgsmål om, hvorvidt Danmark, Norden eller Europa skal udvikle social, økonomisk og miljømæssig bæredygtig AI, der passer bedre til vores forståelse af verden, eller om vi i vores andedam har råd til ”gratis”. Som Coecklebergh (2025) har skrevet: “AI er helt igennem politisk” (s. 10), hvilket også betyder, at teknologien etablerer bestemte perspektiver på verden. Disse perspektiver kalder vi bias – især når vi ikke deler det givne perspektiv.
Bias er en generel udfordring med AI. Der kan dog være en del forvirring om, hvad bias er i denne sammenhæng, og om den er bevidst konstrueret, en fejl eller en funktionsmåde ved teknologien. Lidt firkantet kan man sige, at statistikere vil betragte en sprogmodel som unbiased, hvis den giver svar, der ligner det, den er trænet på – uanset om modellen svarer upassende eller faktuelt forkert. I den forstand kan en racistisk sprogmodel altså være unbiased, fordi svaret stemmer overens med den data, som modellen har fra internetfora. Når modellen forudsiger, hvad der kunne være skrevet i et internetforum, så rammer den det, den er trænet på. Hvis vi ser på modellen som humanist, tillægger vi formentlig bias en anden betydning, hvor vi ønsker at modellen skal være i overensstemmelse med de værdier, vi ønsker, skal være gældende. Output skal være politisk korrekte og give gode, sande og skønne svar. Dette sigte mod den perfekte verden kalder den norske AI-forsker Inga Strümke (2023) en ”enhjørning” for at indikere, at det perfekte er utopisk og uopnåeligt. Man kan gøre en del for at tilpasse sine modeller, så de i rimelig grad overholder moralske standarder, men det er vanskeligt, fordi vi har meget forskellige moralske opfattelser, og fordi træningsdata også altid vil indeholde det grimme, som vi forsøger at fortrænge eller blot er uenig i. Det grimme kan fiskes frem, hvis man er dygtig eller uheldig, når man prompter. GenAI handler om data. Maskinerne tænker ikke, de leder efter mønstre i data og genererer derefter deres egne data. Som så kan indgå i træningen af nye generative sprogmodeller. På den måde ender datastrømmen aldrig. I digtet “Dagene med data” af Lone Hørslev (2018, s. 26) står der:
Alt er data
dette digt er data […] Dødeligheden
det menneskelige vilkår er data og
dystopierne, duerne og Dropbox.
Hørslev får os til at tænke over, at for den kunstige intelligens er alt data. Men for os, som underviser, studerer, lærer fra os og suger til os, er verden også alt muligt andet end data. Som Løgstrup skriver i Den etiske fordring (2010), så er mennesket til enhver tid sat i forhold til andre mennesker. Derfor kan det at undervise aldrig kun blive et spørgsmål om Big Data. Det er et menneskeligt mellemværende, og den kunstige intelligens er kun attraktiv, så længe den kan bruges som hjælpemiddel til et højere formål: uddannelsernes og dannelsens formål.
God læselyst
Redaktionen: Ove Christensen, Rasmus Fink Lorentzen, David Holger Sass Hansen og ansvarshavende redaktør Morten Raahauge Philipps

Litteraturliste

Baudrillard, J. (1996): Cool Memories. 1980-1985. Slagmark
Coeckelbergh, M. (2024). Why AI undermines democracy and what to do about it. Polity
Cox, A. (2024). Algorithmic Literacy, AI Literacy and Responsible Generative AI Literacy. Journal of Web Librarianship, 18(3), 93–110. https://doi.org/10.1080/193 22909.2024.2395341 Besøgt 16. april 2025
Ebbensgaard, I. (2025). Ægte – En lille bog om kunstig intelligens. Zetland
EU (2024): Europa-parlamentets og rådets forordning (EU) 2024/1689. https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX%3A32024R1689 Besøgt 22. Marts 2025.
European Commission / EACEA / Eurydice, (2024). The European Higher Education Area in 2024: Bologna Process Implementation Report. Luxembourg: Publications Office of the European Union. https://ehea. info/Immagini/the-european-higher-education-areain-2024-EC0224018ENN.pdf Besøgt 16. april 2025
Gerlich, M. (2025): AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking (January 03, 2025). http://dx.doi.org/10.2139/ ssrn.5082524 Besøgt 16. april 2025
Homer (u.å.), Iliaden. Det Kongelige Bibliotek. http:// wayback-01.kb.dk/wayback/20100504154612/http:// www2.kb.dk/elib/lit/dan/wilster/il.kml/18/ Besøgt 11. April 2025.
Hørslev, L. (2018). Dage med data https://forfatterweb. dk/oversigt/hoerslev-lone/dagene-data Besøgt 16. april 2025
Løgstrup, K.E. (2010): Den etiske fordring, Klim Prescott, T. (2025). The Psychology of Artificial Intelligence. Routledge.
Scott, R. (1982): Blade Runner
Strümpke, I. (2023). Maskiner der tænker. Algoritmernes hemmeligheder og vejen til kunstig intelligens. Politikens Forlag
Sætra, H. S. (2025). Hvordan redde demokratiet fra kunstig intelligens? Cappelen Damm
Turing, A. M. (1950): Computing machinery and intelligence. I: Mind 49 (s. 433-460).
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power (iBook udg.). PublicAffairs. https://books.apple. com/dk/book/the-age-of-surveillance-capitalism/ id1279252988 Besøgt 16. april 2025<$

Om artiklerne

I artiklen Tre forestillinger om AI i uddannelse og pædagogik – og deres alternativer skriver Peter Danholt, Lars Bo Andersen og Helene Friis Ratner om forskellige måder, hvorpå kunstig intelligens (AI) er blevet forstået inden for uddannelse og pædagogik. De gør op med tre dominerende misforståelser af generativ kunstig intelligens (GenAI), nemlig at der kan udvikles fair GenAI uden bias, at der findes etisk forsvarlige GenAI-teknologier og at GenAI kan gøres transparent og forklarlig. Man skal dog stadig arbejde med at gøre GenAI mere fair, transparent og etisk forsvarlig.
I artiklen Teknologiforståelse gennem fag? Undervisning i algoritmisk bias gennem matematisk modellering undersøger Andreas Lindenskov Tamborg og Peter Wied Stenkilde muligheder for at undervise i teknologiforståelse gennem matematik. Forfatterne analyserer to videnskabelige artikler af dataloger med fokus på Brousseaus teori om didaktiske funktioner og modelleringskompetencen. Her undersøger de, hvordan dette kan tilpasses niveauet for elever i folkeskolen. Her præsenterer de, hvordan nogle artikler lettere lader sig didaktisere end andre, og kommer med en vurdering af parametre for denne proces.
Hvad er potentialerne ved at integrere bogBotten i læremidler? Det undersøger Anne Bang-Larsen og Morten Winther Bülow i artiklen Generativ AI som dialogpartner i læremidler. Artiklens teoretiske ramme er netværkslæring (Goodyear m.fl.), hvor teknologien og eleven kan ses som partnere i en læreproces. Empirisk undersøger forfatterne bogBotten, der integrerer generativ AI og som anvendes på EUD, som case. Gennem en kvalitativ analyse i tre dele analyserer forfatterne både læremidlets inteaktionsdesign, bogens pre-promt samt elevernes inteaktioner med bogBotten.
I artiklen Kreativitet og generativ kunstig intelligens i skolen undersøger Roland Hachmann og Peter Holmboe hvordan generativ kunstig intelligens (GKI) kan anvendes til at understøtte elevers kreative læreprocesser. Forfatterne folder begrebet kreativitet ud og opstiller en analyseramme for lærerens planlægning med GKI. Med dette værktøj fremhæves begreber som fordybelse, fifleri og fantasi. Dermed argumenterer forfatterne for et teknologisyn, hvor GKI stimulerer elevers nysgerrighed og kritiske tænkning fremfor at erstatte menneskets skaberkraft.
I artiklen ChatGPT er da noget, vi taler om – Kunstig intelligens i folkeskolen deler Niels Sigbjørn Ragnassøn Larsen og Bjarke Lindsø Andersen ud af erfaringer og interaktioner med elever omkring generativ kunstig intelligens (GKI) opstillet som to forskellige cases. Forfatterne kommer med bud, både på hvordan man genkender GKI som tabu i sin kultur, og hvordan man konkret kan arbejde med både sin egen og elevernes forståelse af det indhold, der generes. Artiklen opfordrer til, at man skal forholde sig til elevernes brug af GKI og hjælpe dem til at forstå begrænsninger og berettigelse gennem dialog og faglig kvalificering, således at et tabu om teknologierne ikke ødelægger det tillidsbaserede forhold mellem lærer og elev.
I artiklen (Mindst) Fem kritiske spørgsmål til din chatbot! skriver Kristian N. Hjuler om vigtigheden af at udvikle kritisk forståelse af AI-chatbots, især for elever. Hjuler fremhæver, at generativ AI allerede påvirker vores opfattelse af viden, sandhed og kreativitet. Artiklen understreger behovet for digital myndiggørelse, så eleverne kan navigere i en verden med bias, misinformation og kommercielle interesser. Hjuler præsenterer fem øvelser, der kan hjælpe eleverne med at forstå og kritisk vurdere chatbots. Artiklen opfordrer til en kritisk dialog med og om chatbots og understreger vigtigheden af at verificere oplysninger fra flere kilder.
Hazal Avcis artikel Potentialer og udfordringer ved brug af generativ AI som hjælpemiddel til elever med særlige behov i folkeskolen udforsker, hvordan generativ AI, såsom SkoleGPT og AutoDraw, kan anvendes til at støtte elever med særlige behov. Med udgangspunkt i teorier fra specialpædagogik og UXdesign præsenterer Avci konkrete undervisningsforløb og reflekterer over både potentialer og udfordringer ved brugen af disse teknologier. Artiklen tilbyder praktiske eksempler, der kan inspirere lærere til at integrere AI-værktøjer i deres undervisning for at fremme differentiering og inklusion.
I artiklen Generativ AI som en medspiller i uddannelsen skriver Sine Zambach om, hvordan generativ AI kan bruges konstruktivt i undervisningen, men også nogle af faldgruberne. Hun diskuterer elever og læreres forskellige tilgange til teknologien og understreger, at basal faglighed er nødvendig for at kunne bruge AI kritisk og refleksivt. Zambach bygger på egne erfaringer og undersøgelser og viser, at eksamensformer og oplæring har stor betydning for, hvordan AI påvirker læring. Artiklen peger på vigtigheden af dialog og kritisk brug, hvor AI fungerer som tutor og sparringspartner frem for producent.
Ove Christensen udforsker i Livsverden, læring og generativ kunstig intelligens udfordringer og muligheder med generativ AI på videregående uddannelser. Artiklen diskuterer forskellen på overfladisk læring og dybdelæring, og hvordan forskellige former for bias kan påvirke studerendes læreprocesser. Ud fra en skelnen mellem brug af teknologi som produktions- og læringsteknologi fremhæver artiklen, hvordan undervisere kan integrere generativ AI meningsfuldt i undervisningen og understøtte de studerendes faglige udvikling gennem kritisk refleksion og aktive læreprocesser.
Uden for tema I artiklen Fleksibel fokuseret faglighed – hvordan fritidspædagoger arbejder med børns (ulige) deltagelsesmuligheder af Charlotte Højholt, Tilde MardahlHansen og Maja Røn-Larsen undersøges fritidspædagogers arbejde med at skabe lige deltagelsesmuligheder for børn i fritidsinstitutioner. Med udgangspunkt i empirisk forskning og observationer fra praksis introducerer artiklen begrebet “fleksibel fokuseret faglighed” for at beskrive den dynamiske og situationsbestemte tilgang, som pædagogerne anvender. Artiklen belyser, hvordan pædagogerne navigerer i komplekse sociale dynamikker og understøtter børns sociale liv og selvforståelse. Gennem konkrete eksempler argumenterer forfatterne for, at denne form for faglighed er central for at skabe inkluderende fællesskaber og forebygge social ulighed i velfærdssamfundets institutioner.

Leder: Chatbots – Kritik og didaktik med kunstig intelligens i undervisningen
Af Ove Christensen, Rasmus Fink Lorentzen, David Holger Sass Hansen og Morten Raahauge Philipps

Tre forestillinger om AI i uddannelse og pædagogik – og deres alternativer
Af Peter Danholt, Lars Bo Andersen og Helene Friis Ratner

Teknologiforståelse gennem fag? Undervisning i algoritmisk bias gennem matematisk modellering
Af Andreas Lindenskov Tamborg og Peter Wied Stenkilde

Generativ AI som dialogpartner i læremidler – en undersøgelse af potentialer i læremiddelintegrerede bogbots
Af Morten Winther Bülow og Anne Bang-Larsen

40 Kreativitet og generativ kunstig intelligens i skolen
Af Roland Hachmann og Peter Holmboe

ChatGPT er da noget, vi taler om – Kunstig intelligens som tabu i skolen
Af Niels Sigbjørn Ragnassøn Larsen og Bjarke Lindsø Andersen

(Mindst) Fem kritiske spørgsmål til din chatbot!
Af Kristian N. Hjuler

Potentialer og udfordringer ved brug af generativ AI som hjælpemiddel til elever med særlige behov i folkeskolen
Af Hazal Avci

Generativ AI som en medspiller i uddannelsen
Af Sine Zambach

Livsverden, læring og generativ kunstig intelligens
Af Ove Christensen

UDEN FOR TEMA

Fleksibel fokuseret faglighed – hvordan fritidspædagoger arbejder med børns (ulige) deltagelsesmuligheder
Af Charlotte Højholt, Tilde Mardahl-Hansen og Maja R

125,00 dkk

Antal sider: 109

ISBN:
978-87-92914-86-6

Unge Pædagoger
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.