Inde i AI's hjerne – tænker maskiner som os?

Fremtidens teknologi 30. okt 2025 9 min Professor, Head of Section Lars Kai Hansen, Postdoc Lenka Tetková Skrevet af Morten Busch

Neurale netværk er skrøbelige sorte kasser — det ene øjeblik blændende, det næste laver de naive fejl. Forskere ved DTU har fundet et skjult mønster: konveksitet. På interessant vis afspejler det, hvordan vores hjerner organiserer idéer, et spor, der kan bringe os tættere på AI, vi rent faktisk kan stole på. Men hvordan kan et matematisk begreb fortælle os noget om, hvordan maskiner “tænker”?

Interesseret i Fremtidens teknologi? Vi kan holde dig opdateret helt gratis

Kunstig intelligens er blevet hyldet som en revolution, men virkeligheden er mere kompliceret. Generativ AI kan skrive essays, danne billeder og endda assistere læger. Men trods deres flydende sprog forbliver de en sort boks: Ingen ved rigtigt, hvordan de organiserer viden — eller hvorfor de nogle gange begår elementære fejl uden at vise usikkerhed.

Dette mysterium har reelle konsekvenser. Og det er ikke kun akademisk — det berører alle de steder, hvor vi ønsker at bruge AI i den virkelige verden.

“De klarer sig fint på det, de er trænet til — men når de møder noget ‘out of distribution’, kan fejlraten stige. Generativ AI vil ofte hellere svare forkert end lade være med at svare,” siger Lars Kai Hansen, professor ved DTU Compute. “Deres evne til at generalisere er begrænset, og det giver næring til debatten om, hvorvidt man kan stole på AI uden for kontrollerede miljøer.”

Lars Kai Hansen og hans kolleger mener, at de har fundet et spor. De kalder det konveksitet. Enkelt sagt betyder konveksitet, at begreber danner kompakte, sammenhængende områder — i stedet for at være spredt på en måde, der er ikke-konveks – altså ujævnt og hullet fordelt. Hansen bruger en katte-analogi: Hvis alle eksempler på “katte” danner et glat område, kommer man aldrig uden for begrebet, når man bevæger sig fra en kat til en anden.

“Vi har fundet en ny mekanisme, som vi kalder konveksitet,” forklarer Hansen. “Hvis man trækker en linje mellem to katte, er alt, man møder undervejs, også en kat. Når begreber repræsenteres konvekst, får man bedre generalisering.”

Det lyder simpelt — næsten for simpelt — men netop denne enkelhed er det, der giver konveksitet sin styrke.

Den skjulte form bag AI’s tanker

Konveksitet viser sig at være et skjult mønster i AI — og det ligner overraskende meget den måde, vi mennesker sorterer idéer på. Forestil dig at arrangere familiefotos: Du spreder ikke “katte” og “hunde” tilfældigt; du grupperer dem pænt. Konveksitet viser, at dybe netværk danner glatte, sammenhængende områder for hvert begreb.

Den enkle orden gør en stor forskel. Den hjælper maskiner med at lære af færre eksempler, mindsker behovet for gigantiske mærkede datasæt og afslører endda, når ekstra lag i et netværk bare er dødvægt. Ligesom når man beskærer grene på et træ, kan beskæring med udgangspunkt i konveksitet gøre AI-modeller hurtigere, slankere og mere bæredygtige.

Men der er en hage: Tilpasning af generelle modeller til en specific funktion, såkaldt finjustering, kræver enorme mængder af fortolkede data og regnekraft.

“Finjustering er dyr, fordi den kræver mærkede data. Jo mere konveksitet der er i det fortrænede netværk, jo bedre parat er det til at blive finjusteret,” forklarer studiets førsteforfatter, postdoc Lenka Tetkova fra Department of Applied Mathematics and Computer Science Cognitive Systems på DTU Orbit.

Det blev gennembruddet for teamet. Ved at udvikle værktøjer til at måle konveksitet viste de, at den findes bredt, i tekst, lyd, billeder og endda medicinske scanninger. Afgørende var, at konveksitet på forhånd kunne forudsige, hvor godt en model ville tilpasse sig.

Det er vigtigt, fordi AI snubler over data, den aldrig har set før.

“Out-of-distribution er svært, og generativ AI vil hellere give et forkert svar end slet intet,” siger Tetkova. Konveksitet kan give os en måde at bygge systemer, der kender deres egne begrænsninger — modeller, der ikke kun er mere effektive, men også kommer tættere på menneskelig forståelse.

For første gang tilbyder konveksitet en sjælden bro mellem menneskelig og maskinel intelligens — et strukturelt spor, der kan hjælpe med at gøre AI både gennemsigtig og troværdig.

At måle tankens geometri

I årtier har forskere undret sig over, hvad neurale netværk egentlig lærer. Algoritmer kan genkende ansigter, oversætte tale eller læse hjernescanninger med forbløffende nøjagtighed — men hvad der foregår indeni, har stort set været et mysterium.

For Hansen har spørgsmålet om forklarbarhed været centralt. “Når vi præsenterer et analyseresultat, er det ikke nok bare at sige, hvad netværket har lært, og hvor godt det har lært det,” siger han. “Vi skal også forklare, hvor i netværket det har lært det, hvor sikkert det er, og hvor stor usikkerheden er. Derfor har vi arbejdet med forklarbar AI i mange år.”

Efterhånden som modellerne blev større, trænet på milliarder af ord og billeder, voksede mysteriet. Det var som at få udleveret et krydsordssvar uden ledetråde — man kender løsningen, men ikke vejen dertil. For at bryde igennem vendte Hansen og kolleger sig mod matematikken og spurgte, om geometrien i viden inde i netværket kunne afsløre en skjult orden.

Her gav psykologien et spor. “Der er en lang tradition i kognitionsvidenskab for, at mennesker organiserer begreber i konvekse regioner,” forklarer Hansen. “Det betyder, at hvis man går fra ét eksempel til et andet — fra en kat til en anden — er alt, man møder undervejs, stadig en kat. Vi ville teste, om det samme princip gælder i AI-modeller.”

For at måle det brugte teamet to greb: Det ene svarer til at strække en snor mellem to punkter og se, om snoren bliver inden for samme kategori (Euclidisk konveksitet). Det andet følger dataenes “snoede veje” — tættere på, hvordan både mennesker og AI faktisk oplever variation (graf-/geodetisk konveksitet).

Det er lidt som ikke kun at bede om genvejen, men også den naturskønne rute.

Resultaterne var slående. “Vi blev overraskede over, hvor udbredt konveksitet viste sig at være,” husker Hansen. “Og mønsteret gjaldt på alle datasæt, vi testede. Det var et stærkt signal om, at modellerne lærer på måder, der afspejler menneskelig kognition.”

Når læring ændrer AI indefra

Et af de mest overraskende fund var, at konveksitet ikke var en statisk egenskab. Den voksede, efterhånden som netværkene blev trænet til specifikke opgaver. Med andre ord: Jo mere en model lærte, jo glattere og mere organiseret blev dens interne kort over begreber.

“Finjustering forbedrede ikke kun ydeevnen,” forklarer Tetkova. “Den øgede faktisk konveksiteten i repræsentationerne. Det var en vigtig observation, fordi det knytter geometri direkte til læringsevne.”

Det er som et fotografi, der gradvist kommer i fokus: først sløret, derefter skarpere, indtil billedet står helt klart. Konveksitet følger denne proces og viser, hvordan begreber får stadig tydeligere og mere pålidelige grænser.

Opdagelsen peger på et større spørgsmål: Deler maskiner og mennesker universelle måder at organisere viden på? Hvis ja, kan konveksitet være mere end en matematisk kuriositet – måske en rød tråd i, hvordan både hjerner og algoritmer danner begreber.

“Det tyder på, at der findes en dybere orden i, hvordan begreber dannes,” konkluderer Tetkova. “Og hvis det er sandt, kan det give os en ny nøgle til at opbygge AI-systemer, der lærer mere som os.”

Når maskiner tænker som mennesker

For at afdække disse mønstre havde Tetkova og kollegerne brug for en måde at se ind i black boxen i deep learning. Standardtests kan vise, om en model har fået det rigtige svar – men ikke hvordan den nåede dertil. Derfor udviklede teamet matematiske værktøjer til at kortlægge de skjulte rum, hvor AI gemmer sine begreber.

“Når vi taler om konveksitet, handler det egentlig om geometrien i disse rum,” forklarer Tetkova. “Forestil dig, at hvert objekt – en kat, en hund, en hest – befinder sig i et højdimensionelt rum. Spørgsmålet er: Hvilken form har regionerne for hver kategori? Er de spredte og ujævne, eller danner de kompakte, konvekse klynger?”

For at teste dette brugte forskerne to tilgange. Den første var som at tegne en lige linje mellem to byer på et kort – forbliver ruten inden for den samme region af betydning? Den anden fulgte de snoede motorveje i selve dataene – en sti, der bedre afspejler, hvordan både mennesker og AI oplever variation.

“Rette linjer kan være vildledende i komplekse rum,” bemærker Tetkova. “Grafisk konveksitet gør det muligt at følge de naturlige bøjninger i dataene – lidt som at tage de snoede veje i stedet for den lige motorvej. Det ligger tættere på, hvordan både mennesker og netværk faktisk varierer.”

Teamet testede derefter metoden på tværs af et bredt spektrum af domæner – fra sprogmodeller og talegenkendelse til menneskelig aktivitet og medicinsk billedbehandling. “Vi ville stressteste idéen,” husker hun. “Vi så det samme mønster på tværs af fem meget forskellige domæner — tekst, lyd, billeder, human activity recognition og medicinsk billedanalyse.”

Derfor betyder konveksitet noget

Et andet afgørende skridt var at sammenligne netværk før og efter finjustering. Ved at måle konveksitet i hvert trin kunne forskerne bogstaveligt talt se, hvordan AI'ens "videnkort" omformede sig selv lag for lag.

Et overraskende fund var, at konveksitet også kunne afsløre, hvornår et netværk var overbygget. Konveksitet afslørede, hvornår senere lag tilføjede lidt – ligesom at vide, hvornår en kage har nok lag. Flere lag ville ikke gøre den mere velsmagende, bare tungere.

"Konveksitet afslørede, hvornår ekstra lag tilføjede lidt værdi – et fingerpeg til at gøre netværk mere effektive," bemærker Hansen.

Denne kombination af matematisk analyse, tværgående test og lag-for-lag-måling gav forskerne et nyt perspektiv på deep learning: en måde at omdanne abstrakt geometri til praktisk indsigt i, hvordan netværk lærer, tilpasser sig og generaliserer.

Konveksitet – en genvej til fremtidens AI

Da forskerne kiggede på mange forskellige domæner – fra tale til menneskelig aktivitet til billeder af blodceller – fandt de det samme mønster igen og igen. Konveksitet var ikke sjældent – det var reglen, selv før finjustering.

"Vi var overraskede over at se, hvor udbredt konveksitet faktisk var," husker Hansen. "Det var ikke begrænset til en enkelt type netværk eller data. Det dukkede op igen og igen på tværs af meget forskellige modaliteter."

Efterhånden som informationen bevægede sig dybere gennem lagene i et netværk, blev kategorierne gradvist skarpere. De tidlige lag var uklare, som skitser med slørede konturer. Ved de sidste lag var hvert begreb klart defineret – pænt afgrænset i sit eget rum.

Hansen understreger, at denne udvikling er vigtig. "Det fortæller os, at læring ikke kun handler om at adskille klasser, men om at forme dem til regioner, der understøtter generalisering."

Finjustering gjorde billedet endnu klarere. Da modellerne blev finjusteret til specifikke opgaver, blev konveksiteten endnu stærkere – hvilket skabte skarpere og mere pålidelige grænser mellem begreberne.

"Finjusteringen forbedrede ikke kun ydeevnen," forklarer Hansen. "Den øgede konveksiteten – og koblede geometri direkte til læringsevnen."

Mod tillid og gennemsigtighed

Teamet testede derefter, om konveksitet kunne gøre mere end blot at beskrive, hvad en model havde lært – kunne den forudsige succes? Svaret var ja.

AI-modeller, der allerede var trænet på enorme datasæt (fortrænede netværk) med højere konveksitet, klarede sig næsten altid bedre, når de blev finjusteret på små mærkede datasæt.

"Hvis vi kan måle konveksitet på forhånd, har vi en måde at vide, hvilke modeller der er bedst forberedt til opgaven – inden vi bruger uger eller måneder på kostbar træning."

Dette gør konveksitet til mere end en matematisk kuriositet. Det kan blive en vejledning til design, test og endda beskæring af AI-systemer. Hvis det viser sig at være et generelt træk ved maskinlæring, kan konveksitet omforme den måde, vi beslutter, hvilke modeller vi skal stole på.

Og for Hansen er implikationerne ikke kun tekniske. "Ved at vise, at AI-modeller udviser egenskaber, der også er grundlæggende for menneskers begrebsforståelse, kommer vi tættere på at skabe maskiner, der tænker på måder, der er mere forståelige," siger han. "Det er afgørende for at opbygge tillid og samarbejde inden for områder som sundhedspleje, uddannelse og offentlig service."

En umiddelbar gevinst er effektivitet. Konveksitet kan fungere som et kvalitetsstempel, der hjælper forskere med at spotte de mest lovende modeller i stedet for at spilde tid og computerkraft på dårlige kandidater.

"Konveksitet kan give os en genvej," bemærker Hansen. "Hvis vi kan måle det tidligt, behøver vi ikke at gennemføre fulde træningscyklusser for at vide, om en model har potentiale."

Et kig ind i den sorte boks

Et af AI’s største mysterier er forklarbarheden: Hvordan ved vi, hvad maskinen virkelig “tænker”? Konveksitet giver et sjældent fingerpeg. De former, den danner inde i netværket, ligner overraskende meget den måde, vores egne hjerner sorterer idéer på – hvilket antyder et fælles sprog mellem mennesker og maskiner.

"Det antyder en måde at kigge ind i den sorte boks," forklarer Tetkova. "Vi fortolker ikke bare resultaterne – vi begynder at kortlægge den interne geometri på en måde, der forbinder direkte til menneskelige begreber."

Men dette er kun begyndelsen. Forskerne understreger, at der er behov for meget mere teori for at forklare, hvorfor konveksitet opstår – og om fremtidig AI bevidst kan designes til at bruge den.

"Vi mener, at konveksitet kan være et grundlæggende princip," siger Tetkova. "Men vi er nødt til at teste, hvor langt det rækker, og om vi kan bruge det til at bygge bedre modeller, ikke bare analysere dem, vi allerede har."

Foreløbig giver fundet et spændende indblik: Deep learning bygger muligvis på den samme geometriske orden, som hjælper mennesker med at forstå verden. AI-hjerner er måske slet ikke så fremmede – de tænker måske mere som vores, end vi havde forestillet os. Det er selvfølgelig en dristig påstand, men den viser, hvor hurtigt grænsen mellem mennesker og maskiner flytter sig.

Lars Kai Hansen has MSc and PhD degrees in physics from University of Copenhagen. Since 1990 he has been with the Technical University of Denmark, whe...

Lenka Tětková is a postdoctoral researcher at the Technical University of Denmark’s Department of Applied Mathematics and Computer Science. She studie...

Udforsk emner

Spændende emner

Dansk
© All rights reserved, Sciencenews 2020