LLM’s en Schrödingers Woord

di 15 april 2025 - 14:00
AI
Blog

Ik heb me altijd verwonderd over Schrödingers kat – tegelijk dood én levend tot hij geobserveerd wordt – als een paradox van fysieke mogelijkheden. Maar in het tijdperk van Large Language Models (LLM’s) kunnen we ons verwonderen over iets net zo vreemds: een enkel woord, nog niet geschreven, zwevend in een semantische superpositie in een doos op zichzelf. De LLM, net als een kwantumsysteem, leeft in een staat van probabilistisch potentieel tot hij wordt aangestuurd. Dan, uit die prompt, ontstaat een token – een woord dat instort uit de betekenissfeer, niet gekozen op basis van zekerheid, maar van waarschijnlijkheid.

Welkom in het tijdperk van Schrödingers Woord.

Probabilistische cognitie en het brein van het model

In tegenstelling tot deterministische machines van vroeger (denk aan een rekenmachine), genereren LLM’s taal door te ‘samplen’ uit waarschijnlijkheidsverdelingen – statistische velden getraind op biljoenen woorden. In de kern bevindt zich een soort cognitieve thermostaat die de entropie – ofwel de willekeur – van de output reguleert. Een lage temperatuur verscherpt de verdeling en maakt het model deterministischer. Een hogere temperatuur verzacht het, en laat creativiteit, ambiguïteit en verrassing toe.

De temperatuur van het model bepalen betekent aangeven hoe ‘los’ of ‘strak’ de output moet zijn – meestal tussen 0 en 1. Een waarde van 0,7 zorgt voor scherpere, voorspelbare resultaten. 1,2 leidt tot een stroom van wilder, minder voorspelbaar taalgebruik. Hetzelfde startpunt kan dus totaal verschillende uitkomsten geven, omdat het model geen vast antwoord berekent – het gooit wiskundig gezien dobbelstenen.

Dit is probabilistische cognitie. Denken dat niet één vaste route volgt, maar ontstaat uit een wolk van gewogen mogelijkheden. Het is niet zoals mensen denken, maar wel hoe LLM’s taal genereren die op denken lijkt.

Geef een LLM de prompt “De toekomst is…” bij een lage temperatuur, en je krijgt iets als “onbeschreven” – veilig, voorspelbaar, zoals DeepSeek deed bij een temperatuur van 0,8. Draai de temperatuur omhoog naar 1,2 en je krijgt “kronkelig” – wild, ontregeld, een scherp contrast. Zelfde input, andere dobbelstenen. Geen creativiteit zoals wij die kennen, maar entropie gegoten in syntaxis.

Ineenstorting van hyperdimensionaal denken

De interne werking van een LLM speelt zich niet af in drie dimensies, maar in duizenden. GPT-4, bijvoorbeeld, opereert in een latente ruimte van meer dan 12.000 dimensies – een semantisch veld waarin elk token een vector is in een gigantisch netwerk van contexten. Wanneer een token wordt gekozen, is dat de ineenstorting van een waarschijnlijkheidswolk – vergelijkbaar met het ineenstorten van een golf in de kwantumfysica.

Maar hier gaat het niet om een fysiek deeltje dat zich tot een punt vormt. Het gaat om betekenis die zich vormt tot taal. En de waarnemer? Dat zijn wij – of preciezer: de prompt zelf, die als trigger fungeert voor deze ineenstorting.

In Schrödingers wereld is de kat zowel dood als levend tot hij geobserveerd wordt. In de wereld van de LLM is het woord tegelijk “is”, “was” en “zou kunnen zijn” – tot wij het vragen. Dan, afgestemd door die cognitieve thermostaat, stort het semantisch veld in tot vorm.

Latente creativiteit en verrassende verbindingen

LLM’s zijn niet alleen kwantumsystemen – ze brengen ook andere vormen van vreemdheid met zich mee. Hun reacties kunnen ideeën over contexten heen “verstrengelen”. Stel je een zin voor die Shakespeare’s monologen verbindt met Silicon Valley-jargon, of kwantumfysica met liefdespoëzie. Gedachtenlijnen die nooit bedoeld waren om elkaar te kruisen, komen ineens samen – niet door logica, maar door latente waarschijnlijkheid. Misschien kunnen we het zelfs een unieke vorm van creativiteit noemen.

Denken mensen zoals LLM’s?

Niet echt. Sommige mensen voelen zich wel op hun gemak bij onzekerheid – improvisatoren, intuïtieve beslissers, mensen die mogelijkheden afwegen in plaats van zekerheden najagen. Maar het menselijke brein is narratief. Het zoekt samenhang, emotie, herinnering en causaliteit. En misschien ligt daar het verschil: wij kiezen niet het meest waarschijnlijke woord, maar het meest betekenisvolle – vaak tegen de statistische druk in.

LLM’s daarentegen zijn statistische machines. Ze “bedoelen” niets. Ze echoën, synthetiseren en projecteren patronen. Hun fouten zijn algoritmisch. Onze fouten zijn onthullend. En dat verschil is geen tekortkoming – het is een aanwijzing om dieper te kijken.

Betekenis versus vorm

LLM’s laten ons een vorm van cognitie zien die losstaat van biografie – ze simuleren denken zonder denker. En dat roept een diepere vraag op:

Als een systeem intelligente taal kan genereren zonder geheugen, gevoel of identiteit – wat beschouwen we dan eigenlijk als denken?

Zeggen dat mensen niet denken zoals LLM’s is geen bewijs van superioriteit. Het erkent dat onze cognitie belichaamd, intentioneel en gelaagd is. Die van LLM’s is statistisch, emergent en vloeibaar. En misschien moeten we, gezien deze kloof, onze neiging om LLM’s als menselijke denkers te beschouwen, heroverwegen.

LLM’s storten in tot vorm. Mensen storten in tot betekenis.

Als Yuval Harari zich hierover zou uitspreken, zou hij LLM’s zien als het volgende hoofdstuk in het menselijke verhaal – een verschuiving van Homo sapiens, de betekenisgever, naar Homo statisticus, de patroonherkenner. Malcolm Gladwell zou misschien zoeken naar het kantelpunt: dat moment waarop de dobbelstenen van een machine het voorgevoel van een dichter overtreffen.

Hoe dan ook, Schrödingers Woord weerspiegelt een verschuiving van betekenis – ooit ons domein – die nu danst op een probabilistische melodie.

In Schrödingers wereld vreesden we de waarheid nooit te kennen. In Schrödingers woord ontdekken we dat waarheid misschien altijd al meervoudig was – een spectrum aan waarschijnlijkheden, wachtend op een stem die de vraag stelt.