Hoe komen we aan het cijfer nul?
Hoe komen we aan het cijfer nul?
Laatste update: 16-04-2024
Tellen kun je prima doen zonder het cijfer nul. Een afstand opmeten ook. De mens had dan ook al lang getallen voordat de nul werd uitgevonden. Toch heeft de nul een bijzondere – en belangrijke – functie in ons getallenstelsel. Door de eeuwen heen gebruiken verschillende culturen wel iets wat op de nul lijkt. Maar waar komt de nul zoals wij hem kennen nu echt vandaan?
Redacteur: Corlijn de Groot
Ooit hadden we geen nul, maar tegenwoordig kunnen we er niet meer buiten. Nul maakt het mogelijk om het getal tien te schrijven, want voor tien is er in ons tientallig getallenstelsel geen cijfer. En met behulp van nul kunnen we ook heel grote getallen maken: aan de hoeveelheid nullen zie je dat 40 een groter getal is dan 4 en dat 400 een groter getal is dan 40.
Gek genoeg duurt het lang, zeker in Europa, voordat de nul gebruikt wordt. Nog steeds zijn er discussies over de oorsprong ervan, maar de meeste wiskundigen denken dat de wieg van de nul zo’n 1800 jaar geleden in India staat.
Wie heeft de nul uitgevonden?
De Babyloniërs, de Grieken en de Maya’s ontwikkelen allemaal een eigen getallennotatiesysteem met daarin een nul of vergelijkbaar symbool als plaatshouder om de andere cijfers op de juiste plek te houden. Een plaatshouder is bijvoorbeeld de nul in het getal 501: het cijfer 0 wordt hier gebruikt om aan te geven dat er geen tientallen zijn. Nul is bij de Babyloniërs, de Grieken en de Maya’s wel een cijfer maar geen getal. De Babyloniërs gebruiken rond 300 voor Christus bijvoorbeeld twee schuine streepjes om de plek van de plaatshouder aan te geven. Je zou die twee schuine streepjes als een primitieve nul kunnen zien.
Cijfer of getal?
Cijfers kun je vergelijken met de letters van het alfabet, het zijn symbolen. Met onze cijfers 1, 2, 3, 4, 5, 6, 7, 8, 9 en 0 kunnen we elk getal opschrijven. Getallen zijn vergelijkbaar met woorden, ze hebben betekenis. Een getal is bijvoorbeeld 842. De nul is zowel een cijfer als een getal.
Maar de nul als een echt getal is zo’n 1800 jaar geleden uitgevonden in India. En voor zover bekend wordt er pas in 628 na Christus voor het eerst over nul geschreven. Het geschrift staat op naam van de sterrenkundige en wiskundige Brahmagupta die dan dertig jaar oud is. In zijn boek Het universum opengelegd schrijft hij “nul is het resultaat van het aftrekken van een getal van zichzelf”. Nu klinkt dat zo vanzelfsprekend dat we het nauwelijks als een geniale gedachte kunnen zien, maar het is een revolutie. Brahmagupta geeft niets een naam. Nul is vanaf nu een echt getal en hoort er echt bij. Als symbool voor nul gebruikt Brahmagupta een cirkel met daarbinnen een punt.
Wat we nu nog steeds met Brahmagupta eens zijn, is dat een getal onveranderd blijft als er nul bij wordt opgeteld of van afgetrokken. En ook vinden we nu nog steeds dat als een getal vermenigvuldigd wordt met nul, de uitkomst nul is. Maar met andere beweringen van Brahmagupta zijn wiskundigen het vandaag de dag absoluut niet meer eens, zoals zijn stelling dat nul gedeeld door nul nul is. Tegenwoordig is het juiste antwoord op de som 0 ÷ 0 ongedefinieerd. Probeer maar eens 0 door 0 te delen op je rekenmachine.
Wat betekent Fibonacci voor de nul?
Aan het eind van de twaalfde eeuw na Christus reist Leonardo van Pisa, die nu vooral bekend is onder zijn bijnaam Fibonacci, als koopman door Griekenland, Sicilië, Egypte, Syrië en de Provence. Hij observeert veel tijdens zijn reizen en neemt kennis mee terug naar Pisa. In 1202 schrijft hij een boek met de titel Het boek van het telraam met veel voorbeelden uit de koopmanspraktijk over de Arabische cijfers, volgens Fibonacci de beste getallennotatie die hij in al die verschillende landen is tegengekomen.
De cijfers 0 t/m 9 zoals we die tegenwoordig gebruiken komen oorspronkelijk uit India. Toch noemen we ze Arabische cijfers. De reden is dat wij in Europa die cijfers dankzij Fibonacci via de Arabische cultuur hebben leren kennen. Fibonacci neemt nul niet serieus als cijfer. Hij spreekt over negen Indiase cijfers, maar nul noemt hij nulla figura, wat in het Latijn ‘geen getal’ betekent. Ons woord ‘nul’ is daarvan afgeleid.
Wat is het binaire talstelsel?
Niet alle talstelsels zijn gebaseerd op tien getallen, zoals ons decimale stelsel. Het binaire stelsel kent bijvoorbeeld maar twee getallen. Binair betekent ‘bestaande uit twee’. Het is een handig stelsel voor computers (daarover later meer).
Het binaire stelsel is net als het decimale talstelsel een positiestelsel. Dat wil zeggen dat de plaats van een cijfer binnen een getal zijn waarde bepaalt. Ook al heeft een binair stelsel maar twee cijfers tot zijn beschikking, wil dat niet zeggen dat je er geen grote getallen mee kunt maken. De getallen zijn hetzelfde, ze worden alleen anders genoteerd. Een binair getal is opgebouwd uit nullen en enen. De nullen en enen zijn bits. De waarde van een binair getal kun je omrekenen naar een voor ons vertrouwd decimaal getal. Hoe dat werkt, zie je in het rekenvoorbeeld in het blauwe kader.
Behalve het binaire en decimale stelsel zijn er nog andere getallenstelsels, legt wiskundige Ionica Smeets uit in het onderstaande filmpje. Het is maar net wat je gewend bent.
Elke bit is een veelvoud van de macht van 2. Neem bijvoorbeeld het binaire getal 01010101, dat is opgebouwd uit 8 bits. De laatste bit staat voor vermenigvuldigen met 2⁰, de op een na laatste bit voor vermenigvuldigen met 2¹, etc.
0 = 0 x 2⁷ = 0 x 128
1 = 1 x 2⁶= 1 x 64
0 = 0 x 2⁵ = 0 x 32
1 = 1 x 2⁴ = 1 x 16
0 = 0 x 2³ = 0 x 8
1 = 1 x 2² = 1 x 4
0 = 0 x 2¹ = 0 x 2
1 = 1 x 2⁰ = 1 x 1
Opgeteld betekent dit dat het binaire getal 01010101 dezelfde waarde heeft als het decimale getal 85, want 64 + 16 + 4 + 1 = 85.
Waarom werkt een computer met nullen en enen?
Binnen een computer kunnen transistors twee posities aannemen: ze kunnen stroom doorlaten of stroom niet doorlaten. Omdat er feitelijk maar twee opties zijn, denkt de computer binair. Het tweetallige stelsel van de computer kent dus twee cijfers: de één en de nul. Voor een computer betekent 1 aan en 0 uit.
In zijn college voor de Universiteit van Nederland vertelt hoogleraar systeem- en netwerkbeveiliging aan de Vrije Universiteit Amsterdam Herbert Bos dat je het geheugen van een computer kunt vergelijken met een lange rol paper waarop vakjes zijn getekend. In die vakjes vind je nullen en enen.
Wat is het millenniumprobleem?
Eind jaren negentig ontstaat er veel ongerustheid over het zogenaamde millenniumprobleem. Dit probleem komt voort uit het feit dat computersystemen bij het opslaan van het jaartal alleen de laatste twee cijfers van het jaar opslaan. Computers zouden bij de overgang van 1999 naar 2000 kunnen denken dat het jaar 1900 is aangebroken. Om dat te voorkomen wordt er met man en macht gewerkt om computersystemen aan te passen.
Veel computerexperts zijn er niet gerust op, Ze waarschuwen mensen om in ieder geval een noodrantsoen van water en voedsel in huis te hebben, voor het geval de computers toch op hol slaan en de wereld in een chaos verandert. Maar is de millenniumbug een echt gevaar, of toch vooral een hype? Uiteindelijk blijkt dat zich bij de millenniumwisseling nergens ter wereld noemenswaardige problemen voordoen, ook niet in landen die zich veel minder goed hebben voorbereid dan Nederland.
In onze huidige maatschappij is een leven zonder de nul niet meer voor te stellen. Het cijfer is belangrijk op allerlei vlakken, van simpele rekensommetjes op school tot wereldwijde computersystemen.
In het kort
Cijfers kun je vergelijken met de letters van het alfabet: het zijn symbolen. Getallen zijn vergelijkbaar met woorden, want ze hebben betekenis. De nul is zowel een cijfer als een getal.
De nul als getal ontstaat zo’n 1800 jaar geleden in India. De Indiase wiskundige Brahmagupta schrijft er voor het eerst over in 628 na Christus.
In Europa is het de Italiaanse koopman Fibonacci die de Arabische cijfers, inclusief de nul, introduceert. Ons woord voor 0 is afgeleid van de benaming die Fibonacci eraan gaf, nulla figura.
In tegenstelling tot ons decimale getallenstelsel heeft het binaire stelsel maar twee cijfers nodig om getallen mee uit te drukken: nullen en enen.
Binnen een computer kunnen transistors twee posities aannemen: ze kunnen stroom wel of niet doorlaten. Omdat er feitelijk maar twee opties zijn, denkt de computer binair.
Doordat computersystemen bij het opslaan van een jaartal alleen de laatste twee cijfers opslaan, zouden computers bij de overgang van 1999 naar 2000 kunnen denken dat het jaar 1900 is aangebroken.
En je weet het!
Anderen het laten weten?