Zwölfmal in diesem Jahr wird das Abendblatt eine Kolumne über mathematische Alltagsphänomene veröffentlichen, die Christoph Drösser, Wissenschaftsjournalist und Autor bei Klett ("Der Mathematik-Verführer") verfasst hat. Heute erscheint die erste Folge:

Was sind die bedeutendsten Erfindungen der Menschheit? Das Feuer. Das Rad. Die Atombombe. Die Null. Ist die Null eine Erfindung? Ja, und sogar eine recht junge. Eigentlich gibt es sogar zwei Nullen: die Zahl Null, die den Saldo eines leeren Geldbeutels beschreibt, und die Ziffer Null, die an jeder Stelle einer Zahl etwas anderes bedeutet. Historisch kam erstaunlicherweise erst die Ziffer, dann die Zahl.

Die Babylonier hatten schon 2000 Jahre vor unserer Zeitrechnung eine Stellenschreibweise für Zahlen, und wenn eine Stelle unbesetzt war, ließen sie eine kleine Lücke. Irgendwann war jemand die Verwechslungen leid und erfand ein Füllzeichen:die Ziffer Null war geboren.

Die erste Null, die das Nichts bezeichnet, finden wir in einem ägyptischen Tempel aus dem 2. Jahrhundert v. Chr.. Da meißelte ein unbekannter Rechner eine Faustregel in die Wand, mit der sich die Fläche von Vierecken berechnen ließ. Die Formel galt auch für Dreiecke, wenn man einfach eine Seite gleich Null setzte, also quasi zusammenschnurren ließ. Die entsprechende Hieroglyphe ist das älteste bekannte Zeugnis für die Zahl Null.

Aber beide Nullen verschwanden mit dem Untergang der Zivilisation, die sie hervorgebracht hatte. Jahrhundertelang war die abendländische Zivilisation auf die römischen Ziffern angewiesen, mit denen man weder anständig addieren noch multiplizieren konnte. Erst durch die Araber und die nach ihnen benannten Ziffern (al-sifr war der Name für die Null) wurden Zahlen wieder zu einem vernünftigen Werkzeug. Dem mittelalterlichen Geist war die Null unheimlich: In Florenz wurden sie verboten, weil sie so leicht zu fälschen waren, durch Anhängen einer Null konnte ein Halunke jede Geldsumme verzehnfachen. Erst im Jahr 1438 wurde auf einer deutschen Münze erstmals die Jahreszahl in arabischen Ziffern geprägt.

Dann aber gab es kein Halten mehr. Naturwissenschaft und Technik verlangten nach einem Zahlensystem, das jede beliebige Größe ausdrücken kann, ob das der Durchmesser des Atomkerns ist (0,000000000023 Millimeter) oder die Entfernung des nächsten Sterns (um die 30 000 000 000 Kilometer).

Ihren größten Siegeszug feierte die Null mit der Erfindung des Computers. Dessen Schaltkreise kommen mit zwei Symbolen aus, um alle Rechnungen dieser Welt durchzuführen: mit der Null und ihrem allgegenwärtigen Gegenpart, der Eins. Auch die hatte einen langen Weg zu gehen, bis sie endlich als richtige Zahl anerkannt wurde.

Aber das ist wieder eine andere Geschichte.