Der Name "Informatik" tauchte zum ersten Mal 1957 beim Deutschen Karl Steinbuch auf - einem der Pioniere dieser Wissenschaftsdisziplin. Deren Entwicklung prägten drei Disziplinen besonders: die Mathematik, die Mechanik und später die Elektronik. Basierend auf der Idee des deutschen Universalgelehrten Gottfried Wilhelm Leibniz (1646- 1716), der die Bedeutung des Dualsystems und das Rechnen in diesem entwickelte, entstand die Idee, ein binäres Zahlensystem als Basis einer Rechenmaschine zu nutzen. Das war lange vor dem ersten Computer.

Ein Mathematiker erwies sich mehr als 150 Jahre nach Leibniz als Computerpionier. Der Engländer Charles Babbage (1792- 1871) entwarf das Konzept des ersten Computers. Seine "Analytical Engine" (Analytische Maschine) enthielt bereits alle fundamentalen Elemente eines heutigen Computers. Babbage schaffte es allerdings nicht, seine Maschine zu bauen.

Den ersten programmierbaren Computer konstruierte der Deutsche Konrad Zuse (1910-1995) und nannte ihn Z3. Er entwarf die sogenannte Schaltalgebra, deren Grundlage das Binärsystem ist. Um sie elektrisch umzusetzen, braucht es zwei Zustände - eins und null, Strom an und Strom aus. Zuse stellte den Rechner 1941 fertig. Es folgten Computer so groß wie Einbauküchen. In Forschung und Industrie fanden sie zunehmend Einsatz. Den Sprung in die Haushalte schafften die PCs erst Anfang der 1980er Jahre.

Jeder Computer verrichtet seine Arbeit scheinbar automatisch, doch ohne Programme könnten Roboter nicht laufen, Geldautomaten nichts auszahlen, und der PC-Bildschirm bliebe schwarz. Die Software-Entwicklung gewann somit immer mehr an Bedeutung.