Die Geschichte des Computers Teil 1
Die Zahlen als Grundlage der Computergeschichte
Die Einführung bzw. Benutzung von Zahlen lässt sich auf keine konkreten Wurzeln zurückführen. Zahlen haben sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Dementsprechend findet man die Zahlen in allen bekannten Sprachen. Auch in der Kommunikation von vielen Tierarten lässt sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von Gegenständen feststellen.
Die Weiterentwicklung dieser einfachen numerischen Systeme führte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperation wie der Addition, der Subtraktion, der Multiplikation und der Division oder auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtungen, etwa die von Euklid entwickelte Darstellung des größten gemeinsamen Teilers.
Im Mittelalter erreichte das Arabische Zahlensystem Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, Ausdrücke und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln oder des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.
» weiter zur Computergeschichte Teil 2
|