Die Geschichte der Computer

Die frühen Computer


Die Geschichte des Computers reicht viel länger zurück als in den 1900er Jahren. Tatsächlich gibt es Computer seit mehr als 5000 Jahren.

In der Antike war ein “Computer” (oder “Computer”) eine Person, die numerische Berechnungen unter der Leitung eines Mathematikers durchführte.

Einige der bekanntesten Geräte sind der Abacus- oder der Antikythera-Mechanismus.

Um 1725 verwendete Basile Bouchon perforiertes Papier in einem Webstuhl, um das zu reproduzierende Muster auf Leinwand aufzuzeichnen. Dies stellte sicher, dass das Muster immer das gleiche war und kaum menschliche Fehler aufwies.

Später, 1801, nutzte Joseph Jacquard (1752 – 1834) die Idee der Lochkarte, um weitere Geräte mit großem Erfolg zu automatisieren.

Die ersten Computer?


Charles Babbage. (1792-1871) war seiner Zeit weit voraus und entwickelte auf der Grundlage der Lochkarte die erste Computerausrüstung, die für wissenschaftliche Zwecke verwendet wurde. Er erfand die Charles Babbage’s Difference Engine, die er 1823 startete, aber nie fertigstellte. Später begann er mit der Arbeit an der Analytical Engine, die 1842 entwickelt wurde.

Babbage wurde auch die Erfindung von Computerkonzepten wie bedingte Verzweigung, iterative Schleifen und Indexvariablen zugeschrieben.

Ada Lovelace (1815-1852) war eine Kollegin von Babbage und Gründerin der wissenschaftlichen Informatik.

Viele Menschen haben die Erfindungen von Babbage verbessert. George Scheutz und sein Sohn Edvard Scheutz begannen mit einer kleineren Version. Bis 1853 hatten sie eine Maschine gebaut, die 15-stellige Zahlen verarbeiten und Differenzen vierter Ordnung berechnen konnte.

Eine der ersten bemerkenswerten kommerziellen Verwendungen (und Erfolge) von Computern war das US Census Bureau, das Lochkartengeräte verwendete, die von Herman Hollerith entwickelt wurden, um Daten für die Volkszählung von 1890 zu tabellieren.

Um den zyklischen Charakter der Nachfrage des Census Bureau nach seinen Maschinen auszugleichen, gründete Hollerith die Tabulating Machine Company (1896), eines von drei Unternehmen, die 1911 mit IBM fusionierten.

Claude Shannon (1916-2001) schlug später die Verwendung digitaler Elektronik in Computern vor und 1937 baute JVAtanasoff den ersten elektronischen Computer, der 29 Gleichungen gleichzeitig mit 29 Unbekannten lösen konnte. Dieses Gerät war jedoch nicht programmierbar

In diesen schwierigen Zeiten entwickelten sich die Computer rasant. Aufgrund von Einschränkungen blieben viele Projekte bis viel später geheim, und ein bemerkenswertes Beispiel ist das 1943 von Alan Turing und seinem Team entwickelte britische Militär “Colossus”.

Ende 1940 beauftragte die US-Armee John V. Mauchly mit der Entwicklung eines Geräts zur Berechnung der Ballistik während des Zweiten Weltkriegs. Wie sich herausstellte, wurde die Maschine erst 1945 fertiggestellt, aber die Elektronischer numerischer Integrator und ComputerENIAC erwies sich als Wendepunkt in der Computergeschichte.

ENIAC erwies sich als eine sehr effiziente Maschine, die jedoch nicht sehr einfach zu bedienen war. Änderungen erfordern manchmal eine Neuprogrammierung des Geräts. Die Ingenieure waren sich dieses offensichtlichen Problems bewusst und entwickelten eine “gespeicherte Programmarchitektur”.

John von Neumann (Berater des ENIAC), Mauchly und sein Team entwickelten EDVAC. Dieses neue Projekt verwendete ein gespeichertes Programm.

Eckert und Mauchly entwickelten später den möglicherweise ersten kommerziell erfolgreichen Computer, den UNIVAC.

Die Softwaretechnologie war in dieser Zeit sehr primitiv. Die ersten Programme wurden in Maschinencode geschrieben. In den 1950er Jahren verwendeten Programmierer eine symbolische Notation, die als Assemblersprache bekannt ist, und übersetzten die symbolische Notation dann von Hand in Maschinencode. Spätere Programme, sogenannte Assembler, führten die Übersetzungsaufgabe aus.

Die Transistor-Ära, das Ende des Erfinders.


In den späten 1950er Jahren endeten ventilgesteuerte Computer. Transistorbasierte Computer wurden verwendet, weil sie kleiner, billiger, schneller und viel zuverlässiger waren.

Anstelle von Erfindern stellten Unternehmen jetzt die neuen Computer her.

Einige der bekanntesten sind:

  • TRADIC bei Bell Laboratories im Jahr 1954,
  • TX-0 im Lincoln Laboratory des MIT
  • IBM 704 und seine Nachfolger, 709 und 7094. Letztere führten E / A-Prozessoren für einen besseren Durchsatz zwischen E / A-Geräten und Hauptspeicher ein
  • Computer für das erste Abendmahl, der Livermore Atomic Research Computer (LARC) und der IBM 7030 (auch bekannt als Stretch)
  • Der Texas Scientific Advanced Scientific Computer (TI-ASC)

Jetzt waren die Grundlagen der Computer vorhanden, mit Transistoren waren die Computer schneller und mit der Stored Program-Architektur konnten Sie den Computer für fast alles verwenden.

Bald entstanden neue hochrangige Programme, FORTRAN (1956), ALGOL (1958) und COBOL (1959), Cambridge und die University of London arbeiteten bei der Entwicklung von CPL (Combined Programming Language, 1963) zusammen. Martin Richards aus Cambridge entwickelte eine Untergruppe von CPL namens BCPL (Basic Computer Programming Language, 1967).

Der CDC 7600 wurde 1969 veröffentlicht und konnte 10 Millionen Gleitkommaoperationen pro Sekunde (10 Mflops) ausführen.

Die Netzwerkjahre.


Ab 1985 hatte das Rennen begonnen, so viele Transistoren wie möglich auf einen Computer zu setzen. Jeder von ihnen könnte eine einfache Operation ausführen. Abgesehen davon, dass der Computer schneller ist und mehr Vorgänge ausführen kann, hat er sich nicht wesentlich weiterentwickelt.

Das Konzept der Parallelverarbeitung ist seit den 1990er Jahren weiter verbreitet.

Im Bereich der Computernetzwerke entwickelten sich sowohl die WAN-Technologie (Wide Area Network) als auch die LAN-Technologie (Local Area Network) rasant

Erhalten Sie einen detaillierteren Verlauf des Computers [http://www.myoddpc.com/other/history_of_computer.php].

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.