Geschichte des computers
Vorwort
In dieser Belegarbeit im Fach Informatik befasse ich mich mit der Geschichte der Computertechnik. Die Computertechnik basiert auf der Grundlage der Rechen-, bzw. der Datenverarbeitungstechnik und der Elektrotechnik.
Die Geschichte des Computers ist nicht bloß die Geschichte einer Maschine. Nein, sie ist viel mehr. Sie spiegelt die Geschichte der Menschheit, mit ihren Erkenntnissen in der Wissenschaft und Technik wieder, sie spiegelt sogar die Entwicklung des menschlichen Daseins auf dem Planeten Erde.
Das Wissen unserer Vorfahren hat es uns erst ermöglicht dieses Wunderwerk der Technik zu entwickeln. Das 'High-Tech'-Gerät ist heute viel mehr als eine Maschine: Der Computer ist heutzutage zu einer Rechenanlage geworden die phänomenales leistet. Mit der Maschine wurden Träume der Menschheit erst überhaupt möglich, obwohl es schon ein Traum war für sie, diese Maschine zu entwickeln. Dieser Traum unserer Vorfahren ist durch bedeutende Forscher, Wissenschaftler und Erfinder schließlich wahr geworden.
Hierbei möchte ich kurz eine unserer bedeutendsten Leistung anführen: die bemannte Raumfahrt. Der Traum der Mondlandung wurde erst durch den Computer möglich, mit ihm wurde die Mondlandung berechntet - zur damaligen Zeit von einem Computer mit der Leistungsfähigkeit ähnlich eines 486iger PCs.
Die Vorstellungen eine umfangreichen Rechenanlage zu entwickeln ist seit mehreren Jahrzehnten endlich zur Realität geworden und hat uns Perspektiven geöffnet, die sich nur die wenigsten von uns jemals hätten vorstellen können. Heute, ist er überall als kompakte elektronische Maschine zugegen. Er ist zu einem Teil unseres Leben geworden. Er ist die Maschine, auf die diese Belegarbeit geschrieben wurde. Er ist die Maschine, über die diese Belegarbeit handelt..
.
Die Geschichte des Computers
I. die Vorfahren
Von den antiken Anfängen der Rechentechnik bis zu den ersten Rechenanlagen und Lochkartenmaschinen.
Die Anfänge in der Antike
Vor beinahe 3000 Jahren begann die Geschichte der Rechentechnik. Vermutbar wäre, dass die Geschichte der Rechentechnik ebenfalls die Geschichte der Mathematik ist. Diese ist jedoch schon über 6000 Jahre alt, da ihre Gegenstände, Maß und Zahl, für die Menschen der früheren Jahrtausende von großem Interesse waren.
Die Geschichte der Rechentechnik hat nur einen gewissen Teil zur Mathematikgeschiche beigetragen. Vielmehr hat sie die Grundlage für die Computertechnik gebildet.
Die Geschichte der Computertechnik hat also nicht nur eine Vorgeschichte: Vielmehr haben das Wissen der Mathematik, und die Entwicklung der Datenverarbeitung, bzw. der Rechentechnik dazu beigetragen, dass sich der Computer der heutigen Zeit entwickeln konnte.
Schon vor Jahrtausenden wurde die Mathematik, der Baustein der Rechentechnik, als Lehre der Meßkunst und den Mengenangaben, von der Bewegung der Gestirne und als Kalenderkunde von den Babyloniern und den Indern, den Mayas und den Ägyptern, und selbst von den Chinesen entwickelt.
Im weitesten Sinne des Begriffs ist auch die Subtraktion oder Addition von Zahlen Datenverarbeitung.
Deshalb ist das vor Jahrtausenden von den Chinesen entwickelte Rechenbrett eines der ersten Hilfsmittel zum rechnen gewesen. Doch auch schon die Inder und Ägypter waren schnell im rechnen mit Steinchen, die sie auf in den Sand gezeichneten Linien hin- und herbewegten. Bekannt sind außerdem Überlieferungen von Zahlentafeln die in Mesopotanien zur Berechnung der Bewegungsrichtung der Gestirne benutzt wurden.
Um das zur damals rare Wissen über Rechentechniken zu verbreiten und zu verknüpfen bedurfte es Jahrzehnte. Viele verschiedene Völker wurden allmählich zu Vermittler des mathematischen Wissens.
Die Griechen entwickelten schließlich neuste wissenschaftliche Methoden zur damaligen Zeit.
Durch das Wissen anderer Kulturvölker und deren Überlieferungen entstanden großartige Vorleistungen, die zur späteren Computertechnik führen sollten. Die berühmten Mathematiker der Antike bildeten um 500 bis 300 v. u. Z. die exakte mathematische Beweisführung aus.
Um das langsame Fortschreiten der Rechenmaschinen zu verstehen, sollte man nicht außer acht lassen, das es zu jener Zeit in der Welt weder Schulen noch Lese- oder Rechenbücher gab.
Es gab noch keine Zeitmessgeräte nach denen die Arbeitszeit berechnet wurde, ebenfalls gab es keine Warenhäuser in denen die langen Zahlenreihen von Schreibmaschinen aufgeschrieben oder von Handrechnern addiert wurden. Außerdem gab es keine Banken, Scheckhefte und Konten. Bezahlt wurde mit Gänsen, Eiern, Schafwolle und Speck, mit allem, was durch Ackerbau und Viehzucht gewonnen wurde.
Die Arbeit spornte die Menschen zum Nachdenken an, zu klugen Überlegungen und damit zum Zählen, Messen und Vergleichen. Je mehr sich die Menschen mühten, desto umfangreicher nahmen die mathematischen Kenntnisse und Fähigkeiten zu, bis zu dem Einsatz moderner Rechenanlagen war es aber noch ein langer Weg.
Die erste Rechenanlage
Der erste Ansatz zu den heutigen Rechenmaschinen lieferte der von den Chinesen, vor 3000, Jahren entwickelte Suanpan.
Dieses chinesische Rechengerät war ein ähnliche Rechengerät wie der in Westeuropa bekannte Abakus. Die Griechen haben zu seiner Entwicklung weitestgehend beigetragen und schließlich wurde das Rechengerät von den Römern als 'abacus' übernommen. Das kleine handlicher Gerät wurde zur damaligen Zeit häufig benutzt und revolutionierte nahezu das Rechengeschehen der Antike.
Doch nach wie vor finde ich es hierbei wichtig anzuführen, daß das wohl älteste Rechengerät der Menschheit nicht irgend ein Objekt gewesen ist: Unsere Hand leistete von Beginn des menschlichen Existenz bedeutende Rechendienste.
Rechenanlagen und-hilfen werden erfunden
Die Problematik der Zeitgeschichte vorderte schon allmählich ihren Tribut: Zeit ist Geld. Das Bürgertum des Mittelalters, mit seinen Handwerkern und Kaufleuten bedurfte neue technische Entwicklungen, denn die bis dahin üblichen Berechnungsarten bewiesen sich als zu unzulänglich, zeitraubend und aufwendig.
Deshalb galt die Mathematik als zukunftsträchtige Wissenschaft, da sie viele bevorzugte Forschungsgebiete wie Astronomie, Optik und Mechanik mit mathematische Studien verbindete. Hinzu kam, daß ein Umgehen mit großen Zahlenmengen und Zahlenwerten beträchtliche Schwierigkeiten auslöste. Aus diesem Grund gewannen alternative Methoden zum Vereinfachen der bisherigen numerischen Rechnens an neuer Bedeutung. Handwerker und Mathematiker bemühten sich gemeinsam um die Entwicklung mechanischer Rechenhilfen oder den Bau neuer Rechenmaschinen.
Ein erster Schritt zur Konstruktion mechanischer Rechenhilfsmittel war die Anwendung des Schiebeverfahrens, wobei man z.B.
zwei Lineale als Rechenschieber benutzt.
Den entscheidenden Impuls erhielten die Erfinder durch die Uhrentechnik - die Rechenvorgänge konnten mechanisch bewältigt werden. Die automatische Zahlenübertragung war ein weiterer entscheidende Entwicklungsschritt in der Geschichte des maschinellen Rechnens.
Im 17. Jh. gelang nun allmählich der Durchbruch für die Entwicklung von neuen Rechenmaschinen.
Die wohl älteste brauchbare Rechenmaschine der Welt wurde anhand von Skizzen geplant, jedoch nie gebaut. Anhand der überlieferten Skizzen wurde aber 1960 ein Modell angefertigt, welches bestätigte, das die Maschine durchaus Leistungsfähig gewesen wäre. Um 1641 entwickelt auch der Franzose Blaise Pascal seine "Pascaline", welche das addieren von Zahlen beherrschte.
Den entscheidenden Durchbruch schaffte aber kein anderer als der große deutsche Gelehrte Gottfried Willhelm Leibniz (1646-1716), in dem er eine Maschine konstruierte die nicht nur addieren und subtrahieren , sondern auch multiplizieren und dividieren konnte. Zur Energieversorgung diente eine seitlich angebrachte Handkurbelvorrichtung.
Die Industrialisierung bringt den Fortschritt
Zu dem Beginn des 18.
Jh. versuchten sich auch andere Handwerker an dem Projekt der Rechenmachinenherstellung. Doch die meisten Versuche kamen über anfällige Prototypen nicht hinaus und zur tagtäglichen Rechenarbeit wurden sie wohl kaum benutzt. Das 18. Jh. hatte aber noch eine Überraschung übrig, welche die technische Entwicklung nachhaltig beeinflussen sollte: Alessandro Volta entdeckt den elektrischen Strom.
Mit seiner Entdeckung wurden neue Grundlagen geschafft.
Der Bedarf an Rechenmaschinen stieg durch die einsetzende industrielle Revolution beträchtlich an und verlangte nach immer neueren Verbesserungen an den bis dahin vorhandenen Rechenmaschinen. Die ersten in den Büros eingesetzten Massenrechenmaschinen nannte man "Millionär". Diese konnten oft jedoch nur addieren. Um die Maschinen für andere Rechenoperationen einsetzbar zu machen, wurde ihr Leistungsvermögen allmählich auf alle vier Grundrechenarten gesteigert. Die Maschinen wurden nun auch mit einem Rechenwerk und einem Steuersatz ausgerüstet.
das Rechenwerk verarbeitet die Zahlen, während das Steuerwerk festlegte, welche Rechenart wie und wann benutzt wurde. Häufig bestanden die Maschinen aus simplen Dezimalzählrädern mit Maschinismen zur Zehnerübertragung. Als neue Bestandteile kamen die nun entwickelten Tastaturen zur Zifferneingabe sowie eine Ausgabevorrichtung der Zahlenwerte hinzu.
Der perfekte Rechenautomat war aber noch nicht durch diese neuen Geräte entwickelt worden. Damit die Rechenmaschinen den Menschen ständig mehr Arbeit abnehmen konnten, wurde die Entwicklung des automatischen Steuerwerkes vorangetrieben.
Im Jahr 1834 entwickelte der englische Mathematiker Charles P.
Babbage ein Konzept für eine bis dahin unbekannte Rechenmaschine: Die Konzeption der analytischen Maschine im nachhinein als eine der genialsten Erfindungen anerkannt, da sie gleichbleibende Rechenabläufe fortlaufend automatisch lösen konnte, durch gelochte Programmkarten gelang dieses Vorhaben. Bedeutsam ist, das diese Maschine über einen Speicher verfügte. Ein Meilenstein für die bevorstehenden Computertechnik wurde durch den "Vater des Maschinenrechnens" Babbage gesetzt.
Häufig wird bei dieser Art der Geschichtsbetrachtung die andere Seite außer acht gelassen: Ein Computer ist eine elektronische Rechenmaschine. Es ist somit verständlich, daß die Leistungsfähigkeit heutiger Computer ohne die Entwicklung der Elektrotechnik undenkbar gewesen ist. Die Elektroenergie ist wiederum sehr eng verknüpft mit dem allgemeinen Fortschritt in den Naturwissenschaften, insbesondere den der Chemie und der Physik.
Die Grundstruktur der heutigen elektronischen Computern wurde durch Babbage schon annähernd entwickelt. Obwohl der Entwurf fehlerfrei war, gelang erst in der zweiten Hälfte des 20. Jh. der Bau der Maschine, da die Feinmechanik noch nicht so weit entwickelt gewesen war.
Lochkartentechnik
Die technische Entwicklung, speziell in der Zeit von 1870 bis 1913, brachte tiefgreifende Veränderungen des gesamten wirtschaftlichen und gesellschaftlichen Lebens hervor. Ausgedehnte interkontinentale Handels- und Politikbeziehungen entstanden und mit ihnen entwickelte sich das Nachrichtensystem.
Der Bedarf an Rohstoffen und Waren nahm rapide zu und führte mit sich, das die Art zum Produzieren grundlegend verbessert werden mußte. Die Veränderungen in der Nachrichtentechnik, Industrie und Verkehrswesen brachten eine neue technische Revolution hervor, da Entwicklung des Handels und der Industrie ein enorme Menge an schriftlichen Dokumenten hervorbrachte. Die Nachrichtenübertragung konnte nun kaum mehr manuell absolviert werden, da die Nachrichten zielgerichtet am richtigen Ort zur richtigen Zeit übermittelt werden sollte. Um die Datenübertragung den Erfordernissen der Zeit anzupassen, wurden schnellstmöglich neue Büromaschinen benötigt. Für die statistische Auswertung wurden Rechenautomaten benötigt, deren Weiterentwicklung seit Babbage ins Stocken geraten waren.
Bis in das 19.
Jh. reicht die Geschichte der Lochkartentechnik zurück, welche von George Boole nach der von ihm benannten boolschen Algebra entwickelt wurde. Die Lochkartentechnik bildet durch die Auswertung von ja/nein Informationen einen weiteren Grundstein der Computertechnik.
In den USA wurde frühzeitig die Volkszählung, die bis dato von Hand erledigt wurde, von Maschinen erledigt. Mit der um 1886 von Hollerith fertiggestellten Zähl- und Sortiermaschine konnte die zeitaufwendige Handbearbeitungstechnik von ca 7 Jahren auf 4 Wochen reduziert werden. Die Entwicklung der Lochkarte und der Verwendung der Schwachstromtechnik brachten auch eine sehr preiswerte Alternative hervor.
Seitdem wurden viele Lochkartenmaschinen entwickelt, mit denen sich die Leistung ständig verbessern ließ und der Aufwand weiter verringern ließ. Mit dieser Technik konnte sowohl das aufwendige Mischen und Sortieren der Karten sowie das Zusammenstellen von langen Zahlentabellen maschinell bewältigt werden. Die Zähl- und Rechenarbeiten wurden allmählich schneller, billiger und genauer als die von Menschenkraft erledigten Arbeiten.
Das Zeitalter der Elektrotechnik beginnt...
Seit der Entwicklung der Elektrotechnik wurden ganz neue Wege zur Datenübertragung geöffnet. Babbage und die Erfinder der vorigen Jahrhunderte kannten die Elektroenergie noch nicht, geschweige denn die Elektronik oder gar die Mikroelektronik. Zur damaligen Zeit war noch nicht bekannt, das von allen Übertragungsmöglichkeiten die mittels Elektroenergie eine der sichersten und schnellsten ist.
Der Übertragungsweg ist recht unkompliziert, da schon Röhren oder Kabel zur elektrischen Signalübertragung reichen. Die Röhren wurden später von den Transistoren verdrängt, der den Siegeszug der modernen Rechenautomaten begründet.
Doch schon kurze zeit später wurde der Transistor durch weitere neuen technischen Errungenschaften der 'High-Tech'-Industrie ersetzt.
Statt der Röhren und der Transistoren werden heute Chips verwendet. Die Miniaturelektronik brachte den Fortschritt in der Schaltertechnik, dadurch können viele Vortiele genutzt werden: Seine Leichtigkeit, die geringe Größe, die billigen Anschaffungskosten sowie die zuverlässige und schnelle Arbeit.
Die Elektroenergie und Elektronik schufen die Voraussetzungen dafür, nicht nur elektrisch angetriebene Rechenmaschinen, sondern auch informationsverarbeitende Rechenanlagen zu bauen. Durch die Erkenntnis, das sich die Ziffern und Buchstaben durch elektrische Signale oder Impulse wiedergeben lassen, lösten in immer kürzeren Zeitabständen immer leistungsfähigere Digitalrechner einander ab.
Bis zu dem Bau solcher Maschinen war es aber noch ein weiter weg. Erst die Entwicklung anderer Maschinen konnten die Vorraussetzung dazu geben:
Ein Meilenstein zu dieser Maschinen war die Erfindung des Amerikaners Samuel Finley B.
Morse. Sein erfundener Schreibtelegraf gibt elektrische Impulse in Signale wieder, welche einer Zeichensprache ähneln. Mit dem Punkt-Strich-System konnte ein schneller Nachrichtenaustausch von statten gehen, außerdem machte man die Erkenntnis, das es mit der 2-Zeichentechnik mögliche wurde, jeden beliebigen Text zu übermitteln. Die Binärzifferntechnik machte man sich auch bei Digitalrechnern zu nutze.
II: Die Zeit der Computerentwicklung
Die ersten Computer entwickeln sich zu den 'High-Tech'-Produkten unserer Zeit.
Ein Traum wird Wirklichkeit.
..
Der Enorme technische Fortschritt in der Zeit der Industrialisierung brachte immer neue technische Modifikationen hervor. Der Computer, wie wir ihn heute kennen, konnte erst entstehen, als die Mikrotechnik mit der Elektronik vereinbart werden konnte:
Das erste mit Einschränkungen als Computer bezeichnete Gerät wurde 1930 von Vannevar Bush entwickelt. Es handelt sich hierbei um ein Gerät, indem zur Durchführung von Berechnungen und zum Speichern von Informationen statt der bis dahin verwendeten mechanischen Hebel und Getriebe elektromechanische Relais eingesetzt wurden.
Der deutsche Konstrukteur Prof.
Dr. Konrad Zuse erbrachte einen weiteren Fortschritt in der Geschichte des Computers, in dem er im Jahr 1935 mit der Entwicklung einer programmgesteuerten Rechenanlage begann. Bis zum Ende des II.Weltkriegs entstanden vier von ihm gefertigte Anlagen. Zuerst entstand die Z1 und die Z2, jedoch mußten beide wegen schwieriger Handhabung um 1941 der Z3 weichen. Nach ihrer Fertigstellung wurde sie vom Naziregime übernommen und der Versuchsanstalt für Luftfahrt in Berlin ausgeliefert.
Die Z3 war die erste funktionstüchtige programmgesteuerte Rechenmaschine der Welt. Sie arbeitete mit 2600 Fernmelderelais und einem auf Kinofilmstreifen gelochten Programm.
Fast zeitgleich arbeitete der Amerikaner, Prof. für angewandte Mathematik, Howard H. Aiken an einem elektrotechnischem Rechenautomaten, der nach dem gleichen Prinzip wie der Z3 von K. Zuse funktioniert.
Der Rechner, der den Namen "Harvard Mark 1" erhielt wurde der Harvard-Universität nach seiner Fertigstellung im August 1944 übergeben. Der "Harvard Mark 1" war auch viel Leistungsfähiger als Zuses Rechenautomat.
In den selben Jahren, also um 1943 wurde auch der erste Digitalrechner gebaut mit dem markanten Namen "COLOSSUS", welcher mit 15000 Vakuumröhren arbeitete. Zwei Jahre später wird auch der bekannte Großrechner ENIAC - Electronic Numerical Integrator And Computer hergestellt. Er arbeitet mit einer bis dahin überdimensiomalen Anzahl von bis zu 18000 Elektronenröhren. Dadurch wurde es ihm möglich einige hundert Multiplikationen pro Sekunde zu absolvieren.
Die Programmierung erfolgte durch Umstecken und Umlöten von Drähten
Im Jahr 1946 trat ein ungarischer Mathematiker in das Geschehen. John von Neumann entwickelte die bis heute noch geltenden fundamentalen Prinzipien der Computer, die jetzt kurz angeführt werden sollen:
- Die Bestandteile eines Computers sind das Steuerwerk, das Rechenwerk, der Speicher sowie die Eingabe- und Ausgabegeräte.
- Das steuernde Programm wird in Reihenfolge abgearbeitet und besteht aus zwei Grundelementen.
- Das Programm wird ähnlich wie die Daten im Speicher abgelegt und können von dort zur Datenverarbeitung vom Steuerwerk abgerufen
- Der Programmablauf ist differenzierbar
Die nach ihm benannte Struktur, bei der sich also unteranderem Programm und Daten im gleichen Speicher befinden, wurde richtungsweisend. Erst in der moderneren Zeit wird von dem ihm entwickelten Konzept abgewichen, die parallel arbeitenden Prozessoren (Transputer-Prinzip) machen dies möglich.
Die Zeit der eigentlichen Computerentwicklung nach dem Großen Krieg
Nach der raschen Weiterentwicklung im elektronischen Bereich kann man im Grunde genommen erst die Zeit nach dem 2.
Weltkrieg als Geschichte der Computertechnik ansehen. Jedoch sollte man nicht vergessen, dass jede technische Entwicklung der vorhergehenden Forscher erst die Möglichkeit für die Computertechnik in die Wege geleitet hat.
Der anfänglich anfällige Einsatz der Röhrentechnik hatte sich allmählich verbessert und führte schließlich dazu, dass die Elektronenröhre nach dem 2.Weltkrieg als Massenprodukt hergestellt wurde. Die Elektronenröhre bildete von nun an ein grundlegendes elektronisches Bauelement in der Computerindustrie. Und 1949 stellte mit dem Mark 2.
Howard H. Aiken den ersten Rechner vor, der mit einem Massenspeicher arbeitet - auf magnetischer Basis.
In den fünfziger Jahren verhilft dann die Magnetbandtechnik der Computerindustrie zu weiteren neuen technischen Errungenschaften. Diese Geräte haben aber einen bedeutsamen Nachteil: Ihr Zugriff auf die Daten ist äußerst zeitintensiv.
Doch schon in den sechziger Jahren konnte dem Problem durch die neuentwickelten Magnetspeicherplatten Abhilfe geschaffen werden: Sie vereinigen größere Speicherkapazitäten und niedrigere Zugriffszeiten. Außerdem gab es während der fünfziger Jahre weitere Fortschritte auf dem Gebiet der Verarbeitungseinheit in der Computertechnik.
Hinzukommt, das der Einsatz von den Elektronenröhren zunehmend wieder durch Transistoren ersetzt wurde. 1956 erhalten die amerikanischen Physiker Walter Houser Brattain, John Bardeen und William Bradford Shockley den Nobelpreis für die Entwicklung des Transistors an den Bell Laboratories. Da durch den Transistor der Platzbedarf von Computern wesentlich verringert wurde, stellte er eine Revolution im Bereich der Mikroelektronik dar. Der Einsatz brachte weitere Vorteile, u.a. wird die Arbeitsgeschwindigkeit der Geräte und ihre Zuverlässigkeit erheblich gesteigert.
Außerdem arbeiteten die neuen Rechner ökonomischer, da sie weniger Abwärme produzieren und weniger Strom verbrauchen als die bisher entwickelten Rechner.
Designtechnisch entwickelte sich auch allmählich die trist erscheinende Hardware zum modischen Objekt. Die Software ebenfalls, vollzog weitere technische Entwicklungen. Unteranderem entwickelte sich die Programmiersprache welche anwendungsfreundlichere Programme erstellte um den Computer auch für den Individualgebrauch nutzbar zumachen.
Für einen weiteren Entwicklungsschub sorgte während der 60er der Einsatz der integrierten Schaltkreise (ICs (Integrated Cicuits)), sie läuteten eine weitere Stufe der Verkleinerung ein. Statt eines einzelnen Transistors werden auf einer kleinen Trägerplatte (auf einen Chip) zunächst einige und später tauende Transistorfunktionen vereinigt.
Eine bedeutende Entwicklung brachte auch das amerikanische Militär hervor. Die US-Streitkräfte entwickelten einen Verbund von Rechnern verschiedener Arten, das sogenannte Arpanet. Das Besondere ist, dass die Rechner dezentral vernetzt wurden, das heißt, dass sie nicht von einem einzelnen Server abhängig waren, sondern jeder Rechner mit mindestens zwei anderen verbunden war. Dieses Prinzip sorgt dafür, dass das Netz auch bei Ausfällen einiger Rechner funktionstüchtig bleibt.
Quantität weicht zugunsten der Qualität in den 70iger
Die in den fünfziger und sechziger Jahren entwickelten Computer waren oft sehr groß und konnten häufig nur für sehr teures Geld erworben werden. Hinzu kam das sie recht anfällige Software hatten und oft nur mit hohem Aufwand betriebsfähig gehalten werden konnten.
Der Computer der ersten Generationen war ein reines Quantitätsprodukt und all zu oft zu unwirtschaftlich für den privaten Gebrauch. Dem Problem wirkte jedoch das neue Konzept der Computerindustrie in den siebziger entgegen, indem sie begann die Quantität zugunsten der Qualität zu verbessern. Möglich wurde der Qualitätssprung durch das Einsetzen neuartiger und komplexerer Chips. Es entstanden immer leistungsfähigere Computer immer kleinerer Bauart zu immer niedrigeren Preisen. Der Computerbedarf stieg rapide an und mit ihm auch der Bedarfsanstieg für Software. Mit den steigenden Stückzahlen der Computer sanken die Anschaffungskosten erheblich und neuere Chips verdrängten die veralteten.
Die Computerindusrie rüstet auf - der Einsatz der Mikroprozessortechnik schafft den Durchbruch
1971, mit dem 4004 produziert das amerikanische Unternehmen Intel seinen ersten Mikrochip. Der Chip wurde zuerst in Taschenrechnern eingesetzt und getestet. Der neuere 8008 Chip von Intel wurde 1972 von einem Hobby-Basteler für eine elektronische Schreibmaschine genutzt, dadurch erlangt der Chip neue Nutzungsmöglichkeiten Als das Unternehmen ihren 8080-Chip um 1974 herstellen, wird dieser für den ersten Home-Computer "Altair" verwendet. 1977 Mit dem Apple II und dem Commodore Pet gelangen die ersten erschwinglichen Home-Computer auf den Markt.
Nachdem es um 1977 technisch möglich geworden war, Computer mit einer zentralen Bauelement, dem Mikroprozessor , herzustellen, wurde es wiederum möglich die Größe der Computer um ein weiteres zu minimieren. Die preiswerteren Geräte leiteten in den USA und etwa zwei Jahre später in Europa ein Mikrocomputerboom ein.
Die Entwicklung der Mikroprozessoren erweiterte nicht nur ihr Einsatzgebiet in der Forschung und im Individualgebrauch, sondern auch im Einsatzbereich als Steuerungscomputer. Der Steuerungscomputer diente von nun an dazu, verschiedene Vorgänge eines Industrieroboters zu steuern. Der Individualbereich boomte bei der Computerindustrie und wurde schon bald zu einer wichtigen Einnahmequelle. Der Heimcomputer erfreute sich immer mehr Beliebtheit., aufgrund seines erschwinglichen Preises und seiner einfachen Bedienbarkeit. Die Heimcomputer waren zwar nicht sehr leistungsfähig , doch zum Verkaufsschlager wurden sie trotzdem, obwohl sie eigentlich nicht mehr als zum Spielen geeignet waren.
Wie auch immer der Erfolg dieser Geräte zu erklären sein mag, hat er doch zu einem weiteren Entwicklungsschub in der Computertechnologie beigetragen. Sowohl der Bedarf an noch leistungsfähigeren Chips als auch an anwendungsfähigeren Massenspeichern, wie Disketten, wurde enorm gefördert. Vor allem aber entstand eine vermehrte Nachfrage an leicht zu bedienender Software. Die Grundlage für den nächsten Schub war gelegt.
Im Bereich der kleinen kommerziellen Anwendung hatte sich der Heimkomputer noch nicht recht durchsetzen können. Zwar gab es einigen Bedarf und auch hier eine recht kräftige Expansion, gleichzeitig aber auch ein Verwirrung zwischen den Verschiedenen Systemen: Es war zum Beispiel für den durchschnittlichen Anwender unmöglich, die Tastatur des einen Herstellers an den Rechner des anderen Herstellers anzuschließen.
Erst allmählich begannen sich kompatible Betriebssysteme durchzusetzen. Der bestehende Markt war regelrecht so weitgefechert, dass es für die Computerhersteller zu einem muß wurde, ihre Marktanteile zu Gunsten der Computerkompartibilität aufzugeben bzw. umzustrukturieren.
Die zeit der Großen Firmen
Diese Situation nutzte die International Business Machines corporation, kurz IBM, für sich aus und wurde zu einem führenden amerikanischen Hersteller in der Computersystemtechnologie. Der IBM-Konzern war schon zu damaliger Zeit einer der weltweit größten Hersteller von Großcomputern und Rechnern der mittleren Datentechnik. 1981 angekündigt und 1982 auf den Markt gebracht, schaffte IBM den Durchbruch in der Computertechnik mit ihrem PC (Personal Computer - "persönlichen Computer").
Im August 1981 stellten sie ihren ersten PC der Fachwelt zur Präsentation vor. Er arbeitete mit dem 8088-Chip von Intel mit einer Taktfrequenz von 4,77 MHz. Nach außen arbeitete er mit einer Datenbreite von 8 Bit, intern mit 16 Bit.
Durch das erfolgsversprechende IBM Computerkonzept und im Vertrauen auf den großen Namen und die Tatsache, daß IBM bei Großrechnern längst Standards gesetzt hatte, begann eine wachsende Anzahl anderer Hersteller IBM-kompartible Produkte anzubieten: Die MacIntosh-Serie von Apple sowie die Spitzenmodelle der Amiga-Serie von Commodore und die Atari-ST-Reihe sind hier als Beispiele anzuführen. Der bekannteste und verbreiteste Heimcomputer C64 wurde jedoch nicht vom IBM-Konzern entwickelt, sondern vom amerikanischen Hersteller für Computer CBM (Commodore Business Machines). Die kompatiblen PCs, Peripheriegeräte und Erweiterungshardware sowie Software sorgten für eine marktbeherrschende Konkurrenz.
Der Wettbewerb sorgte für rasch fallende Preise, aber auch für stets leistungsfähiger werdender Hard- und Software. Der Standard war geboren: Auch Intel setzt einen Marktbeherrschenden Quasi-Standard:
Mit seiner zwar wenig innovativen aber durchaus praktischen Speicherverwaltung auf dem RAM-Bereich, zwang Intel die Entwickler nachhaltig bis heute dazu, selbst bei X-facher RAM-Menge eine komplizierte Speicheransteuerung zu verwenden, da die Computer sonst untereinander nicht mehr kompatibel wären (d. h. die Software müsste für jeden Chip neu geschrieben werden).
Das kompatible Betriebssystem wird von der Firma Microsoft geliefert und heißt MS-DOS.
Durch die kompatiblen PC-Anwendungsprogramme verlor nun endlich die Masse der Anwender die furcht vor möglichen Fehlinvestitionen.
Ein erneuter Boom setzte bei den PCs ein.
Die 80er und 90er Jahre - gekennzeichnet durch immer neuere Entwicklungen
Nachdem das von den Militärs erfundene Arpanet in einen militärischen und in einen wissenschaftlichen (= öffentlichen ) Teil gegliedert wurde, bürgerte sich immer mehr für den öffentlichen Teil der Name Internet ein, das Internet war geboren. Das Datennetz entwickelte sich von nun an von einem rein wissenschaftliche genutzten Netz zum reinen Kommunikationsnetz. Das von Tim Barners-Lee um 1990 entwickelte World Wide Web ermöglichte neben dem Austausch von schriftlichen Dokumenten (E-mail) seit der Einführung auch multimediale Anwendungen und den Übergang zu On-line-Diensten.
Doch nicht nur das internationale Netzwerk entwickelte sich rapide und immer erfolgreicher.
Seit den 80er Jahren entwickelten die großen Computerfirmen ständig neue Rechner:
So stellt IBM schon den XT-PC (Extended technology) mit einer 10 MB Festplatte vor und um 1984 stellt das Unternehmen den AT-PC (Advanced Technology) vor, der mit einem 80286-Chip von Intel und einer 20 MB Festplatte ausgerüstet ist.
Mit dem 386er stellt Intel 1985 einen Prozessor vor, der sowohl intern als auch extern mit 32 Bit arbeitet Und schon vier Jahre später trumpft das Unternehmen mit einer Weiterentwicklung des 386ers, mit dem 80486 auf. Durch weitere Optimierungen am Prozessoraufbau hat es Intel schließlich geschafft ein 486er mit 25 MHz die doppelte Leistung eines 386ers mit 33 MHz abzuverlangen.
In den Anwendungsprogrammen erfindet Microsoft mit Windows ein Programm, welchen auf der "Copy right ã" Basis geschützt ist. Die Erfindung von dem Schreibprogramm und seinem urheberrechtlichen Schutz ebnete eine phänomenalen Erfolgsweg für das Unternehmen.
In der folgenden Zeit bringt Microsoft DOS 5.0 heraus und 1992 Windows 3.
1. Mit der Software gelingt Microsoft der Durchbruch und der Unternehmensbesitzer Bill Gates ebnet damit den Weg für seine Laufbahn als Milliardär. Als nun Microsoft mit Windows NT ein zu den meisten anderen inkompatibles 32-Bit Programm einführt, verstärkt sich die marktbeherrschende Dominanz des Unternehmens. Für damalige Verhältnisse brauchte das Programm enorm viel Rechenleistung und Speicherkapazität (24 MB RAM). Daher wurde es zunächst auf den Server und Workstation-Markt begrenzt. 1995 Doch schon mit Microsofts 1995 entwickelten Windows 95, gab es den Übergang auf die 32-Bit Software.
Allerdings wurden weite Teile des Betriebssystems aus "Kompatibilitätsgründen" noch 16-bittig hergestellt, und Windows 95 wird dadurch zu einem totalem Verkaufserfolg. Das Internet hat mittlerweile etwa 50 Millionen Benutzer.
Die Entwicklung des Pentiums von Intel verbessert sich auch schon fast halbjährlich: Um 1993 noch mit 60 MHz ausgestattet steigert sich der Prozessor schon 1997 auf bis dahin faszinierende 233 MHz. Der Pentium wird der bis dahin am meisten verkaufte Prozessor. Doch der Intel Pentium, der bis 1999 eine Maximalfrequenz von 450 MHz hatte und marktführend war, bekommt zum erstenmal ernstzunehmende Konkurrenz vom AMD Prozessor K-6.
Die Einführung der Computerindustrie von Kupferbeschichteten Prozessoren ermöglichten einen weiteren Leistungsanstieg: der Pentium III UND AMD-K6 III und der AMD-K7 entstanden.
Auch Mircosoft brachte mit Windows 98 und dem aktuellen Windows 2000 neue Anwendungsprogramme hervor, die immer neuere Standards setzten und immer umfangreicher wurden. Doch auch andere Anwendungssoftware wird marktreif, wie Linux.
Das Jahr 2000 wird nicht nur ein neuer Jahrtausendanfang in der Menschheitsgeschichte, sondern auch ein Neuanfang in der Computersoftwaregeschichte, denn Microsoft versuchte vor Gericht seine Geschäftspraktiken zu rechtfertigen und verliert. Somit wird die Monopolstellung von Bill Gates Unternehmen Microsoft entscheidend geschwächt. Softwareprogramme anderer Hersteller haben dadurch die Möglichkeit sich besser zu etablieren.
Heute, im Jahr 2001 schlägt man die Zeitung auf und kann sich über die neusten Computer informieren und sie sich für erschwingliche Preise nach Hause holen: Die leistungstarken Pentium 4 Rechner mit 1,4 Gigahertz sind in Annoncen schon ab 1300 Euro zu haben und sind mit leistungsstarker und anwenderfreundlicher Software ausgestattet.
Fehler! Textmarke nicht definiert.
Die Zukunft des Computers
Verbunden mit der Computerentwicklung entstanden erbitterte Konkurrenzkämpfe zwischen den Herstellern. Durch die schnelle Produktentwicklung, die durch innovative Ideen forciert wurde, gab es ein breites Angebot von Computerzubehör. Die einzelnen Unternehmen verstärkten durch verbraucherorientierte Kommunikationspolitik ihren Absatz von Computerprodukten.
Durch die fortschreitende Entwicklung wollte man die vorhandenen Hard- und Softwaretechnologien verbessern zum anderen, durch weitere Neuentwicklungen die bisherigen Grenzen überschreiten.
Mit Lichtrechnern wird ebenso auf der Hardware-Seite experimentiert wie mit neuartigen Gallium-Arsenid-Chips.
Biologische Strukturen wurden erprobt sowie mit Rechnern experimentiert, die mit vielen parallel arbeitenden Prozessoren arbeiten (Transputer). So war es erforderlich das die Von-Neumann-Struktur überholt werden mußte und neue Softwarekonzepte entwickelt werden mußten.
Und so kann man insgesamt nur sagen: Es ist eigentlich viel zu früh, um eine Geschichte des Computers zu schreiben.
Die Geschichte müßte nämlich monatlich ergänzt werden, denn wenn man die Zukunftspläne von Intel kennt, kann man nur staunen:
In den nächsten Jahren möchte die Firma einen Computer präsentieren der etwa 350 Millionen Transistoren besitzt (der Pentium II hat etwa 7,5 Millionen). Weiterhin plant das unternehmen einen Prozessor zu entwickeln der mit 10 GHz taktet und über eine Millionen Transitoren verfügt..
Es werden aber noch viele technische Entwicklungen nötig sein, um dieses Unternehmen realisieren zu können, denn nach den heutigen technischen Standards ist diese Vorstellung noch völlig utopisch... Die Halbleiterstrukturen müßten unter 0,07 Mikron liegen. Außerdem sind 2 GHZ physikalisch noch nicht möglich. Die Computerindustrie muß daher noch sehr viel Geld in die Grundlagenforschung stecken, um ihre hochfliegenden Pläne zu realisieren!
über die Zukunft des Computers spekuliert und spekuliert.
Der Computer der Zukunft wird auf alle Fälle kleiner, leistungsstärker und billiger. In der Zukunft werden wir ihn durch Sprache oder durch reine Gedanken steuern können. Aber sie werden nicht nur in solchen Geräten zu finden sein, wie wir sie heute als Computer kennen, sondern sie werden in Haushaltsgeräten und allen anderen Arten von Maschinen stecken, sie werden in die Kleidung, ins Auto und ins Haus integriert sein ... und vor allem werden sie alle miteinander vernetzt sein.
Alles nur, um die Wünsche des Besitzers "von den Augen ablesen" und erfüllen zu können...
Der Computer wird uns eindeutig das Leben erleichtern ob wohl dadurch verschiedenste Gefahren entstehen werden, doch diese sind nicht das Thema meiner Belegarbeit.
Anhang
Abakus: besteht aus mehreren Stangen, die sich in einem rechteckigen Rahmen befinden. Auf den Stangen sind fünf bis sieben Kugeln aufgereiht.
Durch eine Querleiste werden die Stangen in zwei Bereiche aufgeteilt. Durch vordefinierte Regeln, erfolgen Berechnungen durch Verschiebungen der Kugeln. Die Ergebnisablesung erfolgt anhand der positionierten Kugeln.
Bit: Ist eine binäre Ziffer, die kleinste Einheit die von einem Computer verarbeitet werden kann. Jedes Bit kann nur zwei Zustände annehmen "0" od. "1", magnetisiert oder nicht magnetisiert.
Acht Bit ergeben zusammen ein Byte.
Daten: In Zeichen und/oder Zeichenkombination verschlüsselte Information zum Zweck der Speicherung und/oder Weiterverarbeitung auf elektronischen Rechenanlagen, wie dem Computer.
Chip: Ein Computerchip ist ein äußerst kleines, zumeist, Siliziumplätchen mit einer Größe kleiner als 0,6 cm C 0,6 cm. Es bildet ein in sich abgeschlossenes elektronisches Bauteil, auf dessen Oberfläche eine Vielzahl von Transistoren, Widerständen und Kondensatoren aufgebracht ist. Die verschiedensten Bauelemente sind zu einem Funktionsblock zusammengefaßt.
Mikroprozessor: In einem M.
sind grundlegende Funktionseinheiten zusammengefaßt: Rechenwerk, Steuerwerk, ...
Speicher: Ist das Grundsätzliche Medium welches der Aufbewahrung von Daten in computerlesbarer Form dient.
RAM: Haupt- od. Arbeitspeicher
Rechenbrett: das über 3000 Jahre alte Rechenbrett wurde von chinesischen Gelehrten entwickelt.
Die in spalten eingeteilte ebene Platte wurde mit 15 Zentimeter langen Stäbchen belegt, diese wurden dann beim Rechnen verschiedenartig positioniert.
Relais: Durch einen schwachen Strom ausgelöste Einrichtung zum Ein- od. Ausschalten deines stärkeren Stromes.
Literaturverzeichnis:
Otto, Dr. Iris Anna: Dr. Ottes neues Computer Lexikon, 1988 Falken Verlag GmbH
Pietzsch, Sieghart & Hülm Christa: Vom Kerbholz zum Computer, Kinderbuchverlag
Berlin
Fachbücher:
Fremdwörterbuch: Verlag Enzyklopädie Leipzig
Duden: Das neue Lexikon
Internet:
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com