Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien

  Der arbeitsspeicher:

Einleitung: Der Computer - Faszination der Mikroelektronik!? 2 Die Geschichte des Computers: 2 Die Technik des Computers: 3 Der Arbeitsspeicher: 4 Das Bussystem: 4 Das Gehirn - Der Prozessor: 5 Grafikkarten: 5 Schnittstellen: 6 Externe Speicher: 6 Eingabemedien - für die Kommunikation von außen: 7 Das Betriebssystem : 8 Anwendungsbereiche von Computern 8 Internet - Wie es aufgebaut wurde und wie es funktioniert : 9 Einleitung: 9 Geschichte des Internets: 9 Der technische Aufbau dieses “Wundernetzes”: 10 Andere Netzwerktypen: 10 Anhang: 11 Quellenverzeichnis: 11 Einleitung: Der Computer - Faszination der Mikroelektronik!? Für viele ein Buch mit tausend Siegeln, für andere eher uninteressant und nicht mehr als der Jobkiller der Zukunft. Die Möglichkeiten dieses Wunderkastens, wie auch die Ansprüche an ihn, werden immer größer. Die Arbeitsplätze im Bereich der Informatik oder Mikroelektronik sind zwar im Moment gefragt, aber vielleicht auch schnell wieder verschwunden. In kaum einem Haushalt fehlt er mehr und nimmt dabei viel Zeit ihrer Besitzer in Anspruch. Dieses Referat hat sich zum Ziel gesetzt, über seine Entstehung und Funktionsweise zu informieren, wobei der Schwerpunkt in der faszinierenden Technik dieses Gerätes liegt. Außerdem soll es zeigen, welche Vielfältigkeit er besitzt.

Ob man nun mit ihm schreibt, spielt, sich Filme ansieht oder Gespräche im Internet via Tastatur führt: eigentlich Faszination pur. Aber sicherlich bleibt es jedem selbst überlassen, wie man mit diesem Thema umgeht und wie weit man sich hineinknien möchte. Die Geschichte des Computers: Die erste “Rechenmaschine” war der Abacus. Dieser Apparat, bestehend aus Perlen, die an Schnüren oder Drähten aufgereiht sind, wurde im Jahre 1100 v. Chr. entwickelt.

Am Aufbau dieses ersten “Rechners” kann man noch deutlich die Verbindung zur Finger- Zähl- Technik erkennen, er zeigt aber schon spezielle Stellen für den Übertrag. Nach dem Abacus kam lange Zeit erst einmal nichts. Die nächsten Entwicklungen in der Computergeschichte fanden im 17. Jahrhundert statt. Es waren hauptsächlich Mathematiker, die sich um neue Entwicklungen im Rechenwesen bemühten. Von Wilhelm Schickard, Blaise Pascal und Gottfried Wilhelm Leibniz wurden die ersten mechanischen Rechenmaschinen gebaut.

Diese ersten Rechner bestanden, wie Tischrechenmaschinen und Registrierkassen, hauptsächlich aus Zählzahnrädern, die man immerhin schon für Subtraktionen und Additionen von sechsstelligen Zahlen verwenden konnte. Im Jahre 1890 fand ein entscheidender Durchbruch statt. Bei einer US-Amerikanischen Volkszählung setzte der Deutsch- Amerikaner Hermann Hollerith erstmals die Lochkarte mit entsprechendem Lesegerät ein. Zehn Jahre zuvor hatten 500 Mitarbeiter 7 Jahre gebraucht, um die Informationen auszuwerten. Mit der Lochkartentechnik gelang dies mit 50 Helfern in 4 Wochen. Hollerith gründete eine Firma und nach Fusion mit anderen Unternehmen entstand die International Business Machines Corporation, die heute unter der Abkürzung IBM bekannt ist.

Die ersten elektromechanischen Rechner wurden Anfang der 40er Jahre von dem Deutschen Konrad Zuse und dem Amerikaner A. Aiken entwickelt. Bei diesen Rechnern handelte es sich um sogenannte Relaisrechner mit einer Lochstreifen Ein- und Ausgabe. Diese Maschine konnte bereits 10 Operationen pro Sekunde ausführen. Der von Aiken entwickelte MARK1 war allerdings 2.5m lang, 15m breit und daher konnte von mobilem Einsatz keine Rede sein.

Die Relaisrechner sind sozusagen die 1. Generation der elektronischen Rechner. Die Entwicklung der Datenverarbeitung schritt 1946 in der 2. Generation mit dem Bau des Computers ENIAC voran. Er war mit Elektronenröhren bestückt und da diese beheizt werden mußten, war der Stromverbrauch enorm hoch. Hinzu kam, daß Röhren oft aussetzten und deshalb mit Ausfallzeiten von bis zu 50% zu rechnen war.

Immerhin war der ENIAC mehr als 100 mal schneller als der MARK1, er konnte über 1000 Rechenoperationen in der Sekunde ausführen. Er war allerdings 30 Tonnen schwer und benötigte einen Platz von 140m². Im Jahre 1957 setzte die Entwicklung der 3. Generation mit der Erfindung des Halbleitertransistors ein. Ein Transistor ist sehr viel kleiner als eine vergleichbare Röhre und verbraucht weitaus weniger Energie. Diese Rechner konnten nun schon ca.

10.000 Operationen pro Sekunde ausführen. Durch den Fortschritt in der Weltraumforschung konnten im Jahre 1964 eine Vielzahl von Widerständen, Dioden und Transistoren, später auch kleine Kondensatoren in einem Bauteil, dem Integrierten Schaltkreis , zusammengefaßt werden. Die 4. Generation erreichte eine Rechengeschwindigkeit von 1 Million Operationen pro Sekunde. Bei modernen Rechnern sind 10 Millionen Operationen kein Problem mehr.


Diese erstaunlichen Geschwindigkeiten werden durch die zunehmende Miniaturisierung erreicht. Zu Beginn der 60er Jahre wurden z.B. auf einer Fläche von ca. 3mm² etwa 100 Transistoren plaziert. Heute sind es in den sogenannten Mikrochips im Hochintegrierten Schaltkreis (VLSI: Very large scale integration) auf 30mm² über eine Million Transistoren.

Mit dieser 5. Generation gelang abermals eine Steigerung der Geschwindigkeit auf das 10-fache. Zur Zeit arbeitet man eifrig an der 6. Entwicklungsstufe der Computer. Sie sollen noch kleiner und noch schneller werden. Die Wärmeentwicklung stellt hierbei das Hauptproblem dar.

Normale Ventilatoren, wie sie heutzutage eingesetzt werden, reichen nicht mehr zur Kühlung aus. Zur Debatte stehen u.a. rein optische Systeme, die mit Lichtstrahlen arbeiten, und supraleitende Computer , die bei Temperaturen um -200 bis -270°C arbeiten. Man kann sich die enorme Entwicklung der Rechengeschwindigkeit folgendermaßen vorstellen: Ein Auto, daß zur Zeit der Relaisrechner eine Höchstgeschwindigkeit von 1 km/h hatte, besäße heute die Geschwindigkeit von 1000 km/h. Das entspräche einer Geschwindigkeitssteigerung von 1000%!   Zusammenfassung (Op.

=Operationen): - Abacus ca. 1100v. Chr.   - Mechanische Rechner 17. Jahrhundert   - Lochkartentechnik 1890 (Hollerith)   - Elektromechanische Rechner ab 1941 1. Generation, Relaisrechner Rechengeschw.

10 Op./Sek.   - Elektronische Datenverarbeitung 2. Generation, Röhrenaufbau ab 1946 Rechengeschw. 1.000 Op.

/Sek. 3. Generation, Transistorenaufbau ab 1957 Rechengeschw. 10.000 Op./Sek.

4. Generation, Integrierter Schaltkreis ab 1964 Rechengeschw. 1 Mio. Op./Sek. 5.

Generation, Hochintegrierter Schaltkreis ab 1975 Rechengeschw. 10 Mio. Op./Sek.   Die Technik des Computers: Wie zuvor schon erwähnt, wird der Technik der größte Teil des Referates gewidmet. Wir haben versucht, diesen Teil klar und verständlich zu strukturieren.

Die Aneinanderreihung der folgenden Komponenten stellt keine Hierarchie der Wichtigkeit da. Wir haben die Reihenfolge so gewählt, daß man Funktionsweisen sicher verstehen kann. Der Arbeitsspeicher: Es gibt zwei verschiedene Arten von Arbeitsspeichern. Der nicht - flüchtige Speicher (ROM) und der flüchtige Speicher (RAM).   Der ROM (Read Only Memory): Im nicht flüchtigen Speicher sind alle Programmteile enthalten, die zur Organisation und Inbetriebnahme des Computers benötigt werden. Dieser Teil wird möglichst klein gehalten, um Kompatibilitätsprobleme mit verschiedenen , vor allem neueren, Betriebssystemen zu vermeiden.

Der Inhalt dieser ROM - Chips bleibt auch beim Ausschalten des Rechners noch erhalten. Von untergeordneter Bedeutung, aber dennoch erwähnenswert, sind noch andere Arten des ROMs: PROM: Programable ROM. Bei diesem programmierbaren ROM werden Daten mit einem speziellen Programmiergerät gespeichert. EPROM: Erasable Programmable ROM. Mit Hilfe ultravioletten Lichtes oder elektrischer Signale kann dieser Baustein gelöscht und einige Male wieder beschrieben werden. EEPROM: Electrical Erasable Programmable ROM.

Dieser Chip kann durch ein spezielles Programm elektronisch gelöscht und wiederholt beschrieben werden.   Der RAM(Random Access Memory): In diesem Teil des internen Speichers, auch flüchtiger Speicher genannt, werden Programmteile vom externen Speicher gelesen. Diese werden dem Prozessor dann zur Verarbeitung bereitgestellt. Zu wenig RAM kann den PC deutlich in seiner Geschwindigkeit bremsen oder sogar verhindern, daß ein Programm gestartet wird. Dieser Speicher kann gelesen, beschrieben und gelöscht werden. Jedoch nur, solange er mit Strom versorgt wird.

Wird der Rechner ausgeschaltet, gehen die darin enthaltenen Daten verloren. Früher wurde der RAM, aus einzelnen Chips bestehend, in die Systemplatine eingesteckt. Heute verwendet man einen der zwei folgenden Typen, die sich nur in der Art ihrer Kontakte unterscheiden: SIMMs und SIPs. Die Kontakte auf den SIMMs sind flächenartig auf dem Keramikträger integriert. Die SIPs stellen den Kontakt durch kleine Füßchen her. Geschwindigkeitsunterschiede sind dabei nicht auszumachen.

Das Bussystem: Ein wichtiges Merkmal des PCs ist seine modulare Struktur. Das heißt, daß er sich aus klar abgegrenzten Modulen zusammensetzt (z.B. Prozessoren, Arbeitsspeicher, usw.). Die notwendige Verbindung zwischen diesen Einheiten übernehmen “Busse”.

Im technischen Sinne sind dies überwiegend elektrische Leitungen. Unter dem Oberbegriff “Systembus” stehen der “Datenbus”, der “Adreßbus” und die “Steuerleitung”. Der Datenbus hat die Aufgabe, Daten von einem Bereich des Computers in einen anderen zu transportieren. Auf dem Adreßbus werden die Adressen übermittelt, die zur Befehlsausführung gebraucht werden. Die Steuerleitungen organisieren den Datentransport. Außerdem senden sie sogenannte Steuersignale aus, die Bescheid geben, welche Komponenten die Kontrolle über eine Aufgabe übernehmen sollen.

Normalerweise kommuniziert der Prozessor mit dem Hauptspeicher, mit dem Cache und der Schnittstelle für den Erweiterungsbus über einen sehr schnellen Prozessorbus. Peripheriegeräte werden jedoch durch den Erweiterungsbus angeschlossen, der vom internen Systembus getrennt ist. Das Gehirn - Der Prozessor: Der Prozessor (auch CPU) ist wohl schlechthin das bedeutendste Teil des Computers und vergleichbar mit dem Gehirn des Menschen. Er bestimmt überwiegend die Leistung des PCs und alle anderen Bauteile sollten darauf abgestimmt sein. Um diesen Chip annähernd erklären zu können, teilen wir ihn in Steuer- und Rechenwerk auf. Das Steuerwerk hat die Aufgabe, das laufende Programm zu koordinieren.

Es bekommt Befehle aus dem RAM, interpretiert diese und steuert dann die Befehlsausführung intern im Prozessor. Das Rechenwerk führt Operationen folgender Art aus: Einfache Rechnungen, wie Addition, Subtraktion, usw. also arithmetische Funktionen. Logische Rechnungen, wie z.B. UND- oder NICHT- Operationen.

Man nennt das Rechenwerk auch Arithmetik- Logik- Einheit. Kurzgefaßt, arbeitet der Prozessor also aufgrund von Befehlen, die fest gespeichert sind und führt alle Rechenoperationen und logischen Entscheidungen aus. Nach den gespeicherten Befehlen werden die Daten aus dem Arbeitsspeicher verarbeitet. Wie der Prozessor auf diese Art und Weise arbeitet, zeigt der Quelltext eines kleinen Beispielprogrammes recht deutlich:   #include <iostream.h> //Bilbliotheksdatei   void main(void) //Hauptfunktion { for (int i=0; i<=20; i+=1) //for ist eine Schleife, die hierbei die Variable i bei jedem { //Durchgang um eins aufzählt(..

.;i+=1). Sie tut dies //solange, bis i gleich zwanzig ist (...;i<=20;.

..). cout<<i <<" "; //cout ist eine Funktion, die etwas auf den Bildschirm //schreibt. Bei jedem Schleifendurchgang wird der Wert von //i angezeigt. } }   Geschrieben in Borland C++; Version 3.

1.   0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 >>Ausgabe des Programms Grafikkarten: Grafikkarten werden gebraucht, um Zeichen oder Bilder auf dem Bildschirm darzustellen. Bei alten PCs waren Grafikkarten meist noch auf dem Mainboard (Systemplatine) implantiert gewesen. Heutzutage werden Grafikkarten in einen Steckplatz des Mainboards gesteckt und dadurch mit dem Bussystem des PCs verbunden. Im wesentlichen bestimmt die Auflösung und die Anzahl der darstellbaren Farben auf dem Bildschirm die Güte der Karte. Dafür ist die Größe des Arbeitsspeichers der Grafikkarte wiederum wichtig.

Für die Geschwindigkeit hingegen ist bei normalen Karten die System CPU zuständig. Anders ist dies bei sogenannten “Accelerator” (Beschleuniger-) Karten. Diese Karten haben einen eigenen Prozessor und übernehmen damit den gesamten Grafikaufbau. Der Vorteil liegt auf der Hand: Erstens wird die System-CPU entlastet und zweitens erledigt sie ihre Aufgabe durch den Prozessor noch schneller als andere Karten. Schnittstellen: Unter Schnittstellen (Fachwort: Interfaces) versteht man alle Übergangs- und Verbindungsteile mit denen selbständig arbeitende Funktionseinheiten eines PCs miteinander verbunden werden können. Bei Schnittstellen zwischen Prozessor und Arbeitsspeicher handelt es sich z.

B. um interne Schnittstellen. Wird z.B. die Zentraleinheit mit der Tastatur verbunden, nennt man dies eine hardwareseitige Schnittstelle. Wenn Programme oder Programmteile miteinander verbunden werden, handelt es sich um softwareseitige Schnittstellen.

Aber zurück zu den Hardware Interfaces: Sie regeln einerseits den Datenverkehr zwischen den einzelnen Teilen, zum anderen können über sie auch mehrere PCs miteinander verbunden werden. Hardwareseitige Schnittstellen werden noch einmal in “parallele” und “serielle” Schnittstellen unterteilt. ”Parallel” bedeutet, daß die einzelnen Bits gleichzeitig übertragen werden. “Seriell” bedeutet hingegen, daß die Bits eines Datenwortes hintereinander übertragen werden. Der Vorteil bei ersterem Prinzip ist der, daß acht Bits auf einmal natürlich schneller sind, als hintereinander geschickte Bits. Das Problematische daran ist, daß Informationen nur in eine Richtung geschickt werden können, z.

B. nur zum Drucker. Die serielle Schnittstelle hingegen kann in beide Richtungen Informationen senden(Modem z.B.), ist aber, bedingt durch ihre Konstruktion, langsamer. Externe Speicher:Mit externen Speichern sind Massenspeicher gemeint: Disketten, Festplatten oder Magnetbänder gehören z.

B. dazu. Fragt man sich, wozu man Massenspeichermedien überhaupt braucht, so liegt die Antwort schon im Namen. Interne Speicher reichen einfach nicht aus, um das Betriebssystem, große komplexe Programme oder anfallende Daten zu speichern.   Geöffnetes Festplattenlaufwerk    Ihre Aufgaben liegen also in der Erweiterung des Speichers und sind damit für Speicherung und Sicherung von Programmen und Daten verantwortlich. Ein solcher Massenspeicher ist aus folgenden Hauptteilen zusammengesetzt: Der Datenträger selbst, auf dem die Daten und Programme gespeichert sind.

Dem Schreib - Lese Gerät, das die Daten liest und speichert (bei der Festplatte z.B. der Schreib - Lese Kopf). Einem Controller, der verantwortlich für die Organisation ist. Dieser ist ein auf einer Platine untergebrachter ROM Baustein. Heutzutage übliche Massenspeichermedien sind : Festplatten Diskettenlaufwerke CD-ROM-Laufwerke (auch für Datensicherung) DAT - Laufwerke (Digital Audio Tape -- für Langzeitsicherung geeignet) Streamer allgemein (Bandgeräte -- für Sicherung in großen Mengen) Wechselkassetten(Cartridge -- für Archivierung in kleineren Ausmaßen und auf kurze Zeit).

   Internes und externes CD-ROM-Laufwerk    Eingabemedien - für die Kommunikation von außen: Das wichtigste Medium zur Dateneingabe ist die Tastatur. Man steuert mit ihr die Software und gibt Daten in den Computer ein. Abgesehen von den herkömmlichen Tastaturen gibt es noch Folientastaturen. Sie haben keine richtigen Tasten sondern Kontaktpunkte unter einer Folie, die durch einen Aufdruck markiert sind. Von einer solchen Art eines Keyboards ist jedoch abzuraten, da es häufig Kontaktprobleme gibt und daher die Bedienung eher zu wünschen übrig läßt.   Tastatur und Maus   Mehr ein kleiner Helfer bei der Arbeit, als ein Eingabegerät, ist die Maus.

Fast unverzichtbar ist diese bei Betriebssystemen mit GUIs (Graphical User Interface = grafische Benutzeroberfläche), um vorgegebene Befehle “anklicken” (aktivieren) zu können. Die Arbeit mit einer Maus ist durchaus komfortabler, aber ob man damit schneller arbeiten kann, sei, anwenderbedingt, dahingestellt. Jedenfalls fehlt die Maus bei kaum einem Computer mehr und ist beim Neukauf generell dabei. Weiterhin gibt es als Peripheriegerät den Scanner. Man gebraucht ihn, um vorhandene Daten, z.B.

aus einer Zeitschrift, von einem Blatt etc., in den PC einlesen zu können, um diese dann zu bearbeiten oder zu vervielfältigen.      Ein Handscanner     Das Betriebssystem :Das Betriebssystem kann man sich als eine Art “Manager” vorstellen. Es hat die Aufgabe, die Vorgänge im Inneren des PCs zu organisieren und dafür zu sorgen, daß alles korrekt läuft. Das Betriebssystem(BS) wird schon beim Booten (Starten) des PCs geladen. Die sieben folgenden Hauptaufgaben hat das BS zu bewältigen: Es definiert die Voreinstellung der Hardware nach dem Einschalten.

Es steuert und prüft die Kommunikation zwischen den Geräten. Es sucht, sendet und liest Daten von externen Speichern. Es überprüft freie Plätze im internen wie auch im externen Speicher. Es organisiert die Speicherung der Daten auf den Datenträgern. Es steuert die Programmabläufe. Es gibt dem PC erst die Möglichkeit, Anwenderprogramme aufzurufen und mit ihnen zu arbeiten.

  Ganz allgemein kann man also sagen: “Das Betriebssystem ist das Bindeglied zwischen Technik und Anwender!”. Anwendungsbereiche von Computern Bei der Einteilung in Anwendungsgebiete unterscheidet man: -Universalrechner -Bürocomputer -Mikrocomputer -Homecomputer -Prozeßrechner Universalrechner sind die Rechner mit dem vielseitigsten Einsatzbereich und dem höchsten Datenvolumen. Man kann mit diesen Maschinen beispielsweise Lohn- und Gehaltsabrechnungen durchführen und technische Zeichnungen (CAD- Computer Aided Design) anfertigen. Man spricht hier von der oberen Datentechnik. Diese unterschiedlichen Arbeiten können natürlich nicht mit ein und demselben Programm durchgeführt werden. Deshalb ist der Mehrprogrammbetrieb für Universalrechner typisch.

  Durch die immer weiter steigende Leistungsfähigkeit der Mikrocomputer (auch PCs) fällt die Abgrenzung zwischen ihnen und den Bürocomputern schwer. Bürocomputer werden als mittlere Datentechnik bezeichnet, da sie eine Zwischenstellung zwischen Universalrechnern und einfachen Abrechnungsmaschinen (untere Datentechnik) einnehmen. Sie können problemlos in jedem Büro installiert werden. Dies gilt auch für Mikrocomputer, die durch ihre geringen Abmessungen besonders mobil einsetzbar sind. Sie finden Anwendung in Schulen, bei Rechtsanwälten, Ärzten, Steuerberatern etc.   Homecomputer sind längst keine Spielzeuge mehr.

Sie sind Mikrocomputern, meist im Grafik- und Tonbereich, häufig überlegen. Aber auch im eigentlichen Bereich der Homecomputer breiten sich die PCs immer mehr aus. Vor allen Dingen in den Bereichen der Grafik und der Tonerzeugung wurden die PCs deutlich verbessert.   Prozeßrechner werden überwiegend zur Überwachung chemischer Prozesse und für Auswertungen medizinischer Meßdaten benutzt. Außerdem kommen sie bei der Steuerung von Ampelanlagen, Flug- und Raumfahrzeugen zum Einsatz. Diese Rechner arbeiten meist analog.

Um diese Aufgaben erfüllen zu können, müssen sie im Realzeitbetrieb arbeiten, d.h., sie bleiben ständig in Betrieb.   Internet - Wie es aufgebaut wurde und wie es funktioniert : Einleitung: Das Internet ist sicherlich kein wesentlicher Bestandteil eines Computers. Dennoch ist es ein Meilenstein in der Evolution seiner Geschichte. Dieses Netz von Computern ist das größte der Welt, welches sich in den letzten Jahren dermaßen durchsetzte, daß es mittlerweile mehr als 40 Millionen Teilnehmer hat.

Der Trendbegriff “Datenautobahn” beschreibt sehr schön, daß Informationen in rasender Geschwindigkeit “verschickt” werden können. Auf diese Weise wird daraus ein großes lebendes Etwas mit erstaunlichen Fähigkeiten, wie z. B. der Versendung von elektronischer Post (E-Mail), der Live - Übertragung einer Operation, das Hören von Musik und einer Unmenge anderer Dienste. Es gibt noch andere Netzwerke, die aber nichts mit dem Internet zu tun haben, sondern ihren eigenen Verbund auf die Beine stellten. Die beiden wichtigsten Alternativen werden unten noch beschrieben.

  Geschichte des Internets: 1969 konstruierte das amerikanische Verteidigungsministerium ein Computernetz mit dem Namen ARPANET (Advanced Research Projects Agency-NET), das 4 Computer miteinander verband. 1972 wurde es öffentlich präsentiert, und viele Universitäten und Forschungseinrichtungen schlossen sich an das Netz an. Eine zweite Generation dieser Netzwerksoftware, bestehend aus einer ganzen Familie von Protokollen, wurde bis 1982 programmiert. Zwei seiner Hauptelemente, das Transmission Control Protokoll (TCP) und das Internet Protokoll (IP), wurden zu einer "pars-pro-toto" Bezeichnung für die gesamte Protokollfamilie. Dabei wurde großer Wert darauf gelegt, daß TCP/IP von verschiedenen Rechnertypen "verstanden" wird. Alle Spezifikationen für TCP/IP und darauf aufbauende Dienste sind in allgemein und frei zugänglichen Dokumenten beschrieben.

Sie werden als RFCs (Request For Comment) bezeichnet und sind im Internet auffindbar. Wegen dieser offenen Architektur können Programmierer sehr leicht weitere Netzwerk - Applikationen entwickeln. Diese Eigenschaft hat sich in einer Vielzahl von auf TCP/IP aufbauenden Public Domain Programmen niedergeschlagen. TCP/IP verbreitete sich äußerst rasch. Vor allem wissenschaftliche Einrichtungen integrierten es als wesentlichen Bestandteil von Rechner - zu - Rechner - Kommunikationen, wobei man heute dazu übergegangen ist, das Netzwerk von Computern (heute bereits über 12,8 Millionen), die gemeinsam TCP/IP als Protokollfolge benutzen, Internet zu nennen. Obwohl einzelne Organisationen bestimmte Aufgaben für das gesamte Internet erfüllen, gibt es doch keine Organisation, die für das Internet zuständig und verantwortlich ist.

Die rasante Entwicklung des Internet basiert auf den Inputs der Betreiber von Teilnetzen und einzelner Benutzer. 1993 wurde das heutzutage wohl bekannteste Netz, das World Wide Web am Cern-Institut in der Schweiz eigentlich nur nebenbei entwickelt. Durch eine Firewall (Verbindungssperre zwischen hausinternen Netzwerken(Intranet) und dem Internet) geschützt, schmachtete der ansatzweise multimediale Dienst mit seinem Hypertext Transfer Protokoll (HTTP) bis zum April 1993 im Institut. Die Idee, es eigentlich auch im Internet zwischen ausgewählten Rechnern einzusetzen, kam so gut an, daß man kurzerhand einen neuen Dienst daraus machte. WWW zählt 1996 - 3 Jahre nach dessen Freigabe - zum erfolgreichsten Internet - Dienst der Welt. Die Zuwachsraten waren in Amerika in den ersten 2 Jahren so beträchtlich, daß es sich heute fast kein Pizzabäcker mehr leisten kann, nicht auch einen Bereich auf einem WWW - Server sein Eigen nennen zu können.

  Der technische Aufbau dieses “Wundernetzes”: “Internet” ist der Name für eine Gruppe weltweit verteilter Informations- und Kommunikationssysteme. Es ist ein Netz von Rechnern, die nach einem bestimmten Protokoll, nämlich dem Internet - Protokoll (IP) miteinander kommunizieren. Ein Protokoll besteht aus einer Reihe von Regeln, die festlegen, wie Daten zwischen zwei Computern ausgetauscht und eventuell bei der Übertragung aufgetretene Fehlern beseitigt werden können. Das Internet ist kein einzelnes Netzwerk sondern ein riesiger Netzwerkverbund, der zum Beispiel aus dem SuraNet, dem NearNet und vielen anderen besteht. Die Verbindungen zwischen den einzelnen Systemen sind unterschiedlich. Die am häufigsten anzutreffenden Verbindungsarten sind Mietleitungen mit einer Übertragungsrate von 56 KB (darunter sind gemietete Telefonleitungen zu verstehen, auf denen Daten mit 56 Kilobit pro Sekunde übertragen werden) und T1 - Verbindungen, bei denen auf speziellen Telefonleitungen Geschwindigkeiten bis zu 1 Million Bits pro Sekunde erreicht werden.

Außerdem gibt es eine Reihe von Verbindungen, die mit T3 - Leistungen realisiert sind. Dabei werden auf Backbone - Leitungen (das sind sehr dicke Koaxialkabel) Übertragungsgeschwindigkeiten von bis zu 45 Millionen Bits pro Sekunde erzielt. Für den typischen Anwender sind diese Ziffern aber im Allgemeinen weniger interessant.   Andere Netzwerktypen:UUCP (UNIX to UNIX Copy Program):Das UUCP-Netzwerk ist ein loser Verbund aus Systemen, die untereinander mit Hilfe des gleichnamigen Protokolls Daten austauschen. Es basiert auf einem Kommunikationsmechanismus, der darin besteht, daß zwei Systeme in regelmäßigen Intervallen miteinander Verbindung aufnehmen und die Aufgaben abarbeiten, die das jeweils andere System bereithält. Historisch bedingt wurde das UUCP - Netzwerk vorwiegend mit UNIX-Hardware betrieben.

Inzwischen wurde das Protokoll aber zu einer Reihe von anderen Plattformen kompatibel gemacht, zu denen unter anderem auch DOS gehört. Neben einigen Grundfunktionen zur Datenübertragung (Zugriffsrechte vorausgesetzt) bietet UUCP hauptsächlich E-Mail und den Usenet - Nachrichtendienst. UUCP - Verbindungen werden normalerweise ebenfalls mit Hilfe von Modems hergestellt, die mit Geschwindigkeiten zwischen 1200 Baud und 38,4 KBaud betrieben werden.  BITNET ( Becaus It’s Time - Netzwerk):Das BITNET besteht aus einer Reihe von Systemen, die in einer Punkt - zu - Punkt - Struktur miteinander verbunden sind und die Informationen mit Hilfe des NJE - Protokolls austauschen. Durch Geschwindigkeitsvorteile ist dieses Netz in seiner Benutzung preiswerter. Seit die Kosten für Internet - Verbindungen jedoch drastisch gesunken sind, hat das BITNET an Bedeutung verloren.

Es wächst aber dennoch weiter.   Anhang: Quellenverzeichnis: Quelle des geschichtlichen Teils: “ Das Einsteigerseminar PC & EDV” von Thomas Wendland, Gerhard Franken 7. Auflage, erschienen 1995 in Deutschland   Quelle des technischen Teils: PC Wissen - leicht verständlich von Arthur Dickschus; Markt & Technik Buch- und Softwareverlag GmbH; erschienen 1994 in Haar (bei München)   Quellen des Internetteils: -Zen und die Kunst des Internet - Kursbuch für Informationssüchtige von Brendan P. Kehoe erschienen 1994         Diese Referat wurde in der 10. Klasse auf einer Gesamtschule mit gymnasialer Oberstufe geschrieben. Bewertung : 14 Punkte

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com