Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien

  Entwicklung des internets

Inhalt 1. Einleitung 2. Paketorientierte Datenübertragung 3. Das NSF-Netz 4. Das Internet als Netz der Netze 5. Die Kommerzialisierung des Internet 6.

Vom Internet zum Information-Highway 7. Informationsübertragung im Internet 7.1. Das Internet als Dateiübertragungssystem 7.2. Das Internet als Informationssystem 7.

3. Das Internet als Kommunikationssystem 8. Elektronische Post (Email) 9. Nachrichten & Diskussionsforen (Mailing-Listen) 9.1. Das Prinzip einer Mailing-Liste 10.

Fernzugriff auf Fremdsysteme (Telnet) 10.1. Das Prinzip von Telnet 11. Dateientransfer (ftp) 12. Anonymes ftp 13. Informationssuche (Archie) 14 Nachrichten & Diskussionsforen (News) 15.

Haupt und Nebengruppen des UseNets 15.1. Das Prinzip des UseNets 16. Informationssuche (WWW) 17. Beispiel eines Hypertextdokuments 18. Topologie des Internets 1.

Einleitung Waren die 80-er Jahre der Computergeschichte gekennzeichnet vom personal computing, so werden die 90-er Jahre als die Dekade des inter-personal computing in die Geschichte eingehen. Die raschen Veränderungen der Kommunikationsinfrastrukturen in den westlichen Industrieländern führte im März 1995 zu einem Weltwirtschaftsgipfel der G7-Staaten zur Informationsgesellschaft. Die fortschreitende Digitalisierung der Telefon- Radio-/Fernseh- und Datenübertragungsnetzwerke bringt diese bislang differenzierten Dienste immer mehr zusammen. Zukünftige Kommunikationsschnittstellen werden dieses Verschmelzen verschiedener Technologien ergonomisch umsetzen. Bereits heute sind Computer erhältlich, die mit Telefon-, Datenübertragungs-, Sound- und Video- und Fernsehfunktionalität ausgestattet sind. Die Geräte der Zukunft werden vermutlich wesentlich kleiner gestaltet sein, ähnlich dem Trend wie man es bei den Handy-Funktelefonen bemerken konnte.

Ihre Vorläufer sind die heutigen PDAs (Personal Digital Assistant). Von der US-Regierung unter Präsident Clinton geprägt und in das Regierungsprogramm aufgenommen wurde der Begriff des Information Superhighways. Seine Gestaltung ist ein Ziel der jetzigen US-Regierung. Das politisch flankierte Schlagwort des Information Superhighways widerspiegelt das Potential, welches sich hinter den neuen Medien verbirgt und ist zugleich eine Vision für zukünftige Märkte ganzer Industriezweige. Zu den gegenwärtig vieldiskutierten Anwendungen, die sich hinter dem Begriff des Information Superhighways verbergen zählen unter anderem: - Interaktives Fernsehen - Interaktive Spiele - Virtuelle Realität im Netz - Virtual Shopping - Videoconferencing - Dokument-Sharing Das Internet entstand vor ca. 20 Jahren als Nachfolger des ARPA-Netzes.

ARPA ist die Abkürzung für Advanced Research Projects Agency und ist der Vorläufer der heutigen DARPA, der Defense Advanced Research Projects Agency, einem militärischem Forschungs- und Geheimdienst der Vereinigten Staaten Amerikas. Somit war das ARPAnet zunächst nur ein Netz zu Forschungszwecken. Eine der damaligen Hauptziele aus militärischer Sicht war es, ein Netzwerk zu schaffen, welches weltweit verteilte Rechner miteinander verbindet und auch dann noch funktioniert, wenn Teile des Netzes ausgefallen sind - zum Beispiel als Folge eines Bombardements durch den Feind/Gegner. Nach dem ARPAnet Modell geschieht Kommunikation immer zwischen einem Quell- und einem Ziel-Computer. Es wird dem Modell nach ferner angenommen, dass das Netzwerk selbst unzuverlässig ist; jeder Teil des Netzes kann in jedem Moment ausfallen. Daher wurde das Design so ausgelegt, dass von den Computern nur die absolut notwendigste Information abgerufen werden muss.

Um eine Nachricht über das Netz zu verschicken muss der Computer die Daten lediglich in einen \"Umschlag\" - einem sogenannten Internet Protocol (IP) Paket - stecken und an den richtigen Ziel-Computer \"adressieren\". Entwicklung der Anzahl von Hosts und Usern im Internet 2.Paketorientierte Datenübertragung Für den Kommunikationsaufbau und den Kommunikationsablauf sind die miteinander kommunizierenden Computer und nicht das Netzwerk selbst verantwortlich. Dem Modell liegt die Philosophie zugrunde, dass jeder am Netz angeschlossene Rechner als Anlaufstelle mit jedem anderen Computer kommunizieren kann. Die ersten Rechner wurden damals im Jahre 1969 miteinander vernetzt. Acht Jahre später, 1977, waren im ARPAnet etwa 50 Sites angeschlossen.

Obwohl seit Ende der 60-er Jahre die Entwicklung von neuen Netzwerk-Architekturen und neuen Netzwerk-Standards erheblich fortgeschritten ist, ändert dies nichts an der Tatsache, dass die IP-Netzwerke gerade wegen der längeren Verfügbarkeit heute eine dominante Rolle am Markt spielen. IP-Software wurde schon bald - zumeist an Hochschulen - für jeden erdenklichen Computer-Typ entwickelt und war kostenlos nutzbar. Hierin besteht ein unübersehbarer Vorteil - können auf diese Art und Weise Computer unterschiedlichster Hersteller mit unterschiedlichen Betriebssystemen miteinander kommunizieren. US-Regierung und Universitäten - die anfänglichen Nutzer des IP-Netzes - begrüßten diese Herstellerunabhängigkeit und somit größere Flexibilität beim Hardwareeinkauf sehr. Etwa eine Dekade später kündigte sich ein neuer Standard zur Vernetzung von Computern an - Ethernet. Er ist Maßgeblich ein Ergebnis der Forschungs- und Entwicklungsaktivitäten des Xerox Palo Alto Research Center\'s.


Die Firmen DEC, Intel und Xerox legten daraufhin im Jahre 1980 als Ergebnis die Spezifikation dem Local Network Standards Commitee des IEEE vor. Diese Spezifikation wurde als \"Kommitee 802\" (IEEE 802) veröffentlicht und ist in sechs Unterkommitees organisiert. Neben diesem neuen Standard, der sich zur Schaffung und Etablierung von LANs (Local Area Network) eignete, tauchte in der Computer-Szene mit einmal ein neuer Computer-Typ auf - sogenannte Workstations. Sie waren zumeist mit dem Berkeley UNIX Betriebssystem ausgestattet, in welchem das IP-Netzwerkprotokoll enthalten war. Dies schuf ein neues Bedürfnis auf der Seite der Anwender: Man wollte nicht mehr einzig und allein Großrechner à la PDP 11 als Sites einsetzen; sondern ganze lokale Netze sollten den Anschluss an das ARPAnet nach dem Willen der Anwender bekommen. Ein offenkundiger Vorteil - konnte doch so, jeder am lokalen Netz angeschlossene Rechner in den Genuss des ARPAnets kommen.

Anders ausgedrückt: jeder könnte mit jedem kommunizieren. Es war daher nur ein logischer Schritt verschiedenster Organisationen, interne Netzwerke dem Kommunikations-Protokoll des ARPA-Netzes und seinen Verwandten anzupassen. 3.Das NSF-Netz Zu einem dieser neueren verwandten Netzwerke gehört das NSFNET, welches von der National Science Foundation (NSF) - einer Behörde der US-Regierung - unterhalten wird. Als die NSF Mitte der 80-er Jahre fünf Super-Computer-Centren errichtete, sollten diese miteinander vernetzt werden, um eine möglichst gute Ausnutzung der Ressourcen dieser Centren zu ermöglichen. Hierbei muss man beachten, das diese Centren zum damaligen Zeitpunkt an die technischen Grenzen im Bereich des Computing heranreichten und daher enorm kostenintensiv waren.

Undenkbar, dass einzelne Unternehmen sich eine derartig leistungsfähige Infrastruktur/Installation hätten leisten können - von Privatpersonen oder Hochschulen selbstverständlich ganz zu schweigen. Neben Kostengründen war es auch aus wissenschaftlichen Gründen wünschenswert, Clients den Zugriff auf diese Super-Computer-Centren zu ermöglichen. Was also hätte näher gelegen, als diesem Kommunikationsproblem durch die Benutzung des ARPA-Netzes beizukommen? Da scheinbar bürokratische Gründe gegen eine Anbindung an letzteres sprachen, entschloss sich die NSF, ein eigenes Netzwerk ins leben zu rufen, welches auf der vom ARPA-Netz schon bekannten IP-Technologie aufbaute. Mithin wurden die Centren der NSF viá Telefonleitung bei einer Transferrate von 56 Kbps miteinander vernetzt. Aus heutiger Sicht eine eher zu belächelnde Rate, entsprach dies Mitte der 80-er Jahre dem State-of-the-Art in Sachen Geschwindigkeit. Alles wäre so schön gewesen, hätten sich die zahlreichen amerikanischen Universitäten ebenfalls direkt viá Telefonleitung an das NSF-Netz anklinken können.

Die Gebührenordnungen der privaten amerikanischen Telefongesellschaften, die sich an der Länge der Leitung orientieren, machten dieser Idee jedoch einen Strich durch die Rechnung. Um diesem Dilemma zu entkommen, begann man mit der Schaffung von regionalen Netzwerken. Regional heißt, jede Hochschule wurde mit den ihr benachbarten vernetzt. Einige dieser Hochschulen würden schließlich sicherlich in der Nähe von einem der fünf Centren sein, so dass weiter entfernte Hochschulen, über mehrere Nachbarn hinweg, mit dem am nächsten gelegenen Super-Computing-Center verbunden waren. Da die Centren selbst auch vernetzt waren, reichte schließlich die Verbindung an nur eines der Centren, um letztlich mit allen verbunden zu sein. Nun zeigte sich sehr bald, dass die Hochschulen nicht ausschließlich vom Zugriff auf die Centren gebrauch machten - auch der Kommunikationsbedarf der einzelnen Hochschulen untereinander wuchs stetig an.

In der Folge stieg das Datenaufkommen im NSF-Netz stark an und die Leistungsgrenzen des Netzes wurden sehr schnell erreicht. Gemäß dem Motto \"Nichts geht mehr!\" fing man 1987 mit Modernisierungsmaßnahmen an. Schnellere Telefonleitungen und schnellere Computer, die an diese angeschlossen waren, mussten [und müssen bis heute ;-) ] her! Die Probleme sind im Grunde sehr analog zu denen unserer Straßenverkehrsnetze. Allerdings bemerken wir die \"Baustellen\" in unseren Datennetzen nicht so sehr, wie es bei den Baustellen der Straßennetze der Fall ist. Die Wahrscheinlichkeit einer Sperrung eines bestimmten Autobahnabschnitts oder einer Ausfahrt für längere Zeit ist jedenfalls um einiges größer, als die längere Unerreichbarkeit eines Sites. Der wohl wichtigste Aspekt des NSF-Netzes ist das Aufbrechen der Benutzer-Strukturen.

War das ARPAnet einer Oligarchie aus Regierungsbeamten, Militär und einigen Wissenschaftlern vorbehalten, so hat durch das NSF-Netz ein regelrechter Demokratisierungsprozess begonnen. 4.Das Internet als Netz der Netze Wegen der vielen Vorteile des Internets - wie zum Beispiel seine globale Erstreckung - ist in den letzten Jahren ein scheinbar immer stärker werdender Trend bemerkbar: Eine Reihe \"artfremder\" Netze (z. B. das DECnet, das Bitnet, Fidonet u. v.

m.) fanden die Anbindung an das Internet. Diese technische \"Brücke\" der auf unterschiedlichen Protokollen aufbauenden artfremden Netze wird als Gateway bezeichnet. Anfänglich dienten diese Gateways lediglich zum Austausch von electronic mail zwischen unterschiedlichen Netzen - die Gateways wurden also nur für relativ geringe Informationsmengen verwendet, um den Benutzern der Fremdnetze die Anbindung an das \"schicke\" Internet zu ermöglichen. Inzwischen kann man selbst den größten kommerziellen Netzbetreiber CompuServe über das Internet ereichen. Hierzu kommen sogenannte \"full service translators\" zum Einsatz - eine Art sehr leistungsfähiger Gateways.

Wie am Beispiel von CompuServe recht gut ersichtlich wird, ist die Beantwortung der Frage, ob CompuServe nun ein Teil des Internets oder eben \"nur\" das kommerzielle CompuServe-Netz ist, eine, bei der Emotionen wohl auch eine Rolle spielen. 5.Die Kommerzialisierung des Internet In den letzten Jahren wurde das Internet immer stärker auch auf kommerzieller Basis genutzt. Aufgrund der sogenannten \"Acceptable Use Policy\" des NFS war bisher die Übertragung von kommerziellen Daten über das NFSNET (NFS-Backbone) untersagt. Das NFS-Backbone ist heute allerdings längst nicht mehr identisch mit dem Internet- Backbone. Tatsächlich gibt es derzeit neben dem NFS-Backbone zwei kommerzielle Internet-Netzwerke in Nordamerika: das von Advance Network Services (ANS, Elmsford, N.

Y., USA) betriebene ANS-Netzwerk sowie CIX (Commercial Internet Exchange), ein nationaler Zusammenschluss der Netzwerke der größten nordamerikanischen Internet-Betreiber Performance Systems International (PSI), Uunet Technologies und General Atomics. Inzwischen befinden sich knapp die Hälfte aller Internet-Anschlüsse in der Hand privater Unternehmer. Die Beschränkung des 1991 von NFSNET in NREN (National Research and Education Network) umbenannten Internet-Backbones auf die Übertragung von Daten aus dem Forschungs- und Bildungswesen wird voraussichtlich 1995 auslaufen. Dies ist gleichbedeutend mit einer Zahlungs-Einstellung von öffentlichen Geldern zum Betrieb des NFS-backbones. Somit wird dann auch auf dem NREN-Backbone die Übertragung kommerzieller Daten möglich sein.

Wie sich dies auf das Internet letztendlich auswirken wird, ist noch völlig unklar und derzeit Gegenstand sehr kontroverser Diskussionen. 6.Vom Internet zum Information-Highway Im Jahr 1991 wurde das NREN (National Research and Education Network) im Rahmen des High Performance Computing Act (HPCA) des amerikanischen Kongresses als Nachfolger für das NFSNET bestimmt. Der High Performance Computing Act legt Planung und Finanzierung eines Programms zur Förderung der Forschung im Bereich der Hochgeschwindigkeitsnetzwerke fest.1994 wurden dafür mehr als eine Milliarde US-$ ausgegeben. Die Ergebnisse der HPCA-Projekte sollen die Grundlage für die Realisierung einer neuen, nationalen Informationsinfrastruktur (NII = National Information Infrastructure) bilden.

Die im September 1993 von Vizepresident Al Gore zur Chefsache erklärte NII-Initiative soll innerhalb der nächsten 15 Jahre Kommunikationsstrukturen schaffen, die jedermann den Zugang zu multimedialer Datenkommunikation ermöglichen sollen. Dafür werden bis zum Jahr 2007 mehr als 500 Milliarden US-$ zur Verfügung gestellt. Dem Internet wird im Rahmen der NII-Initiative eine zentrale Rolle zufallen. Innerhalb der bestehenden Internet-Strukturen ist geplant, die neuen HPCA-Technologien zunächst in Großversuchen zu testen. Darauf aufbauend soll dann in weiteren Schritten die Infrastruktur für einen national verfügbaren multimedialen Informationsdienst ausgebaut werden. Seitdem hat sich die Internetanbindungsgeschwindigkeit von Anfangs 14Kbits\\s bis heute 100MB\\s erhöht.

Jedoch war dies sehr aufwendig für die Menschen und günstig war es auch nicht. In einem Haushalt ist heutzutage maximal eine Internetanbindung mit 1,5MB\\s, alles was höher ist, wird zu teuer. Wobei 1,5MB\\s auch schon teuer ist. 7.Informationsübertragung im Internet Das Internet physikalisch betrachtet ist zunächst einmal ein Signalübertragungssystem wie es Shannon/ Weaver (1949/1976) in ihrem informationstechnischen Kommunikationsmodell beschrieben haben. Diese abstrakte Definition sagt allerdings nichts über mögliche Gebrauchsformen.

Die vorangegangenen Abschnitte haben gezeigt, dass das Internet aufgrund seiner historischen Entwicklung eine sehr heterogene Struktur besitzt. Das Internet, wie es heute besteht, war nicht geplant, sondern ist das Resultat einer stürmischen Entwicklung, getrieben von einer dramatisch wachsenden Zahl von Benutzern und exponentiell ansteigenden Datenmengen. Neue Benutzerschnittstellen und Anwendungsprogramme mussten geschaffen werden, um der ins Unermessliche wachsenden Informationsflut auch nur einigermaßen Herr zu werden. Da das Internet jedoch nicht zentral gesteuert wird, sondern sich dynamisch und einigermaßen unkontrolliert entwickelt, entstanden aus verschiedenen Projekten für die jeweiligen Internet-Dienste Softwarepakete mit unterschiedlicher Bedienoberflächen. Aus diesem Grund gibt es leider keine einheitliche Benutzerschnittstelle für das Internet, mit der die gesamte Palette der elektronischen Kommunikation bewältigt werden kann. Im vielfältigen Nutzungsspektrum vom Internet lassen sich drei größere Anwendungskomplexe typisieren: 7.

1. Das Internet als Dateiübertragungssystem Hierunter fällt der Austausch von größeren Dateien (Texte, Programme, digitalisierte Sounds und Bilder) direkt zwischen verschiedenen Nutzern oder mittelbar über die Verzeichnisstruktur (Windows) oder Dateihierarchie (Macintosh), die eine hierarchisch sortierte Palette von Dateien anbietet. 7.2. Das Internet als Informationssystem Netzwerker greifen in geringem Maße auf kommerzielle Informationsangebote (z.B.

Online-Datenbanken) zu. Stattdessen erfüllt das nicht-kommerzielle Newssystem wichtige Informationsfunktion. Weitere Informationsquellen in den Netzen sind elektronische Bücher und Journale, die hier veröffentlicht werden. Die Netze etablieren so einen alternativen Informationsmarkt. 7.3.

Das Internet als Kommunikationssystem Die Kommunikationsfunktion des Internets ist für die Nutzer am wichtigsten. Verschiedene Formen der Kommunikation stehen hier zur Verfügung: Kommunikationsformen im Internet Gegenüber traditionellen massenkommunikativen Medien findet man in den elektronischen Medien eine gesteigerte Reflexitivität. Während Chat und Multi-User-Chat eher von speziellen Nutzergruppen in Anspruch genommen werden, sind Mail und News sehr beliebt. Diese Nutzungsformen sind Ausdruck eines regen kommunikativen Geschehens. Insgesamt ist für die Netzwerker ein multifunktionales Nutzungsprofil typisch, d.h.

die verschiedenen Netzangebote - Dateiübermittlung, Information und Kommunikation - werden nebeneinander genutzt. Fünf grundlegende Dienste für die Informationsübertragung im Internet, nämlich Elektronische Post (Email), Fernzugriff auf Fremdsysteme (Telnet), Dateientransfer (ftp), Informationssuche (ARCHIE, WWW), Nachrichten & Diskussionsforen (NEWS, Mailing-Listen) 8.Elektronische Post (Email) Die außerordentliche Leistungsfähigkeit des Mediums elektronische Post (englisch: electronic mail, abgekürzt Email oder einfach nur mail) wurde in den Gründungsjahren der Computernetzwerke zunächst gar nicht in ihrer gesamten Tragweite erkannt. Der im ARPA-Netz Ende der sechziger Jahre lediglich als Zusatzdienst implementierte Emaildienst wurde jedoch in kürzester Zeit zu einem der zentralen Elemente des Internet. Mit elektronischer Post wird in Computernetzwerken jener Dienst bezeichnet, über den die Netzwerkteilnehmer miteinander kommunizieren können. Jeder Benutzer hat dabei seinen eigenen privaten Briefkasten (wie gelbe Post), in dem private Nachrichten abgelegt werden können.

Obwohl vom Übertragungnetz abhängig, handelt es sich bei der Email im Vergleich zur gelben Post um ein äußerst schnelles Medium (Geschwindigkeitsvorteil). Mails sind in wenigen Sekunden beim Empfänger. Gegenüber dem Fax hat die Email Kostenvorteile und die Möglichkeit, dass die Daten sofort weiterverarbeitet werden können. Bei den dabei ausgetauschten Nachrichten handelt es sich um reine Textdokumente, an die zusätzlich als Anlage (binäre) Dateien beliebigen Inhalts (Bilddateien, ablauffähige Programme etc.) mit versendet werden können. Hier sollen die faszinierenden Eigenschaften des Mediums elektronische Post beleuchtet werden.

Gegenüberstellung von gelber Post und Email Obwohl elektronische Post oberflächlich betrachtet nichts anderes darstellt als eine elektronische Variante der Rohrpost oder des Telex (und vielfach auch so genutzt wird), unterscheidet sie sich in vielfacher Hinsicht wesentlich von herkömmlichen Kommunikationsmethoden. So können elektronische Nachrichten abgespeichert, mehrmals gelesen, ergänzt oder modifiziert und an Dritte oder Vierte weitergeleitet werden. Man hat die Möglichkeit, mit demselben Aufwand Nachrichten an eine bestimmte Person oder, mit Hilfe eines Verteilers, an einen großen Personenkreis zu senden. Ist kein Ansprechpartner für eine bestimmte Situation bekannt, können Nachrichten beispielsweise an alle Teilnehmer eines Diskussionsforums, einer Interessensgruppe, oder an alle Mitarbeiter einer Firma versendet werden. Im Rahmen von elektronischer Kommunikation verändern sich zudem die Verhaltensweisen der Teilnehmer. In elektronischen Nachrichten werden häufiger extreme Meinungen und spontane Ideen geäußert als in Gesprächsrunden.

Paradoxerweise bewirkt also gerade die unpersönliche Form des elektronischen Kommunikationsmediums, dass Hemmungen, zu sprechen oder sich mitzuteilen, verschwinden oder abgebaut werden. Durch die Vernetzung des Wissens einer großen Anzahl von Personen durch computergestützte Kommunikation werden durch Email außerdem Synergieeffekte erzeugt, die mit anderen Kommunikationsmethoden nicht erreichbar sind. Ein typischer Informationsfluss beginnt dabei mit einer \"Weiß jemand...?\"-Nachricht, adressiert an alle Teilnehmer einer bestimmten Personengruppe, die durchaus auch über die ganze Welt verstreut sein kann.

Und in vielen Fällen erfolgen innerhalb kurzer Zeit eine oder mehrere Antworten zu der angesprochenen Problematik. Untersuchungen in privaten Kommunikationsnetzen großer Firmen belegen, dass das Funktionieren dieser Art von Informationsbeschaffung, die auf dem guten Willen aller Teilnehmer aufbaut, nicht nur im Internet funktioniert, dort jedoch sicherlich am extremsten ausgeprägt ist. Dies führt zu der Frage, was Internet-Benutzer veranlasst, ihre Zeit damit zu verbringen, auf Fragen von Personen zu antworten, mit denen sie nichts anderes als der gemeinsame Zugang zu einem Netzwerk verbindet. Die endgültige Antwort darauf wird wohl für immer in den Tiefen des Internet verborgen bleiben. Sie hat jedenfalls zu tun mit einer Art elektronischen Altruismus, der sich bei computergestützter Kommunikation bildet. 9.

Nachrichten & Diskussionsforen (Mailing-Listen) Eine wichtige Anwendung von elektronischer Post im Internet sind sogenannte Mailing-Listen. Mit ihrer Hilfe können Diskussionsforen und Interessengruppen gebildet werden. Eine Mailing-Liste an sich ist nichts anderes als die Sammlung der Internetadressen all jener Personen, die sich für ein bestimmtes Thema interessieren. Möchte nun ein Teilnehmer eines solchen Diskussionsforums einen Beitrag leisten, versendet er diesen als elektronische Nachricht, und gibt als Zieladresse seine Mailing-Liste an. Sogenannte Mailing-List-Server (jene Computer, die die Mailing-Listen verwalten) versenden dann diese Nachricht an alle Teilnehmer, deren Adresse in der Mailing-Liste enthalten sind. Um in eine der vielen hundert Mailing-Listen aufgenommen werden zu können genügt es, eine elektronische Nachricht an einen sogenannten Mailing-List-Server zu senden, die den Befehl subscribe enthält.

Ab diesem Zeitpunkt bekommt man alle Nachrichten, die von den Mitgliedern dieser Mailing-List versendet werden, automatisch zugestellt. 9.1.Das Prinzip einer Mailing-Liste Der Dienst der elektronischen Post im Internet bietet also eine Vielfalt an Möglichkeiten, die über das reine Versenden und Empfangen von Nachrichten weit hinausgeht. 10.Fernzugriff auf Fremdsysteme (Telnet) Eines der wichtigsten Programme für die Benutzung des Internet ist Telnet, eine Applikation, die den Fernzugriff vom eigenen Computer auf andere, sich ebenfalls im Netzwerk befindliche Computersysteme ermöglicht.

Nach dem Starten der Telnet-Software und der Eingabe der Internet-Adresse des gewünschten Zielsystems baut Telnet unmittelbar die gewünschte Verbindung auf. Das Zielsystem wird dabei allgemein als Server oder als Host (Gastgeber) bezeichnet, der auf den Server zugleitende Computer als Client. Da alle Telnet-Versionen, gleichgültig ob sie für MS-DOS-basierende Personalcomputer, für Apple oder UNIX-Workstations erstellt wurden, sich nach außen hin gleich verhalten, kann Telnet hardwareübergreifend eingesetzt werden. Das heißt, ein UNIX-Client kann genauso auf einem PC-Server zugreifen wie auf einen Apple-Client und umgekehrt. Leistungsfähige Multiuser-Systeme wie UNIX-Workstations sind, wenn sie als Server fungieren, in der Lage, eine Vielzahl von sogenannten Telnet-Sessions gleichzeitig zu bedienen. Aus diesem Grund sind Computersysteme, die per Definition primär als Server fungieren, in der Regel UNIX-Workstations.

10.1.Das Prinzip von Telnet Grundsätzlich ist aber kein an das Internet angeschlossene System von vornherein ein Server oder ein Client. Jeder \"echte\" Internet-Teilnehmer, also jeder Internet-Teilnehmer mit einer eigenen Internet-Adresse, kann als Server fungieren. Um Client zu sein, ist hingegen kein vollständiger Internet-Zugang mit eigener Internet-Adresse notwendig. Sobald man in der Lage ist, sich in irgendeiner Form interaktiv auf einen \"echten\" Internet-Knoten aufzuschalten, kann man als Telnet-Client auftreten.

Der Telnet-Zugriff auf ein Computersystem ist allerdings grundsätzlich mittels einer Benutzeridentifikation (User-IDs) und eines Passwortes beschränkt. Telnet wird immer dann benutzt, wenn sich auf einem anderen Computersystem eine oder mehrere Applikationen befinden, die man lokal nicht zur Verfügung hat, und auf die man vorübergehend zugreifen möchte. Dies können beispielsweise Datenbanken sein, aber auch Informationssuchsysteme. Im Internet gibt es dedizierte Telnet-Server, die permanent bestimmte, häufig im Internet benötigte Applikationen zur Benutzung bereit halten. Der Zugriff auf diese öffentlich zugängigen Server ist in der Regel nicht durch Passwörter beschränkt. 11.

Dateientransfer (ftp) Der Transport von Daten aller Art erfolgt im Internet mit dem Programm FTP (File Transfer Protocol). Während Telnet nach dem Aufbau der Verbindung zwischen Client und Server lediglich das interaktive Ausführen von Programmen auf dem Zielsystem ermöglicht, können mit dem File Transfer Protocol Dateien zwischen den Systemen kopiert werden. Man ist also in der Lage, Text, Bild, Ton, Video oder Programmdateien von einem Fremdsystem auf den eigenen lokalen Computer physisch zu übertragen und umgekehrt. Der komplette Vorgang der Dateiübertragung wird dabei von Client-Seite gesteuert. Voraussetzung für eine erfolgreiche Übertragung ist eine Zugangsberechtigung für das Zielsystem, die im Rahmen des Verbindungsaufbaues mit FTP mittels User-ldentifikation und Passwort überprüft wird. Wie im Fall von Telnet können nur solche Internet-Systeme als ftp-Server dienen, die über eine eigene Internet-Adresse verfügen.

Überall im Internet gibt es dedizierte ftp-File-Server, deren Hauptfunktion es ist, als Dateiarchiv für ftp-Zugriffe von Clients zur Verfügung zu stehen. Ftp-Client hingegen kann jedes System mit interaktivem Zugang zum Internet sein. 12.Anonymes ftp Um mittels FTP auf ein Fremdsystem zugreifen zu können, ist im Normalfall, wie erwähnt, eine Zugangsberechtigung, also eine Benutzer-ldentifikation mit zugehörigem Passwort notwendig. Dies dient dem Schutz jener Daten, die nicht für den internetweiten Gebrauch bestimmt sind. Für alle anderen Dateien, die diesen Schutz nicht benötigen, und die für alle Internet-Benutzer zugänglich sein sollen, gibt es eine besondere Form des FTP, die den Zugriff auf Daten ohne Passwort ermöglicht: das anonyme FTP.

Über das gesamte Internet verteilt gibt es ftp-File-Server, die anonymen Zugriff auf ihre Dateiarchive ermöglichen. Die dazu notwendige Benutzeridentifikation ist immer \"anonymous\", und als Passwort genügt die Eingabe der eigenen Email-Adresse. Die Anzahl der Dateien, die auf anonymen File-Servern zur Verfügung stehen, geht in die Millionen. Der Bogen spannt sich von Anleitungen zum Bierbrauen, über Aufnahmen von unbekannten Flugobjekten bis hin zu Mandelbrotbaumprogrammen und Texten über die philosophischen Aspekte künstlicher Intelligenz. Die meisten anonymen ftp-Server widmen sich bestimmten Themenbereichen. Die Auswahl des richtigen ftp-Servers für die benötigte Information oder das gesuchte Programm ist daher von entscheidender Bedeutung.

Mit einem speziellen Dateiensuchsystem namens ARCHIE, welches in Form einer Datenbank eine Liste aller Dateien aller ftp-Server enthält, ist es möglich, internetweit nach Dateien zu suchen. 13.Informationssuche (ARCHIE) ARCHIE ist ein Dateiensuchprogramm für das Internet, welches in der Lage ist, die Dateien aller registrierten anonymen ftp-Archive im Internet zu durchsuchen. Es muss lediglich ein Suchbegriff vorgegeben werden, und man erhält als Antwort eine Liste all jener ftp-Server, die Dateien mit dem betreffenden Suchbegriff im Dateinamen archiviert haben. Hat man die gewünschte Datei lokalisiert, so kann diese mit FTP auf das lokale Computersystem heruntergeladen werden. ARCHIE (der Name leitet sich von Archiv ab) ist im Internet über ein weltweites Netz von sogenannten ARCHIE-Servern realisiert.

Jeder ARCHIE-Server ist dafür verantwortlich, alle anonymen ftp-Server innerhalb seiner jeweiligen geographischen Region in regelmäßigen Abständen (etwa einmal pro Woche) anzurufen, und von diesen die aktuellen Inhaltsverzeichnisse ihrer öffentlichen Dateibereiche abzuholen. DasseIbe führen die ARCHIE-Server auch untereinander durch, so dass jeder ARCHIE-Server zu jedem Zeitpunkt über ein aktuelles Inhaltsverzeichnis verfügt, welches (nahezu) alle öffentlich zugängigen Dateien auf ftp-Servern im Internet beinhaltet. Die 22 ARCHIE-Server greifen heute auf die anonymen ftp-Verzeichnisse von etwa 1500 Internet-Rechnern zu, die ihrerseits mehr als 2.1 Millionen Dateien mit einem Datenvolumen von 170 Gigabytes! umfassen. Allein zum Speichern der Inhaltsverzeichnisse dieser 2,1 Millionen Dateien benötigt jeder ARCHIE-Server 250 MBytes Festplattenplatz ! Das ARCHIE-Konzept wurde ursprünglich im Rahmen eines Projektes der kanadischen McGill Universität in Montreal von Studenten entwickelt. Vielen Dokumenten oder Programmen ist auch noch eine Art Kurzbeschreibung zu ihrer Funktion oder ihrem Inhalt beigefügt.

Vielfach kann ja aus dem Namen einer Datei nicht notwendigerweise auf ihren Inhalt geschlossen werden. 14.Nachrichten & Diskussionsforen (NEWS) Ein großer Teil des Informationsflusses im Internet erfolgt über sogenannte Nachrichten oder Diskussionsforen. Solche Foren werden durch das UseNet realisiert. UseNet ist eine riesige Ansammlung von Diskussionsgruppen, auch schwarze Bretter oder Bulletin Boards genannt (die über das eigentliche Internet weit hinausgehen), in denen Millionen von Teilnehmern Informationen zu den unterschiedlichsten Themen austauschen. Mehr als 5000 verschiedene Diskussionsgruppen (News-Gruppen) sind registriert, die ca.

30.0000 Nachrichten am Tag produzieren. 15.Haupt und Nebengruppen des UseNets Die Inhalte von News-Gruppen werden auch nicht über Email versendet, sondern sind auf sogenannten UseNet-Servern abgelegt. In regelmäßigen Abständen werden zwischen diesen News-Servern neu eingegangene Beitrage ausgetauscht. Dies erfolgt entweder über das Internet - falls sich die betreffenden News-Server im Internet befinden oder mit Hilfe des UUCP-Protokolles, falls es sich um Knoten aus dem sogenannten UseNet handelt.

Der Ursprung des News-Dienstes stammt nämlich aus dem UseNet, einem Netzwerk, welches Ende der siebziger Jahre in North-Carolina entstand. Mit speziellen Programmen (News-Readern) kann man auf diese UseNet-Server zugreifen und Artikel der verschiedenen News-Gruppen lesen, beziehungsweise auch eigene verfassen oder bereits publizierte beantworten. Eine typische News-Gruppe gestaltet sich häufig als eine immense Ansammlung eines Frage- und Antwortspiels. 15.1.Das Prinzip des UseNets Diese Form der asynchronen Kommunikation zwischen verschiedenen Benutzern wird auch als Offline Konferenz bezeichnet.

Das Geschehen in den News-Gruppen lässt sich unter thematischer Perspektive am ehesten mit einem Zeitschriftenkiosk vergleichen. Die Trennung zwischen Verfasser und Leser wird aber in den Netzen tendenziell aufgehoben. Jeder Leser kann auch Produzent und umgekehrt sein. Da jeder Teilnehmer prinzipiell Beiträge verfassen und auch in das Netz schicken kann, steigt das Informationsaufkommen, was die Selektionsarbeit zunehmend erschwert. Ein weiteres Problem, das aus der prinzipiellen Aufhebung der Produzent-Leser-Trennung resultiert, ist die hohe Anzahl belangloser oder inhaltlich falscher Beiträge. 16.

Informationssuche (WWW) Das jüngste Instrument zur Informationssuche im Internet ist World-Wide-Web (WWW). Es wurde 1992 vom Kernforschungsinstitut CERN in der Schweiz mit dem Ziel entwickelt, anderen Physikern effizient Zugriff auf die eigenen Forschungsergebnisse zu ermöglichen. Das Informationssuchsystem World-Wide-Web basiert auf dem Prinzip des Hypertext, das zwischenzeitlich zu Hypermedia erweitert wurde, und kommt damit der Arbeitsweise des menschlichen Gehirns am nächsten. Hypertextdokumente sind Textdateien, die über Schlüsselwörter (Links) mit einem oder mehreren anderen Textdokumenten vernetzt sind. Die Schlüsselwörter, die eine solche Verzweigung ermöglichen, sind in besonderer Weise aus dem übrigen Text hervorgehoben. Wird ein solches Schlüsselwort aktiviert, verzweigt das Programm automatisch zu den betreffenden Dokumenten.

Ist das neue Dokument wiederum hypertextbasierend, so kann von dessen Schlüsselwörtern erneut eine Verzweigung erfolgen. Auf diese Weise durchziehen Hypertextdokumente wie ein Spinnengewebe das gesamte Internet. 17.Beispiel eines Hypertextdokuments Waren vor kurzer Zeit Hypertextdokumente noch die Ausnahme, so konnte in letzter Zeit aufgrund des großen Erfolges von WWW ein geradezu exponentieller Anstieg ihrer Anzahl festgestellt werden (WWW kann seine Stärken lediglich auf der Basis von Hypertextdokumenten ausspielen, die alle mit Hilfe von speziellen Hypertexteditoren erstellt werden müssen). Mit dem Einzug von Multimedia-Applikationen in die Welt der Computersysteme erweiterten sich Hypertext- zu Hypermediadokumenten, wobei letztere nicht nur Verzweigungen in andere Textdateien, sondern auch in Bild, Ton oder Videodateien beinhalten. World-Wide-Web ist das flexibelste Instrument für das Internet, da es aufgrund seines Aufbaues je nach Bedarf auch andere Internet-Dienste beinhalten kann.

18.Topologie des Internets

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com