Netzwerke und server
Netzwerke und Server
Einleitung
Um die Kommunikation zwischen verschiedenen Computern zu ermöglichen, ist das Vorhandensein einer geeigneten Vernetzung unabdingbar. Dieser kleine Ratgeber geht daher auf die grundlegenden technischen Voraussetzungen für den Einsatz von Netzwerken ein.
Zunächst werden die zum Datentransport in Netzwerken, insbesondere im Internet, üblichen Protokolle und das OSI-Schichtenmodell beschrieben. Daran anschließend werden verschiedene Netztypen kurz vorgestellt. In diesem Zusam-menhang werden verschiedene Netzwerktopologien genannt sowie die Funktionsweise von Peer-to-Peer-Netzwerken und Client-Server-Netzwerken erläutert. Die Anforderungen an einen Server werden im letzten Abschnitt dieses kleinen Ratgebers dargestellt.
Alle erwähnten Produktnamen können Warenzeichen oder eingetragene Waren-zeichen der jeweiligen Eigentümer sein. In diesem Beitrag sind die Warenzeichen und eingetragenen Warenzeichen nicht ausdrücklich gekennzeichnet.
Protokolle und Adressen
In jedem Netzwerk müssen Regeln existieren, die das Funktionieren des Netzes ermöglichen. Beispiele aus dem alltäglichen Leben sind z. B. das Wasser- und Abwasserleitungsnetz einer Stadt oder das Straßennetz.
Diese beiden Beispiele unterscheiden sich in einem wesentlichen Punkt: während eine Straße im Normalfall in beide Richtungen befahren werden kann (über Einbahnstraßen sehen wir an dieser Stelle großzügig hinweg), besitzt das Wasser-Abwassernetz getrennte Kanäle zum Verbraucher hin und vom Verbraucher weg. Bei dem Gedanken an das Straßennetz werden Ähnlichkeiten zu Computer-Netzwerken deutlich. Doch wie wird in solchen Netzwerken der „Verkehr“ - nämlich der Datenverkehr - geregelt? Ein entsprechendes Regelwerk muss dafür Sorge tragen, dass Daten vom Absender zum gewünschten Empfänger gelangen.
Um dieses komplizierte Regelwerk beschreiben zu können, verabschiedete die Internationale Normen-Organisation ISO ein Modell: das OSI-Schichtenmodell. Es dient der Beschreibung von Kommunikation in Computer-Netzwerken.
Das OSI-Schichtenmodell umfaßt sieben Schichten.
Diese sind sowohl für Sender- als auch für die Empfängerseite relevant. Abbildung 1 stellt das Modell dar. Daran schließt sich eine Erläuterung der einzelnen Schichten an.
Abbildung 1: Das ISO/OSI-Schichtenmodell im Detail Quelle: [KLUG97, S.201]
Die unterste Schicht, der „physical layer“ (Netzwerkkarte, Modem) dient der Übertragung einzelner Bits. Diese Übertragungsschicht kommuniziert mit dem „link layer“ (der Sicherungsschicht), der den physikalischen Datenaustausch regelt und im Normalfall mit dem physical layer zu einer Einheit verbunden ist (Netzwerkkarte).
Der darüber angesiedelte „network layer“ fungiert als Vermittlungsschicht. Er regelt die Kommunikation zwischen einzelnen Rechnern derart, dass die Datenpakete nur an bestimmte Rechner ausgeliefert werden. Durch diesen hierdurch erstellten Kommunikationskanal werden die Daten mittels des „transport layer“ übertragen. Hier wird auch die Sicherheit der Datenübertragung erstmals beachtet. Auf die Transportschicht setzt die Kommunikationsschicht - der „session layer“ - auf. Er arbeitet inhaltsorientiert und ermöglicht den Abruf eines Verzeichnisses vom Server.
Der „presentation layer“ (Darstellungsschicht) sorgt dafür, dass die übertragenen Informationen so aufbereitet werden, dass das jeweilige Anwendungsprogramm sie nutzen kann (z. B. Konvertierung von Zahlenformaten). Die oberste Schicht entspricht dem, was der Nutzer sieht; der „application layer“ (die Anwendungsschicht) ist die tatsächlich genutzte Anwendung (z. B. ein Mail-Tool).
Abbildung 2 stellt die Zusammenfassung einzelner Schichten dar [KOST98].
Abbildung 2: Zusammenfassung von Schichten; Quelle: [KLUG97, S.202]
· Protokolle ermöglichen erst die eigentliche Kommunikation (z. B.: TCP=„Transmission Control Protocol“ und UDP=„User Datagram Protocol“). Über sie erfolgt der Datenaustausch.
Das am häufigsten eingesetzte Protokoll ist TCP, welches auf den unteren Schichten des OSI-Modells aufsetzt [KOST98].
Durch TCP wird die fehlerfreie Datenübertragung zwischen Sender und Empfänger gewährleistet und evtl. um Fehlermeldungen ergänzt. Hierzu wird protokolliert, welche Nachrichten versandt wurden und ob der Empfang vom Adressaten auch bestätigt wurde. Bei einem UDP-Protokoll wird auf die Empfangsbestätigung verzichtet, was dessen Einsatz nur in Verbindung mit Anwendungsprogrammen, die selbständig eine Überprüfung der Übertragung auf Korrektheit durchführen können, empfehlenswert macht [KOST98].
Die Datenübertragung im Internet vollzieht sich in der Regel über mehrere (bis zu 30) Zwischenstationen.
Als Identifikationsmerkmal für Sender und Empfänger werden die IP-Adressen (siehe unten) verwendet. Router (Knotenrechner) legen die in die Kommunikation einzubeziehenden Zwischenstationen fest. Falls eine Zwischenstation nicht funktioniert, wird das Datenpaket an einen benachbarte Knoten weitergereicht, bis es schließlich zum Empfänger gelangt. Ein spezifisches Merkmal des Internet ist darin zu sehen, dass versendete Nachrichten in einzelne Datenpakete zerlegt werden können, die dann voneinander getrennt versandt werden können und empfängerseitig in richtiger Reihenfolge wieder zusammengesetzt werden.
Abbildung 3: Struktur des IP-Kopfes [KLUG97, S.204]
Das IP (Internet-Protocol) ist für die Kommunikation zwischen Rechnern zuständig.
Hierbei werden die zu versendenden Daten in einzelne Pakete unterteilt, in deren Kopf detaillierte Angaben zu finden sind (siehe Abbildung 3). An dieser Stelle soll nicht weiter auf die einzelnen Angaben im IP-Kopf eingegangen werden.
Für den Internet-Nutzer spielen oben erwähnte Internet-Adressen eine große Rolle. Wie auch bei der Briefpost, müssen die Adressen im Internet eindeutig zuzuordnen sein. Um dies zu gewährleisten, ist die institutionelle Koordination und Verwaltung der Adressen erforderlich. Jeder Internet-Rechner benötigt eine eindeutig identifizierbare IP-Adresse zum Aufbau einer Kommunikation mit einem anderen Rechner [STRA97].
Jede Adresse besteht aus einer Ziffernfolge, die sich aus vier Zahlen von jeweils 0 bis 255, die durch Punkte voneinander getrennt sind, zusammensetzt. Dabei spezifizieren die ersten drei Zahlen den entsprechenden Netzabschnitt, während die vierte den daran angeschlossenen Rechner bezeichnet.
Beispiel: 131.246.137.146
Den dezimalen Adressen können Namen zugeordnet werden, die eine Kennzeichnung des Adressaten oder des Seiteninhaltes bewirken.
Auch diese Namen besitzen eine bestimmte Struktur: Ausgehend von dem Root-Domain verzweigt sich das System über die Top-Level- und Second-Level-Domains bis zu den Sub-Domains. Die Top-Level-Domains sind vorgegeben. Zu ihnen zählen zum einen die Länderkennungen wie beispielsweise „.de“ (Deutschland) oder „.ch“ (Schweiz) und zum anderen die generischen Domains wie „.com“ (Commercial), „.
edu“ (Education) sowie „.org“ (Organization). Die Second-Level- und Sub-Domains sind dagegen freigegeben [LUX97].
Für die Verwaltung und Vergabe des Adressraums sind weltweit verschiedene Institutionen zuständig. Beispielsweise liegt die Verwaltung des Top-Level-Domain „.de“ und die Zuteilung der IP-Nummern bei dem Deutschen Network Information Center (DE-NIC) an der Universität Karlsruhe.
Die Registrierung und Pflege eines Namens sind nicht kostenfrei und können bei einem Internet-Service-Provider beantragt werden. Bei der Vergabe der Second-Level-Domains (z. B. der Name des Unternehmens) gilt im wesentlichen, dass derjenige, der zuerst den Namen beantragt hat, ihn auch erhält. Die rechtliche Lage in diesem Bereich ist jedoch noch weitgehend ungeklärt und stets im Wandel, so dass sich im Zweifelsfalle stets die Beratung eines Rechtsbeistandes empfiehlt. Unter der Internet-Adresse https://www.
nic.de/whois.html kann nachgeprüft werden, ob ein bestimmter Name bereits vergeben ist [LUX97].
Der Aufbau der URLs (Uniform Resource Locator) ist immer gleich. Er gestaltet sich folgendermaßen: Protokoll://Host-Rechner (Server)/Pfad.
Beispiel: https://www.
Firma.de/test/index.html
In dem Beispiel ist „http“ das Transferprotokoll (wie auch ftp, gopher), „Firma“ der Server, „test“ das Verzeichnis und „index.html“ das Dokument.
Netzwerktypen
Computernetzwerke sind in vielfältigen Formen, Strukturen und Größen denkbar. Bereits die heimische Verbindung eines Laptops und eines PCs sind bereits ein Computernetzwerk.
In Abhängigkeit von der Größe eines Netzwerkes können folgende Netzwerktypen unterschieden werden [LINK98, S. 518]: Das LAN (Local Area Network) ist ein lokales Netzwerk. In der Regel steht diese Abkürzung heutzutage aber nicht nur für Netzwerke mit geringer räumlicher Ausdehnung, sondern generell für Netzwerke mit einer geringen Anzahl angeschlossener Rechner, diese können jedoch auch räumlich weit verteilt positioniert sein. Als WAN (Wide Area Network) wird ein sehr großes Netzwerk bezeichnet. "Groß" bezieht sich auch in diesem Falle auf die Anzahl der angeschlossenen Computer. Die Abkürzung MAN (Metropolitan Area Network) ist ein Zwischenbegriff zwischen LAN und WAN und wird kaum mehr genutzt.
Im folgenden werden übliche Netzwerktopologien und -strukturen beschrieben, um ein Grundverständnis für technische Voraussetzungen eines LAN-Aufbaus zu schaffen.
Netzwerktopologien
Ein LAN lässt sich unterschiedlich durch Vernetzung der einzelnen Komponenten herstellen. Hierbei kann nach [LINK98, S. 523] zwischen den folgenden Topologien unterschieden werden:
Bus-Topologie
Der Bus wird durch ein gemeinsames Netzwerkkabel gebildet, welches die einzelnen Knoten miteinander verbindet. Die Enden des Kabels müssen zur Terminierung des Busses mit Endwiderständen (Terminatoren) versehen werden.
Stern-Topologie
Bei der Stern-Topologie bildet ein Hub das Zentrum des Netzwerks.
Die Knoten werden sternförmig an diesen Hub angeschlossen.
Ring-Topologie Der Kabelstrang, der die Knoten des Netzwerks verbindet, bildet einen in sich geschlossenen Ring. Die bekannteste Ring-Topologie ist das Token-Ring-Verfahren; hierbei kann immer nur der jeweilige Tokenbesitzer Daten senden und empfangen.
Peer-to-Peer-Netzwerke
Die Installation von Peer-to-Peer-Netzwerken ist relativ einfach. Sie eignen sich jedoch für etwa maximal fünf Teilnehmer. Alle so verbundenen Rechner sind gleichberechtigt und können als Server und als Client genutzt werden.
Peer-to-Peer-Netzwerke werden in der Praxis immer seltener eingesetzt. Ihre Stärke liegt in der einfachen Vernetzung weniger Rechner. Diesem Vorteil stehen jedoch auch einige Nachteile gegenüber. Einerseits ist die Administration eines solchen Netzwerkes bei mehreren Nutzern recht schwierig und andererseits bedürfen geregelte Datenablage und sinnvolle Ressourcennutzung einer sehr starken Nutzerdisziplin. Berechtigte Anwendungsfelder für Peer-to-Peer-Netzwerke sind in Kleinstnetzwerken zu sehen, wie z. B.
der heimischen Vernetzung von PC und Mobilcomputer.
Client-Server-Netzwerke
Die Client-Server-Architektur ermöglicht den gemeinsamen Zugriff auf Applikationen und Ressourcen. Gemeinsam genutzte Applikationen werden auf dem Server abgespeichert und können von den Arbeitsplätzen (Clients) abgerufen werden. Diese Architektur weist gegenüber Peer-to-Peer-Netzwerken einfachere Möglichkeiten der Administration auf und eignet sich auch für die Vernetzung vieler Computer. Auch die gemeinsame Peripherie-Nutzung (z. B.
Drucker, Modems, etc.) ist in einer Client-Server-Architektur einfacher zu verwalten.
Das zu Grunde liegende Prinzip, dass ein Rechner (der Server) Dienste bereitstellt, die dann von anderen Rechnern (Clients) genutzt werden können, ist auch im Internet zu beobachten. Internetseiten werden von speziellen Webservern zur Verfügung gestellt und können dann mittels eines Browsers (eine Client-Anwendung) genutzt werden. Für Unternehmen mit kleineren bis mittleren LANs hat sich der Aufbau von Client-Server-Netzwerken unter Nutzung der Stern-Topologie bewährt.
Server
Ein Server stellt im Netzwerk (z.
B. Firmen-Intranet) Dienste (z. B. E-Mail, WWW, FTP) zur Verfügung. Hierbei kann der Server die Schnittstelle zum Internet darstellen. Im Rahmen betrieblicher Netzwerke können Server aber auch beispielsweise die Standardapplikationen (Textverarbeitung etc.
) bereitstellen. In einem solchen Falle liegen die Vorteile darin, dass nicht alle Arbeitsplatzrechner mit höchsten Ressourcen ausgestattet sein müssen und dass die Administration der Software sich auf einen einzigen Rechner beschränkt. Um die Verfügbarkeit dieser Dienste zu gewährleisten, sollte die verwendete Hardware hohe Ausfallsicherheit und Fehlertoleranz aufweisen. Hieraus ergeben sich Einsatzfelder für Back-up-Systeme, Unterbrechungsfreie Stromversorgungen (USV) und ähnliches. Allerdings muss Server-Hardware besondere Leistungsfähigkeit besitzen, da sie letztendlich die Leistungsforderungen der Client-Systeme befriedigen muss.
Besondere Anforderungen müssen auch an die Server-Software gestellt werden (vgl.
[WEIH97, S. 75-76]):
Grundlegend ist, dass Betriebssystem und Anwendungssoftware die gewünschten Dienste zur Verfügung stellen können. Soll also z. B. Web-Service angeboten werden, muss eine entsprechende Web-Server-Software vorhanden sein, welche vom verwendeten Betriebssystem unterstützt wird.
Das Verwendung findende Betriebssystem soll eine möglichst hohe Verfügbarkeit aufweisen.
Eng damit verbunden ist die Forderung nach Stabilität des Systems. Dies setzt bei fast allen Betriebssystemen eine kontinuierliche Wartung voraus, von der Installation von Bugfixes bis hin zu Anpassungen an neue technologische Tendenzen. Momentan bieten nahezu alle Hersteller von Betriebssystemen diese auch in Server-Versionen an und auch das Betriebssystem Linux ist insbesondere im Server-Bereich sehr stark vertreten.
Die verwendete Software sollte eine zentrale Administration erlauben. Weitere Vereinfachungen bieten automatisierte Skripts, die Standard-Aufgaben und Aktualisierungen ausführen. Jegliche Form von Wartungsarbeiten sollte weitestgehend bei laufendem Betrieb erledigt werden können.
Auch die Möglichkeit der Fernwartbarkeit kann eine Anforderung sein.
Um eine hohe Leistung der Anwendungen zu garantieren, sollten ausreichend Ressourcen vorhanden sein. Hier gilt zu beachten, dass manche Betriebssysteme gegenüber anderen bereits einen sehr großen „Eigenbedarf“ an Ressourcen haben.
Vom Betriebssystem wird bei Server-Software eine möglichst hohe Sicherheit gegen Angriffe von außen erwartet. Insbesondere bei Web-Server-Software ist dies von hoher Bedeutung. Aber auch Filter- und Scanmöglichkeiten sind wichtige Bestandteile entsprechender Server-Applikationen.
Das verwendete Betriebssystem sollte flexibel erweiterbar sein. Hierbei ist stets zwischen großen Funktionsmöglichkeiten einerseits und einer eventuellen Herstellerbindung andererseits abzuwägen.
Der Preis für Server-Software besteht nicht ausschließlich aus den Anschaffungskosten. Im Sinne einer Total-Cost-of-Ownership-Betrachtung müssen auch Kosten für Wartung Support und Upgrades beachtet werden.
Computernetzwerke sind keine Problemlösungen. Sie bieten lediglich Möglichkeiten, bestimmte Vorgänge oder Abläufe zu verbessern, Ressourcen effizienter zu nutzen oder auch Kommunikationskanäle zu öffnen.
Vor der Einrichtung eines Netzwerkes sollte eine innerbetriebliche Analyse zeigen, ob die Einrichtung eines Netzwerkes sinnvoll ist und wie dann eine spätere Nutzung aussehen sollte.
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com