Speichermedien
Speichermedien
1. Magnetische Speichermedien
1.1. Disketten
1.1.1.
Die gängigsten Diskettenformate
5¼-Zoll-Disketten:
360 KByte
1,2 MByte
3½-Zoll-Disketten:
720 KByte
1,44 MByte
2,88 MByte
1.1.2. Genormte Leistungsmerkmale der Disketten
Bis in die Details sind die Eigenschaften von Disketten festgelegt, und zwar sowohl in mechanischer und physikalischer Hinsicht als auch, was ihre magnetischen Eigenschaften angeht. Dafür gibt es eine Reihe von Normen. Sie unterscheiden sich nicht wesentlich und ergänzen sich in mancher Hinsicht.
Am wichtigsten für die Diskettenindustrie sind die Regeln der ECMA (European Computer Manufacturers Assosiation).
ECMA-Normen
Der Standart ECMA 70 beschreibt die mechanischen, physikalischen und magnetischen Charakteristika für Disketten des 5¼-Zoll-Formates mit 40 Spuren pro Seite. Disketten mit 80 Spuren für das 720-KByte- und das 1,2 MByte-Format sind in ECMA 78 und 99 festgelegt.
DIN-Normen
Die DIN-Normen bezüglich der mechanischen Eigenschaften sind DIN 66247, Teil 1 (Mechanische Eigenschaften), Teil 2 (Elektromegnetische Eigenschaften bei 7 958 Flußwechsel/rad) sowie die Ergänzungen in Teil 2 A1 (Elektromagnetische Eigenschaften bei 13 262 Flußwechsel/rad). Die DIN 66248 mit ihren Teilen 1, 2, 3, 3 A1, 4, 5 und 6 enthält Informationen über Aufzeichnungsverfahren und Formatierung. Auch hier sind zugleich die zugehörigen Prüfvorschriften festgelegt.
Die Festlegung zur Messung des Transmissionswertes (Lichtdurchlässigkeit) mittels lichtemmitierender Dioden (LED) sind in DIN 66243 Teil 2 veröffentlicht. Angelehnt sind alle diese Vorschriften an die internationalen ISO-Normen (ISO = International Organisation for Standardization). Die einschlägigen Regeln lauten: ISO 6596/1, ISO 7487/1, ISO 8630/1, ISO 8378/1.
Erwähnenswert ist noch, daß für verschiedene Messungen international die Referenzdisketten der deutschen Physikalisch-Technischen Bundesanstalt (PTB) in Braunschweig vorgeschrieben sind.
1.1.
3. Die 5¼-Zoll-Diskette
So manche Dinge tragen im Sprachgebrauch andere Namen als unter Fachleuten - man denke nur an den Schraubenzieher, offiziell "Schraubendreher". Bei Disketten ist es nicht anders: Mit geringerer Dichte heißen Sie "DD" oder "2D" für "doppelte Dichte" und tragen auch die Bezeichnung "48 tpi", weil 48 Spuren pro Zoll (tracks per inch) auf ihnen untergebracht werden. Die andere Sorte heißt "HD" und "96 tpi" für hohe Dichte und 96 Spuren pro Zoll. Die Norm allerdings will es ganz anders:
Da die Kantenlänge der 5¼-Zoll-Disketten etwa 130 mm beträgt, heißt sie nach DIN "Diskette E 130" in der einseitig beschreibbaren und "Diskette Z 130" in der zweiseitig beschreibbaren Variante. Während bei den Disketten mit der Kennzeichnung "E" nur eine Seite (die Seite 0) als beschreibbar deklariert wird, müssen bei zweiseitig beschreibbaren Disketten die Daten auf beiden Seiten - in sogenannter Wechselaktschrift - gespeichert werden können.
Disketten des 360 KByte-Formates haben auf jeder Seite 40 Spuren, bei einer Dichte von 1,9 Spuren/mm. Bei 80-Track-Disketten sind es 3,8 Spuren pro Millimeter. Bezüglich der formatierten Speicherkapazität muß bei letzteren noch zwischen DD- und HD-Disketten unterschieden werden. Diese Einteilung haben jedoch die Disketten nicht von Hause aus; es hadelt sich dabei vielmehr um das Format, das ihnen bei der Formatierung aufgezwungen wird.
Unter "Dichte" ist die Aufzeichnungsdichte zu verstehen. Sie hat also mit der Diskette nur insofern zu tun, daß sich eine Diskette in der deklarierten Dichte beschreiben und lesen lassen muß.
Aufbau
Die 5¼-Zoll-Diskette besteht aus 4 Komponenten, einer Fexieblen Kustoffhülle, die an ihrer innenseite mit einem Reinigungsvlies überzogen ist. Darin befindet sich das Speichermedium, daß in der Mitte durch einen Hub-Ring verstärkt ist.
1.1.4. Die 3½-Zoll-Diskette
In ihre Einzelteile zerlegt, bestehen 3½-Zoll-Disketten im wesentlichen nur aus zehn Komponenten.
Bei näherer Betrachtung finden sich neben dem eigentlichen Speichermedium noch zwei unscheinbare Teile von großer Bedeutung. Sie verbergen sich unter dem Reinigungsvlies: Ein flexibles Plastikstück, der sogenannte Lifter, drückt permanent gegen die Diskettenscheibe. So wird zum einen die Scheibe bei jeder Undrehung gereinigt, zum anderen das Start-/Laufdrehmoment konstant gehalten.
Andruckstege auf der gegenüberliegenden Gehäuseinnenseite stellen zusätzlich die Reinigung der zweiten Diskettenseite sicher und stabilisieren darüber hinaus den Lauf der Scheibe. Extreme Temperaturen lassen den kleinen, nützlichen Helfer seine Elastizität verlieren, das Laufverhalten der Diskette gerät aus den Fugen.
1.
2. Festplatten
Das Funktionsprinzip einer Festplatte ist nicht schwer zu verstehen, ähnelt es doch sehr dem von Disketten. Wie bei diesen werden die Bits in magnetische Flußrichtungswechsel umgesetzt. Das bedeutet nichts anderes als daß die Magnetpartikel der Oberfläche eine andere Polung für eine »0« einnehmen als für eine »1«.
Allerdings bewegen sich Festplatten in ganz anderen Dimensionen. Im Gegensatz zur Diskette mit ungefähr 300 Umdrehungen pro Minute rotiert die Festplatte(n) mit 3600 Umdrehungen, manche Modelle gar mit 5000 und mehr.
Daß die Magnetschicht nicht, wie bei herkömmlichen Disketten, auf einem weichen Kunststoffträger aufgebracht werden kann, leuchtet ein: Eine dünne Kunststoffscheibe würde bei diesen Geschwindigkeiten unweigerlich zu flattern beginnen. Bei Festplatten verwendet man daher Aluminium- oder Glasscheiben als Trägermaterial. Um mehr speichern zu können, werden dabei mehrere Scheiben übereinander auf eine gemeinsame Achse montiert. Radial hierzu, ähnlich wie beim guten alten Plattenspieler, sind an einem beweglichen Arm die Schreib-/Leseköpfe befestigt, und zwar für jede Plattenoberfläche einer (Bild 2).
Eine Berührung zwischen Kopf- und Platte, der gefürchtete »Headcrash«, wäre bei dieser hohen Rotationsgeschwindigkeit tödlich: Datenverlust wäre die Folge, und auch der Kopf könnte in Mitleidenschaft gezogen werden. Dies verhindert jedoch der sogenannte Bernoulli-Effekt.
Bei solch hohen Rotationsgeschwindigkeiten bildet sich zwischen Plattenoberfläche und Kopf ein Luftpolster, so daß der Kopf im Abstand von einem Mikrometer (ein Millionstel Meter) auf diesem Polster über der Platte schwebt. So erklärt sich auch die Stoßempfindlichkeit von Festplatten im Betrieb. Staub, Fingerabdrücke oder gar Haare würden sich vor dem Schreib-/Lesekopf wie ein Gebirge auftürmen. Um das Eindringen von Staubpartikeln auszuschließen, werden Festplatten in staubfreien Räumen hergestellt und luftdicht verschlossen oder mit einem feinen Filter vor Staub geschützt. Vor jeglichem Transport sollten Festplatten unbedingt »geparkt« werden. Bei diesem Vorgang, der entweder automatisch bei Trennung vom Stromnetz erfolgt (Autopark-Funktion) oder manuell per Programm (meist »Ship« oder »Park«) ausgelöst werden muß, werden die Schreib-/Leseköpfe in einen Plattenbereich gefahren, der keinerlei Daten enthält.
Hier können die Köpfe ohne Gefahr auf der Platte landen (die sogenannte »landing zone«). Zusätzlich werden die Köpfe in dieser Parkposition arretiert, so daß eine Zerstörung bei einigermaßen pfleglicher Behandlung ausgeschlossen werden kann. Besonders interessant ist die Autopark-Funktion moderner Laufwerke. Vom Netz getrennt, kommt die Platte aufgrund ihrer Schwungmasse erst nach einiger Zeit zum Stillstand. Ein Generator erzeugt aus dieser Restrotation Strom, der benutzt wird, um die Köpfe in eine ungefährliche Position zu fahren.
Im Gegensatz zu Diskettenlaufwerken rotieren Festplatten ständig, da es zu lange dauern würde, sie bei jeder Datenanforderung erneut auf Touren zu bringen.
Der Geschwindigkeitsvorteil der Festplatte ginge verloren. Damit wären wir auch schon beim entscheidenden Vorteil von Festplatten: Sie sind schnell. Selbst die ersten Festplattenlaufwerke mit Zugriffszeiten um die 80 ms waren ein gewaltiger Fortschritt. Die mittlere Zugriffszeit liegt bei den Spitzenreitern heute unter 10 ms. Diskettenlaufwerke dagegen weisen eine mittlere Zugriffszeit von 150 bis 200 ms auf, also deutlich mehr. Da die Magnetbeschichtung höherwertig ist und die Köpfe sehr viel genauer arbeiten, können Festplatten auch wesentlich mehr Daten aufnehmen.
Während Disketten heute bis zu 2,88 MByte speichern, bereiten auch ein GByte (1 GByte = 1024 MByte) oder mehr keine Probleme. Haushoch gewinnen Sie auch beim Datendurchsatz. Wo Diskettenlaufwerke mit 30 bis 40 KByte pro Sekunde aufwarten können, bringt es selbst eine langsame Festplatte auf 200 KByte pro Sekunde. Der mittlere Bereich liegt dann bei 600 bis 700 KByte pro Sekunde, und ab einem MByte aufwärts beginnt die High-end-Klasse, die bis zu 2 MByte pro Sekunde (alle Werte ohne Cache) erreicht.
Von BPI und FCI
Die sogenannte Aufzeichnungsdichte wird in BPI (Bits per Inch = Bits pro Zoll) angegeben. Diese ereicht heute Werte von zikra 40000 BPI.
Ein ebenso gebräuchliches Maß für die Aufzeichnungsdichte ist »Flux Changes per Inch« (FCI). Übersetzt bedeutet das soviel wie »Flußwechsel pro Zoll« und gibt an, wie oft die Ausrichtung der Magnetpartikel pro Zoll geändert werden kann, denn der Abstand »d« zwischen zwei Flußwechseln kann eine bestimmte Grenze aus physikalischen Gründen nicht unterschreiten. Die gegenseitige Beeinflussung zweier nebeneinander liegender Bits wäre zu groß, eine »Umpolung« und somit ein Datenverlust wäre nicht ausgeschlossen. Je höher jedoch die Werte BPI beziehungsweise FCI sind, desto mehr Daten lassen sich auf der Festplatte unterbringen.
1.2.
1. Datenorganisation
Auf den Magnetoberflächen werden durch die Low-level-Formatierung Datenspuren in Form konzentrischer Ringe eingerichtet. Die Spuren eines Plattenstapels, die genau übereinander liegen, bezeichnet man als Zylinder. Je dichter die Spuren beieinander liegen, desto mehr Daten passen auf die Platte. Diese Spurdichte wird in TPI angegeben, das bedeutet Tracks Per Inch, als Spuren pro Zoll.
Da die inneren Spuren einen geringeren Umfang haben als die äußeren, können sie auch weniger speichern.
Bei älteren Festplatten legt also die innerste und somit auch kürzeste Spur fest, wie viele Sektoren (1 Sektor = 512 Datenbytes) auf allen anderen Spuren untergebracht werden.
Schon bald entwickelte man ein Verfahren, um dieser Platzverschwendung auf den äußeren, längeren Spuren zu begegnen. Zone-Bit-Recording oder ZBR hieß das Zauberwort. Die Platte wird hierzu in mehrere Spurgruppen eingeteilt. Dabei wird für jede Gruppe die maximale Anzahl von Sektoren pro Spur bestimmt. Je kleiner diese Gruppen sind, desto besser ist die Ausnutzung der Platte.
Im Idealfall würde für jede Spur der optimale Wert errechnet. Der Rechneraufwand für den Controller würde in diesem idealen Fall stark ansteigen, da er bei jedem Zugriff erst berechnen müßte, wie viele Sektoren auf der zu lesenden Spur untergebracht sind. Um den Rechenaufwand gering zu halten, faßt man mehrere Spuren zu einer »Zone« zusammen, in der die Sektorenanzahl der Spuren gleich ist. Das Verfahren stellt also einen Kompromiß aus Geschwindigkeit und Platzgewinn dar.Die Abbildung zeigt ein Beispiel für eine Einteilung. In Zone 2 können dabei die wenigsten Daten gespeichert werden, in Zone 0 die meisten.
Die LPS 120AT von Quantum bringt innerhalb ihrer 16 Zonen zwischen 44 (ganz innen) und 87 (ganz außen) Sektoren auf jeder Spur unter.
So kommt diese 25,4 mm hohe 3½-Zoll-Festplatte mit nur einer Speicherplatte auf eine beeindruckende Kapazität von 120 MByte. Das Modell LPS 450 des gleichen Herstellers kommt bei identischen äußeren Abmessungen mit fünf Speicherplatten gar auf eine Kapazität von 425 MByte. Es dürfte damit wohl zu den Spitzenreitern in diesem Bereich zählen.
1.2.
2. Der Interleave-Faktor
Da die ersten Festplatten im Vergleich zu den damaligen Rechnern zu schnell waren, konnte der Computer die Sektoren nicht direkt hintereinander lesen. Während er beispielsweise Sektor 1 las und auswertete, war Sektor 2 schon am Kopf vorbei, so daß dieser erst nach einer weiteren Umdrehung gelesen werden konnte. Um diese Verzögerung zu vermeiden (so wären für die 17 Sektoren einer Spur einer MFM-Platte immerhin 17 Umdrehungen nötig gewesen), dachte man sich einen Trick aus. Zwischen zwei aufeinanderfolgenden logischen Sektoren wird eine Lücke eingefügt. In diese Lücke kommt dann ein zusätzlicher logischer Sektor der Spur.
Dieses Verfahren wird »Interleave« (Versatz, verschachtelter Sektorzugriff) genannt. Der sogenannte »Interleave-Faktor« gibt an, wieviele physikalische Sektoren zwischen zwei logischen liegen und somit auch, wieviele Umdrehungen zum kompletten Lesen einer Spur notwendig sind. Bei einem Interleave von 1:3 folgt Sektor 2 erst drei Sektoren nach dem ersten. Zum Einlesen der Spur wären also drei Umdrehungen nötig. Ideal ist natürlich ein Interleave-Faktor 1:1. Hier folgen die logischen Sektoren unmittelbar aufeinander, und die Spur kann innerhalb einer Umdrehung gelesen werden.
Moderne Festplatten/Controller-Kombinationen erreichen diesen Interleave, der eigentlich ja gar keiner mehr ist, mühelos, indem zum Beispiel ein Pufferspeicher (Cache) auf dem Controller untergebracht ist.
1.2.3. Die Rechneranbindung
Die eigentliche Anbindung an den Computer übernimmt wie so oft eine spezielle Steckkarte, der Festplatten-Controller. Kann dieser auch noch Diskettenlaufwerke mitsteuern, so spricht man von einem Kombi-Controller.
Dabei gibt es vier verschiedene Arten von Controller-Schnittstellen und somit auch vier verschiedene Festplattenarten:
ST506/412
Dieses Interface wurde nach der ersten Seagate-Festplatte, die diese Schnittstelle verwendete, der ST506 (»ST« = Seagate Technology) benannt. Je nach Aufzeichnungsverfahren werden hierbei Datenübertragungsraten von 5 MBit (MFM) bis zu 7,5 MBit (RLL) pro Sekunde erreicht. In der Praxis liegt der Datendurchsatz etwa zwischen 200 und 600 KByte pro Sekunde. Zu erkennen ist die ST506/412-Schnittstelle am 20poligen Daten- und am 34poligen Steuerkabel (meistens Flachbandkabel). Da die Datenübertragung seriell erfolgt, liegt der Datendurchsatz recht niedrig. Der Standard-Controller ist der WD1003 von Western Digital, zu dem viele Controller kompatibel sind.
ESDI
Das Enhanced Small Device Interface (ESDI) ist als Weiterentwicklung des ST506/412 zu sehen. Es arbeitet mit den gleichen Kabelverbindungen, und ebenfalls seriell. Die Übertragungsrate liegt hier mit 10 bis 15 MBit pro Sekunde schon deutlich höher. Sowohl ST506/412 als auch ESDI sind PC-spezifische Entwicklungen und erlauben maximal zwei Festplatten gleichzeitig.
SCSI
Die derzeit wohl universellste Schnittstelle ist das 1982 standardisierte Small Computer System Interface. SCSI oder das neue, weiterentwickelte und abwärtskompatible SCSI-II ist keine reine Festplattenschnittstelle, auch Scanner, CD-ROM-Laufwerke und vieles mehr kann daran angeschlossen werden.
Bis zu sieben Geräte (also auch bis zu sieben Festplatten) können beliebig gemischt in einer Reihe angeschlossen werden, wobei das jeweils letzte mit einem Abschlußwiderstand versehen werden muß. Da jedes Gerät eine eigene Adresse in Form einer Nummer hat, kommen die Daten auch immer beim richtigen an, indem sie von Gerät zu Gerät witergereicht werden, bis der Adressat erreicht ist. Ein weiterer Vorteil, der für SCSI spricht, ist die hohe Verarbeitung dieser Schnittstelle, die auch beim Next-Rechner und beim Apple Macintosh anzutreffen ist. Die eigentliche Intelligenz dieser parallelen Schnittstelle besitzt jedoch das jeweilige Gerät, nicht der Controller. Im Gegensatz zu ST506/412 steuert nicht der Steckkarten-Controller Vorgänge wie beispielsweise Formatieren, sondern der Computer erteilt hier nur den Befehl »formatiere Festplatte«, und alles weitere veranlaßt der auf dem Gerät integrierte Controller, während der Computer schon weiterarbeiten kann. Daher nennt man die hier verwendeten Steckkarten statt Controller besser Host-Adapter.
Der Host-Adapter nimmt lediglich eine Anpassung der elektrischen Signale zwischen SCSI-Gerät und dem ISA/EISA/MCA-Bus des PCs vor.
Im Falle einer Festplatte befindet sich die gesamte Steuerelektronik auf der Platte. Das hat den Vorteil, daß der Hersteller die Verbindung zwischen Festplatte und Controller stark optimieren kann und der Host-Adapter nur noch wenig Einfluß auf die Datenübertragungsrate hat. Nachteilig ist jedoch der höhrere Preis von SCSI-Komponenten, da jedes Gerät seine eigene Schnittstelle quasi »mitschleppt«. Zu erkennen sind SCSI-Festplatten am 50poligen Flachbandkabel, welches bis zu 6 Meter lang sein darf. Die maximale Datenübertragungsrate liegt bei bis zu 4 MByte pro Sekunde, welche in der Praxis aber fast nie erreicht wird.
Der derzeit wohl meistverbreitete SCSI-Host-Adapter stammt von der amerikanischen Firma Adaptec, heißt 1542B (Kombi-Controller) und kostet um die 500 Mark. SCSI-Produkte sind aufgrund ihrer enormen Leistungsfähigkeit und dem damit verbundenen höheren Preis bis jetzt eher den Profis vorbehalten. Nicht verschwiegen werden sollte auch der höhere Installationsaufwand bei SCSI. Oft sind weitere Treiber erforderlich, die eventuell Inkompatibilität hervorrufen können, oder es müssen die bereits erwähnten Abschlußwiderstände angebracht werden. Auch eine Änderung der Gerätereihenfolge kann Probleme mit sich bringen, ganz im Gegensatz zur eigentlichen SCSI-Spezifikation. SCSI sollte also nicht unbedingt von Einsteigern installiert werden, sondern gehört in schon etwas erfahrene, wenn nicht sogar in Profi-Hände.
Dies ergibt sich allerdings durch den bereits erwähnten recht hohen Preis fast automatisch.
IDE (auch AT-Bus genannt)
Furore macht in letzter Zeit die bisher neueste Schnittstelle, das Integrated Device Electronics IDE, welches oft auch als AT-Bus-Schnittstelle bezeichnet wird. Letztere Bezeichnung rührt daher, aß diese Technologie wirklich erst AT-Besitzern (also ab 80286) zugänglich ist, da die Schnittstelle auf dem 16 Bit breiten Bus des AT aufbaut. Keine Regel jedoch ohne Ausnahme: Es gibt seit kurzem auch IDE-Adapter für PCs mit 8086/88-Prozessor, allerdings geht hier einiges an Geschwindigkeit verloren. Wie auch SCSI arbeitet IDE parallel, und auch hier benötigt man einen Host-Adapter. Die eigentliche Intelligenz, der Controller, ist wieder auf der Festplatte selbst integriert (daher auch der Name) und läßt sich somit optimal auf das jeweilige Laufwerk abstimmen.
IDE eignet sich allerdings nur zum Anschluß von Festplatten (neuerdings auch Streamern), und auch hier ist die Anzahl auf zwei (mit teueren IDE-Adaptern bis zu vier) Platten beschränkt.
Der große Vorteil ist der wesentlich günstigere Preis gegenüber SCSI bei durchaus vergleichbarer Geschwindigkeit (an die 2 MByte pro Sekunde können erreicht werden, durchschnittlich ist es ungefähr 1 MByte pro Sekunde). Doch nicht nur die Platten sind wesentlich günstiger: Ein IDE-Host-Adapter mit Disketten-Controller kostet nur etwa 200 Schilling, auch Modelle mit bereits integrierten seriellen und parallelen Schnittstellen nicht wesentlich teurer.
Abschließend kann man sagen, daß die Zukunft SCSI und IDE gehören wird. ST506/412-Festplatten werden vom Markt verschwinden, und auch ESDI wir aufgrund des hohen Preises Schwierigkeiten haben, sich gegen die Standards IDE und SCSI zu behaupten.
1.
2.4. Aufzeichnungsverfahren
Doch wie werden die Bits und Bytes in magnetische Form gebracht? Die 0- und 1-Informationen werden auf verschiedene Codierungsarten in verschieden gerichtete Magnetpartikel umgesetzt. Die Ausrichtung links/rechts könnte dabei beispielsweise dem magnetischen Nord-/Südpol entsprechen. Der Schreib-/Lesekopf besitzt dazu eine Spule. Wird diese Spule von Strom durchflossen, so bildet sich ein je nach Stromrichtung anders ausgerichtetes Magnetfeld, welches die Plattenoberfläche entsprechend magnetisiert.
Da auch Festplatten nie hunderprozentig gleich laufen, müssen zusätzlich zu den Daten sogenannte Taktinformationen gespeichert werden. Diese sichern, daß immer mit gleicher Geschwindigkeit gelesen und geschrieben wird, indem etwaige Abweichungen durch eine Änderung der Dreh-zahl korrigiert werden (man stelle sich nur das Chaos vor, wenn jeder Sektor unterschiedlich lang wäre). Werden die Taktinformationen, mit den zu speichernden Daten verknüpft, auf jeder Plattenoberfläche gespeichert, so spricht man von einem »Embedded Sector Servo«, daß heißt, die Informationen für den Gleichlauf der Festplatte sind in die Datensektoren eingebettet. Man kann jedoch eine Oberfläche des Plattenstapels ausschließlich für diese Taktinformationen verwenden, während alle anderen nur für Daten genutzt werden.
Erstere Methode eleganter und wird auch meist vorgezogen. Würden sich ständig 0- und 1-Bits abwechseln, so könnte man auf einen separaten Takt verzichten und beispielsweise die 1 zur Synchronisation verwenden.
Probleme bereiten dabei aber längere Folgen von gleichen Bits (zum Beispiel 000 oder 111111). Diese sogenannten Läufe englisch Runs) stellen besonders hohe Anforderungen an den Gleichlauf. Die beschriebenen Codierungsarten verwenden hier unterschiedliche Methoden, um nicht aus dem Takt zu geraten.
NRZ-Verfahren
Am Anfang war das NRZ-Verfahren (NRZ = Non Return to Zero). Hierbei wird die Magnetisierung nur gewechselt, wenn auch bei den Datenbits ein Wechsel von 0 nach 1 oder umgekehrt erfolgt (Bild 4). Folgen mehrere gleiche Bits, bleibt der Schreibstrompegel bestehen.
Bei aufeinanderfolgenden 1-Bits bleibt der Schreibstrom konstant auf high (1), ohne zwischendurch zu low (0) zurückkehren, was dem Verfahren seinen Namen gab. Die Pegel des Schreibstroms entsprechen exakt dem Verlauf des digitalen Datensignals, also den zu speichernden Bits. Leider hat dieses an sich sehr einfache Verfahren einen großen Nachteil: Da beliebig lange 0- beziehungsweise 1-Läufe auftreten können, sind die Gleichlauf-Anforderungen besonders hoch, schließlich enthält die zu schreibende Bitfolge keinerlei Taktinformationen (also kein Embedded Sector Servo). Die Taktsignale müssen daher auf einer separaten Oberfläche des Plattenstapels untergebracht werden, die somit für Daten blockiert ist.
FM-Verfahren
Das Frequenzmodulationsverfahren FM (Frequency Modulation) integierte erstmals die Taktinformationen. Die Datenbits werden hierzu in eine FM-Bitfolge umgesetzt, da ja der Takt hinzugefügt werden muß.
Dabei wird aus einer 1 Die Bitfolge 11 und aus einer 0 die Folge 10. Die erste Ziffer dient dabei als Taktinformation, und die zweite stellt das jeweilige Datenbit dar. Der Verlauf der Schreibstromkurve in Bild 6 läßt sich nun wie folgt beschreiben: Enthält eine Bitzelle (eine Bitzelle enthält ein Datenbit und eventuell Taktinformationen) die FM-Bitfolge »10«, so bedeutet dies »Schreibstrom halten«. Die Bitfolge »11« bedeutet demnach »Schreibstrom wechseln«, un der Schreibstrompegel wird innerhalb der Bitzelle gewechselt. Die erste Ziffer gibt also den Schreibstrompegel zu Beginn der Bitzelle an, und die zweite den Pegel am Ende (jeweils an der gestrichelten Linie). Wie in Bild 5 zu sehen ist, entstehen dabei viele kleine verschiedene magnetisierte Bereiche.
Da der Abstand »d« zwischen zwei Flußwechseln nicht beliebig klein sein kann, ist der Schreibdichte eine deutliche Grenze gesetzt. Zusätzlich ist dieses Verfahren relativ platzintensiv, da in jeder Bitzelle Taktinformationen gespeichert sind. Aufgrund dieser Tatsache bezeichnet man die FM-Codierung oft auch als Single-Density-Format, also als Format mit einfacher Schreibdichte.
MFM-Verfahren
Die Weiterentwicklung des FM-Verfahrens ließ nicht lange auf sich warten. Das modifizierte Frequenzmodulationsverfahren MFM (Modified Frequency Modulation) brachte eine Ver-dopplung der Speicherkapazität. Der Takt wird hier nur in einer Bitzelle gespeichert, wenn die Zelle selbst und die vorhergehende keine 1 enthalten.
Aus einem 1-Datenbit wird somit die MFM-Folge 01, und aus einer 0 die Folge 00. Ging dieser Bitzelle allerdings schon eine Zelle mit 00 voran, so wird aus dem zweiten 0-Datenbit eine 10, um den Lesetakt stabil zu halten. Vor jeder 1 der MFM-Bitfolge erfolgt nun ein Wechsel des Schreibstromsignals.
Die verschiedenen Magnetisierungszonen werden deutlich weniger und insgesamt größer (Bild 6). Während das FM-Verfahren zwölf Flußwechsel zur Codierung der Bitfolge des Beispiels verwendet, benötigt das MFM-Verfahren nur noch sechs Flußwechsel, was die oben angesprochene Kapazitätsverdopplung bestätigt. Besonders die ersten ST506/412-Festplatten verwenden diese Aufzeichnungsmethode, bei der jeweils 17 Sektoren auf einer Spur unter-gebracht werden.
Da die Geschwindigkeit des Verfahrens nicht allzu hoch ist, entwickelten die Hersteller ein weiteres.
RLL-Verfahren
Ziel des RLL-Verfahrens ist es, die Länge der »0«-Läufe zu begrenzen. RLL steht für Run-Length-Limited, das bedeutet Lauflängenbegrenzung. Beim hier betrachteten RLL-(2,7)-Ver-fahren liegen zwischen zwei 1-Bits mindestens zwei und höchstens sieben 0-Bits. Neuartig an diesem Verfahren ist, daß erstmals auch die auf das zu codierende Datenbit folgenden Bits der sogenannte Kontext, beim eigentlichen Codierungsverfahren berücksichtigt werden. Die Tabelle zeigt, wie aus den Datenbits die RLL-Bitfolge entsteht.
Die in Bild 7 dargestellte Bitfolge wird demnach in drei Schritten übersetzt. Aus 11 wird im RLL-Code 0100, und aus den beiden folgenden 010 wird jeweils 001000. Die Datenbits 11010010 sind also zur RLL-Bitfolge 0100001000001000 geworden, aus ursprünglich 8 Bit werden nun 16. Auffällig sind allerdings die recht zahlreich vertretenen 0-Bits. Der Schreibstrom wechselt, wie schon bei MFM, vor jedem 1-Bit der RLL-Folge. Es entstehen vier Magnetisierungszellen.
Zunächst erscheint es paradox, daß RLL Platz sparen soll, sind doch aus 8 auf einmal 16 Bit geworden. Noch einmal soll wiederholt werden, daß die Flußwechsel in der Magnetschicht einen bestimmten Abstand nicht unterschreiten können. Nun folgt der eigentliche Trick: Da beim RLL-(2,7)- Verfahren auf ein 1-Bit wenigstens zwei 0-Bits folgen läßt sich die Aufzeichnungsdichte dadurch steigern, daß man die Bitfolge »001« auf dem kleinsten Stück aufzeichnet. Geht man also von Datenbits aus, so kann man 1,5 dieser Datenbits auf dem minimalen Stück unterbringen, statt wie sonst nur 1 Datenbit. Somit erklärt sich der 50prozentige Platzgewinn von RLL-(2,7) gegenüber der MFM-Codierung. Angewendet wird dieses Verfahren zum Beispiel bei neueren ST506/412-Platten und auch bei den neuen IDE-Modellen.
Man sollte sich allerdings nicht über Angaben wie RLL-(1,7) wundern, denn hierbei handelt es sich nur um eine Abwandlung des hier beschriebenen RLL-(2,7)-Verfahren, bei dem auf ein 1-Bit wenigstens eine 0 folgt, anstatt mindestens zwei.
Bit Kontext RLL-(2,7)-Code
1 0 10 00
1 1 01 00
0 00 10 0100
0 10 00 1000
0 11 00 0100
0 010 00 001000
0 011 00 100100
1.2.5. Fehlerkorrekturen
Auch Festplatten sind nicht gegen Fehler gefeit. Um diese zu erkennen, wird zu den gespeicherten Daten eine Prüfsumme gebildet, die mitgespeichert wird.
Werden diese Daten nun gelesen, wird wieder eine Prüfsumme gebildet und mit der auf der Platte verglichen. Stimmen beide überein, so ist mit sehr großer Wahrscheinlichkeit alles in Ordnung. Andernfalls meldet die Festplatte dem Controller einen Fehler. Dieser gibt dann den Befehl, den ganzenVorgang zu wiederholen, denn schließlich könnte auch der Kopf ein wenig verrutscht sein (Seek Error). In der Regel ist danach das Problem behoben, und man spricht von einem »Soft Error«, also einem »weichen« Fehler. Im Fall, daß mehrere Versuche fehlschlagen, handelt es sich um einen »Hard Error«.
Wahrscheinlich ist dann an dieser Stelle der Platte die Magnetschicht beschädigt, und die Daten sind leider verloren. Festplatten haben übrigens ab Werk bereits solche Oberflächenfehler, die aber auf der Gehäuseoberseite aufgedruckt sind. Diese defekten Sektoren müssen bei der Low-Level-Formatierung angegeben werden, damit sie von vornherein nicht mit Daten belegt werden.
Zwischen 0 und 20 solcher defekten Sektoren sind durchaus die Regel und kein Anlaß zur Panik. IDE-Festplatten (die im übrigen nur mit dem DOS-Befehl »format« formatiert werden dürfen) haben sogar pro Spur einen oder mehrere Reserve-Sektoren, die in solchen Fällen dann statt der defekten benutzt werden.
1.
2.6. Geschwindigkeit
Ein sehr wichtiges Beurteilungskriterium ist neben Aufzeichnungs- und Speicherdichte die mittlere Zugriffszeit einer Festplatte. Diese wird in Millisekunden (ms) angegeben und setzt sich aus der Einstell- und der Latenzzeit zusammen. Die Einstellzeit gibt an, wie lange der Schreib-/Lesekopf benötigt, um zur angeforderten Spur zu fahren. Die Latenzzeit gibt an, wieviel Zeit dann noch vergeht, bis der angeforderte Sektor unter dem Kopf angelangt ist (die Platte rotiert ja dauernd, und somit ist der gesuchte Sektor mit hoher Wahrscheinlichkeit nicht gerade unter dem Schreib-/Lesekopf).
Die Hersteller versuchen, diese Zugriffszeit ständig zu verringern. Dies kann einmal durch schnellere Bewegung der Köpfe erreicht werden, die dann an der Spur angekommen, aufgrund der höheren Geschwindigkeit stärker abgebremst werden und deshalb länger brauchen, sich zu »beruhigen«, also auszuschwingen. Man versucht in diesem Fall, die sogenannte »settling time« gering zu halten, damit diese Kopfberuhigungs-Phase nicht den Geschwindigkeitszuwachs zunichte macht die Latenzzeit kann durch eine höhere Drehzahl der Festplatte verringert werden, denn je schneller sich die Platte dreht, desto eher ist der angeforderte Sektor am Schreib-/Lesekopf angelangt. Ein weiterer angenehmer Effekt dieser Drehzahlerhöhung ist der gesteigerte Datendurchsatz, denn die Spur wird in wesentlich kürzerer Zeit eingelesen (Ingerleave 1:1 vorausgesetzt).
Eine neue Methode ist, einen zweiten Arm mit Schreib-/Leseköpfen diagonal gegenüber dem bereits vorhandenen anzuordnen. Bei diesem von der Firma Conner entwickelten Verfahren wird jeweils der Arm mit Schreib-/Leseköpfen bewegt, der der angeforderten Spur am nächsten ist.
Weiterhin arbeiten die Arme völlig unabhängig voneinander, also kann ein Arm Leseoperationen ausführen, während der andere gerade Daten auf die Festplatte schreibt. Hierzu muß eine Menge Daten kurzzeitig zwischengespeichert werden, bis sie auf die Platte beziehungsweise bis sie an den Rechner weitergegeben werden können.
Im Vergleich zum Prozessor sind RAM-Bausteine zwar langsam, aber den Vergleich mit Festplatten gewinnen sie haushoch. Was liegt also näher als Daten, die man öfter benötigt, nach einmaligem Lesen von der Platte in einem solchen Zwischenspeicher abzulegen, damit sie im Wiederholungsfall aus dem schnellen RAM gelesen werden können? Gewährleistetwird dies erst durch die Lokalitätseigenschaft von Programmen, welche besagt, daß gerade benötigte Programmteile mit sehr hoher Wahrscheinlichkeit beim nächsten Lesezugriff noch einmal benötigt werden. Man versucht sogar vorauszuahnen, welche Daten der Computer als nächstes anfordern könnte (look-ahead-cache). Da hierbei die Anzahl der Treffer die der Fehlschläge aufgrund ausgefeilter Algorithmen übersteigt, bringen Cache-Speicher einen nicht zu verachtenden Geschwindigkeitszuwachs sowohl beim Zugriff als auch beim Datendurchsatz.
Auf modernen Festplatten befindet sich in der Regel bereits ein integrierter Cache von 32 bis 512 KByte Größe, der in mehrere Segmente unterteilt ist und sämtliche Lesezugriffe (neuerdings auch Schreibzugriffe) puffert. Die teuerste Lösung im Bereich Festplatten-Cache ist nach wie vor der Cache-Controller (bei IDE und SCSI natürlich richtiger: Host-Adapter). Es handelt sich hier, ähnlich wie beim Prozessor- oder RAM-Cache vieler 386er und 486er, um einen Cache auf Hardwarebasis, der vollkommen softwaretransparent arbeitet, also von der Software gar nicht bemerkt wird. Die meisten dieser Controller besitzen einen eigenen Prozessor, der den gesamten Datentransfer von und zur Platte übernimmt.
Dabei kann er auf einen Cache von 512 KByte bis zu 16 MByte zugreifen. Der auf den Steckkarten integrierte Prozessor nimmt der CPU sämtliche Arbeit ab, indem er direkt auf den rechnereigenen Speicher zugreift.
Dies kann allerdings Probleme mit sich bringen, wenn Daten in Cache und Arbeitsspeicher nicht übereinstimmen, die sogenannte Datenkonsistenz nicht gewährleistet ist. Je größer der Cache, desto größer der Schaden bei einem Stromausfall.
Günstiger und oft auch schneller sind Cache-Programme. Die reinen Software-Lösungen benutzen einen Teil des Arbeitsspeichers für ihre Zwecke. Obwohl bei Cache-Programmen wieder die CPU des Rechners das Kommando übernehmen muß, ist diese Lösung oft schneller als die oben beschriebenen Cache-Controller mit eigenem Prozessor. Der Grund hierfür ist recht simpel.
Zwar geht bei einem Software-Cache Rechenzeit für diesen Vorgang verloren, aber die Cache-Controller müssen Daten über den I/O-Bus transportieren. Leider ist der Bus aber nur mit 8 MHz getaktet (selten bis zu 12 MHz), während auf den Arbeitsspeicher mit voller Taktfrequenz des Prozessors zugegriffen werden kann. Zudem haben die Cache-Programme im Falle von Inkompatibilität den Vorteil, daß sie problemlos abschaltbar sind, ganz zu schweigen vom niedrigeren Preis. Man benötigt lediglich etwas zusätzlichen RAM und eines dieser Programme. Die Preise für RAM-Bausteine sinken ständig, und viele bekannte Cache-Programme entstammen dem Sharewarebereich (so zum Beispiel Hyperdisk).
Außerdem wird seit MS-DOS 5.
0 der Microsoft-eigene Cache Smartdrive mitgeliefert, der auch optimal mit Windows zusammenarbeitet. Alles in allem ist dies die geeignete Lösung für Heimanwender: schnell und preisgünstig.
1.2.7. Die Zukunft der Festplatte
Festplatten werden in Zukunft noch mehr Speicherplatz haben, noch kleiner werden, und vielleicht noch schneller werden.
Die ersten Schritte dazu sind schon getan:
Die neue Produktlinie von Seagate, die im 2. Quartal 94 ausgeliefert wird, umfaßt eine Festplatte mit dem Namen Elite 9. Diese 5¼"-Festplatte in voller Bauhöhe, kann immerhin 9 GByte Daten speichern und wird um 3400 Dollar erhältlich sein. Sie dreht sich mit 5400 Umdrehungen in der Minute, hat eine durchschnittliche Suchzeit von 11 ms und eine Mean-Time-Between-Failure - Zeit von 500.000 Stunden.
Eine weiter zukunftweisende Technologie ist die Entwicklung des 32g schweren, 1,3" Laufwerks von Hewlett Packard namens Kittyhawk.
Diese Festplatte ist nicht wesentlich größer als ein 5-Mark-Stück und kann immerhin 42 MB speichern. Diese Festplatte ist vor allem für PDAs (Personal Digital Assistent) und Notebooks konzipiert worden, da sie außer ihrer geringen Außmaße auch eine ungewöhnlich hohe Stoßfestigkeit besitzt.
Notiz: 60 Kittyhawks passen in ein 5¼"-Laufwerk, und könnten somit als Disk-Array-System die Datensicherheit in Netzwerkservern erhöhen.
Die neueste Technologie: Nasse Scheiben
Auch wenn einem der Abstand zwischen Schreib-/Lesekopf und Platte mit lediglich 1 Mikrometer sehr gering erscheint, den Festplattentechnikern ist auch dieser Spalt noch viel zu groß. Denn je näher der Kopf über der Platte schwebt, desto höher wird die erzielbare Dichte. Dabei bedeutet halber Abstand die vierfache Informationsdichte.
Die Firma Conner scheint diesem Wunschtraum nun ein ganzes Stück näher gekommen zu sein. Statt auf einem Luftpolster ruht bei diesem patentierten Verfahren der Schreib-/Lesekopf auf einem dünnen Flüssigkeitsfilm (Liquid Disk). Dies bringt zwei entscheidende Vorteile: Zum einem ist der Flüssigkeitsfilm wesentlich dünner als das Luftpolster, was zu einer erheblichen Steigerung der Plattenkapazität führt, zum anderen wirkt das Öl zwischen Kopf und Platte wie ein Puffer, der deren zerstörerisches Zusammentreffen (Headcrash verhindert. Bisher funktioniert dieses System nur bei extem kleinen Festplattenformaten, da bei größeren Scheiben die hohe Umdrehungsgeschwindigkeit an den Außenbereichen der Platte den Schmierfilm zum Reißen bringen würde.
Das Know-how stammt von einer Firma für Spezialschmierstoffe, die Conner kurzerhand aufgekauft hat. Wann derartige Platten auf dem Markt zu erwarten sind, ließ Conner noch nicht durchblicken.
1.3. Streamer
1.3.1. Grundlagen der Streamer-Technologie
Ab einer Festplattenkapazität von 80 MByte ist der Einsatz von Disketten für Backups aus Zeitgründen einfach nicht mehr sinnvoll.
Der Anwender wird vielmehr die Anschaffung eines Streamers in Erwägung ziehen. Aber wie funktioniert so ein Gerät eigentlich? Wie zuverlässig arbeiten Bandlaufwerke? Welche Unterschiede gibt es in dieser Technologie?Aufgrund stetig sinkender Preise werden Streamer auch im privaten Bereich interessant. Das Wort "Streamer" kommt aus dem Englischen und bedeutet schlicht und einfach "Band".Die Vorteile der 3,5- oder 5,25-Zoll-Mini-Bandlaufwerke (so die korrekte Bezeichnung) gegenüber Disketten beispielsweise lassen sich an einer ganzen Reihe von Faktoren belegen: Streamer sind angesichts der gebotenen Leistung und der Zuverlässigkeit preisgünstig und verwenden Bänder, die für den professionellen EDV-Markt entwickelt wurden und daher einem sehr hohen Qualitätsstandard entsprechen. Streamer-Laufwerke im DC2000-Format können sogar über den ohnehin in jedem Pc vorhandenen Disketten-Controller angesteuert werden und benötigen dann nur die mitgelieferte Steuer-Software und ein Band ("Tape") zum Betrieb. Weitere Controller in Form von Zusatzkarten sind nicht notwendig.
Außerdem können DC-2000-Streamer mit wenigen Handgriffen aus einem PC aus- und in einen anderen eingebaut werden. Streamer sind etwa genauso schnell wie ein Diskettenlaufwerk, können aber wesentlich mehr Daten speichern.Die Laufwerke vom Typ DC600A hingegen benötigen zwar einen eigenen Controller, sind aber mit einer Datenübertragungsrate von 90 KByte pro Sekunde deutlich schneller als die DC2000-Streamer (etwa 60 KByte pro Sekunde).Galt vor einigen Jahren eine Kapazität von 40 MByte pro Band noch als echte Errungenschaft, so können Streamer mit heute aktueller Technologie bereits zigfache Datenmengen aufnehmen. Der eigentliche Streamer ist heute sowohl als externes als auch als internes Gerät erhältlich.Der prinzipielle Aufbau eines Streamers ist vergleichbar mit anderen magnetischen Aufzeichnungsgeräten wie zum Beispiel einem Stereokassettenrekorder.
Ein Motor bewegt das Magnetband innerhalb der Datenkassette ("Cartridge") - an einem Schreib-/Lesekopf vorbei - vorwärts. Entscheidender Unterschied zu anderen Aufzeichnungsgeräten ist, daß der Kopf nicht starr installiert ist, sondern mehrere Spuren ("Tracks") nebeneinander mit den seriell aufgezeichneten Daten beschreiben kann.
Auf einem Streamer-Band befinden sich mehrere Aufzeichnungsspuren nebeneinanderAuch bei der mitgelieferten Software gibt es Unterschiede. Durch die mitgelieferte Software kann der Anwender per Menü zwischen verschiedenen Arten der Datensicherung wählen. So ist es möglich, nach einem bestimmten Datum angelegte Dateien oder alle Dateien an denen innerhalb der letzten Woche Änderungen vorgenommen wurden, zu sichern. Ebenso ist ein sogenanntes "File-Backup" durchführbar, bei dem wiederum einzelne Dateien oder gesamte Verzeichnisseselektiv auf Band gespeichert werden können.
Das "Image-Backup" hingegen läßt die Sicherungen Sektor für Sektor ablaufen, wodurch eine Eins-zu-eins-Kopie der Festplatte angefertigt wird. Um beispielsweise nach Büroschluß eine automatische Datensicherung vorzunehmen, wird zusätzlich ein "Clock-Verfahren" angeboten, bei dem der Streamer zum angegebenen Zeitpunkt mit der Sicherung beginnt, ohne daß der Anwender diese Aktion speziell starten müßte.Zur Schonung des Bandes versuchen die Streamer-Hersteller unter anderem, mechanische Belastungen beim Weitertransport weitestgehend zu vermeiden. Im Gegensatz zu großen Computerbändern und anderen Datenträgern wird der physikalische Antriebsmechanismus bei Datenkassetten durch einen speziellen Antriebsriemen realisiert, der sich im Inneren der Kassette befindet. So verwendet der Cartridge-Hersteller DEI einen texturierten Equithan-Riemen, der eine optimale Rutschfestigkeit zwischen Riemen und Band gewährleistet und dadurch die Bandspannung erheblich verbessert. Über die Antriebsrolle wird nun nicht etwa das Band vorwärtsbewegt, sondern der Riemen.
Dieser wiederum wird in der Kassette so über mehrere Rollen geführt, daß er an den Spulen auf das Magnetband drückt und es dadurch weitertransportiert. Durch eine solche Technik werden Bandschäden und die Möglichkeit eines Bandrisses erheblich vermindert, da mechanische Einwirkungen durch den elastischen Riemen weitgehend abgefangen werden.Ausgefeilte Fehlerkorrekturmethoden beugen einem eventuellen Datenverlust vorDas so verbesserte "Bandspannungsprofil" gewährleistet bei den genannten DEI-Cartridges einen optimalen Kontakt zwischen Band und Kopf und sorgt so für eine bessere Datenaufzeichnung. Die von DEI verwendeten Bandmaterialien ("plattierte Partikeldatenträger") verursachen rein rechnerisch nur halb so viele Fehler ("Drop-Outs") wie ältere Kassetten und weisen so gute Laufeigenschaften auf, daß die Verschleißerscheinungen des Schreib-/Lesekopfes dreimal geringer sind.Natürlich steht gerade bei Streamern die Datensicherheit im Mittelpunkt des Interesses, denn eben aus diesem Grund werden sie häufig der Backup-Methode per Diskette vorgezogen. Welche Verfahren sind also bei Streamern zum "Katastrophenschutz" im Einsatz?Eine Möglichkeit besteht in der zyklischen Redundanzprüfung ("CRC", "Cycling Redundancy Check"), wie sie bereits bei Disketten-Controllern eingesetzt wird.
Im Fehlerfall erkennt das Laufwerk anhand der CRC-Prüfsumme, daß der betreffende Sektor noch einmal gelesen werden muß. In den meisten Fällen ist die defekte Position jedoch überhaupt nicht mehr lesbar, und die Daten sind somit unwiderruflich verloren.Bei Lesefehlern lassen sich die Daten über mathematische Berechnungen aus den Prüfsummen rekonstruieren.
Für Magnetbandkassetten wurden deshalb verschiedene Verfahren entwickelt, bei denen das Laufwerk in einem getrennten Sektor oder Block weitere Redundanz- und Prüfsummen speichert. Am sichersten wäre es wohl, die Daten eines Sektors einfach zweimal hintereinander zu speichern. Wenn ein Sektor nicht mehr lesbar ist, existiert somit eine ständige Kopie.
Nachteile dieses Verfahrens sind der offensichtliche Zeitverlust bei der Datenübertragung sowie der große Platzbedarf auf dem Band. Trotz aller Qualitätssicherung beim Bandmaterial wird allgemein akzeptiert, daß Fehler in der Oberfläche eines magnetischen Speichermediums auftreten können. Da heute immer mehr Daten auf einenQuadratzentimeter gepackt werden, um die Kapazität zu erhöhen, können sich bereits kleine Oberflächenfehler entsprechend kritisch auf große Datenmengen auswirken. Bei Fehlern, die nach Aufzeichnung der Daten durch unsachgemäße Lagerung oder äußere Einflüsse (Wärme, Flüssigkeiten, Magnetismus) entstehen, hilft die nur auf Redundanz beruhende ECC-Methode ("Error Correction Code") nicht weiter. Auch das häufig angewendete "Read-after-write-Verfahren", das zwar durch eine Leseüberprüfung nach jedem Schreiborgang eine richtige Datenübertrage sicherstellt, kann späteren Beschädigungen der Bandoberfläche trotz eine technisch aufwendigen, doppelten Kopfes nicht den Schrecken nehmen.Auf der Suche nach mathematischen ECC-Methoden wurde eine Vielzahl von Standards für die unterschiedlichsten Bandformate durch das ameikanische Komitee "QIC" normiert.
So besteht beim QIC-100-Standard für DC600A- und DC2000-Datenkassetten ein 8192 Byte große Datenblock aus zwei 4KByte-Blöcken, denen jeweils ein kompletter 4-KByte-Block mit ECC-Bytes folg. Um den ECC noch sicherer zu machen, werden beim QIC-100 die Blöcke verschoben ("interleaved") aufgezeichnet, wodurch sichergestellt wird, daß auch größere Fehlerstellen im Band keine Probleme bereiten.Der vom Streamer-Marktführer Irwin gesetzte Standard läuft bei QIC unter der eigenen Bezeichnung QIC-86-4. Das Unternehmen konnte früher als alle anderen Hersteller ein patentiertes Servo-Positionierungsverfahren für den Schreib-/Lesekopf anbieten, das eine wesentlich höhere Genauigkeit und auch die Austauschbarkeit der Datenkassetten zwischen verschiedenen Geräten garantierte.Das von Irwin eingesetzte Verfahren kann einzelne Fehler auf dem Band korrigieren, auch ohne daß auf dem Datenträger viel Platz für die Redundanzdaten des ECC benötigt wird.Aber noch weiter Vorteile bietet das Irwin-Verfahren: Die Information bezüglich des Codes wird nur dann benutzt, wenn bei der Rückübertragung zur Platte tatsächlich Fehler zu korrigieren sind.
Ist ein Datensektor fehlerfrei, geht auch keine Zeit für die ECC-Berechnung verloren. Weil Irwin das Band wie eine Festplatte ansteuert, werden durch das Formatieren von vornherein fehlerhafte Bandstellen ausgesondert und im Inhaltsverzeichnis festgehalten. Daher können die Datensektoren auf dem Band sinnvollerweise immer dirket von ihren ECC-Sektoren stehen.
Die Sektoren 1 bis 16 werden als Datensektoren genutzt, die ECC-Sektoren folgen an Stelle 17 und 18. Der von Irwin verwendete Codieralgorithmus liest ein bestimmtes Byte "x" aus jedem der 16 Datensektoren, um daraus zwei Redundanz-Bytes zu berechnen. diese beiden errechneten Redundanz-Bytes werden dann wiederum an der Stelle "x" in den Sektoren 17 und 18 gespeichert.
Hierdurch wird ermöglicht, daß zwei beliebige 1-KByte-Sektoren aus einem 16-KByte-Datenblock bei Verlust durch Berechnung rekonstruiert werden können. Diese rein mathematische Verfahren ist sogar in der Lage, Fehler zu korrigieren, die erst nach der Übertragung entstehen, also zum Beispiel Veränderungen des Magnetismus eines Bandes.Welche Art der Backup-Datensicherung (Band oder Diskette) ein Anwender bevorzugt, muß natürlich dem individuellen Geschmack überlassen werden, doch stehen Streamer in puncto Sicherheit eindeutig an der Spitze.Streamer bieten ein optimales Preis-Kapazitäts-Verhältnis bei hoher DatensicherungDatensicherung auf Disketten ist bei großen Datenmengen die wohl umständlichste Art, Programme vor dem Verlust zu bewahren. Denn während dieses Vorganges muß permanent eine Person beim Rechner bleiben, um die Disketten zu wechseln.Wechselplatten erfreuen sich bei vielen Anwendern großer Beliebtheit, bieten jedoch nicht mehr Sicherheit als eine eingebaute Festplatte.
Ihr Vorteil gegenüber der Sicherung per Disketten besteht in der erheblich größeren Kapazität, doch die vergleichsweise hohen Anschaffungskosten für weitere Platten sprechen eindeutig für Streamer.Die Verwendung in unterschiedlichen Rechnern wird nicht nur von der Wechselplatte und von Disketten gewährleistet. Das Econo-Tape von Caliper beispielsweise ist in allen Modellversionen auch extern zu betreiben, das heißt, daß der Streamer an beliebig vielen Rechnern benutzt werden kann und nur die Cartridges ausgewechselt werden müssen. Nicht nur hierdurch ist die Verwendung eines Streamers erheblich günstiger als andere Methoden. Werden die Kosten zur erlangten Sicherheit in Relation gesetzt, stehen Streamer ganz gewiß erneut an allererster Stelle.
1.
3.2. SicherheitDas regelmäßige Durchführen von Backups mit einem Streamer mag beruhigen, besagt aber für die Sicherheit der Daten rein gar nichts. Erst wenn testweise auch das Rücksichern (Restore) der Daten fehlerfrei gelungen ist, darf man durchatmen.Wenn man einen Streamer daher das erste Mal in Betrieb nimmt sollte man folgendes tun:
1. eine kleine Partition sichern, 2.
den Inhalt des Bandes auf eine andere Partition (mit genügend Platz)
zurückschreiben, 3. mit Vergleichsprogrammen (notfalls mit COMP von DOS) die Dateien auf der
Ursprungspartition mit denen auf der per Restore beschriebenen vergleichen. Achten sie überdies darauf, daß auch wirklich alle Dateien gesichert wurden, die
sie sichern wollten.
Dieser Aufwand mag sie verwundern, denn die Handbücher suggerieren, daß eine aktivierte Verify-Option oder ein Compare-Lauf nach dem sichern ausreicht.1.3.
3. Verify und CompareViele Backup-Programme unterscheiden ein sogenanntes "Verify" und ein "Compare". Beim Verify werden nur die Sektor-Prüfsummen (Floppy-Controller schreiben halt "Sektoren" aufs Band) auf dem Datenträger verifiziert, keinenfalls aber die auf Band geschriebenen Daten byteweise mit dem Original verglichen. Verify gibt also im Prinzip nur Aufschluß darüber, ob der Datenträger physisch in Ordnung ist.Ein echtes Compare bei einem Backup-Programm liest die Daten von der Festplatte und vom Band in einem zweiten Durchgang neu ein und vergleicht sie byteweise auf Übereinstimmung. Erst ein Compare-Durchgang kann also zuverlässig feststellen, daß die gewünschten Daten gesichert wurden und sich auch vom Band wieder korrekt lesen lassen.
Für die Erstinbetriebnahme eines Streamers aber reicht auch das nicht aus. Es gab durchaus Fälle, in denen das Compare klappte, das Restore aber dennoch fehlschlug. Zur Zeit ist in Verbindung mit MSDOS 6.0 zum Beispiel gesundes Mißtrauen angebracht, denn darauf ist längst noch nicht alle heute verkaufte Software eingestellt. Und Versionsunverträglichkeiten sind für die absurdesten Phänomene gut.Was den Umgang mit beschädigten Bändern betrifft, die ein Backup enthalten, ist generell große Vorsicht angesagt.
In der Regel klappt das Rücksichern nur bis zum ersten Banddefekt, und Reparatur-Tools sind selbst im Profisektor die Ausnahme. Es sei daher grundsätzlich empfohlen, mit der Anzahl der Backup-Bänder nicht zu knausern. Je mehr Bänder mit zeitlich dicht beieinander liegenden Backups verfügbar sind (die alle per Compare überprüft wurden), desto geringer der Datenverlust im Katastrophenfall.QIC-StandardsDie Abkürzung QIC steht für Quarter Inch Cartridge Drive Standards Incorporated und befaßt sich mit der Spezifikation diverser Randbedingungen, die im Bereich des Backup-Streaming mit Viertel-Zoll-Kassetten auftauchen.Das Wichtigste beim Durchkämpfen durch das mittlerweile üppige Dickicht an Bezeichnungen ist, daß QIC-Standards unterschiedlichste Bereiche beschreiben. Während QIC-40 und -80 zum Beispiel das physikalische und logische Band-Layout inklusive einer Art Dateisystem spezifizieren, bafaßt sich QIC-107 mit der Schnittstelle, also letztlich mit dem 34poligen Floppy-Controller-Interface bei IBM-ATs.
QIC-115 hingegen legt dasselbe für PS/2-Rechner und deren 40poligen Floppy-Anschluß fest. QIC-117 spezifiziert für die genannten Standards die Timing-Verhältnisse zwischen Rechner und Laufwerk, und QIC-106 gar die Eigenheiten der Schreib-/Leseköpfe für QIC-40-Laufwerke.
In aller Kürze als Hilfe zum Durchstöbern von Anzeigen: QIC-107, 115, 36, 02 bezeichnen gängige Interface-Standards QIC-20, 40, 80, 11, 24, 120, 150, 525 (früher 320) und 1350 beschreiben AufzeichnungsverfahrenFloppy-Anschluß = QIC-40/80?Ein Bandlaufwerk läßt sich - ebenso wie Festplatten - auf unterschiedlichste Weise an einen Rechner anschließen. Ein SCSI-Host-Adapter mit entsprechend eingerichtetem Bandlaufwerk ist eine relativ aufwendige Lösung, zudem müssen SCSI-Lösungen im PC - da SCSI nicht zum definierten PC Standard gehört - oft mit besonderen Treibern ausgestattet werden.Ein Floppy-Controller jedoch steckt seit jeher in jedem PC, und mit den vorhandenen Signalen lassen sich auch Bänder beschreiben und Band-Laufwerke steuern. Der dadurch mögliche Wegfall eines seperaten Host-Adapters spart natürlich Kosten.
Die ersten Streamer zum Anschluß an den Floppy-Controller arbeiten nach dem QIC-40-Standard, der auch heute noch sehr verbreitet ist und von einigen QIC-80-Streamern gelesen werden kann.Die QIC-Standardisierungen befassen sich einerseits mit den physikalischen und logischen Aufzeichnungsmodalitäten und andererseits mit der hardwaremäßigen Schnittstellendefinition.Urvater QIC-40QIC-40 wurde für Viertel-Zoll-Kassetten (Quater Inch) namens DC2000 erdacht. Das ursprüngliche Band (DC2080) wird in 20 Spuren unterteilt, die der Streamer abwechselnd vorwärts und rückwärts abklappert. Da man in der Floppy-Controller-Hardware auf die Fähigkeiten des FDC-Chips µPD765 von NEC in bezug auf die physikalische Formatierung festgelegt ist, teilt man diese MFM-formatierten Spuren wie folgt auf: 29 Sektoren zu 1024 Bytes Länge bilden ein sogenanntes Segment, und 68 solcher Segmente (Blöcke) füllen eine Spur. Formatiert und abzüglich aller ECC-Codes faßt dann eine solche Kassette 40 386 560 Daten-Bytes.
Auf den 50 Prozent längeren XL-Kassetten lassen sich folglich 60 MByte unterbringen.QIC-40-Streamer sind für XT- und AT-Floppy-Controller geeignet. Für eine XT-gemäße Datentransferrate von 250 kBit/s laufen 25 Zoll Band pro Sekunde am Kopf vorbei; wenn der Controller auch High-Density-Floppies bedient (500 kBit/s), muß der Streamer das Band mit 50 Zoll pro Sekunde transportieren. Je höher die Datentransferrate, desto schneller läuft ein Backup- oder Restore-Durchgang ab. Durch die Kopplung der Datenrate an jeweils eine eigene Transportgeschwindigkeit bleibt das Format identisch, das heißt, ein und dieselbe QIC-40-Kassette kann sowohl an einem langsamen als auch an einem schnellen Controller mit demselben Streamer gelesen und beschrieben werden.
Mittlerweile ist es üblich, die Daten vor der Sicherung zu komprimieren, so daß sich die nutzbare Kapazität eines QIC-40-Bandes bei typischem Datengemisch auf 120 MByte erhöht.
Seither firmieren diese Streamer in der Werbung als 120-MByte-Typen. Laut Herstelleraussagen kann man davon ausgehen, daß die für die Kompression aufgewendete CPU-Zeit ab 16-MHz-80286 das Speichern auf Band nicht mehr behindert, so daß - da insgesamt weniger auf Band geschrieben werden muß und die Zeit dafür durch das Format fest vorgegeben ist - Kompression den Backup- und Restorevorgang erheblich beschleunigt.Auf dem Vormarsch: QIC-80Der neuere Standard QIC-80 ermöglicht - wie seine Bezeichnung ahnen läßt - ziemlich genaun die doppelte Speicherkapazität gegenüber QIC-40. Bei QIC-80 verwendet man baugleiche Kassetten wie bei QIC-40, die aber angeblich höher qualifiziert sind. "DC2000" wird zwar gern als Gattungsname für Viertel-Zoll_Kassetten mißverstanden, jedoch warnen Streamerhersteller eindringlich davor, eine Kassette mit der Typenbezeichnung DC2000 (QIC-40) ein einem QIC-80 Streamer zum Schreiben zu benutzen. QIC-80-Kassetten in Standardlänge (205 Fuß) heißen DC2080 (Bezeichnung von 3M), die XL-Versionen DC2120.
QIC-80 Bänder werden mit 28 Spuren und 34 Zoll/s bei einer (minimal zulässigen) Datentransferrate von 500 kBit/s beschrieben. QIC-80-Streamer sind folglich nicht mehr an einem einfachen XT-Controller mit 250 kBit/s betreibbar, auch läßt die veränderte Spurzahl (Schmalere Spuren) kein zuverlässiges Schreiben, wohl aber Lesen (dann mit 50 Zoll/s) von QIC-40-Bändern zu. Auf eine DC2080-Kassette passen pro Track 100 Segmente zu 29 KByte, was rund 80 MByte Kapazität ergibt (DC2120 entsprechen 120 MByte).Natürlich wird auch bei QIC-80-Streamern emsig mit Datenkompression gearbeitet, so daß sich auf einer DC2120 üblicherweise 250 MByte, beim Spezial-Format des Mountain gar 300 MByte sichern lassen. Eine konservative Firma wie Archive (Maynard und Irwin sind übrigens auch "Archive Companies") inserieren den XL5580 allerdings auch heute noch brav als 80 MByte Streamer.1.
3.4. High Speed Adapter
Seit Floppy-Laufwerke mit 2,88 MByte in die PC-Welt einziehen, lassen sich auch Floppy-Controller mit 1MBit/s Datenrate aufgrund preiswerter Controller-Chips kostengünstig realisieren. Zu modernen Floppy-Controller-Streamern, sind heute fast immer auch sogenannte High-Speed-Adapter erhältlich, die dann allerdings erwarten, daß der Streamer das Band für diesen Betriebsfall auch doppelt schnell transportiert. High-Speed-Adapter erhalten also die Format-Kompatibilität, wickeln aber alles doppelt so schnell ab.
1.
3.5. Das dritte Laufwerk
Mein Verweis auf 2,88-MB-Floppies soll nicht in die Irre führen: man verwendet zwar auf High-Speed-Adaptern vergleichbare Floppy-Controller-Chips, die Controller-Boards enthalten aber in der Regel keinerlei eigene BIOS-Software, um tatsächlich 2,88-MB-Disketten ansteuern zu können. Der Zugriff auf diese Controller findet ausschließlich über mitgelieferte Backup-Software statt, und die kennt sich mit 2,88-MB-Disketten nicht aus.
High-Speed-Adapter helfen in der Regel aber noch aus einer anderen PC-Klemme: bekanntermaßen kann ein PC nicht mehr als zwei Floppy-Laufewrke bedienen. Das war und ist zwar grundsätzlich nur eine Restriktion des PC-BIOS, daraufhin hat aber auch mancher Low-Cost-FDC die Ansteuerung von mehr Laufwerken verlernt.
So gibt es für die meisten Floppy Streamer zwar Adapter-Kabel, die den Betrieb zweier Floppies (Disk 0 und 1) und eines Streamers als Drive 2 oder 3 ermöglichen, nur muß das nicht mit jedem Floppy-Controller klappen. Wenn man Pech hat, muß man für Backups also "mal eben" das zweite abziehen, damit alles läuft.
Auch in dieser Beziehung kann ein High-Speed-Adapter helfen, da dieser generell als Zweit-Controller konzipiert ist und folglich parallel zum installierten Floppysystem arbeitet. Er belegt dann üblicherweise Systemadressen, um Konflikte zu vermeiden und läßt zudem gesondert die Wahl des Interrupts (IRQ) und DMA-Kanals zu.
1.3.
6. QIC-80-Kompatibilität
Keineswegs ist jeder Streamer zum Anschluß an den Floppy-Controller ein QIC-80-Streamer. Der Irwin-Streamer zum Beispiel läßt sich auch mit Fremdsoftware nicht zum QIC-80-Streamer wandeln. Dennoch ist natürlich die Software maßgebend für die Einhaltung des QIC-80-Standards. Damit aber trotz zertifizierter QIC-80-Kompatibilität ein Austausch möglich wird, sind zwei Bedingungen unbedingt einzuhalten:
Zum ersten darf die Backup-Software keinenfalls auf irgendein hauseigenes "Super-Format" eingestellt werden. Ich formuliere das extra in dieser Weise, denn nicht immer ist das "Normal-Format" eindeutig als QIC-80 gekennzeichnet.
Zum zweiten darf man keine Datenkompression verwenden, denn diese fällt bei unterschiedlicher Backup-Software grundsätzlich verschieden aus. So kann ein anderes Backup-System das Band zwar unter Umständen physikalisch lesen, aber meist schon nicht mehr das Band-Directory oder auch nur den Tape-Header entschlüsseln. Deshalb ist zusätzlich zu empfehlen, bei Tauschbestrebungen auch nicht einen anders eingestellten Backup-Set auf dem Band zu haben, damit Fremdsoftware nicht eventuell darüber stolpert.
1.3.7.
Fremd-Schnittstellen
Obwohl QIC-80 der Floppy-Welt entsprang, gibt es keine prinzipiellen Probleme, einen QIC-80-kompatiblen Streamer über eine völlig andere Schnittstelle zu bedienen. Es läuft dann in der Praxis darauf hinaus, eine bestimmte Schnittstelle nach außen zu realisieren, um diese dann intern letztlich in einen Floppy-Controller münden zu lassen. Geräte dieser Art sind zum Beispiel der BackPack für den Anschluß an eine PC-Druckerschnittstelle sowie der Summit mit einem AT-Bus-Interface (IDE).
1.3.8.
Die QIC-Standards
Standard Kassettentyp Kapazität Schnittstellen
Minicartridges
QIC-40 DC2000 40 MB QIC-107, 115, 117
QIC-40XL DC2000 60 MB QIC-107, 115, 117
QIC-80 DC2080 80 MB QIC-107, 115, 117
QIC-80XL DC2120 120 MB QIC-107, 115, 117
QIC-100 DC2000 20/40 MB QIC-103, 108
QIC-128 DC2110 86 MB QIC-103, 108
QIC-128 DC2165 128 MB QIC 103, 108
QIC-385M Q
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com