Virtual reality
SEP-Ausarbeitung
Virtual Reality
Karastojanoff / Trettler, 5 AD Version 1.0 / Jänner 1998
1. Allgemein 3
1.1 Merkmale/Definitionen/Begriffe 3
1.2 Geschichte 4
1.3 Anwendungen von VR 5
1.
3.1 Visualisierung von Daten und in der Architektur 5
1.3.2 Modellieren, designen, planen 6
1.3.3 Training und Ausbildung 6
1.
3.4 Telepresence und Teleoperating 6
1.3.5 Cooperative working 6
1.3.6 Enterteinment 6
2.
Technologie 7
2.1 Eingabegeräte 7
2.1.1 6DOF Tracking devices 7
2.1.1.
1 Magnetische Tracker 8
2.1.1.2 Akustische Tracker 8
2.1.1.
3 Optische Tracker 9
2.1.1.4 Mechanische Tracker 9
2.1.2 Eye tracking 10
2.
1.3 3D-Eingabegeräte 10
2.1.3.1 3D-Mäuse und Sticks 10
2.1.
3.2 Datenhandschuhe 10
2.1.3.3 Datenanzug 11
2.1.
3.4 Dexterous manipulators 11
2.1.4 Desktop-Eingabegeräte 11
2.1.4.
1 Spaceball 11
2.1.4.2 CyberMan 11
2.1.4.
3 2D-Eingabegeräte 12
2.2 Ausgabegeräte 12
2.2.1 Visual displays 12
2.2.1.
1 3D-Brillen 13
2.2.1.2 Surround Displays 13
2.2.1.
3 Binocular Omni Oriented Monitors (BOOM) 13
2.2.1.4 Head Mounted (Coupled) Displays (HMD) 14
2.2.2 Haptic displays 14
2.
2.2.1 Force Feedback 14
2.2.2.2 Tactile Feedback 15
2.
2.3 Audio displays 15
VIRTUAL REALITY
1. Allgemein
1.1 Merkmale/Definitionen/Begriffe
In eine künstlich generierte Welt einzusteigen war schon immer ein großes Interesse der Menschen in den letzten Jahren. Aktiv mitzuwirken und einzugreifen bietet einen so großen Reiz, daß auf diesem Sektor sehr viel geforscht und entwickelt wurde.
Durch gewisse Komponenten erfolgt eine Eingabe, der Computer wertet diese aus und reagiert dementsprechend, manipuliert also die Sinne des Benutzers.
Eingeteilt werden VR-Systeme nach dem Grad der Immersion. Dieser gibt an, wie intensiv der Benutzer in die künstliche Welt eindringt.
Stufen der Immersion:
Desktop VR – manchmal auch Window on World (WoW) Systeme genannt. Das ist die einfachste Art von Virtual Reality. Das System basiert lediglich auf einem konventionellem einfachen Monitor.
Fish Tank VR – ist eine erweiterte Version des Desktop VR.
Bei diesem System wird zusätzlich Head Tracking (siehe 2.1.1) angewandt. Sehr oft werden LCD Shutter Glasses für stereoskopische Effekte verwendet. Im Allgemeinen gibt es aber keine Sensor-Output-Unterstützung.
Immersive systems – sind die besten, der Realität am Nächsten, Systeme.
Sie lassen den Benutzer vollkommen in die künstliche Welt eintauchen. Mit Hilfe von HMDs, welche stereoskopische Sicht ermöglichen, wird auf die Einflüsse des Users reagiert. Weiters sind solche Immersive Systeme mit Audio- und Sensorinterfaces ausgestattet.
Oft hört man von Synthetic Experience, Virtual Worlds, Artificial Worlds oder Artificial Reality. All dieses Begriffe bedeuten eigentlich das Selbe:
Interaktive Graphiken in Echtzeit mit dreidimensionalen Objekten und Modellen, kombiniert mit einer Technologie zur Darstellung, welche es dem Benutzer erlaubt in eine Virtuelle Welt einzutauchen und zu manipulieren.
Mehr die Illusion der Beteiligung in einer künstlichen Welt, als nur die Beobachtung einer solchen.
Virtual Reality stützt sich auf dreidimensionale, stereoskopische head-tracker displays, hand/body tracking und binaural sound. Virtual Reality ist ein interaktives, multisensorisches Projekt.
Computersimulationen, welche 3D-Graphiken und Geräte benutzen, wie den Datenhandschuh, die dem Benutzer erlauben, die Simulation zu beeinflussen.
Virtual Reality basiert auf interaktiven, multisensorischen, betrachterzentrierten, dreidimensionalen Computer generierten Umgebungen mit der Kombination von Technologien, die zur Erstellung dieser benötigt werden.
Virtual Reality erlaubt, in einer dreidimensionalen Welt mit six degrees of freedom, zu navigieren. Im Endeffekt ist Virtual Reality eine Kopie von physischen Gegebenheiten.
Telepresence – ist eine spezielle Form von Virtual Reality, welche ein reales Umfeld simuliert. Eine andere präzisere Definition besagt, daß Telepresence dann vorliegt, wenn der Operator auf der "Arbeitsseite" durch normale menschliche Funktionen Manipulationen durchführen kann und quantitativ und qualitativ genügend Feedback bekommt, um den Eindruck zu erhalten tatsächlich am Ort des Geschehens zu sein.
Cyberspace – wurde von William Gibson erfunden. Er definiert Cyberspace als eine übereinstimmende Halluzination, der sich täglich Milliarden von legitimierten Benutzern erfahren (...
) eine graphische Abstraktion der Daten eines jeden Computers in menschlichen Systemen.
1.2 Geschichte
Sensorama –in den Jahren 1960-1962 erbaute Morton Heilig einen Multi-Sensor-Simulator. Ein wiederholt aufgenommener Film in Farbe und Stereo wurde mit „Sound Machines“, Windmaschinen und Vibrationseinrichtungen kombiniert. Das war der erste Versuch in Richtung Virtual Reality, aber es war nicht interaktiv.
The Ultimate Display –1965 brachte Ivan Sutherland die ultimative Idee von Virtual Reality: Ein Konzept zur Erstellung eines kompletten VR-Systems mit interaktiven Grafiken, Force Feedback, Sound, Geruch und Geschmack.
„The Sword of Damocles“ – war das erste VR-Konzept, das wirklich hardwaremäßig in die Realität umgesetzt wurde. Ivan Sutherland konstruierte ein Gerät, das als das erste Head Mounted Display (HMD – siehe weiter unten) bekannt wurde, das Head Tracking (siehe weiter unten) realisierte. Es unterstützte Stereosicht, welche korrekt zur aktuellen Position des Kopfes des Benutzers orientiert war.
GROPE – war der erste Prototyp mit Force Feedback, realisiert an der Universität von North Carolina.
VIDEOPLACE –künstliche Realität, erzeugt 1975 von Myron Krueger. Die Silhouetten der Benutzer wurden von einer Kamera aufgenommen und auf eine Leinwand projiziert.
Den Teilnehmern war die Möglichkeit gegeben miteinander zu kommunizieren. Die erste Form von Telepresence.
VCASS – 1982 entwickelte Thomas Furness in den US Air Force‘s Armstrong Medical Research Laboratories den Visually Coupled Airborne Systems Simulator, ein erweiterter Flugsimulator. Der Pilot trug ein HMD, welches die künstlich erzeugte Außenwelt wiedergab.
VIVED – Virtual Visual Environment Display, konstruiert 1984 von der NASA, mit einem stereoskopischen Monochrom HMD.
VPL – entwickelte 1985 den populären Datenhandschuh und 1988 das Eyephone HMD, das erste kommerziell erhältliche Ausgabegerät.
BOOM – besteht aus einem Gehäuse, in dem zwei kleine CRT-Bildschirme eingebaut waren, das auf einem mechanischen Arm befestigt ist. Der Benutzer muß die Monitore vor Augen führen um in die virtuelle Welt einzusteigen. Durch die Bewegung des Armes, konnte die Position und Orientierung gemessen bzw. berechnet werden.
UNC Walkthrough project – in der zweiten Hälfte der 80er wurde an der Universität von North Carolina eine architectural walkthrough application entwickelt.
Virtual Wind Tunnel – entwickelt in den frühen 90ern von der NASA.
Mit Hilfe von BOOMs und des Datenhandschuhes, konnten Experimente bezüglich Luftwiderstand und Luftbewegungen gemacht werden.
CAVE –wurde 1992 präsentiert. CAVE (CAVE Automatic Virtual Environment) ist ein Virtual Reality und wissenschaftliches Darstellungssystem. Hierbei trägt der Benutzer kein HMD sondern LCD shutter glasses (siehe weiter unten). Auf alle Wände werden stereoskopische Bilder projiziert. Dieses System sichert eine weitaus höhere Qualität und Auflösung der Bilder als System die auf HMDs basieren.
Augmented Reality (AR) – ist eine Technologie, die die reale Welt mehr "präsentiert" als ersetzt. Mit Hilfe von durchsichtigen HMDs ist es möglich, virtuelle dreidimensionale Objekte, die reale Welt überlagernd, darzustellen. Ursprünglich wurde dieses Verfahren für Piloten von Kampfflugzeugen eingesetzt, um ihnen wichtige Informationen anzuzeigen, ohne daß der Pilot auf ein eigenes Display schauen muß (VCASS). Dank der vielseitigen Anwendungsmöglichkeiten, rückte Augmented Reality immer mehr in den Mittelpunkt zahlreicher Projekte in den frühen 90er Jahre.
1.3 Anwendungen von VR
1.
3.1 Visualisierung von Daten und in der Architektur
Jeden Tag haben wir mit Unmengen von Informationen zu bewältigen. Diesbezüglich wurden schon sehr viele Systeme zur Veranschaulichung entwickelt. Ziel dieser Systeme ist es, die Daten in eine einfach wahrnehmbare Form umzuwandeln und einen einfachen Zugriff zu bieten. Ganz normale Computer ermöglichen schon eine primitive Form zur Lösung dieser Probleme. Virtual Reality verspricht eine weit intuitivere Möglichkeit.
Erste Versuche Virtual Reality als ein Visualisierungs-Tool einzusetzen waren architektonische Walkthrough Systeme im Jahr 1986 an der Universität von North Carolina.
Die St. Peter Basilica im Vatikan wurde am Virtual Reaity World '95 Kongreß in Stuttgart durch ein solches System gezeigt.
Mit Hilfe solcher Systeme ist zum Beispiel die Möglichkeit gegeben die zerstörte Frauenkirche in Dresden zu bewundern, oder durch ein Haus zu spazieren, das in Wirklichkeit gar nicht existiert.
Ein anderer Anwendungsbereich ist die Wissenschaftliche Veranschaulichung. Ein sehr eindrucksvolles Beispiel ist der von der NASA entwickelte Virtual Wind Tunnel.
Mit Hilfe eines Datenhandschuhs können die Wissenschafter Luftströme um ein virtuelles Space Shuttle beeinflussen. Mit einem BOOM (siehe weiter unten) können sie das aerodynamische Verhalten ansehen und analysieren.
Sehr oft werden solche Systeme und Tools mit Augmented Reality kombiniert, um den Benutzer zum Beispiel bei komplizierten Arbeitsvorgängen zu helfen (zum Beispiel ein Technisches Handbuch, das Angaben zu Bestandteilen eines Flugzeugtriebwerkes gibt).
Die Vorteile solcher Systeme liegen klar auf der Hand:
Es ist nicht mehr nötig teure Prototypmodelle herzustellen
Die Entwurfsphase wird stark verkürzt und ist deshalb billiger
Fehler können viel früher als im herkömmlichen Verfahren erkannt und behoben werden
usw.
1.3.
2 Modellieren, designen, planen
Modellieren von Küchen, Wohnzimmern oder gar ganzen Häusern ist mit Hilfe von Virtual Reality ein ganz Einfaches und Bequemes. Der Designer kann zum Beispiel ganz schnell und einfach die Farbe der Beschläge der Küchenladen oder die Oberflächenstruktur der Arbeitsoberflächen ändern, um so zu sehen, wie sich diese Veränderung auf das Gesamtbild auswirkt.
1.3.3 Training und Ausbildung
Das beste Beispiel für Ausbildung und Training mit Hilfe von Virtual Reality sind wohl Simulatoren. Schon seit den späten 50er Jahren werden Simulatoren zur Ausbildung von Piloten von Flugzeugen eingesetzt.
Es können Katastrophenfälle ohne irgendwelche Risiken simuliert werden, das Verhalten trainiert werden, usw.
Eine weitere Anwendung ist die sogenannte Virtual Workbench. Zum Beispiel können Ärzte eine Operation an einem virtuellen Auge vornehmen.
Sogar ein virtueller Baseball Trainer findet seine Anwendung.
1.3.
4 Telepresence und Teleoperating
Telepresence ist ein System mit dem der Operator Tätigkeiten durchführen kann, ohne vor Ort zu sein. Er trägt ein HMD und diverse Eingabegeräte mit Feedbackfunktion um das Remote System zu kontrollieren. Er steuert zum Beispiel einen Roboter, der im Reaktorkern eines Atomkraftwerkes Untersuchungen durchführt. Dem Menschen wäre dieses Unterfangen sicherlich nicht möglich.
Wenn ein Arzt eine heikle Operation an der Wirbelsäule durchführen muß, könnte ein Roboterarm der das Zittern des Arztes eliminiert sehr von Nutzen sein.
1.
3.5 Cooperative working
Da die großen Mengen an anfallenden Informationen von einer Person allein oft nicht bewältigt werden können, wurden virtulle Umgebungen für den Multi-User-Betrieb entwickelt. Die Benutzer können sich gegenseitig behilflich sein und unterstützend eingreifen.
Ein gutes Beispiel von Cooperative working sind Anwendungen für Trainigszwecke: Lösung komplexer Aufgaben für Astronauten; erforschen von verseuchten Gebieten mit mehreren Soldaten usw.
1.3.
6 Entertainment
Auch im Entertainment-Bereich findet Virtual Reality immer mehr Anklang. Im Cyberspace Cafe in Wien kann man VR in vollen Zügen genießen. Zur Verfügung stehen Multiplayer-Spiele ala Doom oder ein einfaches Autorennen. Alles mit HMDs!
Auch Firmen wie SEGA, oder Nintendo bieten simple VR-Spiele an. Im Home-PC Bereich gibt es einfache VR-Geräte zum kaufen.
Auch bis Hollywood ist VR vorgedrungen: In sehr vielen Filmen werden virtuelle Darsteller verwendet, wie zum Beispiel in dem Film Das große Krabbeln.
2. Technologie
2.1 Eingabegeräte
Eingabegeräte dienen zur Kommunikation mit dem Computer, der die Eingaben des Benutzers entgegennimmt, diese auswertet und entsprechend darauf reagiert. Alle benutzten Eingabegeräte zusammen sollten dem Benutzer eine möglichst realitätsgetreue und intuitive Steuerung ermöglichen. Dabei sollten die Steuerungsmodule praktisch „unsichtbar“ sein, das heißt sie sollten den natürlichen Bewegungsablauf so wenig wie möglich behindern und nicht zu spüren sein. Leider erlaubt dies der heutige Stand der Technik noch nicht.
Eine „Natürlichkeit“ ist nur in einem sehr begrenzten Rahmen möglich. Meistens ist es sogar von Nöten, zusätzliche Bedienelemente oder Plattformen zu integrieren, die unerfahrenen Benutzern oft Schwierigkeiten bereiten.
2.1.1 6DOF Tracking devices
Das Minimum an Information, das ein Immersive VR-System für die Darstellung und zum Rendering benötigt, sind die Position und die Orientierung des Kopfes des Benutzers. Zusätzlich dazu können auch weitere Körperteile, wie Arme, Beine, usw.
„getrackt“ werden.
Dreidimensionale Objekte haben 6 degrees of freedom (DOF): Die drei Positionskoordinaten (x, y und z) und Angaben zur Orientierung (z.B. neigen, schwenken und drehen von Winkeln). Jeder Tracker muß mindestens diese Möglichkeiten zur Manipulation besitzen. Grundsätzlich gibt es zwei Arten von Trackern: Solche, die absolute Daten (absolute Positions/Orientierungswerte) liefern und solche, die relative Daten liefern (z.
B. Änderung der Position seit dem letzten Signal).
Die wichtigsten Kriterien bei 6DOF Trackern sind:
Kriterium
Beschreibung
Meßperiode (update rate)
Gibt an, wie oft pro Sekunde eine Signalauslösung erfolgt (Angabe in Hz)
Verzögerung (latency)
Zeitspanne zwischen der realen Bewegung des Benutzers bis zum Beginn der Übertragung des Signals, das die Aktion definiert (Angaben in ms)
Genauigkeit (accuracy)
Wert, der den Fehler zwischen tatsächlicher und übertragener Position/Orientierung angibt (Angaben meist in absoluten Werten, z.B. in mm für Position und Grad für Orientierung)
Auflösung (resolution)
kleinste von den Geräten wahrnehmbare Änderung (Angaben meist absolute Werte wie bei der Genauigkeit)
Arbeitsraum (range, working volume)
Spanne, in der der Tracker, in Abhängigkeit von Genauigkeit und Auflösung, Werte erfassen kann
Ergonomie
z.B.
Größe, Gewicht, ...
Einteilung der 6DOF-Tracker in:
Magnetische Tracker
Akustische Tracker
Optische Tracker
Mechanische Tracker
2.1.1.
1 Magnetische Tracker
Magnetische Tracker bestehen aus einem statischen Teil (Emitter) und beweglichen Teilen (Receiver, Sensoren). Der Emitter generiert 3 gerichtete Magnetfelder, welche von den Receivern gemessen werden. Die Receiver senden ihre Abmessungen an die Control Unit, welche aus den empfangenen Werten Position und Orientierung der entsprechenden Sensoren berechnet.
Vorteile
Nachteile
Sensoren sind klein und leicht
kleines Arbeitsvolumen
keine Line-of-Sight-Bedingung
Elektromagnetische Interferenz
Hohe Meßperiode, geringe Latenz
Name
Max. # Sensoren
Max. Reichweite (m)
Verzögerung (ms)
Max.
Meßperiode (Hz)
Genauigkeit
Auflösung
Polhemus Fastrak
4
3.05
4
120
0.8 mm
0.15°
5e-03mm pro mm
Ascension Flock of Birds
30
1
< 10
144
2.54 mm
0.5°
0.
5mm bei 30 cm
0.1° bei 30 cm
2.1.1.2 Akustische Tracker
Akustische Tracker arbeiten mit Ultraschallwellen (> 20 kHz), um die Position und die Orientierung zu eroieren. Es besteht nur die Möglichkeit die relative Distanz zwischen zwei Punkten herauszufinden.
Es gibt zwei Arten von akustischen Trackern: Sie arbeiten entweder nach der TOF- (time-of-flight) oder der der PC- (phase-coherent) Methode.
TOF Tracker messen die Zeit die die Schallwellen vom Sender zum Empfänger benötigen um so auf die Position zu schließen.
Bei PC Tracker wird die Phase des empfangenen Signals mit der eines vom Receiver generierten Referenzsignales verglichen. Eine Phasendifferenz von 360° entspricht einer Distanz von einer Wellenlänge.
Vorteile (TOF)
Nachteile (TOF)
klein und leicht
line-of-sight-Begrenzung
relativ billig (ab ATS 10.000,-)
anfällig auf akustische Interferenzen (Echo .
..)
unbeeinflußt von magnetischen Interferenzen
geringe Meßperiode
2.1.1.3 Optische Tracker
Optische Tracker werden in drei Gruppen eingeteilt:
beacon trackers – benutzen eine Gruppe von Lichtsignalgebern (z.
B. LEDs) und ein Set von Kameras, welche Muster aus Lichtsignalen auffangen. Hierbei können zwei Methoden verwendet werden: outside-in (Emitter am Benutzer, Sensoren fix) oder inside-out (Sensoren am Benutzer, Emitter fix)
pattern recognition – diese Systeme benutzen keine Lichtgeber. Sie bestimmen Position und Orientierung durch den Vergleich von bekannten Mustern mit abgetasteten Mustern (z.B. Erkennen der Veränderungen der Iris im Auge à Empfindungsveränderung).
laser ranging –dieses System sendet Laserlicht durch ein Beugungsgitter an das Objekt. Ein Sensor analysiert die Beugungsmuster an der Oberfläche des Körpers um Position und Orientierung zu berechnen.
Vorteile
Nachteile
sehr hohe Meßperiode (bis zu 240 Hz); in den meisten Fällen nur durch die Geschwindigkeit der Computer beschränkt
line-of.sight-Begrenzung
großes Arbeitsvolumen
sensibel gegenüber Beleuchtung
hohe Auflösung und Genauigkeit (Fehler nur etwa 1mm and 1°)
Probleme bei mehreren Objekten
unbeeinflußt von metallischenund akustischen Einflüssen
sehr teuer und kompliziert
2.1.1.
4 Mechanische Tracker
Ein frei beweglicher mechanischer Gliederarm (ausgestattet mit Hilfsmotoren um den Benutzer zu unterstützen; somit wird dieser weit weniger behindert), mit Potentiometern, zur Messung der Winkel, versehen, dient zur Berechnung der Position und Orientierung.
Vorteile
Nachteile
sehr hohe Genauigkeit
keine volle Bewegungsfreiheit
keinerlei Interferenzen
kleines Arbeitsvolumen (ca. 1m³)
hohe Meßperiode (bis 300Hz)
Probleme bei mehreren Objekten
Möglichkeit zu Force-Feedback
2.1.2 Eye tracking
Head tracking erlaubt schon eine sehr gutes Darstellen der Bilder angeglichen an die Sicht des Benutzers. Es ist jedoch nicht nötig überall die gleich hohe Auflösung zu benutzen, da das Auge nur im Fokus scharf sieht.
Man könnte also vom Brennpunkt startend nach außen hin immer geringere Auflösung benutzen, ohne daß dies der Benutzer merken würde. Das bedeutet wiederum Performancegewinn. Um diesem Problem entgegenzukommen wurde das Eye tracking entwickelt, das in vier Gruppen eingeteilt wird:
limbus tracking: Die Grenzlinie zwischen Iris und Limbus ist sehr scharf und kann deshalb leicht identifiziert werden. Auf der Brille des Benutzers sind Infrarot-LEDs und Photo-Transistoren angebracht, um durch Reflexion an der Iris und des Limbus auf die Blickrichtung zu schließen. Dieses System ist ziemlich genau (Fehlerquote zwischen 1° und 3°).
image tracking: Hier werden Kameras die das Auge filmen verwendet.
Die Bilder werden miteinander mit verschiedenen Techniken verglichen und bearbeitet um auf die Blickrichtung zu schließen. (Fehlerrate ca. 1°)
electro-oculography (EOG): Seitlich an den Augen sind Elektroden positioniert, um das Potential zwischen Cornea und Retina zu messen (15 Mikrovolt – 200 Mikrovolt). Dieses System ist sehr unzuverlässig, weil es Muskelzuckungen und externe elektrische Interferenzen nicht berücksichtigen kann.
corneal reflection: Photo-Transistoren analysieren die Reflexion von abgestrahltem Licht an der konvexen Cornea..
Dieses System verspricht eine ziemlich hohe Genauigkeit (Abweichung 0,5° - 1°) ist jedoch sehr aufwendig zu kalibrieren. Ein weiteres Problem ist die Augenflüssigkeit, die die Reflexion beeinflußt.
2.1.3 3D-Eingabegeräte
Neben den Trackern, die zur Bewegungserfassung dienen, wurden weitere Hilfsmittel entwickelt, um menschliche Interaktionen einfacher und intuitiver ablaufen zu lassen. Die folgenden Punkte beschreiben die wichtigsten Erweiterungen:
2.
1.3.1 3D-Mäuse und Sticks
Diese Geräte sind in der Regel joystickähnliche 6DOF-Geräte, die mit der Hand räumlich bewegt werden können. Sie sind mit einem Tracker-Sensor ausgestattet, um die Position und Orientierung zu erhalten, und einige Buttons um zusätzliche Manipulationen zu ermöglichen.
Vorteile
Nachteile
billig
stark beschränkt
2.1.
3.2 Datenhandschuhe
Datenhandschuhe sind mit fiberoptischen Sensoren ausgestattet, die es ermöglichen, alle Bewegungen der Finger aufzufangen. Zusätzlich kann ein Tracker, an der Brust des Benutzers befestigt, benutzt werden, um die Position und Orientierung der Hand berechnen zu können.
Vorteile
Nachteile
Möglichkeit der Gestenerkennung
2.1.3.
3 Datenanzug
Eine Weiterentwicklung des Datenhandschuhes zählt der Datenanzug. Wie der Name schon sagt, ist der Benutzer mit einem mit Sensoren versehenen Anzug bekleidet. Mit einer minimalen Anzahl von Sensoren sind die Bewegungen des ganzen Körpers möglich.
Vorteile
Nachteile
Bewegungserkennung des ganzes Körpers möglich à komplexe Manipulationsmöglichkeiten
2.1.3.
4 Dexterous manipulators
Für einige Anwendungen wird höchste Präzision gefordert. Da der Datenhandschuh oft nicht effizient genug ist, wurde zum Beispiel der Hand Master entwickelt. Mit Hilfe von Potentiometern werden Winkelbewegungen der Finger aufgefangen. Pro Finger sind 4DOF möglich, für die ganze Hand also 20DOF. Weiters sind diese Geräte mit einem Force Feedback ausgestattet.
Sie sind weit genauer als Datenhandschuhe.
Die Fehlerquote liegt bei ca. 1°; beim Datenhandschuh 5°-10°.
Vorteile
Nachteile
extrem empfindlich
schwer
präzises Kraft-Feedback
komplex
2.1.4 Desktop-Eingabegeräte
Als billigere Alternative zu den eben erwähnten Geräten bieten sich Desktop Tools an. Sie bieten eine nicht so gute intuitive Kontrolle und verringern den Grad an Immersion, sind dafür aber handlich, einfach zu bedienen und billig.
2.1.4.1 Spaceball
Ein Spaceball ist ein simples 6DOF-Eingabegerät, das aus einem Ball und einem Host Computer besteht. Der Benutzer umschließt den Ball mit seiner Hand und bewegt ihn. Mit Hilfe von Bewegungsabnehmern wird die Bewegung des Balles registriert und an den Host Computer gesendet.
Zusätzlich können noch Buttons zur weiteren Manipulation eingebaut sein.
2.1.4.2 CyberMan
Ein CyberMan ist eine Weiterentwicklung der typischen 2D-Maus, die 6DOF bietet. Durch eingebaute Hilfsmotoren wird ein Force Feedback simuliert
Er wird oft für Computerspiele eingesetzt.
2.1.4.3 2D-Eingabegeräte
Solche Geräte (Maus. Tastatur, ..
.) erlauben keine so intuitive Kontrolle über dreidimensionale Objekte wie 3D-Eingabegeräte. Trotz allem sind sie weit verbreitet und sehr beliebt, weil sehr billig sind und bei jedem Computer als Standard-Eingabemedien mitgeliefert werden. Um dem Benutzer trotzdem eine relativ einfache Art und Weise 3D-Objekte zu manipulieren, wurden sehr viele Softwareunterstützungen und –erweiterungen implementiert.
2.2 Ausgabegeräte
Kriterium
Beschreibung
Auflösung (resolution)
gibt an, wieviele Bildpunkte das Display maximal darstellen kann.
Angabe absolut für x und y Koordinate
Bildwiederholrate (update rate)
gibt an, wie oft pro Sekunde das Bild neu aufgebaut wird. Angabe in Hz
Blickfeld (field of view (FOV))
Angabe in Grad. Das Blickfeld des Menschen beträgt horizontal 180° und vertikal 150°
Helligkeit/Kontrast (brightness/contrast)
Angaben zur Farbbrillanz
Ergonomie
Gewicht, Größe, ...
2.
2.1 Visual displays
Zur Zeit gibt es zwei Technologien am Markt:
CRT – (cathode ray tube – Kathodenstrahlröhre) Displays basieren auf der konventionellen Fernsehertechnologie.
Vorteile
Nachteile
hohe Auflösung (1600 x 1280)
schwer
hohe Schärfe des Bildes
hoher Stromverbrauch
großer Kontrast
erzeugen hochfrequente stark magnetische Felder, die schlecht für die Augen sein können und die Effizienz magnetischer Tracker verringern
LCD – (liquid crystal diode) Displays sind eine relativ neue Technologie und deshalb noch nicht so ausgereift.
Vorteile
Nachteile
leicht
geringere Auflösung
sehr flach
sehr teuer
geringer Stromverbrauch
geringere Emissionen
Eine vielversprechende Technologie sind sogenannte Plasmamonitore. Sie vereinigen alle Vorteile der beiden vorher genannten Technologien, sind aber sehr viel teurer. Zur Zeit werden sie jedoch noch nicht eingesetzt.
Es ist ein Projekt im Gange, bei dem versucht wird, mit Hilfe von Lasern das Bild direkt auf die Retina zu projizieren. Ziel ist es, eine Auflösung von 4000 x 3000 und einem FOV von 100° zu erreichen.
2.2.1.1 3D-Brillen
Auf einem herkömmlichen Monitor werden Stereobilder dargestellt.
Mit dem Monitor synchronisiert, öffnet und schließt die 3D-Brille mit hoher Frequenz abwechselnd die rechte und die linke Seite der Brille. So erfährt der Benutzer dreidimensionale Bilder. Alternativ zum Monitor werden auch Projektionswände verwendet.
Vorteile
Nachteile
billig
leicht
2.2.1.
2 Surround Displays
Eine sehr attraktive Alternative, für VR-Applikationen, zum normalen Desktop-Monitor sind große Projektionsschirme. Sie bieten keine besseren Bilder, aber ein weitaus größeres Blickfeld.
Ein totales Eintauchen in die virtuelle Welt ermöglichen CAVE-ähnliche Displays: Der Benutzer ist umgeben von vielen Flat Screens.
Vorteile
Nachteile
im Idealfall FOV von 360°
teuer
zerbrechlich
Präzises Hardware-Setup notwendig
2.2.1.
3 Binocular Omni Oriented Monitors (BOOM)
Entwickelt und kommerzialisiert von den Fake Space Labs, stellen BOOMs eine Vereinigung von mechanischen Trackern und der stereoskopischen Bildwiedergabetechnologie dar. Zwei kleine Monitore sind am Ende eines mechanischen Arms befestigt. Der Benutzer ergreift das Ende des Arms und muß die Monitore immer vor Augen führen.
Vorteile
Nachteile
hohe Auflösung
nicht tragbar
hohe Genauigkeit
eingeschränkte Bewegungsfreiheit
weites Blickfeld
2.2.1.
4 Head Mounted (Coupled) Displays (HMD)
Ein HMD ist ein Gerät, das am Kopf des Benutzers befestigt wird. Es besteht aus zwei CRT oder LCD Monitoren, die vor den Augen des Benutzers plaziert sind. Die Umgebung wird der Person, auf Grund der aktuellen Position und Orientierung, welche durch einen Tracker ermittelt wird, präsentiert. Der Benutzer sieht also sein Umfeld von seiner Position aus.
HMDs können in opaque und see-through HMDs eingeteilt werden. Opaque HMDs füllen das gesamte Blickfeld mit Bildern der virtuellen Welt aus.
Sie können bei Anwendungen benutzt werden, die eine eigene künstliche Welt erschaffen (z.B. Walkthroughs, Spiele, ...).
See-through HMDs werden dann benutzt, wenn die Realität mit 3D-Objekten überlagert wird (z.B. Augmented Reality).
Vorteile
Nachteile
höchster Grad an Immersion
Billigprodukte haben geringe Auflösung (256 x 210)
Name
Typ
Technologie
Auflösung
FOV (H x V)
Preis (USD)
Sim Eye
see-through
CRT
1280x 1024
60° x 40°
200,000
CyberMaxx
opaque
LCD
180K Pixel
60° x 53°
800
EyeGen3
opaque
CRT
123,250 Pixel
35° x 30°
10,000
i-glasses!
opaque/see-through
LCD
180K Pixel
30° horizontal
800
2.2.2 Haptic displays
Haptic – haptisch (hier: die Sinne betreffend/beeinflussend)
Haptische Eindrücke, die vom Menschen wahrgenommen werden können, können eingeteilt werden in:
kinesthetic (Force) Feedback – Muskeln, Gelenke und Sehnen werden Kräften ausgesetzt
tactile Feedback – beiinhaltet Feedback über die Haut, wie zum Beispiel Tastsinn, Temperatur oder Druck
2.
2.2.1 Force Feedback
Um das Natürliche in VR-Systemen hervorzuheben und zu unterstützen, wurden viele Geräte (Datenhandschuh, Dexterous Manipulators, Joysticks, ...) mit Force Feedback ausgestattet.
Zusätzlich wurden Geräte entwickelt, die bestimmte Körperteile stimulieren sollen.
2.2.2.2 Tactile Feedback
Tactile Feedback ist viel sensibler als Force Feedback. Deshalb ist natürlich auch die Herstellung und Entwicklung viel aufwendiger.
Die Simulation kann zum Beispiel durch vibrierende Module, aufblasbare Blasen oder electrorheological fluids (Flüssigkeiten, deren zähflüssiger Zustand sich bei Erhöhung eines angelegten elektrischen Feldes erhöht), die sich zum Beispiel direkt unter der Oberfläche eines Datenhandschuhes befinden. Zur Zeit ist es leider noch nicht möglich die gesamte Bandbreite an Informationen, die wir über die Haut aufnehmen können, zu manipulieren. Es ist zum Beispiel möglich die Oberfläche eines virtueller Gegenstände zu simulieren, aber nicht deren Struktur.
2.2.3 Audio displays
Der proportionale Anteil des Hörsinns beträgt ca.
20% der menschlichen Wahrnehmung (Tastsinn 1%). Deshalb ist es sehr wichtig, in einem VR-System möglichst reale Soundverhältnisse darzustellen. Dabei müssen folgende Punkte beachtet werden:
Weg vom geräuschauslösenden Punkt bis zum Ohr
eventuelle virtuelle Hindernisse
Echos
Geometrie virtueller Objekte
Oberflächenstruktur der virtuellen Objekte
die Form des äußeren Ohres des Benutzers
Drei Punkte sind zur erfolgreichen Simulation einer akustischen Umgebung notwendig:
Sound Generation – Die Geräusche können entweder generiert oder gesampled sein, die dann playback abgespielt werden.
Spatial propagation – Dies ist die teuerste und rechenintensivste Stufe. Hier müssen alle, den Ton beeinflussenden Faktoren, analysiert und berechnet werden (z.B.
Echo).
Mapping of parameters – Letztendlich müssen die einzelnen berechneten Geräusche mit Hilfe von Filtern kombiniert werden und dann an den Mann gebracht werden. Die Ausgabe geschieht meistens durch ein Dolby Surround System.
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com