3D-Maus

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Tischgebundene 3D-Maus mit Steuerobjekt in Form eines Pucks

Eine 3D-Maus ist ein Eingabegerät (Befehlsgeber) für Computer. In den häufigsten Anwendungsfällen dient sie dazu, in einer virtuellen 3D-Umgebung Objekte zu bewegen oder sich selbst durch eine virtuelle 3D-Landschaft zu manövrieren. Interaktive Applikationen werden durch die Eingabe eines Benutzers gesteuert. Dafür stehen ihm folgende Medien zur Verfügung: Tastatur, Joystick, 2D-Maus, 3D-Spaceball, Datenhandschuh, Spracheingabe, Bilderkennung und 3D-Maus.[1]

Geräteklassen[Bearbeiten | Quelltext bearbeiten]

Tischgebundene Geräte[Bearbeiten | Quelltext bearbeiten]

Auf einem stationären Untersatz ist flexibel ein Steuerkörper in Form einer Kugel oder eines Pucks angebracht. Schub- und Drehkräfte, die der Benutzer auf den Steuerkörper ausübt werden in Eingabebefehle umgesetzt.[2] Ein solches System verfügt über drei translatorische und drei rotatorische Freiheitsgrade.[3] „3D-Mäuse oder Steuerkugeln messen über den Federdruck eine statische Auslenkung für Position und Winkel einer Kugel, die von der Hand des Benutzers umschlossen wird. Die Auslenkungswege und -winkel sind sehr klein, so daß die Auflösung dieser Geräte begrenzt ist. Deshalb werden Steuerkugeln vorwiegend für Geschwindigkeitssteuerungen verwendet.“[4]

Eine 3D-Maus – auch Spacemouse genannt – eignet sich als Zusatzgerät zur normalen Maus für die beidhändige Bedienung. Diese Form der Interaktion wird als besonders natürlich empfunden, wenn die dominante Hand relativ zur weniger dominanten Hand agiert. Die beidhändige Interaktionstechnik vermindert die kognitive Belastung des Anwenders.[5] Bei immersiven Visualisierungssystemen dürfen die Eingabemedien den Anwender nicht von der virtuellen 3D-Umgebung ablenken. Auch die Bewegung des Nutzers sollte es nicht einschränken. Eingabegeräte sollen den Nutzerfokus nicht auf sich ziehen. Diese Kriterien werden von einer 3D-Maus erfüllt.[6]

Handgeräte[Bearbeiten | Quelltext bearbeiten]

Der Benutzer hält das Eingabegerät in seiner Hand und kann es frei im Raum bewegen. Über im Gerät integrierte oder externe Sensoren werden Position und Bewegung im Raum bestimmt.[7] Kommen externe Sensoren zum Einsatz, spricht man von Tracking.

Geschichte[Bearbeiten | Quelltext bearbeiten]

Spaceball 4000 FLX (Hergestellt im Jahr 2000)

Die Technologie wurde ab den 1970ern am Deutschen Zentrum für Luft- und Raumfahrt (DLR) vom Institut für Robotik und Mechatronik entwickelt, da man für die Steuerung von Robotern Eingabegeräte benötigte, die alle sechs Freiheitsgrade (DoF, engl. Degrees of Freedom) erfassen. In den 1980er Jahren gab es zeitgleich in Europa (1982) wie in den USA (1983) Patente, die ein Steuerungssystem beschrieben, bei dem die Kräfte und Momente durch eine Hohlkugel von der menschlichen Hand abgenommen wurden. Zeitgleich wurde in diesen Jahren im DLR am Institut für Robotik und Mechatronik an ähnlichen Konzepten zur Roboterbedienung unter der Bezeichnung Spacemouse gearbeitet.[8]

Im Laufe der 1980er Jahre etablierte sich dieses universelle 6D-Eingabegerät allerdings eher als Navigations- und Positionierungshilfe in virtuellen Szenarien, im Anwendungsbereich von 3D-Grafik und CAD-Anwendungen. Die Entwicklergruppe des DLR-Institutes erlangte dafür 1985 das internationale Patent.

Anwendungsgebiete[Bearbeiten | Quelltext bearbeiten]

  • Robotik: Die Programmierhandgeräte von KUKA Robotern sind seit 1995 mit einer 3D-Maus verfügbar. Hier kann der Anwender durch Kraftausübung den Roboter intuitiv in die gewünschte Richtung bewegen.
  • 3D-Konstruktion: Viele 3D-Programme wie Pro/Engineer oder AutoCAD unterstützen die Verwendung von 3D-Mäusen, damit ist es für den Bediener einfacher möglich zwischen den einzelnen Ansichten oder auch im 3-dimensionalen Raum zu navigieren. Die Oberklasse der 3D-Mäuse hat Funktionstasten, die frei belegt werden können. Wenn man eine 3D-Maus in der Konstruktion verwendet, kann man das Modell intuitiver manipulieren, z. B. drehen und schwenken. Obwohl auch Maus genannt, ersetzen sie diese in der Regel nicht, sondern werden mit ihnen parallel verwendet, während zwischen Maus und Stift gewechselt werden muss. So befindet sich die 3D-Maus bei Verwendung für Rechtshänder auf der linken Seite der Tastatur um sie gleichzeitig mit Maus, Stift, Touchpad oder Touchscreen zu verwenden. Neuere Dienstprogramme von 3Dconnexion erlauben auch die Einblendung eines Ziffernblocks mit Rücklöschtaste an der Bildschirmposition des Mauscursors. So müssen die anderen Zeigegeräte nicht aus der Hand gelegt werden, um Werte präzise abzuändern oder direkt einzugeben. Dies beschleunigt und vereinfacht den Konstruktionsprozess.[9]
  • Medizin: Eine 3D-Maus kann zur Simulation eines chirurgischen Eingriffs benutzt werden, um beispielsweise die Lage eines Implantats im Körper des Patienten in allen drei Dimensionen ausrichten zu können.[10] Auch bei der Operation von angeborenen Schiefstellungen des Schädels wird eine 3D-Maus als Eingabemedium eingesetzt, zum Beispiel für die „freihändige Korrektur der Position im CAD-System an einem 2D-Monitor“.[11]
  • Architektur: In Systemen der Computer Augmented Reality, wie sie in der Architektur verwendet werden, ist die Hand des Nutzers normalerweise frei und kann ohne Funktion für die Computersteuerung bleiben, sie wird jedoch häufig zur Bedienung einer 3D-Maus einbezogen.[12]
  • Heimanwender: Durch die Preissenkung der Technik (Stand 2008: etwa 50 €) ist der Einsatz von 3D-Mäusen in Privathaushalten zur Spielesteuerung oder zur Navigation in Google Earth möglich geworden.

Anbieter und Ausführungen[Bearbeiten | Quelltext bearbeiten]

Optische Baugruppe einer Spaceball 4000 FLX

SpaceController, Spacemouse[Bearbeiten | Quelltext bearbeiten]

Der auf einem Untersatz befestigte Steuerkörper lässt sich in alle Richtungen um einige Millimeter ziehen, drücken, kippen und drehen. Er springt nach dem loslassen wie ein Joystick zurück in seine Ausgangsposition. Die Messung der sechs Komponenten (Translation und Rotation) erfolgt über reibungs- und verschleißfreie opto-elektronische Sensoren. Mehrere am Untersatz angebrachte Tasten können von Anwendungsprogrammen individuell belegt werden.

Softwareanbindung[Bearbeiten | Quelltext bearbeiten]

Blender[Bearbeiten | Quelltext bearbeiten]

Das Arbeiten im dreidimensionalen Raum ist mit einer gewöhnlichen Maus stark erschwert. Deshalb haben die Entwickler der freien 3D-Grafiksoftware Blender zusammen mit dem Unternehmen 3Dconnexion ein Plugin entworfen, das die kommerziell erhältliche 3D-Maus Spacenavigator in Blender einbindet.[13]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. D. Müller: Application Framework für die Entwicklung interaktiver Anwendungen mit multisensorischen Benutzungsschnittstellen - Ansätze einer prototypischen Realisierung von Rechnersystemen für die Produktion. April 1993, S. 10, abgerufen am 29. November 2015 (PDF).
  2. Heinrich Hußmann, Albrecht Schmidt: Guidelines Input devices. In: Vorlesung Mensch-Maschine-Interaktion. Ludwig-Maximilians-Universität München, 2004, S. 40, abgerufen am 29. November 2015 (PDF).
  3. Peter A. Henning: Taschenbuch Multimedia. Hanser 2007. S. 226. ISBN 3446409718. Online bei Google Books.
  4. Thomas Klement, Matthias Hemmje: Eine konfigurierbare, constraint-basierte Kamerasteuerung für 3D Visualisierungswerkzeuge. In: GMD-Studie. Fernuniversität Hagen, S. 34 f, abgerufen am 29. November 2015 (PDF).
  5. Felix Ritter: Interaktives Zusammensetzen von 3D-Modellen zur Unterstützung des räumlichen Verständnisses. In: Diplomarbeit an der Otto-von-Guericke-Universität Magdeburg. Mai 1999, S. 112 f, abgerufen am 29. November 2015 (PDF).
  6. Juri Engel, Jürgen Döllner: Immersive Visualisierung von virtuellen 3D-Stadtmodellen und ihr Einsatz in der Stadtplanung. In: DGPF Tagungsband 21 / 2012. 2012, S. 5 f, abgerufen am 29. November 2015 (PDF).
  7. Roland Schmitz: Kompendium Medieninformatik. Band 2: Medienpraxis. Springer 2007. S. 94. ISBN 3540366296. Online bei Google Books.
  8. The DLR SpaceMouse (1981–1993). DLR Robotics and Mechatronics Center, abgerufen am 29. November 2015.
  9. André Stork: Effiziente 3D-Interaktions- und Visualisierungstechniken für benutzer-zentrierte Modellierungssysteme. In: Dissertation an der Universität Darmstadt. Fachbereich Informatik der Technischen Universität Darmstadt, August 2000, abgerufen am 29. November 2015 (PDF).
  10. M. Scherbinsky, G. J. Lexow, Th. S. Rau, B. Preim O. Majdani: Computerunterstutzte Planung von Bonebridge ¨ Operationen. Otto-von-Guericke-Universität Magdeburg, 2015, abgerufen am 29. November 2015 (PDF).
  11. R. Stelzer , A. Koßler , M. Funke , U. Eckelt , M. Schneider: Virtuelle Segmentierung und Fragmentpositionierung zur Planung navigationsgestützter operativer Eingriffe in der rekonstruktiven Chirurgie. TU Dresden, 9. November 2005, abgerufen am 29. November 2015 (PDF).
  12. Ingrid Rügge: freihändig oder handgesteuert? Aktuelle Trends in der Gestaltung der Mensch-Computer Interaktion. Universität Bremen, Technologiezentrum Informatik, abgerufen am 29. November 2015 (PDF, Abschnitt Augmented Reality).
  13. Rui Paulo Sanguinheira Diogo: Modelling 2.50. In: Linux-Magazin. Dezember 2007 (Stand: 22. Juni 2008) online auf linux-magazin.de