Virtuelle Lernumgebungen sind aktuell und hocheffektiv. Und das nicht nur wegen der aktuellen Einschränkungen von Präsenzkursen. Im Gegensatz zu Lernmedien, die einfach konsumiert werden wie z.B. Video oder Text/Video/Audio-Kombinationen, sind VR-Lernumgebungen vollständig auf die Interaktion mit den Lernenden ausgelegt. Das erhöht die situationsbedingte Aufmerksamkeit und unterstützt die Verarbeitung und den Transfer von Informationen in das Langzeitgedächtnis, was einen langfristigen Lernerfolg ermöglicht.
Virtual Reality (VR) eröffnet den Lernenden die Möglichkeit, Lerninhalte in einer effizienten, fast spielerischen Weise zu erschließen. Komplexe, schwierige oder gefährliche Handlungsabläufe lassen sich in der simulierten Umgebung am virtuellen Maschinenmodell beliebig oft wiederholen. Individuelle Lernziele werden in der VR-Umgebung auf einfache Weise umgesetzt und helfen, Berührungsängste mit der geschulten Technologie zu vermindern. Komplexe Handlungsabläufe lassen sich in lebendige Szenarien einbinden. So trainieren Lernende das richtige Verhalten und korrekte Abläufe für unterschiedliche Situationen.
»Machine@Hand 2.0« eröffnet völlig neue Möglichkeiten, um hocheffiziente VR-Training-Module zu entwickeln und das zu einem Bruchteil der Kosten und der Komplexität von bisherigen Lösungen. Insbesondere innerbetriebliche Ausbildungsabteilungen, Technische Schulen und Hochschulen sowie Anbieter von technischen Trainingsinhalten bieten die ideale Umgebung für den Einsatz der Software. Dabei ist die Anwendung aber nicht auf rein technische Trainingsinhalte begrenzt. Auch für Medizin, Dienstleistung und Handel lassen sich komplexe Trainingsszenarien mit Hilfe der VR-Technologie entwickeln.
Die Erstellung von VR-Trainingsmodulen
Im neuesten Release des virtuellen Trainingstools können die VR-Module in einer Autorenumgebung erstellt werden, die sehr stark an die Funktionalität und die Benutzeroberfläche moderner Präsentationsprogramme angelehnt ist. Auch das Erstellen der Trainings direkt in VR wird über eine in Kürze zur Verfügung stehende VR-Authoring-Funktion möglich sein. Eine Programmierung oder teure externe Dienstleister sind dadurch nicht nötig. CAD-Daten und 3D-Modelle lassen sich direkt in das Autoren-Werkzeug importieren und dienen als Vorlagen für die Elemente in der VR-Lernumgebung. Es existiert eine Vielzahl von Bibliotheken, aus denen sich die unterschiedlichsten Elemente zu komplexen Lernszenarien zusammenfügen lassen. Auf diesem Weg ist die Erstellung von immersiven und vor allem interessanten VR-Lerninhalten möglich. Dies erlaubt die einfache Integration in bestehende E-Learning-Produktionsabläufe und ergänzt vorhandene Autorenwerkzeuge um eine effektive VR-Komponente. Auf der Hannover Messe können sich Besucher des virtuellen Standes von der Funktionalität überzeugen .
Technische Voraussetzungen für den Einsatz von Machine@Hand 2.0
Die technischen Voraussetzungen für die VR-Lernumgebung bewegen sich auf einem Niveau, das dem moderner Spielecomputer entspricht. Eine aktuelle CPU mit genügend Arbeitsspeicher, leistungsstarke Grafikkarte und ein VR-Set (VR-Brille und Hand Controller/Paddles) reichen aus. VR-Training-Module, die mit Machine@Hand 2.0 erstellt wurden, lassen sich problemlos in bestehende E-Learning-Module und technische Plattformen wie Learning Management Systeme (LMS) einbinden. Die aktuelle Standardschnittstelle »xAPI« wird dabei noch in diesem Jahr unterstützt. In einen E-Learning-Produktionsablauf, z. B. basierend auf dem ADDIE-Modell, lässt sich die Software problemlos integrieren.
Es werden die folgenden 3D-Formate unterstützt: FBX, GLTF, GLB, OBJ, STL, PLY, 3MF sowie Unity Asset-Bundles. Bei Interesse und für weitere Informationen wenden Sie sich bitte an: machineathand@igd-r.fraunhofer.de. Es besteht die Möglichkeit, eine Demo-Version des Autorenwerkzeuges kostenfrei zu testen.
Weiterführende Informationen unter:
- https://www.igd.fraunhofer.de/projekte/machinehand
- https://www.igd.fraunhofer.de/veranstaltungen/hannover-messe-2021
- https://www.hannovermesse.de/aussteller/fraunhofer-institut-igd/L837482