Virtual Reality (VR) hat seit den Angeboten der späten 1980er und 1990er Jahre einen langen Weg zurückgelegt.
Vorbei sind die Übelkeit verursachenden Ausflüge mit niedriger Auflösung wie Virtualitys „Dactyl Nightmare“ und der monochrome VirtualBoy von Nintendo, und an ihrer Stelle haben wir alle Zugang zu hochauflösenden VR-Funktionen in unseren eigenen Taschen.
Ja, vorausgesetzt, Sie besitzen ein Smartphone mit Gyroskopfunktion (bei den meisten Smartphones), können Sie Ihr Gerät in ein Google Cardboard-Headset für 15 US-Dollar schieben und auf VR-Welten zugreifen, die vor 20 Jahren nicht denkbar gewesen wären.
Dies alles wurde durch die Verringerung der Prozessorgröße, die Verringerung der Sensorgröße und die Erhöhung der Auflösung durch ausgefallene neue Gerätebildschirme vorangetrieben. Sie benötigen keinen sperrigen Commodore Amiga 3000 mehr, um Ihren Ego-Shooter mit 756 x 244 Pixel zu betreiben. Stattdessen können Sie Full HD-Ruhm überall erleben, wo Sie möchten.
Mit der zunehmenden Zugänglichkeit von VR-Systemen sehen wir auch eine Zunahme der Anwendungen – nicht nur im Gaming-Bereich, sondern auch in technischen Kreisen.
In diesem Artikel haben wir mit fünf technischen CAD-Unternehmen darüber gesprochen, wie sie AR / VR implementiert haben, um Ingenieuren in Düsseldorf eine neue Dimension in Bezug auf technische Kommunikation, Design und Präsentation zu geben.
FESTE ARBEITEN
Wir haben auf unserer Schwesterseite EngineersRule viel über SOLIDWORKS Visualize Professional berichtet . Die neueste Version von Visualize Professional bietet AI-Entrauschung und sogar einen Fahrzeugphysik-Simulator, mit dem nicht nur fotorealistisches, sondern auch schnelles, rauschfreies Rendern gestartet werden kann.
Und natürlich würde solch ein qualitativ hochwertiges Rendering zu irgendeiner Form von VR-Fähigkeit passen… und das tut es auch.
Abbildung 2. Sonnenstudie in SOLIDWORKS Visualize. (Mit freundlicher Genehmigung von Brian Hillner.)
„Dassault Système SOLIDWORKS verfügt über mehr als 20 Jahre Erfahrung darin, unseren Kunden nur die besten CAD-Tools zur Verfügung zu stellen. Daher sind wir Vorreiter bei der Entwicklung modernster Technologien“, sagte Brian Hillner, Produktportfoliomanager bei SOLIDWORKS.
„Die virtuelle Realität hat sich als viel mehr als eine Spielerei erwiesen und wird von der Luft- und Raumfahrt, der Automobilindustrie, dem Produktdesign und sogar der medizinischen Industrie während der gesamten Designentwicklung und sogar im Vertrieb eingesetzt. Mit einer neuen 360-VR-Kamera kann SOLIDWORKS Visualize Professional atemberaubende, fotogenaue Bilder und Animationen erstellen, die sogar für die einfache Wiedergabe mit jedem Smartphone und einem Google Cardboard im Wert von 15 US-Dollar unterstützt werden. “
Und wenn Sie diese neue 360-VR-Kamera mit dem AI-Denoiser kombinieren, können Sie ultrahochauflösende 360-Grad-Inhalte mit bis zu 10-facher Geschwindigkeit wie ohne Entrauschungszauber rendern.
„Dadurch können unsere Kunden Produkte schneller als je zuvor entwickeln und gleichzeitig die Kosten für das physische Prototyping und teure Herstellungsfehler senken. Dies führt zu dramatisch kürzeren Entwicklungszyklen und einem insgesamt besseren endgültigen Design. “
Abbildung 3. Gerendert und bereit für VR. (Mit freundlicher Genehmigung des Autors.)
Sie können eine der Animationen im Video unten sehen. Setzen Sie einfach Ihr VR-Headset auf, sei es ein GearVR, ein Karton oder was auch immer Sie besitzen, und starten Sie es. Und wenn Sie noch kein Headset haben, können Sie das Video trotzdem abspielen. Spielen Sie es einfach wie jedes andere Video in Ihrem Browser ab und ziehen Sie den Mauszeiger über den Wiedergabebereich des Videobildschirms, um sich umzuschauen.
Wenn Sie wissen möchten, wie Sie diese VR-Erlebnisse in SOLIDWORKS Visualize Professional für sich selbst erstellen können, können Sie unser Tutorial unter diesem Link lesen .
Onshape
Die Cloud-basierte CAD-Plattform Onshape hat sich auch mit VR / AR befasst und sich kürzlich mit dem AR-Headset-Systemhersteller MagicLeap zusammengetan, um CAD in den quasi-holographischen Bereich zu bringen. Die Anwendung wurde als „Special Computing CAD App“ bezeichnet und eignet sich nicht nur zum Anzeigen, sondern auch zum Bearbeiten von CAD-Entwürfen. Dies ist ein erheblicher Schritt über das hinaus, was die meisten anderen Unternehmen derzeit anbieten. Während die anderen CAD – Unternehmen High-End – Visualisierung auf zu bringen und auch eine angemessene Menge an Interaktivität ihrer VR – Angebote konzentrieren, sind diese Produkte immer noch ziemlich eingeschränkt zu betrachten VR Inhalt, anstatt sie in VR selbst zu schaffen.
Onshape for Magic Leap wurde auf der LEAP-Konferenz im Oktober 2018 vorgestellt, auf der Onshape-CEO Jon Hirschtick den Teilnehmern eine Vorschau des Systems gab.
Die Zusammenarbeit zwischen Magic Leap und Onshape ermöglicht eine natürlichere Bearbeitung von Teilen. Die Gestenerkennung ermöglicht das Skizzieren, Ändern der Größe und verschiedene andere CAD-Funktionen, die wir mit einer zweidimensionalen Maus gewohnt sind.
Abbildung 4. Form in Magic Leap. (Mit freundlicher Genehmigung von Onshape.)
“Hier gibt es etwas Einzigartiges”, sagte Joe Dunne, Developer Relations bei Onshape.
„Die vollständige Onshape-App wird direkt auf dem Magic Leap-Gerät ausgeführt. Dies ist keine neue Viewer-Anwendung oder ähnliches. Es ist volles CAD, das auf dem Gerät ausgeführt wird. Aufgrund der OnShape-Cloud-Architektur unterscheidet sich die Unterstützung von Magic Leap für uns nicht von der Unterstützung von iPad, iPhone oder Android. “
Und da es Cloud-basiert ist und in Ihrem Browser ausgeführt wird, verfügt es auch über plattformübergreifende Funktionen.
„Wenn beispielsweise drei Benutzer alle an demselben Projekt arbeiten, kann einer einen Browser verwenden, ein anderer kann mit seinem Mobilgerät in einem Zug sein und ein dritter kann sich in einem anderen Büro befinden und das Magic Leap-Headset tragen gleichzeitig an genau demselben Modell arbeiten “, sagte Dunne.
„Magic Leap ist ein Cloud-Gerät, daher unterstützt Onshape es. Kein anderes CAD-Unternehmen wird dazu in der Lage sein (das ist mir sowieso bekannt).
„Ich kann mit Sicherheit sagen, dass andere Geräte auf ähnliche Weise auch von OnShape unterstützt werden können. Wir werden die Kundennachfrage bestimmen lassen, wie wir unsere Entwicklungsressourcen zuweisen. “
Sie können die Präsentation von CEO Jon Herschtick auf der LEAP-Konferenz im folgenden Video sehen (sein Vortrag beginnt um die 2-Stunden-40-Minuten-Marke).
Unwirkliche Engine
Wir haben uns in letzter Zeit viel mit der Echtzeit-Rendering-Videospiel-Engine Unreal Engine 4 (UE4) von Epic Games befasst. Darüber hinaus haben wir die neue Unreal Studio-Funktion des Unternehmens in einer Reihe von Artikeln untersucht, die Ihnen als Ingenieur zeigen sollen, wie Sie Ihre Entwürfe in Unreal Engine in ein hyperrealistisches Leben bringen können.
Falls Sie diese Artikel verpasst haben, finden Sie hier eine Zusammenfassung von Unreal Studio.
Unreal Studio ist eine Sammlung von Tools, mit denen Ingenieure und Architekten technische CAD-Dateien in Unreal Engine importieren können, das traditionell auf nichttechnische CAD-Formate wie Blender, Rhino oder Maya ausgerichtet ist. Das Problem, das industrielle Benutzer von Unreal Engine fanden, war, dass das Konvertieren technischer CAD-Daten in ein Format, das Unreal Engine 4 (UE4) ein wenig mühsam war. Technische CAD-Dateien, insbesondere solche, die für die Herstellung verwendet werden, können aufgrund der genauen gekrümmten Geometrie viel Speicherplatz beanspruchen.
Glücklicherweise vereinfacht Unreal Studio den Import-Workflow, sodass Ingenieure jetzt CAD-Daten, die für die Werkstatt entworfen wurden, mit minimalem Aufwand in UE4 importieren können, wobei alle Funktionen der Originalmodelle beibehalten werden.
Und da es sich um eine Videospiel-Engine handelt, ist es nicht verwunderlich, dass UE4 über einige VR-Funktionen verfügt. Scratch that… es verfügt über unzählige VR- und AR-Funktionen und eine Vielzahl von Tools, mit denen Sie auf die von Ihnen gewählte VR- oder AR-Plattform portieren können.
Abbildung 5. Eines dieser Autos ist echt. Eins ist nicht. (Mit freundlicher Genehmigung von Epic Games.)
Benutzer können Szenen auf ihren Laptops in 3D entwerfen, die Einstellungen an die Anforderungen des Zielformats anpassen, die ausführbare Datei kompilieren und auf nahezu jedem VR- oder AR-System ausführen, einschließlich Samsung GearVR (wir haben es selbst getestet), HTC Vive , Oculus Rift und sogar Google Cardboard und andere Android-basierte VR-Systeme.
Ingenieure, Architekten und Produktdesigner verwenden UE4 seit langem für die technische Kommunikation (und mehr). Daher besteht die Forderung, ein Produkt wie Unreal Studio zu entwickeln.
“Wir haben unglaubliche Innovationen im Unternehmensbereich mit Ingenieuren gesehen, die die Echtzeitfunktionen von Unreal Engine mit Virtual- und Augmented-Reality-Lösungen kombinieren, um komplexe Probleme zu lösen und ihre Designs detaillierter und klarer zu visualisieren”, sagte Marc Petit, General Manager von Unwirkliche Engine, epische Spiele.
“Vom Automobildesign bis zur Unterwassererkundung stellen zahlreiche Ingenieure fest, dass die immersive Echtzeitvisualisierung ein entscheidender Faktor für die Steigerung von Effizienz, Qualität und Sicherheit in ihren Branchen ist.”
Ein solcher industrieller Anwender der VR-Fähigkeiten von Unreal Engine ist der deutsche Automobilhersteller BMW.
BMW hat ein Mixed-Reality-Labor eingerichtet, das aus VR mit Unreal Engine-Antrieb und realer physischer Hardware besteht, um den Benutzern ein noch höheres Maß an Eintauchen zu ermöglichen, als dies mit VR allein möglich ist. Der Mixed Reality-Prüfstand besteht aus einem simulierten Fahrzeuginnenraum mit Rad, Pedalen und verstellbaren Autositzen sowie einem VR-System mit Unreal Engine 4. Der Computer, der dieses Modell antreibt, ist ein wassergekühlter Spielstand mit zwei NVIDIA TITAN X GPUs, die das Echtzeit-Rendering von 90 Bildern pro Sekunde ermöglichen.
Abbildung 6. BMW Mixed Reality Lab. (Mit freundlicher Genehmigung von BMW.)
Mit dem Mixed Reality Lab können Ingenieure bei BMW die Ästhetik eines Fahrzeuginnenraums optimieren und sich auf tatsächliche räumlich abhängige Aufgaben wie Schnittstellendesign, Benutzerfreundlichkeit und andere mit menschlichen Faktoren verbundene Designprobleme konzentrieren, die mit nur zwei nicht möglich wären. dimensionale bildschirmbasierte CAD-Workflows.
Zum Beispiel möchte ein Designer vielleicht wissen, wie einfach es ist, auf das Unterhaltungssystem im Auto zuzugreifen, während das Lenkrad voll verriegelt ist… während sein Sitz zurückgelehnt ist. Es ist eine Situation, die wir alle für selbstverständlich halten, aber eine schlecht gestaltete Benutzererfahrung kann sich dramatisch auf menschliche Faktoren auswirken, die von Sicherheit über Zugänglichkeit bis hin zu Komfort reichen. Dank des BMW Mixed Reality Lab können Aufgaben wie diese und eine Vielzahl anderer visuell und physisch simuliert werden.
Im folgenden Video erfahren Sie mehr darüber, wie BMW Mixed-Reality-Technologien einsetzt, um seine Systeme zu entwickeln und Designs zu kommunizieren.
Eine weitere interessante Anwendung von AR mit Unreal Engine stammt vom Schiffsbauunternehmen Oceaneering.
Oceaneering stellt ferngesteuerte High-End-Unterwasserfahrzeuge (ROVs) für die Inspektion und Installation von Unterwasserkabeln und -rohren (unter anderem für Unterwasseranwendungen) her. Das Unternehmen verwendet ein fortschrittliches 3D-Visualisierungs- und Betriebsmanagementsystem namens Abyssal OS Offshore , um die Navigation zu unterstützen oft trübe Ozeantiefen.
Ein Problem, mit dem sich ROVs ständig befassen müssen, ist die schlechte Sichtbarkeit, auf die sie bei der Arbeit in der Tiefe stoßen. Der Meeresboden hat nicht nur seine eigenen Sichtprobleme, sondern wenn ROVs in der Tiefe arbeiten, können sie auch Sedimente aufwirbeln, die die ROV-Kameras blenden. Dieses Sediment kann die Sichtbarkeit für Stunden (oder sogar Tage) verringern und ROV-Bedienern in Ausfallzeiten viel Geld kosten. ROV-Betreiber sind nicht billig zu mieten und ROVs auch nicht. Daher zahlen Unternehmen mit dieser sichtbarkeitsbedingten Ausfallzeit eine finanzielle Strafe.
Abyssal OS hat kürzlich auf Unreal Engine umgestellt, um die Visualisierung zu unterstützen. So können Ingenieure die realen Assets vom Meeresboden in der Gaming Engine neu erstellen, was wiederum eine Navigation auf der Grundlage der 3D-Modellüberlagerung ermöglicht. Ein Beispiel hierfür sehen Sie in Abbildung 7.
Abbildung 7. Unterwasser-AR. (Mit freundlicher Genehmigung von Oceaneering.)
Wenn Sie mehr darüber erfahren möchten, wie Sie technische CAD-Daten in Unreal Engine 4 importieren können, klicken Sie auf diesen Link , um das erste unserer Tutorials anzuzeigen und herauszufinden, wie Sie sich eine Kopie von Unreal Studio Beta sichern können.
Siemens NX
Mit der Veröffentlichung von Siemens NX 12.0.2 im vergangenen Jahr wagte das Unternehmen endlich den Sprung in den VR-CAD-Bereich.
Die Version enthält die VR Design Review-Funktion, mit der Benutzer auf Knopfdruck von ihrer NX-Sitzung aus in VR springen können.
Die VR-Funktionen von NX erfordern die Installation von Steam und Steam VR-Software. Siemens unterstützt derzeit die HMD-Systeme HTC Vive und Vive Pro, wobei vermutlich weitere Systeme auf dem Weg sind.
Obwohl Siemens angibt, dass es sich um ein Tool zur Entwurfsprüfung und nicht um einen vollständigen CAD-Editor handelt, der auf den Grafiken aus den Werbevideos des Unternehmens basiert, sieht es dennoch ziemlich cool aus und bietet eine Reihe von Tools und Funktionen für die Interaktion, Inspektion und Validierung von Modellen. wie Sie in Abbildung 8 sehen können.
Abbildung 8. Inspektion einer großen Gasturbine in NX. (Mit freundlicher Genehmigung von Siemens.)
Ein weiteres Produkt von Siemens, das kürzlich in die VR-Aktion aufgenommen wurde, ist Simcenter STAR-CCM +. Im vergangenen Jahr hat das Unternehmen die Multiphysik-Simulationsplattform um VR-Funktionen erweitert, sodass Benutzer weitaus tiefere Einblicke erhalten, als dies auf einem Flachbildschirm möglich war.
Jeder Simulationsingenieur weiß, dass eine gute Simulation mit einem guten Netz beginnt. Oder anders ausgedrückt, eine schlechte Simulation kann sicherlich mit einem schlechten Netz beginnen.
In STAR-CCM + VR können Ingenieure ihre Vernetzungsaufgabe ausführen und dann durch die Komponente fliegen, um die Netzqualität auf nie zuvor mögliche Weise zu navigieren und zu überprüfen. Sie können jetzt ein Netz inspizieren, indem sie sich wie persönlich durch das Bauteil bewegen. So können sie den Kopf drehen und durch alle Ecken und Winkel fliegen, in denen das Netz von fragwürdiger Qualität sein kann.
Nehmen wir zum Beispiel das in Abbildung 9 gezeigte Modell des Turbinenschaufelnetzes. Turbinenschaufeln haben winzige Kühlkanäle und eine Vielzahl komplexer innerer Hohlräume. Das Betrachten dieses Netzes auf einem 2D-Bildschirm, das Drehen und Schneiden mit einer Maus kann umständlich sein, aber nicht mehr. Ein Durchfliegen der Turbinenschaufelhohlräume kann das Netz mit beispiellosen Details und Kontrolle enthüllen.
Abbildung 9. Durch ein Turbinenblatt in STAR CCM + fliegen. (Mit freundlicher Genehmigung von Siemens.)
„In wenigen Minuten können Sie sich ein umfassendes Bild von der Geometrie machen“, sagte Matt Godo von Siemens PLM Software. “Es gibt Ihnen ein Gefühl für Skalierbarkeit und Umfang. … Dies ist einfach nichts, was Sie mit Ihrem Monitor und Ihrer Maus tun können.”
Sie können die Ergebnisse einer CFD-Simulation in Abbildung 10 sehen, die das Abgas zeigt, das aus einem Rohr auf eine Bohrinsel strömt. Wenn Sie diese Simulation in das HTC Vive integrieren und aus einer realen menschlichen Perspektive simulieren, erhalten Sie intuitivere Einblicke, die bei herkömmlichen CFD-Visualisierungsmethoden möglicherweise nicht vorhanden sind.
Abbildung 10. Eine CFD-Simulation in VR! (Mit freundlicher Genehmigung von Siemens.)
Autodesk
Wenn Sie sich die Autodesk VR-Seiten ansehen, werden Sie feststellen, dass VR / AR in Produkten wie Revit, 3ds Max, VRED, Maya LT und Forge unterstützt wird, die Architekten und Automobilherstellern eine Reihe von VR / AR-Tools anbieten Designer und Ingenieure gleichermaßen.
Werfen wir einen Blick darauf, was VRED auf den VR-Tisch bringt. Weil Autos cool sind und ziemlich gut rendern.
VRED ist für diejenigen, die es noch nicht ausprobiert haben, eine Prototyping- und 3D-Visualisierungsplattform, die sich hauptsächlich an diejenigen richtet, die im Automobilsektor arbeiten. Sie können also qualitativ hochwertige Renderings, eine breite Palette fotorealistischer Materialien und Lackierungen sowie all die anderen Dinge erwarten, die Automobildesigns zum Platzen bringen.
VRED bietet seit einiger Zeit VR-Funktionen und sogar voll bewegliche Hände, die in der virtuellen Welt mit den entsprechenden Controllern gesteuert werden können, wie sie beispielsweise für das HTC Vive verfügbar sind. VRED bietet auch erweiterte Unterstützung für fortgeschrittenere VR-HMDs wie VRgineers VRHero und XTAL VR.
Abbildung 11. Leuchtende Hände. (Bild mit freundlicher Genehmigung von Autodesk.)
Neben den seltsam leuchtenden Händen, die ein höheres Maß an Interaktion ermöglichen, können Benutzer mit VRED auch auf eine Reihe von Tools zugreifen, mit denen sie ihre Designs in VR bearbeiten können. Zu diesen Werkzeugen gehören eine virtuelle Taschenlampe, mit deren Hilfe Designer Lichtverhältnisse visualisieren können, die im wirklichen Leben problematisch sein können, sowie ein Schneidewerkzeug, mit dem Benutzer einen Ausschnitt aus dem virtuellen Modell erstellen können.
Abbildung 12. Schneiden Sie Ihr Auto in VRED auf. (Bild mit freundlicher Genehmigung von Autodesk.)
Aber was ist mit Autodesks Flaggschiff-CAD-Produkt Fusion 360?
Sicherlich muss das revolutionäre Design-Tool, das generatives Design für die Massen gekauft hat, eine gewisse Kapazität für VR haben, oder?
Im Moment nicht.
Benutzer, die ihre Designs über VR erkunden möchten, können dies mithilfe eines Plug-Ins eines Drittanbieters namens ENTiTi tun, das über den Autodesk App Store erhältlich ist.
Abschließende Gedanken
Da haben Sie es also. Es gibt einige Beispiele für VR-Anwendungen in der Technik, aber sind es nur coole Neuheiten und Tech-Demos einer Modetechnologie, die irgendwann in nicht allzu ferner Zukunft auf Veralterung warten? Oder hat die Verwendung von VR einen echten finanziellen Vorteil?
Diese Artikel sagen Ihnen beispielsweise nicht, dass es Unternehmen wie dem Verteidigungsgiganten BAE Systems gelungen ist, die Montagezeit von Batteriekomponenten erheblich zu verkürzen und die Schulungseffizienz der Mitarbeiter um 30 bis 40 Prozent zu verbessern.
Sie sagen Ihnen auch nicht, dass Unternehmen wie Lockheed Martin VR / AR auch zur Ausbildung von Satelliteningenieuren eingesetzt haben, wodurch sich die Montagezeit für Kabelbefestigungen um erstaunliche 93 Prozent verkürzt. Dies entspricht einer Einsparung von 10 Millionen US-Dollar pro Jahr .
Die Liste der Erfolgsgeschichten in der High-End-Fertigung geht weiter und weiter.
Wen kümmert es also, wenn die Gaming-VR-Verkäufe gelegentlich die Erwartungen übertreffen?
Die Verteidigungs- und Automobilindustrie tut das sicher nicht. Und hier liegt das große Geld. Wie GPUs, die aus der Spielebranche hervorgegangen sind und nun die Forschung in Wissenschaft und Technologie vorantreiben, scheint auch VR auf einem ähnlichen Weg zu sein.
Man kann also mit Recht sagen, dass VR in Bezug auf die Fertigung gerade erst am Anfang steht, und wir erwarten, dass es viel mehr wächst, insbesondere wenn es um Schulungen für die Fertigung geht… und sogar um Simulationen.
Die Killer-App, auf die VR-Fans lange gewartet haben, könnte in einer anderen Form erscheinen, scheinbar außerhalb des Spielbereichs.