1. Titel des Projekts

Godot 3D VR Labyrinth: Von 0 auf Virtual Reality in 5 Stunden

2. Ziel

Das primäre Ziel dieses Sprints war die vollständige Entwicklung eines zufallsgenerierten (prozeduralen) 3D-Labyrinths. Es durfte kein statischer Baukasten sein: Jedes Mal, wenn das Spiel startet, würfelt der Algorithmus ein neues `30x30`-Grid. Darin integriert: Monster-KI, Fahrstühle, begehbare Video-Galerien und eine native Virtual-Reality (PS VR2) Integration – bei stabilen 60 FPS.

3. Zielgruppe

Dieses Projekt richtet sich speziell an Tech-Leads, Headhunter und IT-Architekten. Es dient als greifbarer Beweis, welch radikaler Produktivitätshebel moderne KI-Modelle darstellen können, **wenn der Pilot sie richtig führt**.

4. Welches Problem wird gelöst?

Wie navigiert man ein massives, noch nie zuvor genutztes Ökosystem (in diesem Fall die 3D Engine)? Üblicherweise bedeuten völlig neue Frameworks wochenlanges Dokumentationsstudium und endlose Trial-and-Error-Phasen. Durch strukturiertes Prompting wird diese Einarbeitungshürde extrem komprimiert: Das Lösen architektureller Sackgassen verlagert sich von "Stundenlangem Suchen" auf "Gezieltes Co-Prompting".

5. Tech Stack

  • Godot 4 Engine Open-Source 3D/2D Game Engine für das visuelle Szenen-Management und die Rendering-Pipeline.
  • GDScript Die Python-ähnliche native Skriptsprache von Godot zur Steuerung der Spiellogik (Map-Generierung, KI-Navigationspunkte).
  • OpenXR (Virtual Reality) Framework-Einbindung für die PlayStation VR2 (PC), inklusive Controller-Tracking und stereoskopischem Rendering.

6. Funktionen der Anwendung

  • Prozedurale Generierung: Automatisierter Aufbau eines 900-Räume Grids bei jedem Neustart.
  • Smart Entity Tracking: Verfolgende Monster ohne teure A* Pfadfindung durch Vektorpfeil-Caching auf dem generierten Grid.
  • Video Galerien: Dynamisch geladene MP4-Videos (In-Game Kinoleinwände), die nur abspielen, wenn der Spieler hinschaut und nahe genug ist (Ressourcen-Culling).
  • VR-Modus: 3D Spatial Audio und Kamera-Steuerung vollständig kalibriert für Headsets.

7. UI Demonstation (Videos)

Schau dir das Projekt im Einsatz und exklusive Einblicke hinter die Kulissen der KI-Entwicklung an.

Gameplay Walkthrough

Behind the Code: Programmierung

Art Museum Preview

8. Evolution: Das High-End Sternen-Museum

Während das VR-Labyrinth meine Fähigkeiten im Bereich Performance-Optimierung (Draw-Calls, Culling) und KI-Architektur demonstriert, hebt das fortgeschrittene Virtual Art Museum (siehe drittes Video oben) die visuelle Qualität und das Environment-Design auf ein komplett neues Level. Ziel war es, eine absolut hochwertige, luxuriöse Umgebungsgrafik zu schaffen, die an reale Premium-Kunstgalerien erinnert und dabei weiterhin 100% prozedural generiert ist.

  • Dynamisches Lighting System Mathematisch platzierte Ring-Spotlights, integrierte Floor-Wash Lichter an massiven Marmorsäulen und asymmetrische goldene Kronleuchter sorgen für eine hochrealistische Lichtstimmung bei monströsen Deckenhöhen von 7 Metern.
  • Live JWST & Hubble API Integration Das Museum ruht, völlig stützenfrei, unter einer massiven 360-Grad Sternenkuppel. Das System lädt über Schnittstellen live hochauflösende Aufnahmen des James-Webb-Weltraumteleskops als dynamische "Skybox" in die Engine – alles persistent gecached.
  • Next-Gen Engine Mastery Das Projekt verdeutlicht extrem schnelles Adaptieren modernster Rendering-Konzepte: Shader-Programmierung für Texturübergänge, Godot 4 API-Meisterschaft und komplexe Ressource-Laderoutinen, umgesetzt in wenigen Tagen anstatt Monaten.

9. Hauptteil: Einsatz der KI als Co-Architekt

Die KI schreibt keine Spiele – sie ist ein Architekt, den ich als Orchestrator dirigiert habe. Die kritischste Phase entstand, als das Spiel massiv zu ruckeln anfing. Bei der Instanziierung von tausenden Räumen brach die Leistung auf 15 FPS ein. Das rohe "Zusammenstecken" von Objekten überlastete die asynchronen Draw-Calls der GPU.

Lösung via Prompting: Mein Symptom an die KI war analytisch genau: "FPS droppen auf 15, GPU Last ist dennoch minimal, CPU ist beschäftigt. Ich nutze tausende Einzel-Instanzen für StaticBodies der Wände." Die KI kannte das Architektur-Muster sofort und riet zum "GridMap & MultiMeshInstance Profiling". Durch das Bündeln (Batching) von Tausenden Geometrien in einen einzigen Draw-Call der Grafikkarte stiegen die FPS zurück auf flüssige 60+.

Ein weiteres Beispiel: Video Playback Errors. Die In-Game Videoplayer froren das Bild manchmal mit kaputten grünen Rechtecken ein. Die KI lokalisierte das Problem ohne den Code zu sehen: Video-Komprimierung. Sie wies mich an, die Videos als rohe Keyframes (ohne Frame-Schätzungen und Thumbnail-Timestamps) neu zu konvertieren. Ein Fehler, an dem ich klassisch Tage gesucht hätte, weil ich den Fehler in der Code-Logik, statt beim Assets-Encoding vermutet hätte.

10. UX/UI & Virtual Reality Feedback

Virtual Reality birgt völlig andere Regeln als Flat-Screen Gaming. Einer der häufigsten Anfängerfehler, den ich mithilfe der KI behob, betraf die Kameradrehung: Ursprünglich las mein Code die Mauseingaben ein. Als wir auf VR schwenkten, summierte sich die Headset-Drehbewegung mit der Joystick-Bewegung. Ergebnis? "Motion Sickness" und völlig überdrehte Kamera-Achsen.

Genauso bei den 2D-Benutzeroberflächen: Traditionelle HUDs (wie FPS Counter) funktionieren in VR nicht ("Klebt" nicht am Auge). Die Lösung war das Rendern eines dedizierten kleinen 3D-Schildes, das physisch vor den VR-Kameras positioniert wurde. Sehr elegant.

11. Zusammenfassende Erkenntnisse

KI ist kein Zauberer. Sie schreibt keinen Code in unbekannten Kontexten ohne kristallklare Architekturanweisungen. Das wichtigste Learning aus dem Projekt: *Die Qualität der Lösung korreliert exponentiell mit der Qualität der Fehlerbeschreibung.* Wer promptet: "Das Bild ruckelt", scheitert. Wer jedoch promptet: "Das Bild droppt auf 15 FPS nach der Initialisierung von 900 Child-Nodes, obwohl die GPU entspannt", der lenkt sein Werkzeug zu 100% in die korrekte Domäne.