Vanmorgen had ik problemen met de oculus dat de linkeroog niet wou renderen. Het probleem was dat het project in unity aan single pass stereo rendering deed.
Origineel staat het project op multi pass dit betekent simpelweg dat het tweemaal zou moeten renderen omdat men 2 camera's gebruikt om te renderen in VR ieders voor één oog. Single pass is dan eenmaal rendering aan beide ogen.
Het probleem is dat de post-processing alleen werkt als men multi pass gaat gebruiken als men single pass zou willen gaan moet men achter de schermen werken.
Hiervoor ben ik overgestapt naar multi pass rendering om het probleem op te lossen. Hierdoor concludeerde ik dat de meeste effecten van post processing in unity niet bruikbaar was voor VR.
Hiervoor heeft mijn begeleider voorgesteld om lightweight rendering te testen. Sinds dit het probleem van post-processing regelt. Ik heb dan een paar tests uitgevoerd maar heb nog niet conclusie kunnen trekken van deze soort rendering.
Vandaag heb ik voor de oculus go testscenes gemaakt rond mist. Maar helaas kreeg ik geen mooi resultaat. Mijn begeleider heeft dan gevraagd om post-processing toe te passen sinds het pakket ook een soort van mist omgeving kon creëren.
Hiervoor moest ik het pakket eerst downloaden vooraleer ik het kon gebruiken want het was niet zomaar ingebouwd in unity. Hierna heb ik op aanvraag al mijn scenes moeten veranderen met betrekking tot licht gebruik sinds ik realtime licht gebruikte. Realtime licht is reeds niet geschikt voor VR projecten dus moest ik ze overschakelen naar baked lights. Zodat de stress op de oculus vele minder is. Helaas heb ik nooit geleerd hoe ik lights moet baken in unity dus het was weer een avontuur om uit te zoeken.
Nadat ik klaar was met belichting kreeg ik als opmerking dat het scene vetragingen vertoonde dus moest ik een fps counter coderen om te zien of de scene vertragingen vertoonde.
Vandaag heb ik vooral geholpen indien het nodig was om het particle system te implementeren. Maar had ook deze namiddag nieuw werk gekregen namelijk om de oculus go uit testen om zo te zien hoeveel stress het kon verdragen.
Dit vergde veel downloads van oculus en zekere APK's. Na de downloads heb ik een paar testscenes gemaakt en uitgestest. Mijn begeleider heeft gevraagd om een soort van teleporter te maken zodat ik van plaats kon verwisselen niet met de camera maar met de controller. Dus heb meerdere tutorials gevolgd om deze teleporter te maken.
Tweede dag werken met het systeem. Het is me ondertussen gelukt om meerdere paths aan te maken die loopen met het particle systeem.
Toen ik klaar was met het systeem. Was het enige werk dat nog aan het systeem te doen was, om bepaalde wegen een specifieke kleur te geven en hun speciale effecten aan toe te voegen. Voor analyse van juiste kleurverbruik en duidelijk maken van hoe alles in elkaar zit heb ik de scene doorgestuurd naar mijn partner voor overleg. Indien verandering nodig was heb ik het samen met mijn partner door middel van overleg aangepast.
Ten slotte hebben we al onze branches samengevoegd en de problemen opgelost die tijdens het samenvoegen gebeurde.
Ons eerste opdracht is een app maken rond augmented reality of AR. Wij hebben videos gekregen van onze klant en uitleg + voorbeelden gekregen hoe
we het beste te werk gaan. Op ons eerste werk dag hebben we besloten om het werk te verdelen ik was verantwoordelijk voor de UI. Voor ideeen heb ik naar voorbeelden online gezocht.
De stage begon om 9:30.
Voor de zekerheid kwam ik vroeger om eerder aan de stage te beginnen.
Tijdens de dag hebben we meer informatie gekregen rond de projecten waarmee we zullen werken.
Het grote deel van de dag moesten wij SDK en NDK's downloaden voor het gebruik van virtual reality en augmented reality.
Voor ons eerste project van de stage kregen we een 3D model voorgeschoteld. Maar om het gebruiken moesten we het model herbenoemen.
Dus heb ik mij er vooral mee beziggehouden. Voor de rest van de dag heb ik voorbeelden gezocht over UI in augmented reality. Zodat ik morgen