Thursday Interactive Talks Minutes: Difference between revisions
Jump to navigation
Jump to search
No edit summary |
No edit summary |
||
Line 15: | Line 15: | ||
* Rauwe sensor informatie versturen zou dit probleem eenvoudiger maken, dit is niet mogelijk omdat automative sensoren vaak "smart" zijn: hebben een intern filter. | * Rauwe sensor informatie versturen zou dit probleem eenvoudiger maken, dit is niet mogelijk omdat automative sensoren vaak "smart" zijn: hebben een intern filter. | ||
'''Yanick:''' | '''Yanick:''' ''<Put a catchy sentence here!>'' | ||
* EurEyeCase is een project waarin onder andere TU/e en [http://www.preceyes.nl/ Preceyes] in meedoen. Dit project focust zich op Robot Assisted Surgery. Yanick focust zich (naast RoboCup) op het koppelen en toevoegen van meer sensoren om: | * EurEyeCase is een project waarin onder andere TU/e en [http://www.preceyes.nl/ Preceyes] in meedoen. Dit project focust zich op Robot Assisted Surgery. Yanick focust zich (naast RoboCup) op het koppelen en toevoegen van meer sensoren om: |
Revision as of 08:57, 15 April 2016
Minutes 14-04-2016
De tweede TiTs-meeting; degene die zich nog niet hebben voorgesteld, hebben dat deze keer gedaan:
Jordy: A model-based approach in aiming a soccer ball at a 3D target with a Soccer Robot.
- Focust zich op stuiterende ballen. Als het inverse model van de bal bekend is; kan de gewenste trajectory gespecificeerd worden en kunnen de inputs op de robots naar de bal bepaald worden op basis van deze gewenste trajectory.
- Expirementen om de submodellen te valideren (e.g. snelheid klepel) kunnen niet worden gedaan omdat dit niet gemeten kan worden. Daarom wordt het totale model in een keer gevalideert.
- Het inverteren van het model tussen de Duty Cycle en Hoek Klepel is niet mogelijk, daarom wordt dit inverse model benadert met een statische map. Dit vereist wel wat afschatten van de map, wat wordt gedaan aan de hand van het model.
- De uiteindelijke validatie zal worden gedaan met de Kinect V2 op de robots, hiermee zal de trajectory van de robot worden gemeten en vergeleken met de gewenste trajectory. Eerste testen zijn hiervoor al gedaan, van veraf werd het gewenste target goed benaderd, van dichtbij is de methode minder nauwkeurig (komt misschien door low-level aanpassingen in de TURTLE software?).
Niels: Situational Awareness for Vehicle Platoons.
- Focust zich op het wereld model van voertuigen in het TNO platoon (DAF's of Priussen). Nieuw is hier dat de informatie (snelheden van omringende voertuigen, acceleraties van eigen voertuigen) met elkaar worden gedeeld.
- Het doel is om de data over "common objects" te fuseren en tot een consistent estimate te komen. Het probleem hierbij is dat de measurement noise onafhankelijk is voor beide voertuigen, maar de process noise niet (ze meten hetzelfde voertuig; informatie is dus niet compleet nieuw). Dit resulteert in een overconfident covariance van het Kalman Filter; "cross-correlation problem".
- Het doel van de informatie is om objecten beter te herkennen én objecten te delen binnen het platoon.
- Rauwe sensor informatie versturen zou dit probleem eenvoudiger maken, dit is niet mogelijk omdat automative sensoren vaak "smart" zijn: hebben een intern filter.
Yanick: <Put a catchy sentence here!>
- EurEyeCase is een project waarin onder andere TU/e en Preceyes in meedoen. Dit project focust zich op Robot Assisted Surgery. Yanick focust zich (naast RoboCup) op het koppelen en toevoegen van meer sensoren om:
- voorheen onmogelijke operaties mogelijk te maken (e.g. cannelatie; medicijnen aanbrengen bij opstoppingen in de bloedvaten; in dit geval achter het oog).
- huidige operaties te verbeteren (kans op complicaties te verminderen) (e.g. peeling, vitrectromie)
- de chirurg beter te assisteren, welke informatie moet worden teruggekoppeld naar de chirurg (Opdracht Geert-Jan)
- een voorbeeld van een extra sensor is de OCT Probe (interferometer-type sensor) (Opdracht Rens) welke de verschillende laagjes achterin het oog kan herkennen, hierdoor kunnen bijvoorbeeld virtual bounds worden gecreeerd.
- daarnaast wordt er gewerkt aan het modeleren van het oog, dit helpt in het herkennen van bloedvaten en in het oppakken van het velletje in de peeling procedure (Opdracht Wouter)
- Een MOOG-setup is geinstalleerd om te testen welke input kan worden teruggevoerd naar de chirurg en of deze bruikbaar is voor de chirurg.
Wouter: Development and Validation of a Tomato Crop Model for Climate Management Support Systems in Greenhouses.
- TU/e zit samen met WUR, UU en TUD in het LED it be 50%-project. Het doel is hier om een automatische aansturing voor het kasklimaat te ontwikkelen, een aansturing welke de opbrengst van het aantal kilo's tomaten optimaliseert.
- Wouter focust zich op dit moment vooral op tomaten en het modeleren hiervan. Het doel is om een model te ontwikkelen wat een goede prediction accuracy heeft en een lage computationele complexiteit; dit is dan het beste voor een model-based design.
- Tussensignalen meten is niet mogelijk bij tomatenplanten, daarom wordt er een generiek framework opgezet waar submodellen (bijv. photosynthese) kunnen worden ingeplugd. Binnen deze afstudeerstage worden er 4 bestaande modellen in dit framework gezet en worden alle mogelijke combinaties van submodellen gesimuleerd. Het doel is om de combinatie te vinden welke voldoet aan de wensen: lage computationele complexiteit maar goede prediction accuracy.