Ik integreer computer vision en edge ai voor autonome drones
Autonome robotica en UAV-onderzoek engineer
Over deze dienst
Autonome UAV Computer Vision & Edge AI Engineering
De meeste drones volgen GPS, maar mijn drones kunnen "zien".
Ik ben een Robotics Research Engineer, afgestudeerd in Mechanical Engineering aan NUST, en twee keer finalist bij de internationale TEKNOFEST UAV. Ik specialiseer me in het ontwikkelen van veerkrachtige autonome architecturen die de kloof overbruggen tussen zwaar edge computing en fysieke flight controllers.
Mijn AI & Vision Stack:
- Hardware: NVIDIA Jetson Nano, Raspberry Pi, OAK-D, Coral TPU
- Frameworks: OpenCV, YOLO (v8-v11), MediaPipe, TensorFlow Lite
- UAV Interface: MAVLink, ROS 2, en aangepaste Python API-bridges
Wat ik voor jou kan bouwen:
- Nauwkeurige landing: Detectie van ArUco-markers of aangepaste pads voor precieze landing.
- Object tracking: Real-time volgen van mensen, voertuigen of andere drones met Deep Learning.
- Handgebarencontrole: Intuïtieve besturing van zwermen of enkele drones op basis van handtrajecten van mensen.
- Dynamische onderschepping: Snelheid detectie en padplanning voor onderscheppingsmissies.
Waarom voor mij kiezen? Je huurt een onderzoeker in die deze systemen heeft gebouwd en gevlogen in internationale competities en die een design patent heeft op robotmechanismen.
Stuur me gerust een bericht om je hardware setup te bespreken voordat je bestelt!
Platform:
Raspberry Pi
Sensoren:
Versnellingsmeter
•
Camera
•
Positie
•
Locatie
•
Gyroscope
Expertise:
Afbeeldingenverwerking
•
AI
•
Robotics
Mijn portfolio
Veelgestelde vragen
Automatische vertaling
Welke companion computer moet ik gebruiken voor realtime AI?
Voor snelle objectdetectie zoals YOLO raad ik sterk de NVIDIA Jetson serie aan vanwege hun speciale CUDA-cores. Maar ik kan ook lichtere OpenCV en MediaPipe scripts optimaliseren voor de Raspberry Pi, afhankelijk van je missie en de vereiste framerate.
Kun je me helpen een aangepaste YOLO-model te trainen voor mijn specifieke target?
Ja. Als je een specifiek doel hebt (bijvoorbeeld een unieke landingspad of een bepaald type voertuig), kan ik een aangepaste YOLO trainen met jouw dataset en deze optimaliseren voor edge deployment zodat de inference snelheid op je drone maximaal is.
Hoe communiceert de AI met mijn Pixhawk flight controller?
Ik gebruik MAVLink (via pymavlink, DroneKit of MAVSDK) om "Offboard" snelheid en positie commando's te sturen. De AI verwerkt de camera feed op je companion computer en vertelt de flight controller precies hoe te bewegen om het doel te volgen of te onderscheppen.
Moet ik mijn fysieke drone opsturen voor testen?
Nee. Als engineer met ervaring in Gazebo Harmonic en Webots ontwikkel en test ik computer vision en path-planning logica eerst in high-fidelity 3D simulaties. Zodra de logica is geverifieerd, lever ik de deployment scripts en een gedetailleerde integratiehandleiding voor jouw hardware.
Kun je gebaren-gebaseerde swarm controle implementeren?
Absoluut. Op basis van mijn onderzoek naar menselijke-swarm interactie kan ik MediaPipe integreren zodat een enkele drone of een zwerm (zoals DJI Tello) jouw handtrajecten kan mirroren of specifieke gebaren in realtime kan volgen.

