AWS RoboMaker-ervaring met computervisie

Navigatie en persoonsherkenning Voorbeeldtoepassing:
https://github.com/aws-robotics/aws-robomaker-sample-application-persondetection

AWS RoboMaker

AWS Robomaker is een service waarmee u eenvoudig robottoepassingen kunt ontwikkelen, ze kunt testen in een 3D-wereld en uw toepassingen kunt implementeren op meerdere fysieke robots. Het beste is dat het cloud-extensies voor ROS biedt, zodat u uw resource-intensieve verwerking in de cloud kunt hebben in plaats van rechtstreeks op de robot, die dit misschien niet kan. Bovendien krijg je een ontwikkelomgeving zodat je overal aan je robottoepassingen kunt werken.

Meer informatie over AWS Robomaker is hier te vinden.

Navigatie en persoonsherkenning

Robomaker bevat ook verschillende voorbeeldtoepassingen om u op weg te helpen met het leren van de wereld van robotica. In dit bericht zal ik je een van die applicaties laten zien genaamd “Navigatie en persoonsherkenning”.

Deze voorbeeldtoepassing gebruikt verschillende AWS-services achter de schermen, zoals Kinesis voor datastreaming, Rekognition voor gezichtsherkenning en Polly voor tekst -To-Speech (TTS).

Voorbeeldapplicatie uitvoeren

Opmerking : alles in dit bericht is gedaan met een AWS Educate Starter-account

Nog een opmerking : aangezien ik een AWS Educate Starter-account gebruik, moet ik de juiste IAM-rol selecteren om de applicatie te maken. Dit kan onderaan de pagina worden ingesteld onder “Bekijk standaard instellingen” en vervolgens “Identiteitsbeheer instellingen”. Als u uw eigen persoonlijke account gebruikt, is dit mogelijk niet relevant en kunt u dit negeren.

4. Klik op “Launch simulation” zodra de instellingen zijn gemaakt.

Bovenaan ziet u een statusbalk die de huidige fase aangeeft waarin het installatieproces zich bevindt en u wordt omgeleid naar een nieuwe pagina zodra deze is voltooid. Omdat dit verschillende AWS-services op de achtergrond uitvoert, worden er kosten in rekening gebracht voor de gebruikte bronnen, dus houd uw gebruik in de gaten en beëindig alle simulaties en ontwikkelomgevingen wanneer u klaar bent.

Na voltooiing zou je zoiets als dit moeten zien.

Deze pagina toont u alle details voor de simulatietaak, zoals configuraties, gebruikte IAM-rollen, netwerkinformatie, omgevingsvariabelen en meer. Zodra de status verandert in ‘Running’, kun je de simulatietools zien: Gazebo , rqt , rviz en Terminal .

Gazebo is een omgeving waarin je 3D-werelden kunt bouwen. U kunt objecten in de wereld maken en verwijderen waarmee uw robots kunnen communiceren met behulp van machine learning-algoritmen en nieuwe functies testen.

rqt stelt verschillende GUI-tools samen, in de vorm van plug-ins, allemaal in één venster.

Om de ingebouwde camera van de bot te zien, open rqt , klik op Plug-ins bovenaan, Visualisatie , en vervolgens Afbeelding Bekijken .

Selecteer in de vervolgkeuzelijst / camera / rgb / image_raw en je ziet de virtuele ingebouwde camera van de bot.

rviz is nog een 3D-visualisatietool die een weergave biedt van de bot- en sensorgegevens, zoals de lidarlaser die de omliggende items in de omgeving scant

U kunt de aanwijzingen hier volgen om rviz.

te bekijken

De terminal geeft je toegang tot een opdrachtregel van de bot in de simulatie.

Om de resultaten van Rekognition te zien, open je de terminal en voer je de onderstaande opdracht in.

Links :

Aan de slag met AWS RoboMaker : https://docs.aws.amazon.com/robomaker/latest/dg/getting-started.html

Github-opslagplaats voor voorbeeldtoepassing : https://github.com/aws-robotics/aws-robomaker-sample-application-persondetection

Ontwikkelaarsgids : https://docs.aws.amazon.com/robomaker/latest/dg/gs-navreco.html