Design und Implementierung einer intelligenten Fahrzeugkamera für die Extraktion und gemeinsame Nutzung visueller Metadaten in Echtzeit

Sehr interessanter Forschungsartikel zu selbstfahrenden Autos und ADAS-Funktionen

Das Team hier verwendete das sehr erschwingliche und leistungsstarke Odroid-XU (Octacore Arm Board) und einen OBD-Scanner, der mit einem CAN-Transceiver und einem STM32F103-Mikrocontroller gebaut wurde.

Ihr Ansatz wird hier beschrieben:

IT-Unternehmen wie Google und Apple sowie Automobilhersteller wie BMW, WV und Mercedes Benz erforschen autonome Fahr- und Fahrerassistenztechniken. Mobileye [4] ADAS bietet mithilfe eines Computer-Vision-Algorithmus und eines proprietären Hardwaregeräts mehr Informationen als andere Arten von sensorgestütztem ADAS. Bei bildverarbeitungsbasiertem ADAS, Vorder- und Rückseite Für die drahtlose Kommunikation von Fahrzeug zu Fahrzeug werden derzeit Untersuchungen auf der Grundlage drahtloser Sensornetzwerke und Ad-hoc-Netzwerke [5] durchgeführt. Darüber hinaus ist IEEE 802.11p WAVE [6] ein verwandter Standard, der die PHY- und MAC-Schicht für die V2X-Kommunikation definiert. Es ist jedoch schwierig, ein Ad-hoc-Netzwerk anzuwenden, da ein solches Netzwerk eine hohe Durchdringung von Netzwerkgeräten und Infrastruktur erfordert. Um dieses Problem zu lösen, kann ein mobiles Mobilfunknetz verwendet werden. Obwohl die Nutzung eines Mobilfunknetzes kostenpflichtig ist, ist es möglich, ein solches Netz über das Smartphone des Fahrers zu nutzen. Wenn ein mobiles Mobilfunknetz verwendet wird, ist eine Metadatenextraktionstechnik erforderlich, um die Datenübertragung zu minimieren. Für visuelle Daten werden visuelle Metadaten extrahiert, die ein Eingabebild analysieren. Für Sensordaten werden spezifische Informationen von verschiedenen Sensoren extrahiert. Durch das Extrahieren von Metadaten wird daher die Datengröße minimiert. Eine Bildanalyse wird unter Verwendung eines Computer-Vision-Algorithmus durchgeführt [7]. Solche Algorithmen finden spezifische Muster basierend auf gelernten Daten innerhalb eines Rahmens. Ein Algorithmus, der für eine Bildanalyse verwendet wird, sucht nacheinander, indem verschiedene Maskenfilter angewendet werden, und erfordert daher viel Rechenleistung. Für die Bildverarbeitung haben wir einen Hochleistungsprozessor und eine reduzierte ROI-Technik angewendet, um die Verarbeitungsgeschwindigkeit zu verbessern. In diesem Artikel haben wir eine Computer-Vision-basierte Smart-Vehicle-Kamera für die Echtzeit-Extraktion und den Austausch visueller Metadaten entworfen und implementiert. Die intelligente Fahrzeugkamera extrahiert verschiedene Arten von visuellen Metadaten zur Analyse eines Eingabebilds und teilt die Metadaten über ein Netzwerk. Darüber hinaus schlagen wir eine D-ROI-Technik zur Minimierung der Rechenlast und eine Musterprüfungstechnik zur Erhöhung der Erkennungsrate vor. Wir haben einen Hauptserver für den Informationsaustausch und einen Echtzeit-Road-View-Service entwickelt. Schließlich haben wir die Implementierung des Smart Vehicle Camera Device evaluiert und dessen Bildverarbeitungsgeschwindigkeit und Erkennungsrate bestätigt.

Wäre großartig, wenn dies Open Source wäre und wir damit sehr wertvolle Datensätze für die Entwicklung selbstfahrender Open Source-Autos sammeln könnten.

Lesen Sie den Artikel hier.

Um sich an der Entwicklung von Open Source Self Driving Car (DEZA) zu beteiligen, lesen Sie meine anderen DEZA-Artikel und folgen Sie meiner Reise auf Medium und Twitter unter @gtarobotics

Weitere Details finden Sie hier:

Gestalten Sie mit uns die zukünftigen selbstfahrenden Autos