Openlander-Landehinderniserkennung – sUAS Information – The Enterprise of Drones


An GitHub Stephan Sturges hat die neueste Model einer kostenlosen bodennahen Hinderniserkennungs-Segmentierungs-KI für UAV veröffentlicht, die Sie heute mit billigen handelsüblichen Sensoren von Luxonis einsetzen können. Er schreibt:-

Das standardmäßige neuronale Netzwerk verfügt jetzt über eine 3-Klassen-Ausgabe mit der Erkennung von Menschen auf einer separaten Ausgabeschicht! Dies soll eine feinere Hindernisvermeidung ermöglichen: Wenn Sie aus dem Himmel fallen müssen, können Sie jetzt entscheiden, ob Sie Ihre Drohne am besten auf ein Gebäude oder auf den Kopf von jemandem fallen lassen 😉

Sie benötigen ein beliebiges Luxonis-Gerät mit einer RGB-Kamera und der richtigen installierten Model der Depthai-Python-Bibliothek für Ihre Plattform- und Gerätekombination. In Bezug auf den realen Einsatz würde ich empfehlen, dass Sie sich ein Gerät mit einer World-Shutter-RGB-Kamera mit hoher Lichtempfindlichkeit und relativ geringer optischer Verzerrung zulegen.

Wenn Sie noch keine Kamera der OAK-Serie von Luxonis besitzen und eine mit diesem Repository verwenden möchten, besorgen Sie sich am besten ein OAK-1-Gerät, das mit einem OV9782-Sensor mit dem „Commonplace-FOV“ modifiziert ist. So geht’s:

  1. Gehen Sie zum OAK-1 im Luxonis Retailer und fügen Sie es Ihrem Warenkorb hinzu https://shop.luxonis.com/collections/usb/products/oak-1
  2. Gehen Sie zum „Anpassungsgutschein“ im Luxonis-Store und fügen Sie einen davon hinzu https://shop.luxonis.com/collections/early-access/products/modification-cupon
  3. Fügen Sie in Ihrem Einkaufswagen im Feld „Anweisungen an den Verkäufer“ „Bitte RGB-Sensor durch Commonplace-FOV OV9782 ersetzen“ hinzu

… und dann etwa eine Woche warten, bis Ihr hochempfindlicher World-Shutter-Sensor mit festem Fokus eintrifft 🙂

Im Beginner- und professionellen UAV-Bereich besteht ein Bedarf an einfachen und kostengünstigen Werkzeugen, die verwendet werden können, um sichere Notlandeplätze zu bestimmen, Abstürze und potenzielle Verletzungen von Menschen zu vermeiden.

Das neuronale Netzwerk führt eine pixelweise Segmentierung durch und wird aus meiner eigenen Pipeline synthetischer Daten trainiert. Diese öffentliche Model wird mit etwa 500 GB Daten trainiert. Es gibt eine neue Model, die auf 4T-Daten trainiert ist und die ich möglicherweise bald veröffentlichen werde. Wenn Sie sie testen möchten, kontaktieren Sie mich einfach per E-Mail.

einige Beispiele für Trainingsbilder

Bilder aus der realen Welt!

Diese werden leider alle mit einer alten Version des neuronalen Netzwerks erstellt, aber ich habe keine eigene Drohne, um mehr zu erstellen :-p Das Netzwerk der aktuellen Generation ist bei einem gemischten Datensatz mindestens fünfmal besser und ist a riesig Steigern Sie den Einsatz in der realen Welt.

(maskierter Bereich ist „landing safe“)

Vollfett-Version

Zu Ihrer Information, es gibt eine fortgeschrittenere Version von OpenLander, die ich als kommerzielles Produkt entwickle, das Tiefenmessung, IMU, fortschrittlichere neuronale Netze, kundenspezifisch entwickelte Sensoren und eine ganze Menge mehr umfasst. Wenn Sie daran interessiert sind, können Sie mich gerne per E-Mail kontaktieren (mein Name @ gmail).

Hier ist ein kurzer Screenshot der Auflösung von Landepunkten mit Tiefenmessung (diese läuft parallel zum DNN-System): Depth_video.mov

Es wird in Zukunft Updates geben, aber ich entwickle auch benutzerdefinierte Versionen des neuronalen Netzwerks für bestimmte kommerzielle Anwendungsfälle und werde nicht alles zu OpenLander hinzufügen. OpenLander bleibt kostenlos nutzbar und soll die Sicherheit von UAVs für alle verbessern, die sie gerne benutzen!

Etwas Code aus dem Excellent https://github.com/luxonis/depthai-experiments von Luxonis.

Leave a Reply

Your email address will not be published. Required fields are marked *