Work space surveillance of a robot assistance system using a ToF camera

Beitrag in einer Fachzeitschrift


Details zur Publikation

Autorinnen und Autoren: Ramer C, Franke J
Zeitschrift: Advanced Materials Research
Jahr der Veröffentlichung: 2014
Band: 907
Seitenbereich: 291-298
ISSN: 1662-8985
Sprache: Englisch


Abstract


Aufgrund der demographischen Entwicklung in Industrienationen liegt eine wachsende Herausforderung darin, Produktionsmitarbeiter durch eine Reduzierung von Belastungen vor möglichen Gesundheitsschäden zu bewahren und eine längere Erwerbstätigkeit zu ermöglichen. Ebenso ist es erstrebenswert, die Potentiale leistungsgewandelter Personen zu nutzen, wodurch angepasste Hilfsmittel zur Erleichterung des Arbeitsalltags benötigt werden. Um bereits gesundheitlich vorgeschädigte Personen schneller wieder in ihren Beruf einzugliedern, erscheint es zudem denkbar Rehabilitationsma{ß}nahmen durch geeignete Roboterassistenten zu unterstützen. Diese Ziele werden bei der Entwicklung des vorgestellten Roboterassistenzsystems verfolgt. Um Menschen sicher im Arbeitsraum eines assistierenden Roboters erkennen und verfolgen zu können, werden visuelle Sensortechnologien zur 3D-Raumüberwachung benötigt. Herkömmliche Kamerasysteme, die ein 2D-Intensitätsbild ihrer Umgebung liefern, sind stark anfällig gegenüber Helligkeitsänderungen, was ein sicheres Personentracking kaum möglich macht. Ein neuerer Vertreter der indirekten Licht-Laufzeitmessung (Time-of-Flight, ToF) stellt die PMD (Photonic Mixing Device)-Technologie dar, bei der die Entfernungsinformation in jedem Pixel einer Sensormatrix in Echtzeit bestimmt werden kann. Auf Grund der Vorteile wurde für das Assistenzsystem eine ToF-Kamera ausgewählt. Im Versuchsaufbau wurde die Kamera zunächst zentral über dem überwachungsraum angebracht, um weitestgehend alle Kollisionsobjekte ohne Abschattungen detektieren zu können. Zu Beginn der Arbeitsraumüberwachung werden die vorverarbeiteten 3D-Koordinaten zusammen mit den bereitgestellten Intensitäts- und Amplitudenwerten der ersten Kameraframes zur Generierung eines Referenzbildes herangezogen. Die Detektion von Kollisionsobjekten erfolgt über die Differenzbildung zwischen initialem Hintergrund- und dem aktuellem Kamerabild. Aus den Differenzwerten wird für jedes Pixel die Wahrscheinlichkeit, ein Objekt abzubilden, berechnet und in diskrete Klassifikationsstufen eingeordnet. Sie ergibt sich im Wesentlichen aus der Höhen- und Intensitätsdifferenz des betrachteten Pixels sowie dessen acht Nachbarpixeln. Mittels eines Region-Growing-Algorithmus werden alle Nachbarn von Pixeln einer hohen Klassifikationsstufe, den sogenannten Start- oder Seedpixeln, in einem der Objektwahrscheinlichkeit angepassten Umkreis untersucht und im Falle einer hohen Objektwahrscheinlichkeit zu diesen hinzugezogen. Die Erstellung einzelner Objekte erfolgt aus zusammenhängenden Bereichen mit mindestens vier Bildpunkten. Um erkannte Objekte wiedererkennen zu können, werden diese mit einer Reihe ermittelter Attribute gespeichert. über eine Hochrechnung der aktuellen Position wird zunächst nach bekannten und in einem weiteren Schritt nach neuen Objekten gesucht. Die Wiedererkennung bereits detektierter Kollisionsobjekte erfolgt bei der überschreitung eines in Versuchen ermittelten übereinstimmungswerts, der sich aus mehreren Vergleichs-kriterien zusammensetzt. Eine automatisierte Bahnplanung ermöglicht den Einsatz auch bei veränderten Umgebungsbedingungen des Assistenzsystems, ohne auf geschultes Personal zum Teachen des Roboters zurückgreifen zu müssen. Um die für die zeitkritische Kollisionsvermeidung und die Pfadfindung notwendigen Abstandsberechnungen zu be-schleunigen, werden die detektieren Kollisionsobjekte mittels einfacher Hüllkörper, sogenannter Bounding Volumes, approximiert. Eingesetzt werden orientierte Hüllquader (Oriented Bounding Boxes), Hüllzylinder und kugeln sowie sogenannte -kapseln (Zylinder mit Halbkugelenden). Basierend auf einer sensorischen überwachung des Roboterarbeitsraums in Echtzeit und der dynamischen Anpassung des Umgebungsmodells kann somit die Basis geschaffen werden, um einen kollaborierenden Betrieb zwischen zu unterstützenden Werkern und dem Roboterassistenten zu ermöglichen.



FAU-Autorinnen und Autoren / FAU-Herausgeberinnen und Herausgeber

Franke, Jörg Prof. Dr.-Ing.
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik
Ramer, Christina
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik


Zitierweisen

APA:
Ramer, C., & Franke, J. (2014). Work space surveillance of a robot assistance system using a ToF camera. Advanced Materials Research, 907, 291-298. https://dx.doi.org/10.4028/www.scientific.net/AMR.907.291

MLA:
Ramer, Christina, and Jörg Franke. "Work space surveillance of a robot assistance system using a ToF camera." Advanced Materials Research 907 (2014): 291-298.

BibTeX: 

Zuletzt aktualisiert 2018-20-09 um 16:10