Qualifizierungsmodul

Robotik

Was ist Robotik, welche Anwendungsfelder gibt es, welche Möglichkeiten, Potenziale, Grenzen und Herausforderungen? In diesem Qualifizierungsmodul erfahren und erleben die Teilnehmerinnen und Teilnehmer die Grundlagen sowie Robotik-Anwendungen des Robotics Innovation Center (RIC) des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Ein Überblick wird gegeben über das DFKI sowie über das RIC am Standort Bremen andererseits.

10:30-10:40 │ Begrüßung und Vorstellung

Prof. Dr. Christoph Igel, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

10:40-10:50 │ Einführung: Deutsches Forschungszentrum für Künstliche Intelligenz

Prof. Dr. Christoph Igel, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

10:50-11:00 │Einführung: Robotics Innovation Center des DFKI

Jens Mey, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

11:00-12:00 │ RIC: Forschung und Entwicklung zu Robotik in der Produktion

Jens Mey, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

12:45-14:15 │ Besichtigung des Robotics Innovation Centers des DFKI

Jens Mey, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

14:45-16:15 │ Workshop: Bedeutung von Robotic für HR 4.0

Prof. Dr. Christoph Igel, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

16:15-16:30 │ Zusammenfassung und Abschluss

Prof. Dr. Christoph Igel, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI

DAGON

Das Dagon-AUV wurde im und für das CUSLAM-Projekt gebaut. Das Fahrzeug ist speziell als wissenschaftliches AUV für visuelle Kartenerstellung und Lokalisierung konzipiert. Es kombiniert das Beste an Sensorik und Instrumenten, was momentan technologisch möglich ist um Forschung in dieser wichtigen Disziplin auf höchstem Niveau zu ermöglichen. Die wichtigsten Designkriterien waren es, eine Experimentalplattform für visuelle Kartenerstellung und Lokalisation zu bieten. Als Haupt-Sensorsystem dient ein hochqualitatives Stereo-Kamerasystem, welches durch eine IMU und einen Drucksensor unterstützt wird. Mit Hilfe von visueller Odometrie und SLAM-Ansätzen wird eine Karte des Meeresbodens sowie die Trajektorie des Fahrzeug über dem Meeresboden erzeugt. Um diese visuellen Messungen zu validieren wird parallel eine zweite Messung mit bekannten und erprobten Algorithmen auf Basis der weiteren Navigationssensorik des Fahrzeuges (LBL, DVL, FOG) aufgenommen. Diese zweite Messung kann dann als Referenzmessung zur Bewertung der Güte der visuellen Messwerte dienen. Bei Dagon handelt es sich um ein schwebendes AUV (hovering AUV) – es benötigt keinen Vorschub, um seine Tiefe zu halten. Dies erhöht zwar die Aktuationskomplexität, erlaubt aber eine sehr hohe Manövrierfähigkeit in vielen Umgebungen. Die sechs Schubaggregate geben Dagon fünf Freiheitsgrade – nur die Rollachse kann nicht aktiv gesteuert werden. Durch den Katamaran-ähnlichen Aufbau wird diese Achse allerdings passiv sehr stabil gehalten. Das Stereokamerasystem ist in den beiden Köpfen des AUVs untergebracht, und kann um 180° um die Querachse geschwenkt werden. Zusammen mit der Schwebefähigkeit ermöglicht dies nicht nur das Kartographieren von Meeresböden, sondern auch Schiffsrumpfinspektion oder sogar unter-Eis-Lokalisierung. Das Kamerasystem ist in der Lage vier stunden unkomprimiertes HD-video (1920×1080) bei 30 FPS mit beiden Kameras gleichzeitig aufzuzeichnen. Die Kombination aus hochsensitiven CCDs mit großformatigen (F=1.4) und weitwinkligen (64° in Wasser) Objektiven erzeugt gestochen scharfe und präzise Unterwasseraufnahmen. Das AUV hat einen Betriebszeitraum von etwa sechs Stunden, je nach Missionsprofil. Es kann entweder als vollautonomes System eingesetzt werden, wo nur das schmalbandige Unterwassermodem zur Kommunikation verwendet wird, oder in Verbindung mit einem faseroptischen Kabel für Telemetrieübertragung. Durch die Verwendung dieses Kabels ist auch ein hybrid-ROV-Modus möglich, wo die Steuerung durch einen menschlichen Operator oder eine Bodenstation übernommen wird.

Exoskelett CAPIO

Ferngesteuerte Roboter sind ein unverzichtbares Werkzeug bei der Exploration und Interaktion in für den Menschen unzugänglichen Orten wie Tiefsee, Weltraum oder Gefahrenbereiche. Die auszuführenden Aufgaben im Kontext der realen Umgebung sind derartig komplex, dass der Roboter schwer von einem Operator gesteuert werden kann, auch nicht mit Unterstützung der künstlichen Intelligenz. Ein Exoskelett als Mensch-Maschine-Interface ermöglicht eine dem Menschen entsprechende Interaktion zwischen Roboter und Anwender. Das Exoskelett erfasst die Bewegungen des menschlichen Körpers, überträgt diese auf das ferngesteuerte System und kann zudem Kraftinformationen vom System wiederum auf den Menschen über ein Haptisches Feedback zurückleiten. Das Capio-Passive-Exoskelett ist die kinematische Vorstudie des CAPIO-Exoskelttes basierend auf der Entwicklung im VI-Bot-Projekt. Innerhalb dieser Studie wurden notwendige Aspekte wie Sicherheit und Ergonomie untersucht und eine Kinematik entwickelt, die diesen Erfordernissen entspricht. Die Konstruktion basiert auf den Abmessungen eines 95 Perzentile männlichen Europäers. Und ist im Rücken, in den Schultern und an den Armen auf diese Abmessungen anpassbar. Das passive System ist über fünf Kontaktstellen (Hände, Oberarme, Schultern und Hüfte) mit dem menschlichen Körper verbunden und erfasst über die parallele kinematische Struktur zum menschlichen Bewegungsapparat Posen bzw. Bewegungen der Arme und des Torsos. Die kinematische Struktur umfasst acht Freiheitsgrade in den Armen und sechs Freiheitsgrade im Rücken. Die Freiheitsgrade des Exoskelettes sind so ausgelegt und angeordnet, dass das Exoskelett passive der menschlichen Bewegung folgen kann. Dies ist die Voraussetzung für die „Free Running“ Funktion des aktiviven finalen CAPIO-Exoskelettes und eine wichtiger Punkt im Hinblick auf Sicherheit und Handhabung des Systems. Die erforderliche Handhabung z. B. für das Ankleiden des Oberkörper-Exoskelettes ist in einem „Open Joint“ Konzept realisiert. In dem „Open Joint“ Konzept sind die entsprechenden Gelenkachsen des Exoskelettes außerhalb des menschlichen Körpers angeordnet, so dass die Kontaktstellen frei zugänglich sind und das System leicht angekleidet werden kann. Für den Komfort und den Sitz ist das System zum Teil in den Gelenken über Federn Gewichtskompensiert. Neben den passiven Gelenken des Exosekettes verfügt das System über ein aktives Handinterface z.B. für die Kraftrückkopplung eines Ferngesteuertem Endeffektors.

AUVx

Das autonome Unterwasserfahrzeug AUVX ist als miniaturisiertes Explorations- und Forschungsfahrzeug konzipiert. Seine Form ist speziell auf die Anforderungen im Projekt EurEx angepasst – so ermöglicht ein geringer Durchmesser die Unterbringung im Eisbohrer des EurEx Projektes. Im Kontext von EurEx muss das AUVX dazu in der Lage sein, die als Referenzpunkte fungierenden µGlider zu finden oder Nahbereichserkundungen durchführen zu können. Hierfür ist das AUVX mit einer Vielzahl unterschiedlicher Sensoren ausgestattet. So gestattet eine Kamera, Unterwasseraufnahmen zu machen, die mit Hilfe von Bilderkennungsalgorithmen verarbeitet werden. All diese Eigenschaften ermöglichen es dem Fahrzeug, die in EurEx gestellten Anforderungen bestmöglich zu bewältigen. Im Projekt DAEDALUS dient das AUVX weiterhin als Demonstrator für die Anwendbarkeit des DAEDALUS Trackingtags in einem robotischen Kontext. Um den Energieaufwand bei der Fahrt unter Wasser zu minimieren wurde die Strömungshülle als logische Weiterentwicklung des µAUV² hydrodynamisch optimiert. Eine weitere Verbesserung betrifft die Thruster, die beim AUVX über eine Magnetkupplung verfügen. So ist sichergestellt, dass die empfindliche Elektronik im Inneren der Motorgondeln sicher vor dem umgebende Wasser geschützt ist. Neben dem vollautonomen Betrieb kann das AUVX auch als Hybrid-ROV (Remotely Operated Vehicle) mit einer optischen Kommunikation oder einem Kupferdrahtkabel aus der Ferne gesteuert werden. Die Navigation basiert auf einer Fusion von Inertialsensordaten, einem mathematischen Modell und einer Markererkennung die mit Hilfe von OpenCV und ROS auf dem Raspberry Pi Zero implementiert wurde.

Veranstaltungsdauer

Mo, 27.11.2017 – 10:30 bis 16:30

Professor Dr. habil. Christoph Igel ist Wissenschaftlicher Leiter des Educational Technology Lab des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Berlin. Bis heute verantwortete er über 100 nationale und internationale Forschungs-, Innovations- und Beratungsprojekte zu technologiebasierter Bildung und Qualifizierung in Wirtschaft, Bildung, Wissenschaft und Verwaltung. Seit 2013 ist er Vorsitzender der Expertengruppe „Intelligente Bildungsnetze“ des Nationalen Digital-Gipfels der Bundesregierung und Co-Vorsitzender des gemeinsamen Arbeitskreises „Technologiegestütztes Lehren und Lernen in der Medizin“ der Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (gmds) und der Gesellschaft für Informatik (GI). Er berät Dax-Unternehmen zu Fragen der Personalentwicklung im Zeitalter von Digitalisierung, Industrie 4.0 und dem Internet der Dinge, Dienste und Daten und ist Gutachter in Förderprogrammen u.a. der deutschen Bundesministerien für Wirtschaft und Energie (BMWI) sowie Bildung und Forschung (BMBF) und des österreichischen Bundesministeriums für Wissenschaft, Forschung und Wirtschaft (BMWFW).

Research Administration Manager am Deutschen Forschungszentrumn für Künstliche Intelligenz DFKI, Robotics Innovation Center Bremen. Verantwortlich für administrative Angelegenheiten, Akquisition und Ansprechpartner für externe Kontakte.

José de Gea Fernández häkt einen PhD in Robotics (2011) von der Universität Bremen. Derzeit ist er Senior Researcher und der Leiter des Teams „Robot Control“ des Robotics Innovation Center (RIC) des DFKI. Er ist Mitherausgeber von über 40 wissenschaftlichen Publikationen und war eingebunde bzw. hat geleitet verschiedene nationale (BMBF, DFG, BMWi, DLR) und europäische Projekte (EU, ESA) in verschiedenen Bereichen zu Erforschung in Mobile Robotic Manipulation und Collaborative robotics.