Marco Canepa und Ali Soy fassen den siebten Kurstag des CAS Disruptive Technologies zum Thema “Robotics” zusammen:

Nach kurzer Vorstellung durch unseren Studiengangsleiter Marcel Blattner führt uns Prof. Dr. Davide Scaramuzza in die Welt der Robotics ein.  Der Professor leitet das Robotics & Perception Lab der Uni Zürich.

Als erstes vorweg: Die ersten Roboter wurden 1920 im Theaterstück “Rossum’s Universal Robots” von Karl Capek erwähnt.

Rossum's Universal Robots

Rossum’s Universal Robots

Doch was ist überhaupt die Definition eines Roboters? Ein Roboter ist eine mechanische oder elektromechanische Maschine, die einem bestimmten Set von vordefinierten Instruktionen folgt. Dies kann ein Programm oder aber auch ein entsprechender Algorithmus sein. Als einfaches Beispiel kann man hier einen unserer alltäglichsten Gebrauchsgegenstände nennen: unsere geliebte Nespresso-Maschine.

Nespresso Machine

Nespresso Machine

Grundsätzlich lassen sich Roboter in zwei verschiedene Kategorien einteilen:

  • Stationäre Roboter (fix stationierte Maschinen)
  • Mobile Roboter (können sich bewegen und sind an keine physische Lokation gebunden). Hier wiederum gibt es verschiedene Ausprägungen, wie zum Beispiel fliegende Roboter (Drohnen) oder aber auch Unterwasser-Roboter

Und weshalb brauchen wir überhaupt Roboter? Weil sie intelligenter, sicherer und sauberer sind.

In der Vergangenheit führten Roboter v.a. monotone, sich immer wiederholende Vorgänge aus (zum Beispiel in der Automobilherstellung). Seit 2000 sind bzw. werden Roboter immer lernfähiger und autonomer. Die wichtigsten Fragen, die sich ein Roboter stellen muss, um autonom agieren zu können, sind:

  • Wo bin ich?
  • Wohin gehe ich? Wie umgehe ich Hindernisse?
  • Wie komme ich dorthin? Welche Geschwindigkeit ist angemessen?
  • Wie nehme ich meine Umgebung wahr?

Die Antworten darauf sind so logisch wie simpel.

Ein Roboter …

  • braucht eine Karte (zum Beispiel eine Landkarte)
  • muss die Fähigkeit besitzen, seine Umwelt bzw. sein Umfeld analysieren zu können (zum Beispiel Hindernisse)
  • muss sich selbst lokalisieren können
  • muss seine Bewegungen selbstständig planen und ausführen können

Generic control scheme of a mobile robot

Dabei besteht die komplexeste Aufgabe für einen Roboter darin, seine Umgebung wahrzunehmen und sich selbst zu lokalisieren. Eine hundertprozentige Lokalisierung kann dabei jedoch nicht erreicht werden. Ein autonomer Roboter kann nur annehmen, wo er ist. Die Lokalisierung erfolgt auf Vorhersagen bzw. Positions-Annahmen. Eine GPS-Lokalisation alleine reicht aufgrund der Ungenauigkeit (wegen der Latenzzeiten) nicht aus. Die Umgebung nimmt ein Roboter durch verschiedene Technologien wie Laser Scanner (zum Beispiel Velodyn Laser), Kameras (Visual Based Navigation), Sonar Range Finder, Bump Detector, Heating Sensors, Wheel Encoders und viele weitere wahr. Der Gyroskope (mechanisch, optisch und MEMS) muss mit dem Beschleunigungssensor gekoppelt sein, damit der Gravitationseinfluss eliminiert werden kann.

Die neuste Generation von Robotern lernt immer weiter dazu. Gelerntes wird dabei in der Robo-Cloud (RoboEarth oder CloudRobotics) gespeichert und mit weiteren Robotern geteilt. Das Roboter-Betriebssystem ROS wurde bereits im Jahr 2007 durch Willow Garage in Stanford programmiert.


Am Nachmittag ging es am Homebase von Robotics weiter. Mit Live-Shows und Ausführungen vom Professor sowie auch von den Team-Mitgliedern waren wir mit hunderprozentiger Aufmerksamkeit dem Thema gewidmet. Nach einer Begrüssung in der Cafeteria der Robotics & Perception Group und einer kurzen Vorstellung der „Museumsstücke“ konnten wir bereits funktionierende, autonome Drohnen sehen und bestaunen.

Ausgediente Roboter in der Cafeteria.

Robotermusem

Nicht alle sehen der Zukunft optimistisch entgegen.

Intro in Robotics

Die Einführung in autonome Drohnen war sehr aufschlussreich und interessant.

Nebst der Marke Eigenbau wurden uns die autonomen Drohnen von

vorgestellt.

Bilder sagen bekanntlich mehr als tausend Worte – und bewegte Bilder noch viel mehr. Hier die wichtigsten Aufzeichnungen vom Nachmittag.

Vision-Based Navigation of Autonomous Drones

(weitere Infos)

Multi-Robot Collaboration

(weitere Infos)

Low-latency Event-Based Vision

(weitere Infos)

Visual Odometry

Und so ist der Ablauf von Visual Odometry:

VO Flow Chart

VO Flow Chart

(weitere Infos / Publikation)

Monocular Dense Reconstruction

(weitere Infos)


Der Robo-Tag war absolut spannend und inspirierend. Und das meinen nicht nur wir, sondern auch die HWZ Disruptors Philipp Bühler, Christoph Biveroni und Stefan Lienhard:


Wichtige Links und weltweite Informationen:


Coole Robo-Beispiel: