Rise of the Machines

Marco Canepa und Ali Soy fassen den siebten Kurstag des CAS Disruptive Technologies zum Thema “Robotics” zusammen:
Nach kurzer Vorstellung durch unseren Studiengangsleiter Marcel Blattner führt uns Prof. Dr. Davide Scaramuzza in die Welt der Robotics ein. Der Professor leitet das Robotics & Perception Lab der Uni Zürich.
Als erstes vorweg: Die ersten Roboter wurden 1920 im Theaterstück “Rossum’s Universal Robots” von Karl Capek erwähnt.
Doch was ist überhaupt die Definition eines Roboters? Ein Roboter ist eine mechanische oder elektromechanische Maschine, die einem bestimmten Set von vordefinierten Instruktionen folgt. Dies kann ein Programm oder aber auch ein entsprechender Algorithmus sein. Als einfaches Beispiel kann man hier einen unserer alltäglichsten Gebrauchsgegenstände nennen: unsere geliebte Nespresso-Maschine.
Grundsätzlich lassen sich Roboter in zwei verschiedene Kategorien einteilen:
- Stationäre Roboter (fix stationierte Maschinen)
- Mobile Roboter (können sich bewegen und sind an keine physische Lokation gebunden). Hier wiederum gibt es verschiedene Ausprägungen, wie zum Beispiel fliegende Roboter (Drohnen) oder aber auch Unterwasser-Roboter
Und weshalb brauchen wir überhaupt Roboter? Weil sie intelligenter, sicherer und sauberer sind.
In der Vergangenheit führten Roboter v.a. monotone, sich immer wiederholende Vorgänge aus (zum Beispiel in der Automobilherstellung). Seit 2000 sind bzw. werden Roboter immer lernfähiger und autonomer. Die wichtigsten Fragen, die sich ein Roboter stellen muss, um autonom agieren zu können, sind:
- Wo bin ich?
- Wohin gehe ich? Wie umgehe ich Hindernisse?
- Wie komme ich dorthin? Welche Geschwindigkeit ist angemessen?
- Wie nehme ich meine Umgebung wahr?
@davsca1 "Forget the concept of position – in #robotics you can only estimate where you are" #HWZDisrupt pic.twitter.com/irtfbWxQNH
— Ali Soy (@alisoy1502) October 16, 2015
Die Antworten darauf sind so logisch wie simpel.
Ein Roboter …
- braucht eine Karte (zum Beispiel eine Landkarte)
- muss die Fähigkeit besitzen, seine Umwelt bzw. sein Umfeld analysieren zu können (zum Beispiel Hindernisse)
- muss sich selbst lokalisieren können
- muss seine Bewegungen selbstständig planen und ausführen können
Dabei besteht die komplexeste Aufgabe für einen Roboter darin, seine Umgebung wahrzunehmen und sich selbst zu lokalisieren. Eine hundertprozentige Lokalisierung kann dabei jedoch nicht erreicht werden. Ein autonomer Roboter kann nur annehmen, wo er ist. Die Lokalisierung erfolgt auf Vorhersagen bzw. Positions-Annahmen. Eine GPS-Lokalisation alleine reicht aufgrund der Ungenauigkeit (wegen der Latenzzeiten) nicht aus. Die Umgebung nimmt ein Roboter durch verschiedene Technologien wie Laser Scanner (zum Beispiel Velodyn Laser), Kameras (Visual Based Navigation), Sonar Range Finder, Bump Detector, Heating Sensors, Wheel Encoders und viele weitere wahr. Der Gyroskope (mechanisch, optisch und MEMS) muss mit dem Beschleunigungssensor gekoppelt sein, damit der Gravitationseinfluss eliminiert werden kann.
Die neuste Generation von Robotern lernt immer weiter dazu. Gelerntes wird dabei in der Robo-Cloud (RoboEarth oder CloudRobotics) gespeichert und mit weiteren Robotern geteilt. Das Roboter-Betriebssystem ROS wurde bereits im Jahr 2007 durch Willow Garage in Stanford programmiert.
Am Nachmittag ging es am Homebase von Robotics weiter. Mit Live-Shows und Ausführungen vom Professor sowie auch von den Team-Mitgliedern waren wir mit hunderprozentiger Aufmerksamkeit dem Thema gewidmet. Nach einer Begrüssung in der Cafeteria der Robotics & Perception Group und einer kurzen Vorstellung der „Museumsstücke“ konnten wir bereits funktionierende, autonome Drohnen sehen und bestaunen.
Ausgediente Roboter in der Cafeteria.
Nicht alle sehen der Zukunft optimistisch entgegen.
"One day, the #robots will strike back!" #hwzdisrupt pic.twitter.com/ZKum3PB0SK
— Stefan Lienhard (@lienu) October 16, 2015
Intro in Robotics
Die Einführung in autonome Drohnen war sehr aufschlussreich und interessant.
Nebst der Marke Eigenbau wurden uns die autonomen Drohnen von
vorgestellt.
Bilder sagen bekanntlich mehr als tausend Worte – und bewegte Bilder noch viel mehr. Hier die wichtigsten Aufzeichnungen vom Nachmittag.
Vision-Based Navigation of Autonomous Drones
Multi-Robot Collaboration
Low-latency Event-Based Vision
Visual Odometry
Und so ist der Ablauf von Visual Odometry:
Monocular Dense Reconstruction
Der Robo-Tag war absolut spannend und inspirierend. Und das meinen nicht nur wir, sondern auch die HWZ Disruptors Philipp Bühler, Christoph Biveroni und Stefan Lienhard:
Wichtige Links und weltweite Informationen:
- Automaton
- Robohub
- The Robot Report
- Service Robot Market
- McKinsey Report on Disruptive Technologies 2013
- Swiss Founders: Wyss Zurich
- DARPA Robot Competition
- Buch: Steve Lavalle, “Planning algorithms“
- Buch: Davide Scaramuzza, F. Fraundorfer, “Visual Odometry Part I”
- Buch: Davide Scaramuzza, F. Fraundorfer, “Visual Odometry Part II”
- Buch: Davide Scaramuzza, Roland Siegwart, Illah R. Nourbakhsh, “Autonomous Mobile Robots” 2nd edition
Coole Robo-Beispiel:
- Honda’s ASIMO
- NAO Humanoid Robot
- eBee Autonomous Drones
- Kiva Systems: Robotic Warehouse
- Beam Telepresence Robot
- Baxter the Industrial Robot
- iRobot Packbot and Roomba (the home version)
- iCub Humanoid Robot
- PR2 Personal Robot 2
- Big Dog Boston Dynamics
- ATLAS Robot
- European Project EUROPA – Robotic Pedestrian Assistant
- European Project NIFTI – Urban Search and Rescue
- European Project sFly – Autonomous Drones