Produkte und Lösungen für die Industrie seit 1936

No-Code: Programmieren ohne Programmieraufwand

Geschrieben von Ralph Slabihoud | Feb 15, 2021 4:20:00 PM

Programmieren will gelernt sein. Die Zukunft verspricht allerdings vermehrt Möglichkeiten, die das Programmieren von Maschinen intuitiv und dadurch einfacher umsetzbar machen sollen. Was diesbezüglich technologisch auch in der Kombination mit Cobots bereits möglich ist und was die Zukunft bereithält, erfahren Sie im Artikel.

Roboterarm schwingt das Tanzbein

 

Dr. Merritt Moore ist professionelle Balletttänzerin sowie Quantenphysikerin. Diese beiden Welten, die im ersten Moment unvereinbar klingen, bringt Moore zusammen. Sie lehrt einem Cobot das Tanzen und schafft sich damit einen etwas außergewöhnlichen, aber nicht weniger eleganten Tanzpartner. Die Art und Weise wie Roboter und Mensch zusammenarbeiten wird stets intuitiver und natürlicher. Die feinen Wendungen, mit deren Hilfe Cobots bereits elegante Bewegungen auf der Bühne vorführen können, sind auch in einigen anderen Bereichen von großem Nutzen. Der Trend bewegt sich laufend weg vom klassischen Programmieren hin zu neuen Interaktionsmöglichkeiten.

No-Code, No Problem

Die Rede ist von sogenannter No-Code-Programmierung. Vereinfacht bedeutet dies, dass man einen Roboter programmiert, ohne ihn wirklich zu programmieren – zumindest nicht im eigentlichen Sinne. Anstatt jeden einzelnen Baustein des komplex aufgebauten Roboters sowie dessen Programmablauf zu kennen, muss dem Mitarbeitenden lediglich die Anwendung, wie zum Beispiel der korrekte Ort für das Auftragen einer Schweißnaht, bekannt sein.

Von Vorteil ist diese Anwendung speziell in Bereichen, die eine hohe Flexibilität fordern. So ist sie beispielsweise hilfreich, wenn mit sehr kleinen Serien gearbeitet wird und der Aufwand, den Cobot im eigentlichen Sinne ständig neu zu programmieren, demnach zu groß wäre. Außerdem können so Mitarbeitende den Roboter bedienen, die nicht im Programmieren geschult sind. Es handelt sich also um eine einfachere, intuitive Methode, den Cobot auf neue Arbeitsweisen einzustellen.

Zeichnen und los geht's

Ein sogenannter Teach-In-Stift ist ein erstes Beispiel für die Anwendung der No-Code-Programmierung. Wie ein regulärer Stift liegt dieser angenehm in der Hand, kann jedoch viel Größeres bewirken: Mit ihm können beispielsweise die Pfade gezeichnet werden, entlang denen sich der Cobot dann in einem nächsten Schritt bewegt. Die ausgeprägte Sensorik sowie die Datenverbindung, mit welcher der Stift ausgestattet ist, ermöglichen eine Fernsteuerung des Roboters auf simple Art und Weise. Ebenso ist es möglich, dem Cobot bestimmte Abläufe mithilfe des Stiftes beizubringen. Dabei kann es sich zum Beispiel um das Auftragen von Schweißnähten, das Schleifen sowie Polieren von Oberflächen oder das Auftragen von Klebstoff handeln. Ein genaueres Bild zu dessen Funktionsweise können Sie sich auf der Website von Wandelbots machen.

Viele Roboterhände machen der Arbeit ein Ende

Roboterhände dürften den meisten aus Zukunftsfilmen bekannt sein. Die Firma Shadow Robot lässt sie Realität werden. Während ein Mensch einen Roboterhandschuh trägt und die Finger bewegt, stellt die Roboterhand das perfekte Gegenstück dazu dar. Diese ahmt die natürlichen Fingerbewegungen des Menschen durch die Verbindung von Sensoren sowie Aktoren nach. Auch hier kann der Roboter folglich ohne Programmieraufwand aus der Ferne gesteuert werden. Während diese Anwendung aktuell noch nicht gänzlich ihren Weg in die Praxis gefunden hat, könnte sie in Zukunft durchaus vermehrt eingesetzt werden.

Personen erkennen mittels 3D-Bildverarbeitung

Ebenfalls in der Zukunft liegt die praxisnahe Anwendung von 3D-Bildverarbeitung zur Detektion von Personen. So können Positionen oder auch Haltungen von Menschen erkannt werden, wodurch auch die nonverbale Kommunikation mit Robotern umsetzbar wird. Dies ermöglicht die Skeleton Tracking SDK der Firma Intel RealSense. Beispielsweise könnte erkannt werden, wenn sich eine Person duckt, die Schultern hochzieht oder eine andere schutzsuchende Haltung annimmt. Daraufhin würde der Cobot seine Bewegung dann einstellen.

Zudem kann erkannt werden, ob eine Person mit dem Gesicht oder mit dem Rücken zur Kamera steht. Steht die Person mit dem Gesicht abgewendet, verringert sich ihre Reaktionsfähigkeit stark, wenn sich eine Gefahr nähert. Dies kann durch die 3D-Bildverarbeitung vom Cobot berücksichtigt werden. Zwar wurde auch diese Zusammenarbeit zwischen Cobot und No-Code-Technik in der Form noch nicht umgesetzt, aber auch sie könnte bald in der Praxis möglich sein.

Quelle:

Universal Robots