Was wäre, wenn wir unser Sehen, Hören, Fühlen und sogar Riechen an entfernte Orte projizieren und diese Orte auf eine viszeralere Weise erleben könnten?

Deshalb haben wir uns gefragt, was passieren würde, wenn wir die globale Gaming-Community erschließen und ihre Fähigkeiten auf neue Weise nutzen könnten. Wenn ein Roboter im Gefrierraum oder in einer Standardfertigungs- oder Lagereinrichtung arbeitet, könnten Remote-Bediener in Bereitschaft bleiben und darauf warten, dass der Roboter um Hilfe ruft, wenn er einen Fehler macht, blockiert bleibt oder eine Aufgabe nicht erledigen kann. Fleck. Ein Fernbediener betrat einen virtuellen Kontrollraum, der die Umgebung und die Situation des Roboters nachbildete. Diese Person würde die Welt durch die Augen des Roboters sehen und in dieser abgelegenen, kalten Einrichtung effektiv in seinen Körper schlüpfen, ohne persönlich den eisigen Temperaturen ausgesetzt zu sein. Dann würde der Bediener den Roboter intuitiv führen und ihm helfen, die zugewiesene Aufgabe zu erledigen.

Um unser Konzept zu validieren, haben wir ein System entwickelt, das es Menschen ermöglicht, die Welt aus der Ferne durch die Augen eines Roboters zu betrachten und eine relativ einfache Aufgabe auszuführen; Dann haben wir es an Leuten getestet, die keine wirklich erfahrenen Spieler waren. Im Labor installieren wir einen Roboter mit Manipulatoren, einem Tacker, Draht und einem Rahmen. Das Ziel bestand darin, den Roboter dazu zu bringen, Draht an den Rahmen zu heften. Wir verwendeten einen humanoiden, beidhändigen Roboter namens Baxter sowie das Oculus VR-System. Als nächstes haben wir einen virtuellen Zwischenraum erstellt, um den Menschen und den Roboter im selben Koordinatensystem zu platzieren: einen gemeinsamen simulierten Raum. Dies ermöglicht es dem Menschen, die Welt aus der Sicht des Roboters zu sehen und sie auf natürliche Weise durch Körperbewegungen zu steuern. Wir demonstrierten dieses System bei einem Treffen in Washington, D.C., wo viele Teilnehmer, von denen einige noch nie ein Videospiel gespielt hatten, das Headset aufsetzen, den virtuellen Raum betrachten und unseren 500 Meilen entfernten Roboter in Boston intuitiv steuern konnten . weg, um die Aufgabe zu erledigen.


Das bekannteste und vielleicht überzeugendste Beispiel für Fern- und Fernteleoperation sind die Roboter, die die NASA in den letzten Jahrzehnten zum Mars geschickt hat. Meine Doktorandin Marsette „Marty“ Vona half bei der Entwicklung eines Großteils der Software, die es den Menschen auf der Erde ermöglichte, problemlos mit diesen Robotern zu interagieren, die Dutzende Millionen Kilometer entfernt waren. Diese intelligenten Maschinen sind ein perfektes Beispiel dafür, wie Roboter und Menschen zusammenarbeiten können, um Außergewöhnliches zu erreichen. Die Maschinen funktionieren am besten in unwirtlichen Umgebungen wie dem Mars. Menschen sind besser darin, Entscheidungen auf höherer Ebene zu treffen. Deshalb schicken wir immer fortschrittlichere Roboter zum Mars, und Leute wie Marty entwickeln immer fortschrittlichere Software, um anderen Wissenschaftlern beim Sehen und sogar beim Sehen zu helfen fühlen den fernen Planeten durch die Augen, Werkzeuge und Sensoren von Robotern. Anschließend erfassen und analysieren menschliche Wissenschaftler die gesammelten Daten und treffen wichtige kreative Entscheidungen darüber, was die Rover als Nächstes erkunden sollen. Die Roboter platzieren Wissenschaftler praktisch auf Marsboden. Sie ersetzen keine echten menschlichen Entdecker; Sie führen Aufklärungsarbeiten durch, um den Weg für eine bemannte Mission zum Mars zu ebnen. Sobald sich unsere Astronauten auf den Roten Planeten begeben, verfügen sie über ein Maß an Vertrautheit und Fachwissen, das ohne Rover-Missionen nicht möglich wäre.

Roboter ermöglichen es uns möglicherweise auch, unsere Wahrnehmungsreichweite auf außerirdische Umgebungen hier auf der Erde auszudehnen. Im Jahr 2007 beschrieben europäische Forscher unter der Leitung von JL Deneubourg ein neuartiges Experiment, bei dem sie autonome Roboter entwickelten, die eine Gemeinschaft von Kakerlaken infiltrierten und beeinflussten. Die relativ einfachen Roboter konnten den Unterschied zwischen hellen und dunklen Umgebungen erkennen und sich je nach Wunsch der Forscher auf die eine oder andere zubewegen. Die Miniaturmaschinen sahen nicht wie Kakerlaken aus, aber sie rochen so, weil die Wissenschaftler sie mit Pheromonen bedeckten, die andere Kakerlaken desselben Clans anlockten.

Ziel des Experiments war es, das Sozialverhalten von Insekten besser zu verstehen. Im Allgemeinen versammeln sich Kakerlaken am liebsten in dunklen Umgebungen mit Artgenossen. Ihre Vorliebe für die Dunkelheit macht Sinn: Sie sind weniger anfällig für Raubtiere oder zimperliche Menschen, wenn sie sich im Schatten verstecken. Als die Forscher jedoch ihren mit Pheromonen getränkten Maschinen befahlen, sich im Licht zusammenzuschließen, folgten die anderen Kakerlaken. Trotz der Gefahr des Lichts entschieden sie sich für die Bequemlichkeit einer Gruppe.

JACK SNELLING

Diese Roboterkakerlaken führen mich zurück zu meinem ersten Gespräch mit Roger Payne vor all den Jahren und seinen Träumen, mit seinen majestätischen Freunden zu schwimmen. Was wäre, wenn wir einen Roboter bauen könnten, der etwas Ähnliches wie die vorgestellte Kapsel leisten würde? Was wäre, wenn wir einen Roboterfisch erschaffen könnten, der sich wie ein normales Mitglied der Wassernachbarschaft neben Meeresbewohnern und Säugetieren bewegt? Dies würde uns einen phänomenalen Einblick in das Leben unter Wasser geben.

Es ist schwierig, sich in Wassergemeinschaften einzuschleichen und ihnen zu folgen, um das Verhalten, die Schwimmgewohnheiten und die Interaktion der Lebewesen mit ihren Lebensräumen zu beobachten. Feste Observatorien können Fische nicht verfolgen. Der Mensch kann nur eine bestimmte Zeit unter Wasser bleiben. Ferngesteuerte und autonome Unterwasserfahrzeuge basieren in der Regel auf Propellern oder Strahlantriebssystemen, und es ist schwer, unbemerkt zu bleiben, wenn Ihr Roboter so viele Turbulenzen erzeugt. Wir wollten etwas anderes schaffen: einen Roboter, der wie ein Fisch schwamm. Dieses Projekt hat viele Jahre gedauert, da wir neue künstliche Muskeln, weiche Haut, neue Möglichkeiten zur Steuerung des Roboters und eine völlig neue Antriebsmethode entwickeln mussten. Ich tauche seit Jahrzehnten und habe noch nie einen Fisch mit Propeller gesehen. Unser Roboter SoFi (ausgesprochen wie Sophie) bewegt sich, indem er seinen Schwanz wie ein Hai hin und her schwingt. Eine Rückenflosse und Doppelflossen auf beiden Seiten seines Körpers ermöglichen es ihm, zu tauchen, wieder aufzutauchen und sich reibungslos durch das Wasser zu bewegen. Wir haben bereits zuvor gezeigt, dass SoFi um andere Wasserlebewesen herum navigieren kann, ohne deren Verhalten zu stören.

SoFi ist etwa so groß wie ein durchschnittlicher Schnapper und hat einige großartige Ausflüge in und um die Korallenriffgemeinschaften des Pazifischen Ozeans in Tiefen von bis zu 60 Fuß unternommen. Menschliche Taucher können natürlich tiefer vordringen, aber die Anwesenheit eines menschlichen Tauchers verändert das Verhalten der Meeresbewohner. Einige wenige Wissenschaftler, die SoFi aus der Ferne überwachen und gelegentlich steuern, verursachen solche Störungen nicht. Durch den Einsatz eines oder mehrerer realistischer Roboterfische können Wissenschaftler Fische und Meeressäugetiere verfolgen, aufzeichnen, überwachen und möglicherweise mit ihnen interagieren, als wären sie nur Mitglieder der Gemeinschaft.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *