Die Roboter übernehmen – Computer bewertet Zustand der menschlichen Psyche und Leistung und gibt diese Information weiter – Computers will be able to assess humans‘ state of mind

roboterzur englischen Version Computer werden in der Lage sein, den Geisteszustand eines Menschen zu bewerten

Ein Roboter „denkt“ zwar, kann aber immer nur so schlau sein wie der Mensch, der ihn programmiert hat. Das Ziel ist, bestimmte Aspekte des menschlichen Denkens auf Computer zu übertragen und somit Maschinen zu bauen, die eigenständig Probleme lösen können. Dass künstliche Intelligenzen durch ihre wachsenden Fähigkeiten immer menschenähnlicher werden, hat den berühmten britischen Physiker Stephen Hawking bereits Ende 2014 zu einer Warnung veranlasst.

Der Suchmaschinenkonzern Google will die weltbeste künstliche Intelligenz schaffen, Computer den gesunden Menschenverstand lehren – und baut dafür in Zürich ein neues Forschungszentrum. Google will so das Wettrennen der großen Tech-Konzerne gewinnen. „Dank maschinellem Lernen haben Computer in all diesen Gebieten große Fortschritte gemacht, und in spezifischen Bereichen wie etwa dem Go-Spiel sind sie dem Menschen sogar überlegen.“ so Emmanuel Mogenet. Seit Juni leitet der Franzose das neue europäische Forschungszentrum von Google in Zürich. Wir müssen umdenken: Computer sind nicht mehr einfach die dummen Kisten. Sie holen rasch zu uns auf.“

Nicht nur künstliche Intelligenz sondern auch intelligente Implantate – Hüftgelenke mit Microchips – Signale aus der Hüfte!

Mehr und mehr übernehmen Maschinen die Aufgaben der Arbeitnehmer in der traditionellen Erwerbsarbeit. Die fortschreitende Digitalisierung und Automatisierung der Produktion ersetzt zunehmend die menschliche Arbeitskraft. Roboter erledigen ihre Arbeiten nicht nur zuverlässig, sondern sind dabei auch noch unschlagbar günstig. Künftige Generationen verdienen ihr Geld vielleicht als Drohnenpiloten oder in einem anderen neuen Berufsfeld.

Selbstfahrende Autos werden die berufliche Zukunft menschlicher Lkw-, Bus- und Taxifahrer sicherlich gefährden. Die Fortschritte in der Computertechnik sind unaufhaltsam und bereits im Jahr 2030 könnten fahrerlose Fahrzeuge allgegenwärtig sein.

Braucht es noch Journalisten? Die Washington Post hat ein großes Team von Journalisten, die über die Olympische Spiele.in Rio berichteten, aber sie setzten auch Roboter ein, die ohne menschliches Zutun die Webseite oder den Twitter-Account mit neuen Informationen füllten.

Computer werden in der Lage sein, den Geisteszustand eines Menschen zu bewerten

Roboter

Credit: © Photo Fraunhofer FKIE

Die Interaktion von Mensch und Maschine ist besonders wichtig für Fluglotsen. Eine Software des Fraunhofer-Instituts FKIE bewertet den Zustand des Users und die menschliche Leistung und gibt diese Information an den Computer weiter.

Maschinen übernehmen mehr und mehr Aufgaben. Idealerweise sollten sie auch in der Lage sein, den Menschen im Fall bei schlechten Leistungen zu unterstützen. Um in angemessener Form einzugreifen, sollte die Maschine verstehen, was im Menschen vor sich geht. Wissenschaftler haben ein Diagnoseinstrument entwickelt, das den Zustand des Users in Echtzeit erkennt und diesen der Maschine mitteilt.

Die Kamera richtet sich fest auf die Augen des Fahrers. Wenn diese mehr als eine Sekunde lang geschlossen sind, wird ein Alarm ausgelöst. Diese Technik verhindert den gefährlichen Sekundenschlaf am Steuer. „Nicht immer ist es für eine Maschine so leicht, den Zustand des Menschen zu erkennen, wie in diesem Fall“, sagt Jessica Schwarz vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE in Wachtberg südlich von Bonn.

Ein ganzheitliches Modell diagnostiziert in Echtzeit

Für ihre Doktorarbeit untersuchte die examinierte Psychologin die Frage, wie sich der Zustand eines Users exakt bestimmen lässt, welchen Einfluss dieser auf fehlerhaftes Verhalten haben kann und wie automatisierte Systeme diese Information nutzen können. „Bei komplexen Anwendungen genügt es nicht, sich nur mit einem Faktor zu befassen“, sagt die Wissenschaftlerin. Eine erhöhte Herzfrequenz zum Beispiel bedeutet nicht automatisch, dass eine Person gestresst ist. Dies kann verschiedene Ursachen haben. Darum suchte Schwarz die Faktoren, die die Leistung eines Menschen besonders beeinflussen, und schuf ein ganzheitliches Modell, das einen differenzierten Blick auf den Zustand des Menschen und dessen Ursachen liefert.

In ihrem Modell unterscheidet sie sechs Dimensionen menschlicher Zustände, die die Leistungen und das Verhalten beeinflussen: Arbeitsbelastung, Motivation, Situationsbewusstsein, Aufmerksamkeit, Ermüdung und der emotionale Zustand. Sie verwendet physiologische und verhaltensorientierte Messmethoden, um diese Zustände zu erfassen. Zusätzlich kombiniert sie diese mit externen Faktoren wie Aufgabe, Umweltbedingungen, Automatisierungsgrad und die Tageszeit und auch mit individuellen Faktoren wie z. B. der Erfahrung des Users. „Dies ermöglicht es uns, den Zustand des Users detaillierter zu erfassen und auf diese Weise auch Ursachen für kritisches Verhalten auszumachen“, beschreibt Schwarz ihre Vorgehensweise.

Experimente mit Fluglotsensimulation

Die Doktorandin bestätigte ihre theoretischen Ergebnisse in Experimenten. Sie gab Testpersonen die folgende Aufgabe: Sie sollten die Rolle eines Fluglotsen übernehmen und ein simuliertes Flugzeug sicher durch den virtuellen Luftraum steuern. Um den Stressfaktor anzuheben, wurde die Zahl der Flugzeuge erhöht, wurden die Anweisungen des „Lotsen“ ignoriert und in einigen Situationen Hintergrundlärm hinzugefügt. Schwarz hatte zuvor Daten zu individuellen Faktoren wie Erfahrung, Fähigkeit und Wohlbefinden erhoben. EEG-Sensoren auf dem Kopf, ein Eye-Tracker (der die Augenbewegungen aufzeichnet) und ein EKG-Brustgurt zeichneten physiologische Veränderungen der Testpersonen auf. „Wir hatten zuvor intensive Interviews mit tatsächlichen Fluglotsen geführt, um uns in die Lage zu versetzen, ihre beruflichen Herausforderungen durch Schnittstellen zwischen Mensch und Maschine so exakt wie möglich zu reproduzieren“, erklärt Schwarz.

Sodann wurde eine Diagnose-Schnittstelle geschaffen, die in Echtzeit ermittelt, wann individuelle Faktoren einen kritischen Zustand erreichen, und dies dann an die Maschine weitergibt. „Automatisierte Systeme erhalten auf diese Weise sehr exakte Informationen hinsichtlich der gegenwärtigen Leistungsfähigkeit des Users und können entsprechend reagieren“, beschreibt Schwarz den zusätzlichen Wert der Software.

Kurz vor der Nutzung

Das FKIE plant, das Forschungsprojekt bis zum Jahresende abzuschließen. Die Forscher sind jetzt auf der Suche nach Partnern in der Industrie. „Die Technologie wird in Kürze fertig für die Anwendung sein. Das Fachwissen zur Entwicklung spezifischer Produkte für individuelle Nutzungsfälle steht schon zur Verfügung“, sagt Schwarz. Mögliche Anwendungsbereiche können in allen hochautomatisierten Aufgabenbereichen gefunden werden, in denen eine kritische Verfassung eines Users ein Sicherheitsfaktor sein kann. So können zum Beispiel monotone Überwachungsaufgaben in Kontrollräumen oder Trainingssysteme für Piloten durch diese Technologie optimiert werden.

„Maschinen spielen eine immer wichtigere Rolle, aber sie werden auch immer komplexer. Das stellt neue Herausforderungen an die Kooperation zwischen Mensch und Maschine. Lernfähige Systeme, die verschiedene Situationen erkennen und sich ihnen anpassen, können bekannte Automationsprobleme lösen. Ein wesentlicher Aspekt dessen ist jedoch, dass nicht nur der User die Maschine, sondern dass die Maschine auch den Zustand des Users versteht. Wir haben jetzt den ersten Schritt zur Erreichung dieses Ziels vollzogen“, fasst Schwarz zusammen.

Quelle: Fraunhofer-Gesellschaft. und sciencedaily.com

Computers will be able to assess humans‘ state of mind

sciencedaily.com

The interaction of man and machine is particularly important for air traffic controllers. A software from Fraunhofer FKIE assesses user states and human performance and passes this information on to the computer.

Machines are taking over more and more tasks. Ideally, they should also be capable to support the human in case of poor performance. To intervene appropriately, the machine should understand what is going on with the human. Fraunhofer scientists have developed a diagnostic tool that recognizes user states in real time and communicates them to the machine.

The camera firmly focuses on the driver’s eyes. If they are closed for more than one second, an alarm is triggered. This technique prevents the dangerous micro-sleep at the wheel. „It is not always as easy for a machine to detect what state the human is in, as it is in this case,“ says Jessica Schwarz from the Fraunhofer Institute for Communication, Information Processing and Ergonomics FKIE in Wachtberg, just south of Bonn.

Holistic model feeds real-time diagnosis

For her doctoral thesis, the graduate psychologist examined the question of how to very precisely determine user states, what influence these may have on incorrect behavior and how automated systems can use this information. „For complex applications it is not sufficient to focus on only one impact factor,“ says the scientist. An increased heart rate, for example, does not automatically mean that a person is stressed. This can have various causes. Schwarz therefore examined what factors specifically impact human performance and created a holistic model that provides a detailed view on user states and their causes.

In her model, she differentiates between six dimensions of user state that impact human performance: workload, motivation, situation awareness, attention, fatigue and the emotional state. She uses physiological and behavioral measures to detect these states. In addition, she combines these with external factors such as task, environmental factors, current level of automation and time of day, as well as individual factors — such as the user’s experience. „This allows us to assess the user’s state in more detail and also identify causes for critical states,“ Schwarz explains her procedure.

Experiments with air traffic controller simulation

The doctoral student verified her theoretical findings in experiments. She gave test subjects the following task: They had to assume the role of an air traffic controller and steer simulated aircraft safely through a virtual airspace. As stress factors, the number of aircraft was increased, the instructions of the „controllers“ were ignored, and background noise was added in some conditions. Schwarz had previously collected data on individual factors such as level of experience, capabilities, and well-being. EEG sensors on the head, an eye tracker, and an ECG chest strap recorded physiological changes in the test subjects. „We had previously conducted intensive interviews with real air traffic controllers to enable us to reproduce their challenges with man-machine interfaces as accurately as possible,“ Schwarz explains.

A diagnosis interface was then created that detects in real time when individual impact factors become critical and communicates this to the machine. „Automated systems thus receive very exact information regarding the current capabilities of the user and can react accordingly,“ Schwarz describes the added value of the software.

Close to application

The FKIE plans to complete the research project by the end of the year. The researchers are now on the look-out for industry partners. „The technology is very close to application. The know-how to develop specific products for individual use cases is already available,“ says Schwarz. Potential fields of application can be found in all highly automated tasks where critical user states can be a safety issue. For example, monotonous monitoring tasks in control rooms or training systems for pilots could be optimized by this technology.

„Machines play an increasingly important role, but are also becoming more and more complex. This poses new challenges for the cooperation between human and machine. Adaptive systems that recognize different situations and adapt to them can solve known automation problems. A key aspect of this, however, is that not only the user understands the machine, but that the machine also understands the state of the human. We have now taken the first step towards this goal,“ Schwarz sums up.

Story Source:

The above post is reprinted from materials provided by Fraunhofer-Gesellschaft 

Netzfrau Ursula Rissmann-Telle
deutsche Flagge
Brauchen wir das wirklich? Tech Unternehmen entwickelt ersten Smart Tampon der Welt – Tech Company Develops The World’s First Smart Tampon

Vorsicht: Digitale Drogen auf dem Vormarsch – Auf dem Weg zum neuen Menschen

„Schöne neue Welt“ – Die künstliche Gebärmutter – Maschine statt Mama ist Realität!

Kennen Sie Dr. Google? Er baut ein riesiges Imperium, kooperiert mit Big Pharma und will Ihre Daten

Wenn Menschen Gott spielen – Designer-Babys in Zukunft mit Unterstützung von Google auf Bestellung

1 Kommentar » Schreibe einen Kommentar

  1. Danke für den Beitrag!
    Solange wir Doofie sapiens nicht in der Lage sind zwischen zwei dieser/unserer Unart vernünftig miteinander zu leben, hätten wir sehr viel mehr Energie und Forschung zuerst hierfür verwenden sollten, als der Therminatortheorie Futter zu geben! Toll, dass der Robot mitfühlender ist, als der bekloppte Nachbar mit dem Rasenmäher früh um 8 Uhr – samstags!

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.