de

Projects

Current projects

ORAKEL: AI-supported early warning systems for relapse prediction in depressive disorders
Duration: 01.07.2024 to 31.12.2027

The ORAKEL project aims to use artificial intelligence (AI) to precisely identify early warning signs of depressive relapses, thus enabling timely intervention. By collecting multimodal data (video and audio recordings) and developing specific deep learning models, the project will analyse patients' behavioural patterns and emotional states. These innovative technologies will support clinical use via a user-friendly graphical interface and help to treat depressive episodes at an early stage.
The focus is on improving relapse prevention, optimising psychiatric care and relieving the burden on medical staff by means of intelligent assistance systems. The project combines expertise in psychiatry and AI development to create personalised approaches to depression treatment and to advance research in key digital technologies.

View project in the research portal

Bessere Rückfall-Vorhersage bei depressiven Störungen durch Detektion von Frühwarnzeichen mittels KI (ORAKEL)
Duration: 01.05.2024 to 31.12.2027

Die jüngsten Fortschritte im Bereich der KI und des maschinellen Lernens bieten vielversprechende Möglichkeiten zur Verbesserung der Früherkennung einer Verschlechterung depressiver Symptome. Vorläufige Studien deuten darauf hin, dass KI subtile Hinweise aus Sprachmustern, Mimik und Gestik analysieren kann, um depressive Stimmung und suizidale Krisen zu erkennen. Depressive Menschen können z.B. Veränderungen in der Prosodie der Sprache, eine verringerte Mimik und spontane Gestik aufweisen. Außerdem gibt es Hinweise darauf, dass Vitalparameter wie Herzfrequenzvariabilität und Schlafmuster auf den mentalen Zustand einer Person schließen lassen. In unserem Projekt werden wir direkt vergleichen, wie gut die Einschätzung des Krankheitszustands der Patienten bzw. ihres Rezidiv-Risikos gelingt: a) durch das ärztliche Gespräch (wie bisher üblich), b) durch standardisierte Ratings bzw. Interviews (wie derzeit in der psychiatrischen Forschung üblich), c) durch Vorhersage von Rückfällen bei depressiven Störungen durch die apparative Detektion von Frühwarnzeichen mittels KI (neuer Ansatz unseres Projektes), d) durch Kombination der vorgenannten Herangehensweisen.

Dadurch werden wir nicht nur erkennen, ob KI im klinischen Kontext prinzipiell in der Lage ist, Frühwarnzeichen einer Depression zu erkennen, sondern auch, ob dies besser funktioniert als herkömmliche Methoden. Ein kamera-basiertes Monitoring und KI-gesteuerte Analysen könnten dann ein Echtzeit-Feedback für Gesundheitsdienstleister liefern und so frühzeitigere Interventionen ermöglichen. Die Detektion von Frühwarnzeichen eines Rezidivs durch künstliche Intelligenz bietet also ein erhebliches Potenzial zur Verbesserung der Versorgung von Patienten mit depressiven Störungen. Eine Weiterentwicklung solcher Technologien kann insbesondere auch aufgrund der begrenzten zeitlichen Ressourcen in der ambulanten Patientenbetreuung durch Ärztemangel eine hilfreiche Ergänzung sein. Die Hinzunahme von KI zur Analyse von Sprache, Mimik, Gestik und Vitalzeichen in der Abschätzung des Krankheitsverlaufs könnte helfen, die ambulante Behandlung depressiver Störungen besser zu steuern und die Lebensqualität der Betroffenen nachhaltig zu erhöhen.

View project in the research portal

Resiliente Human-Roboter-Kollaboration in Mixed-Skill-Umgebung (ENABLING)
Duration: 01.01.2024 to 31.12.2027

Kollaborationsfähige Robotersysteme sind eine Schlüsseltechnologie der flexiblen intelligenten Produktion, Logistik und Medizin, die sich im Sinne der Verknüpfung komplementärer Skills in einer eng verzahnten und potentialorientierten Zusammenarbeit mit dem Menschen, aber auch zur Substitution von Aufgaben und Fähigkeiten einsetzen lassen. Das Vorhaben ENABLING adressiert den Problemraum der Entwicklung von KI-Methoden zur gegenseitigen Ergänzung der Skills von Roboter und Mensch. Somit werden Innovationen in den Querschnittsbereichen Informationstechnologie und Key-Enabling-Technologie ermöglicht und die Grundlage für zukünftige Anwendungen in Mixed-Skill-Umgebungen in den Leitmärkten geschaffen. Das ENABLING wird die Kollaboration in Mixed-Skill-Arbeitswelten grundlegend verändern, indem Mensch und Roboter für das gegenseitige Verständnis von Prozessen, Handlungen und Absichten befähigt werden. ENABLING erhöht für die vollständige Informationsverarbeitungskette nicht nur die Effizienz in Produktion und Logistik, sie minimiert auch die Gefahren im Arbeitsprozess.

View project in the research portal

Multimodale KI-basierte Schmerzmessung bei Intermediate Care Patienten in der postoperativen Phase
Duration: 01.06.2024 to 31.05.2027

Das Vorhaben beschäftigt sich mit Methoden der künstlichen Intelligenz zur automatisierten, multimodalen und kontinuierlichen Messung der Schmerzintensität in einer postoperativen Umgebung auf einer Intermediate Care Station nach größeren operativen Eingriffen. Langfristig soll die Technologie für Patienten mit eingeschränkten Kommunikationsfähigkeiten eine bessere Behandlung der Schmerzen und ihrer Ursachen ermöglichen, indem sie das medizinische Personal bei der Schmerzbeurteilung durch ein automatisiertes Echtzeitschmerzmonitoring unterstützt und entlastet sowie eine präzisere, individual- und situationsspezifische Analgesie möglich macht. Perspektivisch könnte die Technologie in weiterführenden Projekten auch für andere Patientenkollektive (z.B. Kinder und Demenzerkrankte) weiterentwickelt, validiert und eingesetzt werden.

View project in the research portal

Ein robustes, reliables und multimodales KI-System zur Schmerzquantifizierung
Duration: 01.12.2023 to 30.11.2026

In Deutschland leiden mehr als 1,7 Millionen Menschen an einer Demenz. Da diese von kognitiven Einschränkungen betroffen sind, sollten hier Fremdeinschätzungsinstrumente für die Schmerzerkennung eingesetzt werden, da bei dieser Patientengruppe die Selbstauskunft keine verlässliche Information darstellt. Daher ist die Schmerzerkennung bei Demenz eine große Herausforderung für das klinische Monitoring und wird dies auch auf unabsehbare Zeit bleiben. Somit ist die Entwicklung eines Systems zur Schmerzerkennung und -quantifizierung von großer Relevanz für zahlreiche Anwendungen im klinischen Umfeld, welches die Forderungen nach Robustheit und Zuverlässigkeit erfüllt. Zum Beispiel wäre dies in der Notfall- und Akutmedizin wünschenswert, um bei der Diagnosefindung eine derartige technische Unterstützung durch ein KI-System vorzusehen. Das Vorhaben wird die Entwicklung eines robusten, reliablen und multimodalen KI-Systems zur Schmerzerkennung und –quantifizierung adressieren. Es beschäftigt sich erstens mit dem Forschungsziel tiefe neuronale Netze und Transferlernen mit umfangreichen, bestehenden in-the-wild Datenbanken zum Anlernen von diversen Mimikmerkmalen und zur Erhöhung der Robustheit gegenüber verschiedener, in verfügbaren Schmerzdatensätzen unterrepräsentierter Varianzen (Erscheinungsbild, Beleuchtung, Teilverdeckung, etc.) einzusetzen, um die Grundlagen für eine Technologie zu schaffen, die für die zukünftige potentielle Verwendung im klinischen Umfeld mit Schwerpunkt der Applikation bei Demenzkranken, insbesondere für das postoperative Monitoring in Aufwachräumen, geeignet ist.

View project in the research portal

Etablierung des Innovationslabors "RoboLab"
Duration: 01.01.2024 to 31.10.2026

Mit dem „RoboLab“-Vorhaben wird die nachhaltige Entwicklung und Anwendung leistungsstarker und innovativer Methoden für die Generierung intuitiver und produktiver Interaktionsprozesse zwischen Mensch und Roboter gewährleistet. Diese umfassen grundlegende, generalisierbare Deep-Learning-getriebene KI-Module bis hin zu multimodularen Roboter-Demonstratoren, welche adaptiv für sowohl spezialisierte als auch generalisierte Prozesse in der Medizin, Produktion und Logistik im Leitmarkt Smart-Production/Industrie 4.0 angepasst und eingesetzt werden können. Die auf Basis des „RoboLab“-Vorhabens entstehenden innovativen menschzentrierten Systemlösungen werden in die angeschafften und modernisierten Roboter integriert, um sie zu komplexe dynamische Systeme zu erweitern und intuitive Mensch-Roboter- und Roboter-Roboter-Interaktion zu ermöglichen. Im Vordergrund steht dabei der Aufbau von adaptiven und skalierbaren Systemen, deren Fähigkeiten je nach aktuellen Anforderungen und Komplexität des Szenarios flexibel modifiziert werden können, um in ihrem Bedarfsbereich autonom handeln und intuitiv interagieren zu können. Das Zusammenspiel aus den Kompetenzfeldern der NIT Arbeitsgruppe in künstlicher Intelligenz, kognitiven Systemen und Robotik flankiert durch das Know-how der Kooperationspartner ist eine optimale Voraussetzung um diese gestellten Forschungsziele auf Grundlage modernster Technik zu erreichen.

View project in the research portal

Need for assistance in human-robot collaboration
Duration: 01.08.2023 to 31.07.2026

The scientific objectives include the research and testing of real-time capable deep learning algorithms for

  1. Environment detectionand navigation with SLAM algorithms (Simultaneous Localization and Mapping),
  2. Motion estimation of dynamic objects and user tracking in dense spaces,
  3. Person recognition and identification in confined spaces and
  4. Recognizing willingness to interact based on body and head poses and facial expressions

A further scientific objective here is to design the algorithms in such a way that joint optimization of the respective sub-goals can be achieved by means of end-to-end learning.
This text was translated with DeepL

View project in the research portal

Implicit mobile human-robot communication for spatial action coordination with context-specific semantic environment modeling
Duration: 01.09.2022 to 30.04.2026

The use of robots in the industry as well as in the work and everyday life is becoming more and more flexible. Current methods for machine learning and adaptive motion planning are leading to a more robust behavior and a higher autonomy of the robots. Nevertheless, collaborative human-robot interactions still happen to have interruptions and breakdowns in cases where the human is not able to comprehend the robot's movement behavior. A common cause is that the human has an incorrect or limited picture of what the robot is currently perceiving and what its internal state is. This could be avoided if the robot could understand and incorporate the mental states and the perspective of the interaction partner in its own action generation in order to actively generate a common understanding of the interaction.A key competence for such a collaboration between humans and robots is the ability of communication and mutual coordination via implicit signals of body language and movement. The project investigates the implicit human-robot communication in collaborative actions by using the example of the joint construction of a shelf. In experimental studies, situations will be created and recorded in which the interaction and perception between the human and the robot is disturbed. On the one hand, new perception methods are explored, that robustly detect interaction-relevant features based on head and body poses and facial expressions against occlusions. These are interpreted in the context of the action and the environment, so that implicit communication signals (e.g., turning toward, turning away, compliance, hinting, etc.) and internal states (e.g., approval, disapproval, willingness to interact, etc.) can be inferred. On the other hand, new methods are being explored to make the robot infer the perspective and the state of the human interlocutor in its own action planning and actively requests user reactions.This leads to a spatial coordination of the partners during the construction of the shelf by taking into consideration the mutual perception and the goal of the action. Via an active use of body pose, relative orientation and movement of the robot, conflict situations can be solved in advance without the need for explicit instructions to the robot.

View project in the research portal

Gaze estimation based on the Combination of regression and classification Losses
Duration: 01.01.2022 to 31.03.2026

Der menschliche Blick ist ein entscheidendes Merkmal, der in verschiedenen Anwendungen wie der Mensch-Roboter-Interaktion, dem autonomen Fahren und der virtuellen Realität verwendet wird. Kürzlich haben Ansätze mit Convolutional-Neural-Networks (CNN) bemerkenswerte Fortschritte bei der Vorhersage der Blickrichtung gemacht. Das Schätzen der genauen Blickrichtung in unkooperativen in-the-wild Situationen (d.h. mit Teilverdeckungen, stark variierenden Lichtverhältnissen usw.) ist jedoch immer noch ein herausforderndes Problem. Hierbei ist es besonders herausfordernd, die essentiellen Blickinformationen aus dem Augenbereich zu erfassen, da dieser nur einen kleinen Teil eines detektierten Gesichtes ausmacht. In diesem Projekt wird ein neues Multi-Loss-CNN-basiertes Netzwerk entwickelt, um die Winkel der Blickrichtung (Nick- und Gierwinkel) mit hoher Genauigkeit direkt aus Gesichtsbildern zu ermitteln. Indem wir die gemeinsamen Merkmale der letzten Schicht des Netzwerks trennen, sollen zwei unabhängige Fully-Connected Layer für die Regression der beiden Blickwinkel verwendet werden, um die Charakteristik jedes Winkels zu erfassen. Darüber hinaus soll eine Coarse-to-Fine-Strategie unter Verwendung eines Multi-Loss-CNN angewendet werden, das sowohl den Loss von Klassifizierung als auch Regression mit einbezieht. Wir führen eine Klassifizierung des Blicks durch, indem wir eine Softmax-Schicht mit dem Cross-Entropy-Loss kombinieren. Hieraus ergibt sich eine grobe Einordnung des Blickwinkels (Klasse). Um Blickwinkel zu prädizieren, berechnen wir die Klassenverteilung gefolgt von dem Regressions-Loss des Blickwinkels.

View project in the research portal

3D-based human-robot collaboration with spatial situation analysis for ad hoc assistance in dynamic goods transport processes
Duration: 01.09.2022 to 31.12.2025

In this project, methods are being researched and developed that enable a mobile pallet transport robot (AGV) to perform a higher semantic situation analysis of the logistical environment for worker-robot and robot-robot interactions. For this purpose, the first objective comprises the creation of maps including self-localization with the inclusion of dynamic semantic work objects. Another objective is the development of latency-optimized methods for the recognition, identification and tracking of workers in the logistics environment based on body, head pose and other indicators to derive the willingness to interact in order to collaborate efficiently and robustly with the acting worker. The actions include specific activities from warehouse logistics (e.g. unloading, loading, searching for pallets), which are determined by including the context (localization of pallets, determination of the loading status) and worker-centered gesture and voice commands. The solution approaches developed as part of the sub-project contribute to the overall project to enable targeted work coordination of several robots and precise and targeted worker-robot collaboration in a robust and efficient manner (transmission of commands, optimization of routes).
This text was translated with DeepL

View project in the research portal

Development and systematic validation of a system for contactless, camera-based measurement of the heart rate variability
Duration: 01.06.2022 to 31.12.2025

Heart rate variability (HRV) provides important information for the medical analysis of the cardiovascular system and the activity of the autonomic nervous system, as well as for the diagnosis and prevention of diseases. Traditional HRV monitoring systems are contact-based techniques that require sensors to be attached directly to the person's body, such as an electrocardiogram (ECG) or contact photoplethysmography (PPG). These techniques are only partially suitable for long-term monitoring or early detection of disease symptoms. In addition, they can have some negative effects on the monitored person, such as skin irritations, an increased risk of spreading disease germs due to direct contact, etc.The aim of this research project is the optical measurement of heart rate variability (HRV) from video images using PPG. PPG is an optical, non-invasive technology that uses light to record volumetric variations of blood circulation in the skin. In recent years, this technique has been realized remotely and contact-free through the use of cameras and has already been successfully used for the measurement of heart rate (HR) from video data. For the measurement of HRV a precise temporal determination of the heartbeat peaks in the PPG signal is necessary. The high measurement accuracy of HR in the state of the art can only be achieved by a strong temporal filtering. However, this makes it impossible to localize the heartbeats precisely over time. A challenge is that even smallest movements and facial expressions of the test persons lead to artifacts in the PPG signal. This is where this research project takes effect, by systematically detecting these artifacts in the PPG signal and subsequently compensating them. Up to now, almost all methods for measuring the PPG signal have been based on color value averaging of (partial) areas of the skin in the face. Movement compensation is not possible with these methods because position informations is lost. To train models that are invariant to movement, deep neural networks (Convolutional Neural Network (CNN)) are well suited. Using 3D head pose estimation methods and action unit recognition (facial muscle movements), a system will be trained to extract motion-invariant PPG signals from video data. For this purpose, information on detected skin regions in each image will be generated using new segmentation methods based on CNN and used for motion compensation. The data obtained by this network will be further processed with another recurrent neural network (Long Short-Term Memory (LSTM)) optimized for temporal signal processing in order to determine the pulse peaks in the PPG signal precisely in time.

View project in the research portal

Completed projects

Personenidentifikation in realer Mensch-Roboter-Interaktionsumgebung
Duration: 02.11.2020 to 31.03.2025

Die wissenschaftlichen Ziele des Projektes beinhalten die Erforschung und Erprobung echtzeitfähiger Deep Learning Algorithmen zur

  1. Personenerkennung und Identifikation in dichten Räumen und
  2. Erkennen der Interaktionsbereitschaft anhand Körper- und Kopfpose sowie Mimikmerkmalen

Ein weiteres wissenschaftliches Ziel besteht hierbei darin, die Algorithmen derart zu konzipieren, dass eine gemeinsame Optimierung der jeweiligen Teilziele mittels end-to-end learning erreicht werden kann.

View project in the research portal

The impact of using AI-powered technology for lie detection in negotiations
Duration: 01.10.2021 to 29.02.2024

The increasing digitization of social and economic interactions is proceeding at a considerable speed. Research on digitization processes should reconcile two areas of knowledge, which are usually examined separately from each other: First, the question of technical development and second, the question of the effects of this development on human behavior. In the project applied for, an attempt will be made to combine both perspectives in an interdisciplinary approach, whereby the focus is on behavioral analysis, but the technical components are nevertheless strongly represented. The use case chosen for this type of analysis of digitization processes is the phenomenon of asymmetric information. Specifically, we investigate to what extent the paradigm of asymmetric information has become at least partially obsolete through the use of AI technologies. In our interdisciplinary project, instead of waiting for technological developments in the field of AI-based lie detection, we would like to contribute to technological progress on our part, while experimentally investigating the possible social consequences of this technology.The project proposal combines two research areas: Economics (WW) and Neuro-Information Technology (NIT). In both fields, the identification of private information plays a major role, but is approached from different angles. While economic analysis focuses on the role and importance of private information in negotiation situations, NIT focuses on the feasibility and quality of automated recognition of personal characteristics.

View project in the research portal

Autonome Navigation und Mensch-Maschine-Interaktion eines mobilen Roboters in Outdoor-Anwendungen
Duration: 15.09.2019 to 31.05.2022

Das Gesamtziel dieses Projekts besteht darin, Methoden zu erforschen, die es einem mobilen Robotersystem ermöglichen, im Außenbereich autonom zu navigieren, potentielle und spezifische Interaktionspartner zu identifizieren, ihre Interaktionsbereitschaft zu erkennen, mit ihnen zu interagieren und die Interaktionspartner zum Aufrechterhalten der Kooperation mittels Bewegungsanalyse in dichten Räumen zu verfolgen.
Die wissenschaftliche und technische Herausforderung besteht darin, das Umfeld des mobilen Roboters so zu erfassen, dass eine präzise Selbstlokalisation und darauf aufbauend eine effiziente Navigation in einer Outdoor-Umgebung zum Auffinden kooperierender Personen erfolgen kann. Dabei soll auf Vorabinformationen aus der Umgebung des Roboters, wie z.B. Marken möglichst verzichtet werden. Der Roboter soll ausschließlich auf Grund seines eigenen optischen Systems eine anfangs unbekannte Umgebung erfassen und sich darin zurechtfinden.
Eine weitere Herausforderung besteht bei der Verfolgung von Interaktionspartnern in dichten Räumen. Hierunter sind Umgebungen mit mehreren potentiellen Interaktionspartnern und dynamischen Szenenobjekten und damit verbundener Verdeckungssituationen zu verstehen. Unterschreiten zwei Objekte einen bestimmten räumlichen Abstand, können diese nicht eindeutig voneinander separiert werden, so dass eine Verfolgung (Tracking) der zu verfolgenden Personen stark erschwert wird.
Eine besondere Herausforderung von unbekannten, dichten Räumen besteht darin, dass zudem die potentiellen Interaktionspartner nicht a-priori bekannt sind, sondern zunächst identifiziert werden müssen. Dies umfasst sowohl die reine Personenerkennung als auch die Bewertung ihrer Interaktionsbereitschaft.
Um diese Herausforderungen zu bewältigen, sind verschiedene technische und wissenschaftliche Teilprobleme zu lösen, wobei die Erforschung von Methoden zur Umgebungserfassung, Navigation und Interaktion mittels künstlicher Intelligenz (KI) aus wissenschaftlicher Sicht und der Aufbau des Robotersystems aus technischer Sicht im Fokus stehen.

View project in the research portal

Multimodale Erkennung von Druck- und Hitzeschmerzintensität
Duration: 30.11.2017 to 31.03.2022

Der Fokus dieses Projektes ist die Verbesserung der Schmerzdiagnostik und des Monitorings von Schmerzzuständen. Durch die Nutzung von multimodalen Sensortechnologien und hocheffektiver Datenklassifikation kann eine reliable und valide automatisierte Schmerzerkennung ermöglicht werden. Um dieses Ziel zu erreichen, wird durch die Kombination neuer innovativer Methoden der Datenanalyse, der Mustererkennung und des maschinellen Lernens auf Daten eines experimentellen Protokolls eine vielversprechende Strategie der objektiven Schmerzerkennung entwickelt. Um Merkmale extrahieren und selektieren zu können, werden die experimentellen Daten seriell mit komplexen Filtern und Dekompensationsmethoden vorverarbeitet. Die so gewonnenen Merkmale sind die Voraussetzung für eine robuste automatisierte Erkennung der Schmerzintensität in Realzeit.

View project in the research portal

Intentional, anticipatory, interactive systems (IAIS)
Duration: 01.01.2018 to 31.12.2021

Intentional, anticipatory, interactive systems (IAIS) represent a new class of user-centered assistance systems and are a nucleus for the development of information technology with corresponding SMEs in Saxony-Anhalt. IAIS uses action and system intentions derived from signal data, and the affective state of the user. By anticipating the further action of the user, solutions are interactively negotiated. The active roles of humans and systems change strategically, which requires neurological and behavioral models. The  human-machine-systems are being deployed in our systems lab, based on previous work in the SFB-TRR 62. The goal of lab tests is the understanding of the situated interaction. This supports the regional economy in their integration of assistance systems for Industry 4.0 in the context of demographic change.

View project in the research portal

Human Behavior Analysis (HuBA)
Duration: 01.10.2017 to 30.06.2021

Das Projekt etabliert eine Nachwuchsforschungsgruppe zur Erforschung neuer und verbesserter Methoden der Informationsverarbeitung zum automatisierten Verstehen des menschlichen Verhaltens. Zum menschlichen Verhalten zählen wir hierbei alle äußerlich wahrnehmbaren Aktivitäten wie Körperhaltungen, Gesten und Mimiken, die bewusst oder unbewusst gezeigt werden. Anhand des Verhaltens soll auch auf eventuell zugrunde liegende Befindlichkeiten des Menschen geschlossen werden.

View project in the research portal

Human-Machine-Interaction Labs - Roboter Labor
Duration: 01.09.2019 to 30.09.2020

Ziel des Projektes "Robo-Labs" ist die nachhaltige Weiterführung der erarbeiteten Ergebnisse zur Mensch-Maschine-Interaktion in der NIT-Gruppe. Zu diesem Ziel trägt das Robo-Lab folgendermaßen bei:

  1. Die Erforschung und Umsetzung von Methoden zur Mensch-Maschine-Interaktion mittels künstlicher Intelligenz (KI) bedarf große Rechenkapazitäten und große Datenmengen. Mit Hilfe eines Deep-Learning Rechners soll genügend Rechenkapazität geschafft werden, um auch in Zukunft international Konkurrenzfähig zu bleiben.
  2. Um den gleichzeitig weiter steigenden Datenbedarf zu decken, soll eine Laborumgebung geschaffen werden, die eine multimodale Datenaufnahme in der Mensch-Roboter-Kollaboration (MRK) erlaubt. Dazu soll die im Labor vorhandene Sensorik erweitert werden und eine Umgebung zur Datenaufnahme für die natürliche Mensch-Roboter-Interaktion geschaffen werden.
  3. Ein mobiler Roboter und ein stationärer Roboter sollen unterschiedliche technische Fertigungsprozesse und assistierende Systeme nachbilden können und damit MRK-Situationen ermöglichen, die in Demonstratoren in laufenden 3Dsensation Projekten und darüber hinaus umgesetzt werden.
  4. Das Robo-Lab baut das Kompetenzprofil der NIT-Arbeitsgruppe weiter in Richtung Mensch-Roboter-Interaktion aus und schafft durch die zusätliche sensorische Ausstattung eine einmalige, international konkurenzfähige Laborumgebung für Forschung und Lehre.
  5. Lauftende und künftige Projekte können mit dem Robo-Lab unterstützt werden, da eine einmalige Umgebung für die Entwicklung von Demonstratoren sowie zur Datenaufnahme und Datenverarbeitung geschaffen wird. Das Robo-Lab ermöglicht Forschung auf Spitzenniveau und erlaubt weitere Forschungsbemühungen.

View project in the research portal

Ergonomics Assistance Systems for Contactless Human-Machine-Operation
Duration: 01.01.2017 to 31.03.2020

Ziel des Projekts ist das Erforschen und die Demonstration neuer Technologien und Entwurfsmethoden bzw. in den Arbeitskontext integrierten Bedienkonzepte für die Mensch-Maschine-Interaktion (MMI) und Mensch-Maschine-Kooperation (MMK), mit deren Hilfe die Eingabe/Steuerung durch den Menschen, die Ausgabe der Informationen durch die Maschine und die Kollisionsvermeidung für kommerzielle Produkte und in den industriellen Produktionsumfeld realisiert werden kann. Damit sollen auch KMUs in den gesellschaftlichen und ökonomischen Bedarfsfeldern Gesundheit und Produktion befähigt werden, Interaktionskonzepte und informationsorientierte Visualisierungslösungen die ein sicheres, ergonomisches und applikationsorientiertes Arbeiten im Verbund von Mensch und Maschine erlauben, in einer gemeinsamen Wertschöpfungskette entwickeln und vermarkten zu können. Diese Konzepte werden in die nächsten Generationen von Geräteentwicklungen und Produktionsanlagen der Industriepartner einfließen. Im Vordergrund steht dabei eine hohe Integration der Robotik-Systeme durch schnelle Situationserfassung und -verarbeitung unter Einbeziehung von Multi-Sensordaten für Mehr-Nutzer-Szenarien.

View project in the research portal

Mimische und Gestische Expressionsanalyse zur Angstmessung
Duration: 01.11.2017 to 29.02.2020

Industrieroboter sind in heutigen Produktionsanlagen quasi allgegenwärtig - arbeiten aus Sicherheitsgründen in der Regel jedoch räumlich getrennt vom Menschen. Ein Hemmnis für eine enge Zusammenarbeit, in der  beide ihre Vorteile ausspielen könnten (Mensch: Wahrnehmung, Urteilsvermögen, Improvisation; Roboter: Reproduzierbarkeit, Produktivität, Kraft), besteht in der Angst des Menschen vor dem Roboter:  Auf Grund der potentiellen Verletzungsgefahr bei Kollision oder der Unkenntnis der technischen Zusammenhänge sperrt sich der Mensch innerlich gegen die Kollaboration, agiert unkonzentriert und neigt zu ruckartigen Reflexbewegungen. Das beeinträchtigt die Produktqualität und erhöht die Wahrscheinlichkeit gefährlicher Unfälle. Das Ziel dieses Projekts besteht daher darin, den Menschen im Produktionsumfeld sicher zu erkennen und Verfahren zur objektiven, individuellen und situativen Angstschätzung auf Basis sensorisch erfasster Gestik- und Mimikexpressionen zu entwickeln. Auf potentiell erkannte Ängste kann mittels geeigneter Interaktionsmaßnahmen situationsgerecht reagiert und somit ein Vertrauen zwischen Mensch und Maschine geschaffen werden, das die Basis für eine wirtschaftlich attraktive Mensch-Roboter-Kollaboration bildet.

View project in the research portal

Hyperspektrale Vitalparameterschätzung zur automatischen kontaktlosen Stresserkennung
Duration: 01.01.2017 to 30.09.2019

Das Projekt ist Teil des Verbundprojektes "HyperStress" des Graduierkollegs der Allianz "3d-Sensation". Stress gilt als größter Belastungsfaktor am Arbeitsplatz und erlangt seit Jahren großes Forschungsinteresse. Jedoch existieren keine Verfahren für eine hindernisfreie (Gefahrenbeurteilung) und störungsfreie (Limitierungen durch die Arbeitstätigkeit) Erfassung der für Stress ausschlagegebenden Vitalparameter. Ziel des Projektes ist die Entwicklung eines  Demonstrators, der eine kontaktlose Stressdetektion ermöglicht. Ein robustes genaues System mit ansprechender benutzerfreundlicher Visualisierung der Daten ist das Ziel des Projektes.

View project in the research portal

Kontaktfreie kamerabasierte Messung von Vitalparametern mit verbesserter Störsicherheit
Duration: 01.07.2017 to 30.06.2019

Die Erfassung von wichtigen Vitalparametern des Menschen, wie der Herzrate, Atmung, Herzratenvariabilität und Sauerstoffsättigung des Blutes, sind von großer Bedeutung für die Diagnostik und Überwachung des Gesundheitszustands. Im Projekt sollen neue Daten gewonnen werden, um die Genauigkeit der bisher entwickelten Verfahren  zur Schätzung der  Vitalparameter signifikant zu verbessern. Die verwendete Hauterkennung soll generalisiert werden und  robustere  Ergebnisse  in  Echtzeit  liefern  können.  Zudem  sollen  aufgrund  der  neuen  zusätzlichen Informationen  (z.B.:  3D-Daten,  Infrarotbilder),  auch  die  Verfahren  zur  Merkmalsextraktion,  -selektion und -reduzierung optimiert werden.

View project in the research portal

Optisches Messverfahren mit räumlich verteilten Licht-Projektionen zur hochaufgelösten und schnellen 3D-Oberflächenrekonstruktion
Duration: 01.12.2017 to 30.11.2018

Das Vorhaben zielt darauf ab, ein neues aktives 3D-Messverfahren zu entwickeln, das ohne einen auf Zentralprojektion basierenden digitalen Projektor auskommt. Dabei sollen durch hohe Lichtintensität kurze Integrationszeiten für die Gesamtmessung gewährleistet werden. Insbesondere wird eine prinzipielle Skalierbarkeit der Beleuchtungsstärke angestrebt, so dass auch größere Messflächen, wie sie in der industriellen Produktion häufig vorkommen, zeiteffizient vermessen werden können. Durch ein Multikamerasystem soll auch eine erhebliche Reduzierung von Abschattungen bei der Vermessung komplexer Teile erreicht werden, um Messungen aus unterschiedlichen Positionen zu vermeiden.

View project in the research portal

Optimierung der Reliabilität und Spezifität der automatisierten multimodalen Erkennung von Druck- und Hitzeschmerzintensität
Duration: 01.09.2015 to 31.05.2018

Derzeit gebräuchliche Methoden zur klinischen Schmerzmessung sind nur begrenzt reliabel und valide, sie sind zeitaufwendig und können nur bedingt bei Patienten mit eingeschränkten verbalen Fähigkeiten eingesetzt werden. Wenn eine valide Schmerzmessung nicht möglich ist, kann dies zu stressbedingtem kardiologischem Risiko, zu Über- oder Unterversorgung von Analgetika und zu einer suboptimalen Behandlung von akutem und chronischem Schmerz führen.

Der Fokus dieses Projektes ist daher die Verbesserung der Schmerzdiagnostik und des Monitorings von Schmerzzuständen. Durch die Nutzung von multimodalen Sensortechnologien und hocheffektiver Datenklassifikation kann eine reliable und valide automatisierte Schmerzerkennung ermöglicht werden. Um dieses Ziel zu erreichen, wird durch die Kombination neuer innovativer Methoden der Datenanalyse, der Mustererkennung und des maschinellen Lernens auf Daten eines experimentellen Protokolls eine vielversprechende Strategie der objektiven Schmerzerkennung entwickelt. Biomedizinische, visuelle und Audiodaten werden unter experimentellen und kontrollierten Schmerzapplikationen bei gesunden Versuchspersonen gemessen. Um Merkmale extrahieren und selektieren zu können, werden die experimentellen Daten seriell mit komplexen Filtern und Dekompensationsmethoden vorverarbeitet. Die so gewonnenen Merkmale sind die Voraussetzung für eine robuste automatisierte Erkennung der Schmerzintensität in Realzeit.

View project in the research portal

Active line scan camera systems for fast and high-resolution 3D measurement of large surfaces
Duration: 01.12.2015 to 01.03.2018

As part of the BMBF funding program Twenty20-Partnership for Innovation, a joint project is being carried out with partners from industry and science. The aim of the BMBF project is to develop the technological basis for sensors for high-resolution and highly dynamic 3D detection of objects and surfaces. The Otto von Guericke University sub-project focuses on large surfaces of workpieces from industrial production. The basic idea is to overcome the technological limitations of matrix camera systems, particularly when measuring moving surfaces on conveyor belts or continuous material, by developing line scan camera systems with suitable structured lighting.
This text was translated with DeepL

View project in the research portal

Augmented reality system to support material testing and quality control on industrial plants - data fusion of spatially recorded measured values in the AR application
Duration: 01.02.2016 to 28.02.2018

The cooperation project serves the needs of manual inspection techniques for material inspection and quality assurance on industrial plants. A key objective is to support a human inspector during the inspection using an augmented reality system. The term augmented reality (AR) refers to the computer-aided enhancement of human visual perception of reality by displaying additional virtual information in the inspector's field of vision, e.g. via data goggles. In the context of the application, this additional information consists of measurement results from previous inspections as well as virtual models of the real inspection objects from a database to be developed in-house. In addition, current measurement results with spatial reference to the surface of the test object are to be displayed. The reference source is an optical measuring system, which is linked to the respective inspection device and makes the data available to the AR system for display in real time.
This text was translated with DeepL

View project in the research portal

Mechanisms of nonverbal communication: Emotion recognition based on facial expressions and analysis of head and body postures
Duration: 01.01.2013 to 31.12.2017

Benutzeradaptives Verhalten stellt eine grundlegende Eigenschaft von Companion-Technologien dar. Voraussetzung hierfür sind sensorische Fähigkeiten, die das System in die Lage versetzen, Rückschlüsse auf den Nutzerzustand (Disposition) und weitere situationsbedingte kommunikationsrelevante Parameter aus nonverbalen Signalen zu ziehen. Teilprojekt C3 leistet durch die visuelle Analyse der Gesichtsmimik sowie der Kopf- und Körperpostur/-gestik einen elementaren Beitrag, um eine möglichst reichhaltige systemseitige Repräsentation der Nutzerdisposition abzuleiten. Die zeitliche Analyse der Kopf- und Körpergestik ermöglicht es zudem, Aktionen und Intentionen eines Nutzers zu erkennen oder solche zu prädizieren. Die Modellierung kognitiver Architekturen basierend auf biologischen Prinzipien hilft, universelle Ansätze zur Informationsverarbeitung und der lernbasierten Adaptationsfähigkeit zu entwickeln.

View project in the research portal

Innovatives Konzept zur bildbasierten Kopfposeschätzung und Fahrerzustandserkennung
Duration: 01.03.2014 to 01.09.2017

Dieses Projekt beinhaltet die Entwicklung robuster Ansätze zur bildbasierten Fahreranalyse mit dem Ziel einer Erhöhung der Sicherheit und des Fahrkomforts. Es geht dabei sowohl um die Erkennung als auch die Simulation relevanter Parameter wie Kopfpose, Blickrichtung, Lidschlag und im weiteren Verlauf Mimik. Insbesondere sollen durch Verwendung aktiver sowie Multikameratechnologien sehr robuste Verfahren entwickelt werden, welche den Anforderungen des Einsatzes unter realen Bedingungen gerecht werden. Die bildbasierte computergrafikbasierte Simulation unter vordefinierten Parametern soll weiterhin die Validierung bereits vorhandener Technologien ermöglichen.

View project in the research portal

Kontaktfreie kamerabasierte Messung von Vitalparametern mit verbesserter Störsicherheit
Duration: 01.07.2015 to 01.07.2017

Herzrate,  Atmung  und  Herzratenvariabilität  sind  wichtige  Vitalparameter  des  Menschen.  Momentan vertriebene Geräte zur Messung dieser Parameter verwenden ausschließlich kontaktbasierte Messmethoden. Diese sind mit einigen Nachteilen verbunden. Das  Ziel  des  angestrebten  Forschungsvorhabens  ist  die  Entwicklung  einer  3D-bildbasierten,  kontaktfreien Messmethode, die dem Nutzer maximale Bewegungsfreiheit und maximalen Komfort bietet, robust und schnell funktioniert und einfach zu verwenden ist.

View project in the research portal

Environment detection
Duration: 01.01.2013 to 30.12.2016

The goals of subproject C1 are environment recognition and modeling as well as the intention-based interpretation of gestures of potential users of a companion system. For environment modeling, new methods for multi-object tracking, information fusion and temporal filtering are researched and further developed, based on the Random Finite Sets Theory and the Joint Integrated Probabilistic Data Association Filter, which allow a simultaneous estimation of object existence and object state. The recognition of user gestures is image-based and forms the basis for an intention-based interpretation of the gesture and action sequences using intention reference models. These provide the direct link between all intention hypotheses based on an application context and the fused feature vector from gesture sequences. The hypothesis with the maximum evaluation measure should correspond to the user intention.
This text was translated with DeepL

View project in the research portal

Crowd Behavior Analysis in Video Sequences
Duration: 01.10.2013 to 01.10.2016

The analysis of human activities in crowded scenes is the most challengeable tasks in computer vision. Tracking and understanding individuals actions in dense scenes is a problem till yet not be fully solved due to occlusion between objects.
The new area of interest in computer vision is the crowd behavior analysis and modeling. Broadly speaking, there are two levels of crowd analysis: 1) individual level and 2) global level. At the individual level, the goal is to extract and understand behavior of each moving object in the crowd. At the global level, the goal is to model the behavior of the group as a whole. In both cases, one can perform behavior understanding and anomaly detection by analyzing motion features and characterizing so-called “normal behavior”. In contrast, detecting “anomaly” or “abnormal behavior” refers to the action of locating activities that do not conform to “normal behavior” or fall in its respective labeled class.
In this project we will focus on the modeling of crowd-flow solutions without tracking. After the modeling of crowd behavior, we will be able to detect high-level abnormalities such as traffic jams, crowd of people running amok, etc.

View project in the research portal

Hochaufgelöste Oberflächenforminspektion großflächiger industrieller Oberflächen
Duration: 01.11.2014 to 30.04.2016

Hochwertige Oberflächen sind eine Herausforderung insbesondere bei hochpreisigen Gütern wie z.B. Karosserie-Außenhautteilen für die Automobilindustrie. Systeme für die Oberflächenforminspektion sind in der Lage, kleinste Deformationen zu erkennen. Diese Systeme sind allerdings auf kleine Messbereiche beschränkt.Verfahren zur Verrechnung mehrerer Teilbereiche sind z.B. aus der Geometrievermessung bekannt. Die so zusammengeführten großflächigen Bereiche genügen jedoch nicht den Anforderungen an Genauigkeit und Auflösung, die für eine Oberflächenforminspektion notwendig sind.Ziel des Projektes ist es daher, ein Messsystem zu entwickeln, das die Oberflächenforminspektion auf großflächigen industriellen Oberflächen ermöglicht.

View project in the research portal

Nicht-intrusive intentions-adaptive Interaktionen in HCI-Umgebung
Duration: 01.10.2012 to 30.03.2016

Der Fokus des PhD-Projektes liegt auf der Entwicklung eines nicht-intrusiven bildbasierten Systems zur intentionsbasierten Interpretation von Benutzeraktionen auf der Grundlage von Multi-Modalitäten (z.B. Audio-, Mimik- und Aktionsanalyse), dessen Grundidee unabhängig von der Anwendung möglichst allgemein gültig sein soll.

Da die Interpretation von längeren Benutzeraktionen aufgrund von Benutzerfehlern, ungewöhnlicher Artikulation oder ungewöhnlichen Rahmenbedingungen immer komplexer wird, liegen die Forschungsschwerpunkte in diesem PhD-Projekt einerseits in der nicht-intrusiven Erfassung von Aktionen inklusive der Interpretation, andererseits in der geeigneten Repräsentation des Diskurskontextes und der Implementierung einer Bewertungsstrategie zum bestehenden emotionalen und intentionalen Zustand des Benutzers im Mehrpersonenszenario.

View project in the research portal

3D gesture interaction and fusion of 3D images (GestFus)
Duration: 01.11.2014 to 01.03.2016

The 3Dsensation alliance brings together partners from various scientific and economic fields with different areas of expertise. The aim of this basic project is to develop the foundations for two subject areas that have proven to be particularly relevant and have high synergy potential in the 3Dsensation strategy project:

a) 3D gesture interaction and
b) the fusion of 3D images from different sources (incl. augmented reality).
The Institute for Information and Communication Technology at Otto von Guericke University Magdeburg is working on the scientific foundations and research results in the field of 3D gesture interaction. These topics are not only to be processed and focused on the topics of 3Dsensation, but also prepared in such a way that they can also be understood and implemented by the partners of later R&D projects who have not yet dealt with these topics, or only to a limited extent.
Another aim of the project is to develop and define a set of basic gestures. This is a collection of gestures, e.g. for taking, giving, navigating in rooms, confirming, emergency stop etc., which can be used as universally as possible in various fields of application.
An important aspect is also seen in hand and body movements, which, in the sense of anticipation, allow the recognition of potentially dangerous situations in safe human-machine cooperation.
A demonstrator is to be developed for the most important gestures to validate and illustrate the gesture interaction as a proof of concept, and a similar procedure is to be followed for mimic interaction as for gesture interaction.
This text was translated with DeepL

View project in the research portal

3D sensor principles
Duration: 01.11.2014 to 01.03.2016

As part of the BMBF's Twenty20 Partnership for Innovation funding program, a study on the cross-industry applicability of 3D sensor principles is being carried out for the "3DSensation" alliance. The overall objective of this basic project is to identify cross-technology and cross-sector R&D needs in the field of 3D sensor technology in order to improve full 3D sensing and 3D interaction by machines. This requires a rigorous scientific analysis and evaluation of a wide variety of existing 3D sensor technologies, involving as many partners as possible with a wide range of expertise. Building on this basis, the potential of possible 3D sensor innovations must be analyzed.
In the Otto von Guericke University sub-project, methods for precise and fast 3D surface measurement are to be investigated in particular. The focus is on photogrammetric measurement methods that work with active and passive lighting.
This text was translated with DeepL

View project in the research portal

Mobile object tracking using metaheuristics
Duration: 01.10.2013 to 01.01.2016

This research project is a fund supporting a collaboration between the University Mohammed 5, Morocco and the Otto-Von-Guericke University, Germany. This cooperation is under the framework of a sandwich program, and the topic of the financed research is "Mobile object tracking using metaheuristics". After having successfully integrated the cuckoo search optimization algorithm, which is a recent and highly discussed metaheuristic, combined with the Kalman filter into the task of tracking a single object in a video sequence, we are now aiming for the integration of the modified cuckoo search algorithm in the tracking of multiple moving objects. This should lead to a robust tracker providing accurate real-time performances. The main aim of this research cooperation project is, on the one hand to build a connexion between the Moroccan and the German university, and on the other hand to develop the quality of Moroccan researches and connect the Moroccan research community with the international industry.

View project in the research portal

Tracking-based 3D reconstruction of laminar cracks and crack bridges by evaluating ultrasonic signals
Duration: 01.07.2014 to 01.01.2016

Hydrogen-induced cracking in tanks for media storage represents a significant risk factor for the operation of refineries and chemical plants. The inspection methods currently available for regular inspections are essentially based on individual ultrasonic measurements and a subjective estimate of the surface area of detected cracks. In practice, this means that the tanks are often replaced earlier than is absolutely necessary. The aim of the project is to develop a new technology that enables a three-dimensional reconstruction of hydrogen-induced crack formation. By emitting broadband longitudinal and transverse ultrasonic waves, the exact geometric position of a crack in the material can be determined by triangulation. Using a corresponding software solution, the new technology should also be able to display detected cracks in the material in three dimensions, which even allows statements to be made about crack growth through comparisons with previous measurements and thus leads to a more objective and accurate assessment of the risk factor in refinery operations.
This text was translated with DeepL

View project in the research portal

Automatic recognition of Arabic handwriting
Duration: 01.01.2011 to 31.12.2015

In this thesis, methods for the automatic, segmentation-based recognition of Arabic handwriting are investigated and further developed. Since no reliable segmentation algorithm for Arabic handwriting has yet been established, different segmentation variants are processed one after the other in order to subsequently select the most plausible variant. In addition, for each segmentation variant, the recognized word is compared with a lexicon, which also allows conclusions to be drawn about the correctness of the segmentation and allows some recognition errors to be corrected. Possible procedures for explicit segmentation, feature extraction and classification are compared and implemented. The suitability of common classifiers is also examined and neural networks are implemented to determine the weights of the individual features. This can also be trained using genetic algorithms.
This text was translated with DeepL

View project in the research portal

3Dsensation Strategy phase
Duration: 01.01.2014 to 30.06.2015

As part of the strategy phase of the BMBF funding program "Twenty20 - Partnership for Innovation", work is being carried out on "Research - 3D Information Processing" and "Education". This includes developing the strategy and analyzing the necessary technologies for the precise three-dimensional representation of static and dynamic objects in order to develop such technologies in accordance with the requirements from the areas of need. This leads to the development of a roadmap for the 3D information processing to be developed with a focus on facial and body pose as well as adaptive modeling of the human body.
The other focus includes the design of a transdisciplinary Master's degree course and a graduate research college, for example, as well as the further development of training programs in the field of vocational education. The Master's course will focus on topics relating to human-machine interaction, e.g. "Ambient Intelligence" or "Interactive Assistance Systems".
This text was translated with DeepL

View project in the research portal

Bildbasierte Emotionserkennung und -quantifizierung auf der Grundlage der Datenfusion
Duration: 01.05.2012 to 01.05.2015

Analog zur Mensch-Mensch-Kommunikation wird die Mensch-Maschine-Interaktion als Interaktion zweier Agenten betrachtet, die kooperativ ein Problem lösen, Wünsche und Ziele ihres Gegenübers erkennen, sich an sie anpassen sowie sich des Diskurskontextes und seiner Regeln bewusst sind. Der Versuch diese Aspekte von Interaktionen explizit zu erfassen und zu modulieren, sind die Aufgaben einer adaptiven Benutzungsschnittstelle. Dabei wird die Schnittstelle durch Wissen über den momentanen Status, das Ziel und den emotionalen Zustand des individuellen Benutzers dynamisch angepasst. Hierzu reicht die typische Verarbeitungskette von der Merkmalsfindung und -extraktion bis zur Emotionsklassifikation und -quantifizierung. Die Kombination von Bilddaten mit Sprachdaten zur Segmentierungserfassung zwecks Mimikerkennung im Mehrpersonenszenario ist hierbei ein viel versprechender neuartiger Ansatz, der nicht nur eine robuste Klassifikation von unterschiedlichsten Arten von statischen und dynamischen Gesichtsausdrücken, sondern auch die Echtzeit-Adaption der Benutzungsschnittstelle an die aktuellen Benutzeraktionen erlaubt.

View project in the research portal

Radar-Tracking und Klassifizierung für Verbesserung der Sicherheit im Straßenverkehr
Duration: 01.08.2011 to 01.01.2015

Die Zielsetzung diese Projektes ist die Entwicklung eines innovativen Sicherheitssystems zur Verbesserung des Schutzes von den so genannten ungeschützen Verkehrsteilnehmern (Fußgänger, Radfahrer). Erreicht werden soll dies in erster Linie über den Einsatz eines neu entworfenen 24 GHz Radarsensors, der neue Maßstäbe in puncto- Situationsanalyse aufbietet und gleichzeitig die bisherigen Fahrerassistenzfunktionen abdeckt. Das System wird für Untersuchungs- und Testzwecke auf zwei Versuchsträgern integriert. Diese besitzen zusätzlich Aktoren zur automatischen Kontrolle der Fahrzeugdynamik, um entsprechende Manöver zur Unfallvermeidung auszuführen (z.B. automatisches Bremsen und Ausweichen). Bevor die ersten Tests stattfinden können, erfolgt jedoch eine gezielte Unfallanalyse und die Erarbeitung adäquater Algorithmen zur Umgebungs- und Fußgängererkennung. In Betracht gezogen wird ebenfalls die Erweiterung des System mit anderer Sensorik (Kamera, LIDAR), um mittels Verfahren der Datenfusion die Ergebnisse zu verbessern bzw. zu überprüfen.

View project in the research portal

Companion-Technologie in automotiven Anwendungsszenarien zur Werkerassistenz mittels mobiler Augmented Reality
Duration: 01.05.2012 to 31.12.2014

In diesem interdisziplinären Verbundprojekt zwischen Informationstechnik (IESK), Allgemeiner Psychologie (Uulm) und Anwender  (VW und IFF) besteht das Ziel in der Entwicklung und Erprobung von Verfahren zur möglichst natürlichen Interaktion mit Hilfe nicht-intrusiver Handgesten und der damit verbundenen Interaktionserkennung. Die Gestenerfassung erfolgt unter Einbeziehung des Körper- und Umgebungskontextes, ihre Klassifikation durch Fusion von statischen und dynamischen Gesten, die Erkennung von Gestiksequenzen mittels bildbasierter Verfahren. Dafür soll ein robustes prototypisches Sys-tem auf Grundlage der erzielten Ergebnisse im Rahmen des Teilprojektes C1 des SFB/TR 62 im Kontext der geplanten Anwendungsdomänen entwickelt, modifiziert und validiert werden. Die Auswahl der Gesten, Geräte und weiterer Implementationsentscheidungen basiert u.a. auf psychologischen Erkenntnissen und wird mittels experimenteller Untersuchungen abgesichert; die Erprobung findet über Nutzerstudien statt. Das Anwendungsszenario wird zunächst prototypisch als Demonstrator am Fraunhofer IFF aufgebaut, damit notwendige Detailentscheidungen zur Im-plementierung auf Basis einer quasi-realistischen Arbeitsumgebung getroffen werden können.

View project in the research portal

Further development and systematic validation of a system for automated pain detection based on mimic and psychobiological parameters
Duration: 01.07.2011 to 30.11.2014

The objective assessment of subjectively experienced multidimensional pain is a problem that has not yet been adequately solved. Verbal methods (pain scales, questionnaires) and visual analog scales are commonly used in clinical pain measurement in particular, but these are not very reliable and valid for mentally impaired people. Expressive expressions of pain and/or psychobiological parameters can offer a solution. Such coding systems exist, but they involve a great deal of effort or have not been sufficiently evaluated in terms of test theory. Based on previous experience, a system for automatic pain recognition from visual and biomedical data is to be further developed, its test-theoretical quality determined and its performance optimized. For this purpose, test subjects will be exposed to painful stimuli under controlled conditions and mimic and psychobiological parameters will be used for measurement. Various methods of image processing and pattern recognition for facial analysis will be used and further developed to obtain the facial expression parameters. Based on the static and dynamic facial features from temporal image sequences and psychobiological data, pain-relevant features are to be identified and an automatic system developed with which pain can be measured qualitatively and quantitatively.
This text was translated with DeepL

View project in the research portal

Automatisierte Tankdachprüfung
Duration: 01.10.2012 to 01.04.2014

Hauptziel des geplanten Vorhabens ist es, ein neues autonom arbeitendes Messsystem zu entwickeln, um Tankdächer auf Raffinerien oder chemischen Anlagen mit dem Anspruch einer 100% Kontrolle auf Korrosionsabtrag zu prüfen.
Wesentlich ist die Entwicklung einer Technologie, die den Einsatz eines speziellen Roboters für eine flächendeckende Tankdachdankprüfung mit Korrosionsabtragsmessung ermöglicht. Der Roboter soll sich autonom auf dem Tankdach bewegen können und damit einen menschlichen Prüfer zur Verringerung des vorhandenen Gefahrenpotentials ersetzen. Der Roboter wird dazu mit verschiedenen Sensoren ausgestattet. Ein Ultraschallmesssystem wird an der aktuellen Position jeweils die Wanddicke des Daches messen. Ein optisches System und auf dem Dach platzierte Landmarken sollen dem Roboter ermöglichen, seine Position selbst zu bestimmen, wobei er während des Abfahrens eine virtuelle Karte mit den Wanddicken generiert. Zusätzliche Sensoren können wie bei modernen PKWs für eine Kollisionserkennung verwendet werden.

View project in the research portal

Umgebungserkennung /Environment Perception
Duration: 01.01.2009 to 31.12.2012

Teilprojektziele sind die Umgebungserkennung, dynamische Umgebungsmodellierung und Basisklassifikation von Gesten potentieller Nutzer des Companion-Systems. Zur Umgebungserfassung werden Methoden zur Multi-Sensorfusion, Informationsfusion und zeitlichen Filterung basierend auf der Finite Sets Theorie erforscht und weiterentwickelt, die eine gleichzeitige Schätzung der Objektexistenz und des Objektzustandes erlauben. Die nicht-intrusive Erkennung von Nutzergesten erfolgt bildbasiert unter Nutzung von Hidden-Markov-Modellen.

View project in the research portal

Intentionsbasierte Interpretation von Gestensequenzen
Duration: 01.07.2009 to 31.12.2011

Die automatische Erkennung der Gestik des Nutzers hat in der Mensch-Computer-Interaktion bei der Realisierung von Interaktionsaufgaben einen wachsenden Stellenwert. Zusammen mit einem adaptiven Plan und den aktuellen Aktionen des Benutzers, kann eine Bestimmung der Intentionen des Benutzers bezüglich seiner weiteren Bedienschritte/Interaktion ermöglicht werden.
Im Rahmen dieses Forschungsprojektes werden die Kopfregion, Gesichtsregion, Hände und Arme des Nutzers stereophotogrammetrisch erfasst, um daraus mittels bildbasierter Verfahren Bewegungen, Gestiken und Kopfhaltungen zu erkennen. Vorteil dabei ist, dass der Anwender nicht mit umständlichen Eingabegeräten hantieren muss, sondern durch die Bewegung seines Körpers intuitiv mit der Maschine interagiert. Verstärkt sollen dabei zweihändige Gesten untersucht und die damit verbundenen gestenbasierten Interaktionstechniken erweitert werden. Zur Erzeugung dieser Interaktionstechniken kann hier auf einfache dynamische und statische Gesten für die Interaktionsaufgaben in Verbindung mit einem adaptiven Plan zurückgegriffen werden. Als Erprobungsdomäne können u.a. Szenarien aus dem Bereich der Gebärdensprache oder von Stadtbesichtigungen dienen.

View project in the research portal

Pilotstudie zur Entwicklung eines Systems zur automatisierten Schmerzerkennung in der postoperativen Phase
Duration: 01.01.2008 to 31.12.2008

Aufgabe des Projektes ist es, die kameragestützte automatische Analyse von schmerzbedingten Veränderungen des Antlitzes auf ihre Praktikabilität zu untersuchen. Schmerz ist ein regelmäßig im postoperativen Verlauf auftretendes Ereignis, dass durch personalaufwendige Untersuchungsmethoden oft unzureichend oder verspätet erkannt wird und eine ausgeprägte faciale Reflektion aufweist. Dafür bietet die Bildverarbeitung leistungsfähige Algorithmen zur Gesichtserfassung, Merkmalsextrahierung wie auch Mimikanalyse. Im Projekt sollen diese Algorithmen in einem ersten Schritt an Probanden untersucht und in Hinsicht auf Erkennung und Quantifizierung von Schmerzen weiterentwickelt werden. Es erfolgt die Bildaufnahme und Mustererkennung vorerst in farbigen Raum-Zeit-Bildern vom menschlichen Gesicht unter Schmerzen. Dabei werden die Probanden einem definierten Schmerzreiz ausgesetzt und die Schmerzintensität mit klinischen Methoden gemessen. Es werden geeignete Gesichtsmerkmale zur Bewertung der individuellen Schmerzintensität durch die Einbeziehung von Medizinern und beim Training des Systems parallel erfasste biomedizinische Daten festgelegt. Basierend auf der Merkmalsauswahl erfolgt die Klassifikation auf der Grundlage der Merkmalsänderungen, die durch Muskelaktivität hervorgerufen werden.

View project in the research portal

Last Modification: 19.04.2023 -
Contact Person: Webmaster