Um stets innovativ zu bleiben und an neuesten Technologien mitzuarbeiten, sehen wir es als selbstverständlich an, uns auch in der Forschung zu engagieren. Auf dieser Seite gewinnen Sie einige Einblicke in unsere aktuellen Forschungsprojekte, soweit sie schon veröffentlicht werden können.

SOLIDE

BMBF-Förderung
Sprachgesteuerte, kontextuelle Lagebildinformation für Stäbe und Einsatzkräfte im Bevölkerungsschutz
Dauer: 36 Monate
Kickoff: August 2017
Weitere Consortium Mitglieder:

Bei großen Schadenslagen, Katastrophen und Notfällen werden Einsatzkräfte mit vielen Informationen aus unterschiedlichen Quellen konfrontiert. Um hieraus rasch und aktuell ein Lagebild zu halten, müssen diese analysiert, verarbeitet und nutzerspezifisch zur Verfügung gestellt werden, ohne die Einsatzkräfte von ihren Aufgaben abzulenken.

Sprache als natürliches Kommunikationsmittel ist für diese Anwendung perfekt geeignet, wenn sie mit innovativer Technologie gekoppelt wird. Aristech hat sich in dieser Branche längst einen Namen gemacht und so fiel denn auch die Wahl der Projektpartner im Förderprojekt SOLIDE auf die deutsche Softwareschmiede aus Heidelberg. Als einziger unabhängiger europäischer Anbieter entwickelt Aristech Spracherkennung (ASR), Sprachsynthese (TTS) und spezielle semantikbasierte Sprachanalysetools mit Algorithmen künstlicher Intelligenz.

Mit dem SOLIDE-Projekt fördert das Bundesministerium für Bildung und Forschung (BMBF) im Zuge der Bekanntmachung „KMU-innovativ: Forschung für die zivile Sicherheit“ des BMBF im Rahmen des Programms „Forschung für die zivile Sicherheit“ der Bundesregierung eine zuverlässige Unterstützung für Einsatzkräfte im Katastrophenschutz.

Projekt- und Forschungsdetails:

Mit den Ergebnissen von SOLIDE werden Anwendungen zur Lagebilddarstellung durch eine Sprachsteuerung und eine innovative Datenintegration erweitert. Da relevante Informationen durch gesprochene Ein und Ausgaben zeitnah zugänglich gemacht werden können, tragen sie zur effizienten Unterstützung aller Einsatzkräfte in der Gefahrenabwehr bei. Dabei soll das System in vorhandene Stabs- und Führungssysteme integrierbar sein, um bestehende Lagebilddarstellungen optimal zu nutzen.

Im Projekt SOLIDE soll ein neuer Ansatz für den effizienten Zugriff auf ein integriertes Lagebild erarbeitet werden. Im Fokus steht hierbei die Nutzung einer sprachbasierten Steuerung sowie innovativer Datenintegrationstechniken. Dazu werden alle relevanten Daten, wie beispielsweise Sensordaten, Einsatztagebücher oder geografische Daten in ein Lagebild integriert. Durch die Erforschung fachspezifischer Algorithmen zur Filterung des relevanten Wissens und geeigneter Verknüpfungsverfahren werden die Daten nutzbar und abrufbar vorgehalten. Die zu erarbeitenden Benutzerschnittstellen und Algorithmen zur Beantwortung von Fragen ermöglichen eine sprachliche, ablenkungsfreie Abfrage der Informationen. Das Demonstrationssystem wird in mehreren Übungen mit Anwendern optimiert und evaluiert.

Da relevante Informationen durch gesprochene Ein- und Ausgaben zeitnah zugänglich gemacht werden können, tragen sie zur effizienten Unterstützung aller Einsatzkräfte in der Gefahrenabwehr bei. Dabei soll das System in vorhandene Stabs- und Führungssysteme integrierbar sein, um bestehende Lagebilddarstellungen optimal zu nutzen. Weitere Infos finden sich auf https://www.sifo.de/files/Projektumriss_SOLIDE.pdf .

Die vier Projektpartner PRO DV, Aristech, Universität Paderborn und Universität Bonn arbeiten ergebnisorientiert zusammen, um das Projekt innerhalb von knapp drei Jahren erfolgreich abzuschließen.

Nach dem EU-Förderprojekt GAMBAS bedeutet SOLIDE für Aristech ein weiterer Beweis der Integrationsfähigkeit ihrer High End Technologie in innovative Anwendungsfelder der Zukunft.

Das Gambas Project

Gambas Logo
Generic Adaptive Middleware for Behavior-driven Autonomous Services
Dauer: 36 Monate
Kickoff: Februar 2012
Weitere Consortium Mitglieder:

Flagge der Europäischen Union

Das GAMBAS Projekt war ein auf drei Jahre angelegtes europäisches Forschungsprojekt, das im Februar 2012 begonnen hat. Es wurde von der Europäischen Kommission im Rahmen des 7. Forschungsrahmenprogramms im Bereich des Internet of Things unter Grant Agreement Nr. 287661 co-finanziert.

Das Ziel des GAMBAS-Projektes war die Entwicklung einer innovativen und adaptiven Middleware. Sie ermöglicht es, vom Nutzerverhalten gesteuerte Dienste so zu nutzen, dass diese sich automatisch an den Nutzer anpassen. Besonderes Augenmerk lag darauf, gleichzeitig absolute Datensicherheit zu gewährleisten – ein sehr aktuelles Thema.

Aristech hatte in diesem spannenden und ambitionierten Projekt die Aufgabe, aus dem auditiven Kontext und Input des Benutzers Informationen über dessen Umgebung und Reiseabsichten zu gewinnen. So wurden durch Verhalten und Hintergrundgeräusche beispielsweise der Standort des Nutzers abgeleitet und ihm entsprechende Zusatzinformationen bereitgestellt.

Erste Phase

In der ersten Projektphase wurde ein tiefer Blick in die Ebene der Signalverarbeitung geworfen, um die sogenannte Voicetagging Funktion zu implementieren. Hierzu hat Aristech ein Tool entwickelt, das ein Audiosignal soweit reduziert, dass es zwar minimalen Speicherplatz erfordert, jedoch gleichzeitig alle relevanten Informationen aufrecht erhalten werden, um Nähen zu anderen solcher reduzierten Audiosignale berechnen zu können. Die reduzierte Datei nennen wir den Audio-Fingerabdruck. Anwendung findet dieser, indem der User zum Beispiel einen von ihm oft besuchten Ort mit einer Audioeingabe markiert und sich dann zu einem späteren Zeitpunkt wieder dorthin navigieren lassen kann, indem er die entsprechende Audioeingabe wiederholt. Vorteile des Voicetaggings sind unter anderem der geringe Rechenaufwand und die Bewahrung der Sicherheit privater Daten dadurch, dass keine Serverinteraktion benötigt wird.

Zweite Phase

In der zweiten Projektphase entwarf Aristech hierzu die sogenannte Noisemap, die die Kategorisierung verschiedener Umgebungen anhand ihres auditiven Hintergunds ermöglichte. Außerdem entwickelte Aristech dabei einen robusten, ressourceneffizienten Spracherkenner, welcher rein auf dem mobilen Endgerät, also ohne Serverinteraktion, die Bedienung der Applikation per Spracheingabe ermöglicht.