Künstliche Intelligenz in der angewandten Forschung

Der Einsatz der Methoden Künstlicher Intelligenz führen aktuell zu einem Paradigmenwechsel in der angewandten Forschung. Es werden Lösungen möglich, die vorher nicht denkbar waren. Auf diesen Seiten stellen wir Ihnen unsere KI-Projekte vor.

Künstliche Intelligenz am Fraunhofer IIS

Maschinelles Lernen, mathematische Optimierung, neuronale Netze, Deep Learning – die Methoden der Künstlichen Intelligenz erschließen uns ganz neue Möglichkeiten: ein Paradigmenwechsel für die angewandte Forschung.

Warum wir Künstliche Intelligenz nutzen? Durch den Einsatz von KI können wir Lösungen entwickeln, die vorher so nicht denkbar waren. Aufbauend auf unserer langjährigen Erfahrung in der Mikroelektronik, Sensorik und Datenanalyse mit zahlreichen ausgezeichneten Entwicklungen, setzen wir Künstliche Intelligenz in allen unseren Forschungsbereichen ein. So entwickeln wir neue Technologien und Services, um den drängenden Herausforderungen der Industrie, Wirtschaft und Gesellschaft mit smarten und sichereren Lösungen zu begegnen.

Was unsere Arbeit auszeichnet? Unser herausragendes Know-how in den einzelnen Spezialgebieten kombinieren wir mit unserer ganzheitlichen Sicht auf die Nutzung von KI – von der Hardware und Sensorik über die Datenkommunikation und Datenanalyse bis hin zur Optimierung einzelner Anwendungen und ganzer Geschäftsprozesse.  

Die wichtigsten Begriffe rund um Künstliche Intelligenz kurz erklärt

Definitionen der wichtigsten Fachbegriffe der Künstlichen Intelligenz

Was ist Künstliche Intelligenz? Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich damit beschäftigt, Maschinen mit Fähigkeiten auszustatten, die intelligentem (menschlichem) Verhalten ähneln. Dies kann mit vorprogrammierten Regeln oder durch Maschinelles Lernen erreicht werden.

Was ist erklärbare KI? Entscheidungen aus Black-Box-Modellen, wie insbesondere der tiefen künstlichen neuronalen Netze, sind für Menschen nicht nachvollziehbar. Die erklärbare KI sucht nach Möglichkeiten, die versteckte Logik oder die einzelnen Ausgaben besser nachvollziehbar oder erklärbar zu machen.

Was ist Maschinelles Lernen? Als Maschinelles Lernen, häufig auch Machine Learning genannt, werden Verfahren bezeichnet, in denen ein Algorithmus bzw. eine Maschine Gesetzmäßigkeiten aus Datenbeispielen lernt bzw. durch Wiederholen einer Aufgabe lernt, diese bezüglich eines Gütekriteriums immer besser auszuführen.

Was ist mathematische Optimierung? Die mathematische Optimierung zielt darauf, für ein konkretes Planungsproblem anhand eines gewählten Bewertungskriteriums alle Optimierungspotentiale zu erkennen und aus der Menge der möglichen Lösungen die beste Lösung auszuwählen.

Dabei kann es um eine Maximierungs- oder Minimierungsfragestellung gehen, wie etwa die Maximierung der Produktionsleistung oder die Minimierung des Energieverbrauchs. Die mathematische Optimierung berücksichtigt dazu alle Nebenbedingungen, die erfüllt sein müssen, damit die Lösung überhaupt real umgesetzt werden kann (z.B. Sicherheitsbedingungen oder logistische Abhängigkeiten etc.).

Methodisch geht die mathematische Optimierung dabei folgendermaßen vor: Im ersten Schritt wird das konkrete Planungsproblem in ein mathematisches Modell überführt, um im zweiten Schritt mit effizienten algorithmischen Verfahren die beste Lösung für das gewählte Optimierungsziel herzuleiten. Das Ergebnis wird anschließend wieder in die Sprache des Anwenders zurückübersetzt, so dass er die erhaltene Lösung prüfen und in der Praxis implementieren kann.

Was ist Neuromorphe Hardware? Sprechen Expertinnen und Experten von Neuromorpher Hardware, so meinen sie Computer oder einzelne Bestandteile eines Computers, die dem Gehirn nachempfundene neurologische oder künstliche neuronale Netze nachbilden. Dazu nutzen sie hochgradig vernetzte parallele synthetische Neuronen und Synapsen.

Diese Hardwaregestaltung ist um ein Vielfaches besser geeignet, tiefe neuronale Netze (DNNs, Deep Neural Networks) zu rechnen, als Computer mit einer klassischen Von-Neumann-Architektur.

Was sind neuronale Netze? Künstliche neuronale Netze sind eine Basis für Maschinelle Lernverfahren nach dem Vorbild der Nervenzellenvernetzung im Gehirn. Sie bestehen aus Datenknoten und gewichteten Verbindungen zwischen diesen. Maschinelle Lernverfahren realisieren Änderungen verschiedener Parameter im Netz und können es somit auf eine gegebene Aufgabenstellung optimieren.

Was ist Deep Learning? Mit »Deep Learning« werden neuronale Netze mit stark erhöhter Anzahl von Ebenen bezeichnet, mit denen man in neue Problemklassen vorstoßen konnte.

Was ist schwache Künstliche Intelligenz? Schwache künstliche Intelligenz ist in der Lage, eine ganz bestimmte Aufgabe besonders gut zu beherrschen, z.B. Schach spielen, das Erkennen von Texten oder Auswerten von Bildern sowie das Finden von Gesetzmäßigkeiten und Mustern in großen Datensätzen. Aufgaben die über diese Spezialaufgabe hinaus gehen, beherrscht diese Form der künstlichen Intelligenz nicht. Künstliche Intelligenz, die heute zum Einsatz kommt, zählt zur Domäne der schwachen KI.

Was ist starke Künstliche Intelligenz? Starke KI, auch generelle KI genannt, bezieht sich auf eine maschinelle Intelligenz, die über eine menschenähnliche kognitive Intelligenz verfügt und damit etwa Transferleistungen oder mehrere Aufgaben sinnvoll aufeinander abgestimmt miteinander verbinden kann. Es ist unter Expertinnen und Experten strittig, ob eine solche starke Künstliche Intelligenz je entwickelt werden kann.

Institutsweite Projekte des Fraunhofer IIS im Bereich KI

Neue Lösungen durch KI

 

ADA Lovelace Center for Analytics, Data and Applications

Das ADA Lovelace Center stellt eine einzigartige Forschungsinfrastruktur zur Vernetzung von Forschung und Wirtschaft in Bayern dar. Methoden, Verfahren und Kompetenzen aus den Bereichen Data Analytics und KI werden für konkrete Fragestellungen aus der Praxis eingesetzt und somit auch weiterentwickelt. Durch eine enge Verbindung und neuartige Kooperationsformate zwischen Industrie und Forschung wird Unternehmen der Zugang zu umfassender KI-Expertise erleichtert und es entsteht schnell ein konkreter Nutzen, z. B. durch eine nachhaltige Verbesserung der Geschäftsprozesse oder eine höhere Entscheidungsqualität.

Zum ADA Lovelace Center

 
 
Foto zum Projekt ADA-Center
© dragonstock - Fotolia.com

SNKI: Sensornahe KI

Künstliche Intelligenz hilft uns, große Mengen von Daten auszuwerten. Doch sind wirklich immer all diese Daten notwendig? Sensornahe KI sorgt dafür, dass der bereits Sensor eine objektive Bewertung der Qualität und des Informationsgehalts der Daten vornehmen kann, die er verarbeitet. Im Sinne der Datensparsamkeit hilft KI nahe am Sensor, dass nur die Daten, die wirklich von Nutzen sind, ins System gelangen, und damit für eine deutlich höhere Qualität der tatsächlich erhobenen Daten.

Mehr über sensornahe KI

© Fraunhofer IIS/Udo Rink

Neurmorphe Hardware

Neuromorphe Hardware sind spezialisierte Schaltungen zur effizienten Berechnung von KI-Algorithmen. Sie stellen damit einen hochpotenten Lösungsansatz für die Verwirklichung von KI in vielen verteilten und stromsparenden Knoten dar, etwa im Internet of Things (IoT) oder dem autonomen Fahren. Neuromorphe Hardware hilft nicht nur dabei, Strom und Kosten zu sparen, sondern auch die Latenzzeiten bei der Signalverarbeitung deutlich verkürzen.

Mehr über neuromorphe Hardware

Symbolbild - Neuromorphe Hardware
© zapp2photo - stock.adobe.com

Weitere KI-Projekte des Fraunhofer IIS nach Forschungsbereichen

Wir nutzen und erweitern die Potentiale Künstlicher Intelligenz für eine Vielzahl von Branchen und Anwendungsfeldern.

Audio und Medientechnologien

  • Im Projekt KISS erforschen wir zusammen mit der Friedrich-Alexander-Universität Erlangen-Nürnberg neue Entwicklungswerkzeuge, um KI-basierte Algorithmen der Signalverarbeitung zu verbessern und dann computerunterstützt in hocheffiziente Implementierungen zu überführen. Mit unserer Arbeit tragen wir dazu bei, Entwicklungszeiten deutlich zu verkürzen sowie Optimierungen und Neuentwicklungen von Produkten und Dienstleistungen für Mobilität, Kommunikation und Unterhaltung zu erleichtern. Unsere Forschungsergebnisse werden wir über die universitäre Lehre und in Form industrieller Weiterbildung an alle relevanten Interessensgruppen weitergegeben.

  • Zusammen mit dem Fraunhofer IAIS entwickeln wir einen Sprachassistenten, der nicht nur europäische Standards der Datensicherheit gerecht wird, sondern auch die Qualität der Mensch-Maschine-Kommunikation auf eine neue Stufe hebt. Die semantischen Fähigkeiten werden weit über das Können bisheriger Systeme aus den USA oder dem asiatischen Raum hinausragen. Dadurch verbessern wir die Möglichkeiten der Mensch-Maschine-Interaktion via Sprache und sorgen dafür, dass Unternehmen Sprachassistenten mit voller Datensouveränität und unter Einhaltung europäischer Datenschutzstandards nutzen können.

Entwicklung Adaptiver Systeme

  • Wir begleiten Deutschland ins KI-Zeitalter: Gemeinsam mit anderen führenden Initiativen im Bereich KI beteiligen wir uns an AI4Germany, um die lokale Wirtschaft sowie die Gesellschaft insgesamt in Deutschland aktiv bei der Anwendung von Künstliche Intelligenz zu unterstützen.

  • Um ein produzierendes Unternehmen zukunftsweisend auszurichten, sind neue Konzepte nötig, mit denen die rasant zunehmende Digitalisierung und Vernetzung von Prozessen gemeistert werden können. Dabei steht insbesondere die automatische Analyse von Mess- und Prozessdaten zur intelligenten Zustandsüberwachung sowie Qualitätssicherung im Fokus. Denn schon heute werden in Unternehmen unzählige Daten erfasst, jedoch oftmals nicht umfassend ausgewertet. Mit einer effizienten Strukturierung, selbstlernenden Systemen sowie neuartigen Big-Data- und KI-Ansätzen können aus Potenzialen strategische Wettbewerbsvorteile werden.

  • Die Industrie nutzt Funksysteme seit Langem in ganz unterschiedlichen Bereichen. Für zukunftsweisende Anwendungen wie die Zusammenarbeit mobiler Roboter ist die Drahtloskommunikation sogar eine Schlüsseltechnologie. Ihre wachsende Bedeutung auch für kritische Industrieprozesse setzt aber eine hohe Verfügbarkeit und Zuverlässigkeit von Funksystemen unbedingt voraus, die heute oftmals noch nicht gegeben ist.

    Durch Methoden des Maschinellen Lernens ist es möglich, sich anbahnende Systemausfälle zu erkennen und zu vermeiden – unabhängig von der Komplexität der Systeme bzw. der verwendeten Funktechnologie.

  • Die Erfassung von Daten an Maschinen und Anlagen erzeugt immer größere Datenmengen. Um diese effizient zu nutzen, unterstützt unser Forschungsbereich Entwicklung Adaptiver Systeme EAS Kunden bei der Entwicklung intelligenter Sensoren, die dezentral direkt an den Anlagen die Vorverarbeitung der Informationen übernehmen. Um die Analyse-Hardware weiter zu optimieren, werden auch immer öfter Algorithmen aus dem Bereich der Künstlichen Intelligenz integriert. Ihre optimale Ausführung setzt allerdings besonders leistungsfähige, flexible und energieeffiziente Elektronik voraus. Deshalb nutzen wir für die Hardware-Entwicklung neuartige Konzepte und Advanced-Packaging-Methoden – bis hin zu modularen Aufbauten mit Chiplets, die eine Einbindung individueller Baugruppen ermöglichen. Mit »Intelligent IP« bietet der Forschungsbereich EAS außerdem eine Lösung für die Automatisierung des analogen neuromorphen Hardware-Designs. Zugeschnittene Generatoren ermöglichen dabei die schnelle und zuverlässige Generierung von Baublöcken für Schaltplan und Layout, die den Entwurf deutlich beschleunigen.

  • Im Projekt KIKiS – »Künstliche Intelligenz – Kompetenzen und Innovationspotential in Sachsen« untersuchten unser Forschungsbereich Entwicklung Adaptiver Systeme EAS in Dresden zusammen mit der Technischen Universität Dresden die Bedarfe und Anforderungen für die Entwicklung und den Einsatz von KI in Unternehmen. Die Studie, die im Rahmen dieser Untersuchung entstand, können Sie sich bei uns herunterladen. Sie enthält Empfehlungen für Unternehmen und Handlungsoptionen, um Sachsen zu einer starken KI-Region zu entwickeln.  

Entwicklungszentrum Röntgentechnik EZRT

  • Wir setzen auf intelligentes Produktionsmonitoring und intelligente Produktionsüberwachung durch Röntgentechnik (2D und Computertomographie). Dadurch erkennen wir frühzeitig Abweichungen vom optimalen Produktionsprozess und regeln den Prozess derart, dass die vorgegebene Bauteil- bzw. Produktqualität stets erreicht wird und somit kein Ausschuss entsteht. Eine ausschussfreie Produktion steigert die Ressourceneffizienz, reduziert die Kosten und schont die Umwelt.  

  • Wir setzen KI-Methoden ein, um Röntgenbilder von Materialströmen (Erze aus Bergwerken, Recyclingmaterial etc.) zu analysieren und auszuwerten. Auf dieser Basis wird dann eine Sortierentscheidung getroffen oder der Wert des Materialstromes berechnet. 

  • Durch den Einsatz dreidimensionaler, zerstörungsfreie Monitoring-Systeme können wir Pflanzen möglichst vollständig, präzise und unbeschadet erfassen. Künstlicher Intelligenz klassifiziert und analysiert dann die verschiedenen Pflanzenstrukturen. Auf dieser Basis können wir Erträge und Stressresistenzen der Pflanzen unter unterschiedlichen klimatischen Bedingungen prüfen.

Kommunikationssysteme

  • Um autonomes Fahren sicher zu machen, braucht das Fahrzeug absolut verlässliche Technologien, die es ihm ermöglichen, die gegebene Verkehrssituation und die eigene Verortung darin, unmittelbar und präzise zu erfassen. Zusammen mit unseren Projektpartnern entwickeln wir im Auftrag der Bundesregierung die leistungsstarke, energieeffiziente Hardware-Plattform »KI-FLEX« und das dazugehörige Software-Framework für autonomes Fahren. »KI-FLEX« wird unter Zuhilfenahme von Künstlicher Intelligenz Daten von Laser-, Kamera- und Radarsensoren im Auto zuverlässig und schnell verarbeiten und zusammenführen.

Lokalisierung und Vernetzung

  • Im Zuge der Digitalisierung entstehen immer mehr Daten. Wir setzen KI-Methoden wie Maschinelles Lernen ein, um aus dieser wachsenden Informationsmasse weiterhin die richtigen Schlüsse zu ziehen. Mit Hilfe der KI erkennen wir Gesetzmäßigkeiten und Muster in den Daten und nutzen diese, um nicht nur die Sensorik zu optimieren, sondern auch ganze Prozesse.

  • Im Forschungszentrum IoT-COMMs forschen und entwickeln wir für vernetzte, agile und mobile Produktionssysteme und Anwendungen für das autonome Fahren. Dafür kombinieren wir die Basistechnologien Vernetzung, Lokalisierung und Informationssicherheit und sorgen durch den Einsatz von KI für eine lernende, kognitive Sensorik.
    Das Forschungszentrum IoT-COMMs ist Teil des Fraunhofer-Clusters of Excellence Cognitive Internet Technologies (CCIT).

  • Höhere Qualität und Flexibilität in der Montage: Zur Unterstützung manueller Arbeitsprozesse in der Montage entwickeln wir kognitive Sensoren, die als Aufsatzmodul auf handgeführte Werkzeuge gesteckt werden können. Sie erfassen z.B., ob eine Schraube an der richtigen Stelle verschraubt wurde. Durch Machine Learning ermöglichen wir die Integration intelligenter Werkzeuge in die Produktion.

  • Im Projekt »R2D – Road to Digital Production« statten wir Werkstücke mit Smart-Production-Tags aus. Das Werkstück erkennt damit eigenständig Prozessschritte, protokolliert diese und steuert sie in Abstimmung mit den anderen Werkstücken. Dadurch werden klassische Produktionsabläufe dynamisiert und dezentralisiert.

  • Durch smarte Objekte ermöglichen wir intelligente und transparente Prozesse für die lernende Produktion und Logistik. Process Mining und Machine Learning ermöglichen es den smarten Objekten Prozesse bis runter zu einer Losgröße 1 selbst zu steuern.

Smart Sensing and Electronics

  • Im Bereich Affective Sensing bzw. Affective Computing arbeiten wir an der maschinellen Erfassung, Interpretation und Verarbeitung menschlicher Emotionen und Affekte. Durch die Weiterentwicklung sensorischer und algorithmischer Technologien können wir physiologische Reaktionen, die durch Gemütserregungen und Stimmungen hervorgerufen werden, in Echtzeit erfassen. Hierzu zählen zum Beispiel die Mimikerkennung oder auch die Interpretation von Biosignalen.

  • Ziel unserer Forschung ist es, neuartige Methoden zum erklärbaren Maschinellen Lernen in Verbindung mit Prädiktion und Präskription (Vorhersage und Erklärung) in den Anwendungsdomänen Medizin und Automotive zu schaffen. Dazu gehören Verfahren, die zum einen das Training und die Arbeitsweise von Deep Neural Networks (DNNs) transparent machen und zum anderen die inhaltliche Validierbarkeit der Prognosemodelle verbessern sollen. Ein weiterer Fokus liegt auf dem Aspekt der Generalisierbarkeit der Machine-Learning-Systeme, d.h. in der Entwicklung adaptiver Verfahren, die mit patientenindividuellen Schwankungen der physiologischen Parameter (bspw. beim mobilen Einsatz im Sport) und unter variierenden Bedingungen (»in-the-wild«) umgehen können.

  • Das Projekt ADELIA ist Teil eines neuen Konzepts der deutschen Forschungsförderung zum Thema „Energieeffizientes KI-System“.  

    Der Energieverbrauch von heutigen KI-Systemen ist für viele Anwendungen, besonders für batteriebetriebene Mobilgeräte, viel zu hoch. Gemeinsam mit unseren Kolleginnen und Kollegen vom Fraunhofer IPMS konzentrieren wir uns auf den Entwurf eines analogen Inferenz-Beschleuniger-ASICs. In unserem Team kombinieren wir interdisziplinäre Erfahrungen aus den Bereichen Low-power IC-Entwicklung, Medizintechnik, Maschinellem Lernen und Signalverarbeitung, die zur Entwicklung eines energieeffizienten KI-ASICs benötigt werden. 

  • Im Projekt ERIK soll eine Roboterplattform als physischer Interaktionspartner und Förderinstrument für die Therapie von Kindern mit eingeschränkten sozio-emotionalen Fähigkeiten, wie bspw. Kindern im Autismusspektrum entwickelt werden. Unser Lösungsansatz umfasst dabei die Integration sensorbasierter Emotionserkennung auf Basis von Mimik, Sprache und physiologischer Signale, die Schaffung einer neuartigen Kind-Roboter-Interaktion mittels mehrerer therapeutischer Interaktionsansätze sowie die Steigerung der Kommunikationsfähigkeit autistischer Kinder durch spielerisches Training und positives Bestärken (z.B bei Lernerfolgen).

  • Ziel des vom BMBF geförderten Gesamtprojekts »KI-PREDICT« ist die Nutzung von Methoden der Künstlichen Intelligenz (KI) auf unterschiedlichen Ebenen des Produktionsprozesses als Basis für die zustandsbasierte, prädiktive Wartung von Produktionsanlagen und die Überwachung der Produktqualität direkt im Produktionsprozess.
    Dabei liegt unser Fokus auf der Entwicklung eines Sensor-Interface-ASICs. Seine Besonderheit liegt darin, dass es auf Sensoren für Condition-Monitoring und Echtzeit-Prozesskontrolle abgestimmt ist und eine energieeffiziente Feature-Extraction und Signalverarbeitung direkt am Sensor ermöglicht.

  • Ein zentrales Element bei der Psychotherapie von Angststörungen ist es, die Betroffenen den Angst auslösenden Situationen auszusetzen. Daher soll im Projekt ein System entwickelt werden, das die emotionalen Reaktionen der Klientinnen und Klienten während solcher Expositionen multimodal erfasst und daraus durch Datenfusion Parameter extrahiert, die für den weiteren Verlauf relevant sind. Aus diesen Parametern werden Mikrointerventionen abgeleitet, die der Klientin oder dem Klienten durch einen virtuellen Agenten in einer intuitiven Interaktion zur Verfügung gestellt werden. Durch die maschinelle Verarbeitung der in zahlreichen Expositionen gewonnenen Datensätze werden Prognosen für erfolgreiche Mikrointerventionen abgeleitet.

  • Ziel des Projekts TraMeExCo ist die Erforschung und Entwicklung geeigneter neuer Methoden zum robusten und erklärbaren Maschinellen Lernen (engl. explainable AI, XAI) auf komplementären Anwendungen (digitale Pathologie, Schmerzanalyse, Kardiologie) aus dem Bereich der Medizintechnik. Dabei untersuchen und implementieren wir u.a. Ansätze des Few Shot Learnings und Heat Maps für die digitale Pathologie und bestimmen die Herzratenvariabilität auf verrauschten EKG- und PEG-Daten mittels Long-term-Short-term-Netzen. Auf Basis des Facial Action Coding System (FACS) nach Ekman und Friesen werden Verfahren des Bayes‘schen Deep Learnings auf Schmerzvideos erforscht. Bei unserer Projektpartnerin, der Universität Bamberg, steht die Konzeption, Umsetzung und Erprobung von Verfahren zur Erklärbarkeit von diagnostischen Systementscheidungen mit LIME, LRP und ILP-Verfahren im Fokus.

  • Erklärbare KI wird als das zentrale Zukunftsthema der KI-Forschung angesehen und Erklärbarkeit als die notwendige Voraussetzung für den Einsatz von Maschinellem Lernen in der Praxis. In der Projektgruppe Erklärbare KI (EKI) entwickeln wir in einer Kooperation mit der Universität Bamberg Methoden für erklärbares Maschinelles Lernen, da rein datengetriebenes Maschinelles Lernen in vielen Anwendungsbereichen nicht oder nicht ohne Kombination weiteren Methoden einsetzbar ist. So entwickeln wir Methoden des interaktiven und inkrementellen Lernens, arbeiten an hybriden Ansätzen und entwickeln Algorithmen zur Generierung multimodaler Erklärungen.

Supply Chain Services

  • Wir forschen daran, Analytics-Methoden und Verfahren der Künstlichen Intelligenz immer weiter zu verbessern, um mit deren Hilfe aus unbeherrschbar scheinenden Datenmengen handhabbare und qualitative Daten und Informationen zu bekommen. Ziel ist es, die richtigen Daten, die konkreten Nutzen für die Wirtschaft bringen, zu extrahieren.

  • Viele Entscheiderinnen und Entscheider stehen derzeit vor der Frage, wie sie ihr Unternehmen digitalisieren sollen, wie sie ihr Geschäftsmodell bzw. ihre Organisation verändern müssen, um zukunftsfähig und erfolgreich zu bleiben.

    Wir begleiten Unternehmen dabei, die richtigen Antworten auf diese Fragen zu finden. Unternehmen benötigen neue, andere Blickwinkel auf ihr Geschäft, um sich in einer digitalen, schnell wandelnden Welt immer wieder neu erfinden zu können. Diesen neuen Blick auf ihre Prozesse, Organisationen und Geschäftsmodelle erhalten sie zum einen durch die Einbindung des Menschen in den Analyseprozess – sei es als Kunde, Nutzer oder Mitarbeiter – zum anderen durch eine datengetriebene, zukunfts- und marktorientierte Dienstleistungsentwicklung.

  • Die zunehmende Vernetzung erfordert neue Konzepte für Datenräume und den Technologieneinsatz: Bevor  Daten, die in der Regel aus verschiedenen Quellen und Systemen stammen und oft in unterschiedlichsten Formaten vorliegen, in einem vernetzt agierenden Umfeld wirklich als Information zur Optimierung genutzt werden können, müssen sie aufbereitet werden. Dafür braucht es passende Methoden und Technologien, die die Bereitstellung und Integration von Daten ermöglichen. Deshalb entwickeln wir neue Methoden und Verfahren, mit denen Daten so modelliert und aufbereitet werden, dass sie in neuen Kontexten einfach zu verwenden sind; und zwar indem wir sie aus ihrem bestehenden Umfeld bei gleicher Detailtiefe herauslösen.