TinyML

© Fraunhofer IIS / Gauthier
TinyML Demonstration

Tiny Machine Learning (TinyML) ist ein Forschungsgebiet im Bereich des maschinellen Lernens und beschreibt die Optimierung sowie Ausführung von KI-basierten Verarbeitungsketten auf eingebetteten Systemen.  

Unsere embeddif.[ai] Technologie ist eine etablierte Marke für TinyML. Hier finden Sie verschiedene Use Cases zu embeddif.[ai].

Künstliche Intelligenz (KI) ist für uns nicht nur die Verwendung tiefer neuronaler Netze mit Millionen von Parametern, die schon während ihrer Entwicklung (Training), aber auch im Betrieb (Inferenz, Scoring) einen nicht unerheblichen Energiebedarf haben, sondern wir beziehen auch klassisches Machine Learning mit sehr effizienten Verarbeitungsketten in den Lösungsraum mit ein.

Im ADA Lovelace Center entwickeln wir Vorhersagemodelle für den Energiebedarf von KI auf eingebetteten Hardwareplattformen, um in sehr schnellen Entwicklungszyklen den Trade-Off zwischen Performanz und Energiebedarf batteriebetriebener Sensorsysteme zu optimieren. Erst die schnelle Vorhersage des Energiebedarfs erlaubt die Integration in eine multikriterielle AutoML (automatisches maschinelles Lernen) Lösung.

In Industrieprojekten stellen wir unseren Kunden Automatisierungslösungen zur KI-Entwicklung für Ultra-Low Power Anwendungen bereit oder beraten Data Science Teams zu einem optimierten Workflow und verlässlichen Tests in Seminaren und Workshops.

 

Mehr zum tinyML Demonstrator und seine technischen Daten.

Vorteile durch TinyML

Energieeffizienz & Ressourcenschonung

Die TinyML braucht, um ML-Anwendungen auszuführen, bis zu tausendmal weniger Strom im Vergleich zu einer Standard-GPU. Der Grund hierfür ist unter anderem das lokale Ausführen der Modelle, statt die Daten hin- und herzusenden. Aus diesem Grund können die TinyML-Geräte je nach Anwendungsfall teilweise jahrelang ohne Batterien betrieben werden.

Auch die Größe der benötigten Batterien und somit die Nutzung von wertvollen Ressourcen verringert sich durch die erhebliche Energieeinsparung.

Echtzeit

Da das Modell lokal ausgeführt wird, müssen die Rohdaten, um die Inferenz durchzuführen, nicht erst an die Cloud gesendet und im verarbeiteten Zustand wieder zurückgesendet werden. Dadurch verringert sich die Latenzzeit der Ausgabe sowie der Bedarf an Kommunikationsbandbreite, was wiederum eine schnelle Reaktion ermöglicht.

Unabhängigkeit, Privatsphäre & Sicherheit

Der Anwender steht in keiner Abhängigkeit zu einem Cloud Service Anbieter. Da die Daten somit nicht mit Externen geteilt werden müssen, trägt dieser Punkt letztlich auch zum Schutz der Privatsphäre bei.

Außerdem besteht keine Abhängigkeit von einer Kommunikationsverbindung. Das Risiko möglicher Störungen bei der Übertragung zwischen dem eingebetteten System und der Cloud wird also beseitigt.

Angebot

Sie wollen ein KI basiertes Projekt durchführen und wissen bereits, dass die Ausführung auf eingebetteter Hardware stattfinden wird?   

Sie möchten bei der Ausführung Ihrer KI Modelle Energie sparen und damit die Laufzeit Ihres Sensorsystems verlängern?

Sie haben eine Idee für ein batteriebetriebenes Sensorsystem mit KI-Funktionalität und brauchen Unterstützung?

Mittels unserer Angebote aus dem Produktportfolio embeddif.[ai] können wir Sie dabei unterstützen. 

Mehr Infos zu embeddif.[ai].

Anwendungen

 

embeddif.[ai] Tools

Machinelles Lernen in eingebetteten Sensormodulen für kognitive Handwerkzeuge, um Montageprozesse zu erkennen und die Qualität sicherzustellen.

 

embeddif.[ai] Sports

Maschinelles Lernen in eingebetteten Systemen, z.B. Wearables für Sportanwendungen wie Fitness, Fußball, Boxen oder Basketball.

 

embeddif.[ai]
Condition Monitoring

Durch Maschinelles Lernen in eingebetteten Systemen Zustände von Anlagen und Maschinen überwachen, um frühzeitig reagieren zu können oder die Effizienz zu steigern.