Möchten Sie künstliche Intelligenz (KI) in Ihr nächstes Produktdesign integrieren? Wie wäre es mit maschinellem Lernen (ML) und Deep Learning (DL)? Lernen Sie zunächst die Unterschiede zwischen diesen drei Konzepten kennen und erfahren Sie, wie jedes Modell funktioniert und welche Lösungen heute verfügbar sind, damit Sie diese Technologien schnell in Ihre Entwürfe integrieren können.

Bitte nehmen Sie sich einen Moment Zeit und füllen Sie das untenstehende Formular aus, um sofortigen Zugang zu diesem aufgezeichneten Webinar zu erhalten.
 Deckblatt

Aufgezeichnetes Webinar

AI am Rande: Maschinelles Lernen in eingebetteten Systemen

07. Oktober 2021 | Länge: 39:05

Möchten Sie künstliche Intelligenz (KI) in Ihr nächstes Produktdesign integrieren? Wie wäre es mit maschinellem Lernen (ML) und Deep Learning (DL)? Lernen Sie zunächst die Unterschiede zwischen diesen drei Konzepten kennen und erfahren Sie, wie jedes Modell funktioniert und welche Lösungen heute verfügbar sind, damit Sie diese Technologien schnell in Ihre Entwürfe integrieren können.

Egal, ob Sie gerade erst anfangen, diese leistungsstarken Technologien kennenzulernen, oder ob Sie ein bestimmtes Projekt planen, dieses aufgezeichnete Webinar wird Ihre Reise in die KI, ML und DL beschleunigen. Sie werden auch erfahren, wie Digi Embedded Entwicklungslösungen - das Digi XBee® Ökosystem und das Digi ConnectCore® Embedded System auf Modulplattform - Ihre Ziele unterstützen können.

Mit Digi verbinden

Möchten Sie mehr darüber erfahren, wie Digi Ihnen helfen kann? Hier sind einige nächste Schritte:

Follow-up Webinar Q&A

Nochmals vielen Dank für Ihre Teilnahme an unserer Sitzung zum Thema "AI at the Edge: Machine Learning in Embedded Systems". Hier finden Sie die Fragen, die nach der Präsentation gestellt wurden, und die Antworten darauf. Wenn Sie weitere Fragen haben, wenden Sie sich bitte an uns .

Welche zusätzlichen Ressourcen (Prozessor, Speicher usw.) sind erforderlich, um maschinelles Lernen in einem eingebetteten System zu implementieren?

Es kommt wirklich darauf an. Anwendungen des maschinellen Lernens decken ein ganzes Spektrum ab. Wie wir gesehen haben, gibt es einfachere Anwendungen, wie z. B. das Beispiel der Überwachung einiger Sensoren auf Veränderungen der Vibrationsmuster als Anwendungsfall für vorausschauende Wartungsdienste für diese Baumaschine. Für diesen Anwendungsfall kann ein kleiner Mikrocontroller mit sehr wenig Speicher ausreichend sein. Und es gibt High-End-Anwendungen wie die Erkennung von Objekten in hochauflösenden Videoströmen, die natürlich viel Rechenleistung und Speicherbandbreite benötigen, um die Daten zu mischen.

Viele der heutigen Anwendungen für maschinelles Lernen stammen aus der Cloud-Entwicklung, wo eine Vielzahl von Rechenressourcen zur Verfügung steht. Die Entwickler haben sich dort nicht um die Rechenressourcen gekümmert, was in starkem Kontrast zu eingebetteten Geräten steht. Und jetzt, wo es darum geht, diese Funktionalität an den Rand zu verlagern, wo nicht die ganze Rechenleistung zur Verfügung steht, ist das eine schwierige Aufgabe. Beim maschinellen Lernen am Rande des Netzwerks muss der Modellnutzung und den Optimierungen für ressourcenbeschränkte eingebettete Geräte mehr Aufmerksamkeit gewidmet werden.

Anbieter wie unser Partner Au-Zone, den wir ebenfalls in der Demo gesehen haben, sind Experten auf diesem Gebiet und bieten eine eingebettete Inferenz-Engine und Modelloptimierungs-Tools an, um sie für die Ausführung auf diesen eingeschränkten eingebetteten Geräten mit geringem Speicherbedarf und schnellen Inferenzzeiten vorzubereiten, selbst wenn nur wenige Rechenressourcen zur Verfügung stehen.

Und wir haben das Beispiel der Spracherkennung gesehen. Ich möchte noch einmal betonen, dass wir mit unserem ConnectCore SoM-Lösungsangebot eine solche Lösung anbieten werden, die für eingebettete Geräte optimiert ist. Sie brauchen also keine ausgefallene Verarbeitungseinheit für neuronale Netze, die auch kostspielig ist. Sie können diese Anwendung, eine Spracherkennungsanwendung, die Tausende von Wörtern und Vokabeln unterstützt, auf einem einzigen Cortex-A-Kern mit weniger als 50 % Last laufen lassen, während Sie möglicherweise eine NPU benötigen, wenn Sie dasselbe mit einem nicht optimierten Open-Source-Framework für maschinelles Lernen machen.

Ist es möglich, Deep Learning für Textdaten einzusetzen, z. B. für die Verarbeitung von Gedichten, um verschiedene Genres zu identifizieren?

Es ist sicherlich möglich, Text zu verarbeiten und Textelemente zu klassifizieren. Das ist also mit maschinellem Lernen definitiv möglich. Und es gibt viele Anwendungsfälle dafür, zum Beispiel Ihre Spam-Filter, die Text und E-Mails verarbeiten und sie als Spam oder Nicht-Spam klassifizieren. In diesen E-Mails geht es zwar nicht um Poesie, aber ich denke, es hat damit zu tun.

Wie wirken sich künstliche Intelligenz und maschinelles Lernen in einem Gerät auf die Sicherheit aus?

Es gibt Sicherheitsbedrohungen, die auf Anwendungen für maschinelles Lernen abzielen, wenn das die Frage ist. Angreifer versuchen zum Beispiel, die Eingaben in das maschinelle Lernmodell mit einer bestimmten Technik zu verändern, um das Modell so zu täuschen, dass es zum Beispiel ein Objekt oder sogar ein Straßenschild in einer Verkehrsanwendung falsch klassifiziert. Und dann würde es mit den richtigen Manipulationen auch einen hohen Vertrauensfaktor für diese ausgeben, und das ist sicherlich ein Sicherheitsproblem und auch ein Sicherheitsproblem.

Es gibt Methoden, um das Modell gegen solche Angriffe zu härten, die während der Modellschulung und -entwicklung angewendet werden können. Weitere Sicherheitsprobleme beim maschinellen Lernen sind der Diebstahl von Modellen oder Angriffe auf Modellierungsversionen. Digi stellt die von NXP verfügbaren Gegenmaßnahmen und die eIQ-Tools für maschinelles Lernen zur Verfügung, um einige dieser maschinelles Lernen betreffenden Sicherheitsprobleme zu lösen.

Aber auch die allgemeine Systemsicherheit ist wichtig und andere Sicherheitsfunktionen wie sicheres Booten, verschlüsseltes Dateisystem, geschützte Ports und Manipulationserkennung müssen ebenfalls aktiviert werden. Mit unserem Sicherheits-Framework, das wir als Teil von ConnectCore anbieten, dem Digi TrustFence, ist ein komplettes Sicherheits-Framework mit Digi ConnectCore SoM verfügbar. Und alle Funktionen, die ich gerade erwähnt habe, sind vollständig in den Bootloader, den Kernel und das Root-Dateisystem integriert und können sofort genutzt werden, ohne dass man ein Sicherheitsexperte werden oder viele Wochen damit verbringen muss, sie zu aktivieren. Sie funktionieren also auf allen Hardware- und Software-Ebenen.

Wird die Präsentation aufgezeichnet, um sie später anzusehen?

Ja, natürlich. Die Aufzeichnung wird zu einem späteren Zeitpunkt auf der BrightTALK-Plattform hier abspielbar sein. Und wir werden den Link auch auf unserer Website www.digi.com veröffentlichen. Im Abschnitt "Ressourcen" sehen Sie einen Abschnitt "Webinare". Dort stellen wir alle Webinare zum späteren Anschauen ein.

Wie lässt sich die Genauigkeit des maschinellen Lernmodells überprüfen?

Das geschieht während der Trainingsphase. Normalerweise hat man also einen großen Datensatz, um das Modell zu trainieren. Dann legt man andere Daten beiseite, um die eigentlichen Tests durchzuführen und die Genauigkeit des Modells zu überprüfen. Und wenn man mit der Genauigkeit zufrieden ist, ist man fertig. Wenn man aber mit der Genauigkeit nicht zufrieden ist, braucht man mehr Trainingsdaten, speist diese in ein Modell ein, trainiert es weiter und testet es dann wieder mit anderen Daten und wiederholt diesen Prozess, bis man mit der Genauigkeit zufrieden ist. Nur auf hohem Niveau.

Es gibt noch eine weitere Frage zu Beispielen für das Lernen vieler Kanäle von Signalen mit niedriger Geschwindigkeit.

Ich bin mir nicht sicher, ob ich die Frage richtig verstanden habe. Aber es gibt zwei Möglichkeiten. Man kann ein Modell von Grund auf neu erstellen und alles selbst machen, und dazu braucht man viele, viele Daten. In der Regel verwendet man aber ein vortrainiertes Modell und wendet dann etwas an, das man Transfer-Lernen nennt. Es gibt bereits trainierte Modelle für die Bilderkennung, die Spracherkennung, die Texterkennung und für viele andere Bereiche. Und dann würde man Transfer Learning anwenden, um das Modell so zu optimieren oder zu verändern, dass es genau Ihrem Anwendungsfall entspricht.

Wie wurde die Latenzzeit des Wake-Words auf dem Cortex-M-Kern gemessen? Ist es möglich, ein Wake-Word zu konfigurieren? Ist dafür zusätzliches Lernen erforderlich?

In diesem Szenario kann das Weckwort also konfiguriert werden. Sie können also Ihre eigenen Weckwörter definieren und diese in diesem Modell lernen. Sie geben also ein, welche Befehle Sie lernen wollen, und zeichnen diese auf. Dann wenden Sie verschiedene Sprechweisen an, und die Maschine erkennt diese Wörter. Außerdem wird das Modell übertragen, um es auf dem eingebetteten Gerät für den Cortex-M-Kern laufen zu lassen und es so zu optimieren, dass es effizient auf diesem Motor läuft. Ich würde sagen, dass die Latenzzeit für das Weckwort nicht sehr wichtig ist. Ich meine, hier interagiert der Mensch mit der Maschine. Wenn das also ein paar Millisekunden länger dauert, ist das wirklich kein Problem. Es war also nicht erforderlich, dass die Latenzzeit wirklich niedrig ist. Aber es sollte trotzdem schnell sein, damit die Leute es benutzen können. Aber die Latenzzeit war nicht besonders wichtig. Und sie lag unter einer Sekunde, so dass das Einschalten des Geräts reibungslos vonstatten ging.

Kennen Sie Beispiele für den Einsatz von FPGAs für maschinelles Lernen im Embedded-Bereich? Wie unterscheiden sich diese in Bezug auf Anforderungen und Leistung?

Tut mir leid, das kann ich nicht beantworten. Ich habe keine Erfahrung mit der FPGA-Seite. Ich bin sicher, dass man damit eine Art neuronalen Netzwerkprozessor nachahmen kann. Ich bin sicher, dass es einige IPs gibt, um diese Funktionalität in einem FPGA zu betreiben. Aber Sie haben all diese Kerne zur Verfügung. Und bei den heutigen eingebetteten SoCs, System on Chips, hat man oft eine GPU, die nicht genutzt wird. Sie haben mehrere Cortex-A-Kerne. Oft gibt es auch einen Cortex-M-Kern, der separat davon arbeitet. Bei diesen hochintegrierten SoCs gibt es also viele Kerne und viele Optionen in diesen SoCs. Die Verwendung eines externen FPGAs würde also nur zusätzliche Kosten und Designkomplexität bedeuten. Aber wenn es erforderlich ist, gibt es sicher Möglichkeiten, Beschleuniger für neuronale Netze in einem FPGA zu betreiben.

Unser Video über Embedded Design ansehen
Erfahren Sie, wie Sie die Herausforderungen des Embedded Designs richtig angehen

Verwandte Inhalte

IoT und die Lieferkette: Wie maschinelles Lernen Engpässe beseitigt IoT und die Lieferkette: Wie maschinelles Lernen Engpässe beseitigt IoT und die Lieferkette gehen heute Hand in Hand, und in der Tat ist die Logistikverfolgung eines der am weitesten verbreiteten Internet der Dinge... BLOG LESEN Wie entwickelt sich und wächst die EV-Infrastruktur in den USA? Wie entwickelt sich und wächst die EV-Infrastruktur in den USA? In den USA wurden öffentliche Initiativen genutzt, um die Bemühungen um Nachhaltigkeit voranzutreiben, einschließlich des Aufbaus nachhaltiger Städte. Aber die Zukunft... BLOG LESEN Digi Embedded Android und Android Erweiterungswerkzeuge Digi Embedded Android und Android Erweiterungswerkzeuge Heute entscheiden sich viele Embedded-Entwickler für das Android-Betriebssystem für die Anwendungsentwicklung sowohl in mobilen als auch in industriellen... VIDEO ANSEHEN Energieverwaltungstechniken in eingebetteten Systemen Energieverwaltungstechniken in eingebetteten Systemen Der Einsatz wichtiger Energieverwaltungstechniken in Ihren Embedded-System-Designs kann enorme Vorteile bringen, von der Batterielaufzeit... BLOG LESEN Digi ConnectCore 8M Nano Development Kit Auspacken und erste Schritte Digi ConnectCore 8M Nano Development Kit Auspacken und erste Schritte Das Digi ConnectCore® 8M Nano System-on-Module ist eine hervorragende Entwicklungsplattform für das Rapid Prototyping von Embedded-Produkten ... VIDEO ANSEHEN Digi ConnectCore 8M Mini Digi ConnectCore 8M Mini Eingebettetes System-on-Modul auf der Basis des NXP i.MX 8M Mini-Prozessors mit integrierter Video Processing Unit (VPU); entwickelt für Langlebigkeit und Skalierbarkeit in industriellen IoT Anwendungen. ANSEHEN PRODUKT Digi ConnectCore SOM-Lösungen Digi ConnectCore SOM-Lösungen Eingebettete System-on-Module, die ausschließlich auf NXP i.MX-Anwendungsprozessoren basieren - entwickelt für Langlebigkeit und Skalierbarkeit, in industriellen IoT Anwendungen ANSEHEN PDF Demo zum maschinellen Lernen mit Digi ConnectCore und ByteSnap SnapUI Demo zum maschinellen Lernen mit Digi ConnectCore und ByteSnap SnapUI Digi International und ByteSnap Design arbeiteten zusammen, um eine interessante und unterhaltsame Demo mit einem Piratenspiel zu entwickeln... VIDEO ANSEHEN Digi XBee Ecosystem | Alles, was Sie zum Erforschen und Erstellen drahtloser Verbindungen benötigen Digi XBee Ecosystem | Alles, was Sie zum Erforschen und Erstellen drahtloser Verbindungen benötigen Das komplette Digi XBee Ökosystem umfasst rf-Module, Code-Bibliotheken und die preisgekrönte Tool-Suite Digi XBee Tools. PRODUKTE ANSEHEN Vereinfachen und beschleunigen Sie Ihre Entwicklung mit Digi ConnectCore i.MX-basierten SOMs Vereinfachen und beschleunigen Sie Ihre Entwicklung mit Digi ConnectCore i.MX-basierten SOMs Die Entwicklung eines IoT Produkts ist eine Herausforderung, und daher scheitert ein großer Prozentsatz der Embedded-Design-Projekte an den... AUFGEZEICHNETES WEBINAR Digi ConnectCore 8M Nano: Ressourcen für Entwickler, Sicherheit, Skalierbarkeit Digi ConnectCore 8M Nano: Ressourcen für Entwickler, Sicherheit, Skalierbarkeit Digi International hat kürzlich die Verfügbarkeit des Digi ConnectCore 8M Nano Development Kit bekannt gegeben. Der Digi ConnectCore® 8M... BLOG LESEN Digi ConnectCore 8M Nano Digi ConnectCore 8M Nano Eingebettetes System-on-Modul auf der Basis des NXP i.MX 8M Nano-Prozessors; entwickelt für Langlebigkeit und Skalierbarkeit in industriellen Anwendungen IoT ANSEHEN PRODUKT Bauen vs. Kaufen: Navigieren Sie die Wahl Bauen vs. Kaufen: Navigieren Sie die Wahl In diesem Whitepaper helfen wir Ihnen dabei, den besten Weg zur Optimierung Ihrer IP zu finden und die richtige Entscheidung zwischen Bau und Kauf zu treffen, um Ihre Ziele zu erreichen. ANSEHEN PDF

Haben Sie eine Frage? Wenden Sie sich noch heute an ein Digi-Team-Mitglied!