Die Batterielaufzeit in IoT-Anwendungen berechnen

Das Internet hat die Art und Weise, wie wir elektronische Systeme entwickeln, grundlegend verändert. So steht mittlerweile bei verschiedensten Anwendungen – angefangen bei Hinweisschildern an Bushaltestellen bis hin zu komplexen Industriesystemen – das Thema Konnektivität im Mittelpunkt. Die mitunter größte Veränderung stellen jedoch Sensorsysteme dar, die Daten sammeln und Informationen an die Cloud weiterleiten. Sie reichen von Temperaturüberwachungs- und Heizungssteuerungssystemen im Haushalt bis hin zu Systemen für die Standortnachverfolgung im Logistikbereich.

Anders als größere vernetzte Systeme verfügen diese kompakten „Dinge“ oftmals über keinen direkten Stromversorgungsanschluss. Das bedeutet, dass sie sich in irgendeiner Weise selbst mit Strom versorgen müssen, was in den meisten Fällen mithilfe von Batterien oder Anwendungen zur Energiegewinnung gelingt.

Für viele Anwendungen stellt das „Energy Harvesting“ die vielversprechendste Lösung dar. Beim Energy Harvesting wird die für das System benötigte Energie mithilfe von Technologien wie Sonnenkollektoren oder auch Systemen, die Bewegungsenergie oder sogar einen Knopfdruck nutzen, aus der Umgebung entnommen. Damit ermöglicht dieser Ansatz eine unendliche Betriebszeit, sofern das Gerät weniger Energie verbraucht, als durch das Energy Harvesting gewonnen wird.

Obwohl immer mehr Anwendungen mittlerweile über die für das Energy Harvesting erforderliche geringe Leistungsaufnahme verfügen, empfiehlt sich dieser Ansatz für viele Systeme nach wie vor nicht. Teilweise ist die erforderliche Leistung für die Verarbeitung von Daten auf dem Gerät zu hoch, die Anforderungen an die Kommunikationstechnologie sind zu hoch oder es ist einfach keine passende Energiequelle vorhanden. In solchen Fällen ist für den Betrieb des Systems eine Batterie erforderlich.

Im Gegensatz zu Produkten, die Energy Harvesting nutzen, weniger Energie benötigen als verfügbar ist und somit funktionieren, müssen Batterien irgendwann ausgetauscht werden. Da die Kosten für den Batteriewechsel oftmals über denen des eigentlichen IoT-Geräts liegen, ist es wichtig, die genaue Batterielaufzeit berechnen zu können.

Faktoren, die die Batterielaufzeit in IoT-Geräten beeinflussen

Die Batterielaufzeit eines IoT-Geräts lässt sich mithilfe einer einfachen Rechnung bestimmen: Man teilt die Batteriekapazität durch die durchschnittliche Selbstentladung. Eine Minimierung der vom Gerät benötigten Energie oder eine Steigerung der Batteriekapazität sorgen dafür, dass die Batterielaufzeit länger wird und somit die Gesamtbetriebskosten für das Produkt sinken.

Da Batterien oftmals den größten Bestandteil eines IoT-Sensorsystems darstellen, bleiben Entwicklern meist keine großen Auswahlmöglichkeiten. Dank des großen Angebots verschiedener Prozessoren, Kommunikationstechnologien und Softwarealgorithmen lässt sich das System jedoch so ausrichten, dass es die gewünschte Lebensdauer erreicht. Oft werden IoT-Sensoren so ausgelegt, dass sie während ihrer gesamten Lebensdauer die Originalbatterie nutzen, da die Kosten für den Austausch sehr hoch sind.

Eine Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen

Da die Batterielaufzeit ein so wichtiger Teil des IoT-Designs ist, haben wir einen Rechner entwickelt, mit dem Sie die Batterielaufzeit Ihres IoT-Systems schnell und einfach abschätzen können. Mit dem Rechner können Sie die Parameter für Ihren Prozessor, Ihre Kommunikationslösung, Ihren Sensor sowie Ihre Batterie eingeben und festlegen, wie Ihre Software arbeitet. Anschließend können Sie die Batterielaufzeit Ihres Designs abschätzen.

Das Tool gibt eine erste Schätzung ab, um sicherzustellen, dass Ihr IoT-Design umsetzbar ist. Es ermöglicht Ihnen zudem, mit verschiedenen Ansätzen zu experimentieren, und zeigt die Auswirkungen von Prozessor, Kommunikationstechnologie, Batterie und Softwarealgorithmen auf.

Die Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen stellt sicher, dass Sie keine Zeit mit Produkten verschwenden, die keine akzeptable Batterielaufzeit erreichen. Dieser Artikel erklärt die Funktionsweise des Rechners und erläutert, wie noch genauere Berechnungen durchgeführt werden können. Dabei wird jeweils darauf hingewiesen, in welchen Situationen der Rechner die reale Welt nicht genau widerspiegeln kann.

Ruhemodi von IoT-Prozessoren

Speziell für IoT-Anwendungen entwickelte Prozessoren verfügen über eine Vielzahl an besonders energiesparenden Ruhemodi. Der Prozessor soll die meiste Zeit in diesem Modus verbleiben und nur für einen kurzen Zeitraum aufwachen, um Daten zu sammeln oder zu verarbeiten oder um Informationen an das Netzwerk zu übertragen.

Nehmen Sie als Beispiel die Produktreihe CC2650MODA von TI. Abbildung 1 zeigt den Stromverbrauch beim Betrieb in verschiedenen Modi. Der Stromverbrauch variiert vom Herunterfahren bis hin zum aktiven Betrieb zwischen sechs Größenordnungen.

Abbildung 1 – Stromverbrauch der Produktreihe CC2650MODA von TI

Abbildung 1 – Stromverbrauch der Produktreihe CC2650MODA von TI

Wenn die Datenaufnahme nicht gerade sehr unregelmäßig erfolgt, bietet ein Herunterfahren des Prozessors kaum Vorteile. Für den Neustart sind zusätzliche Schaltkreise und Codes erforderlich, was mehr Kosten und Komplexität verursacht. Zudem werden im Standby-Modus weniger als 3 µA verbraucht, was einer Batterielaufzeit von mindestens acht Jahren entspricht: Das ist länger als die Lebensdauer vieler IoT-Geräte und entspricht der Haltbarkeit einer CR2032-Knopfzelle. Deshalb macht es oftmals kaum Sinn, den Prozessor vollständig abzuschalten.

Die Auswahl des richtigen Standby-Modus kann hier entscheidend sein. Der sparsamste Standby-Modus verbraucht nur rund ein Drittel so viel Strom wie die energieintensivste Option; noch wichtiger hier ist jedoch, dass nur sehr wenig vom Prozessorstatus gespeichert wird. Obwohl für einige IoT-Anwendungen der sparsamste Ruhemodus ausgewählt werden muss, entscheiden sich viele Benutzer dafür, den Cache beizubehalten, um die Anzahl der benötigten Zyklen für die im aktiven Modus erforderliche Verarbeitungsleistung zu minimieren.

Einen Kompromiss stellt hier die Verarbeitung im aktiven Modus dar. Abbildung 1 zeigt, dass der Stromverbrauch linear mit der Taktrate steigt, was auf die für IoT-Prozessoren wie diesen genutzte CMOS-Technologie zurückzuführen ist. So scheinen höhere Taktgeschwindigkeiten gleichbedeutend mit einer geringeren Batterielaufzeit zu sein. Da jedoch ein „Grundstrom“ von 1,45 mA vorliegt, kann aufgrund der verkürzten Aufwachzeit, die für die Ausführung des gleichen Algorithmus bei höheren Taktgeschwindigkeiten erforderlich wäre, eine Taktverlangsamung in Wirklichkeit zur Verkürzung der Batterielaufzeit führen.

Die Berechnung ist jedoch nicht ganz so einfach: Es gibt auch eine endliche Aufwachzeit, um von einem Modus zum anderen zu wechseln. Beim Wechsel vom Standby-Modus in den aktiven Modus benötigt der CC2650MODA 151 μs. Bei einer maximalen Taktfrequenz von 48 MHz bedeutet das, dass beim Hochfahren des Prozessors mehr als 7.000 Taktzyklen Strom verbraucht werden. Bei Anwendungen mit wenig Code führt ein Verlangsamen des Taktes, wobei die Code-Ausführungszeit im Austausch für einen geringeren Stromverbrauch beim Hochfahren erhöht wird, wahrscheinlich zu einer längeren Batterielaufzeit. Ebenso kann die Minimierung von Aufwachvorgängen und die Ausführung möglichst vieler Aufgaben vor der Rückkehr in den Standby-Modus die Batterielaufzeit erhöhen.

Es ist komplex, die Taktfrequenz, die Anzahl der Aufwachvorgänge und die Laufzeit zu vergleichen. Die Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen bietet jedoch eine optimale Möglichkeit, mit verschiedenen Szenarien zu experimentieren.

Stromverbrauch von Peripheriekomponenten in IoT-Anwendungen

Bei den heutigen IoT-Geräten handelt es sich um sehr komplexe Produkte, die über zahlreiche Peripheriekomponenten verfügen, um eine Einchip-Lösung für verschiedene Anforderungen bereitzustellen. Häufig benötigen IoT-Geräte – insbesondere einfache Sensoren – diese Komponenten jedoch nicht. Deshalb ist es wichtig, die nicht verwendeten Peripheriegeräte auszuschalten.

Abbildung 2 – Blockdiagramm der Produktreihe CC2650MODA von TI

Abbildung 2 – Blockdiagramm der Produktreihe CC2650MODA von TI

Abbildung 2 zeigt den Stromverbrauch der Peripheriekomponenten, die in den Bausteinen der Produktreihe CC2650MODA von TI zum Einsatz kommen. Obwohl der durch die verschiedenen Bausteine verbrauchte Strom in der Größenordnung von einigen Dutzend oder Hunderten Mikroampere sehr gering ist, kann ihre Deaktivierung einen großen Unterschied bewirken. Wenn keine serielle Anschlussmöglichkeit erforderlich ist, lassen sich insgesamt 318 µA sparen. Auch wenn dies nicht viel erscheint, wird dieser Strom einen signifikanten Einfluss auf die Batterielaufzeit haben und könnte verwendet werden, um die Taktfrequenz um 10 MHz zu erhöhen. Dadurch würde die Zeit verringert, die im energieintensiven aktiven Modus verbracht wird.

Abbildung 3 – Leistungsaufnahme von Peripheriekomponenten der Baureihe CC2650 von TI

Abbildung 3 – Leistungsaufnahme von Peripheriekomponenten der Baureihe CC2650 von TI

IoT-Kommunikationstechnologien

Die Auswahl der richtigen Kommunikationstechnologie wird oftmals von den Systemanforderungen bestimmt. Für batteriebetriebene IoT-Systeme bedeutet dies fast immer die Verwendung einer HF-Verbindung: Die kabelgebundene Kommunikation würde alle Vorteile aufgeben, die sich durch die Verwendung von Batterieenergie zur Eliminierung von Kabeln ergeben.

Im Bereich der drahtlosen Kommunikation bedeutet eine höhere Reichweite oder Datenrate für gewöhnlich auch einen höheren Stromverbrauch. Deshalb kommen hier natürlich oftmals Kommunikationstechnologien mit einem möglichst geringen Stromverbrauch zum Einsatz. Wenn das System mit Batterien betrieben wird, sind einige Technologien nicht verwendbar: Eine CR2032 verfügt beispielsweise nicht über ausreichende Kapazität, um ein 3G-Modem zu unterstützen, obwohl größere Batterien und Entwicklungen in der Mobilfunktechnologie für IoT-Anwendungen eine eine wichtige Rolle spielen.

Für IoT-Sensoren gibt es verschiedene beliebte Technologien. So bietet LoRa die Möglichkeit, ein stromsparendes WAN mit einer Reichweite von mehreren Kilometern einzurichten. Bluetooth Low Energy (BLE) hingegen funktioniert nur für kurze Distanzen, verbraucht dabei aber auch wesentlich weniger Strom.

Zudem muss die Entscheidung getroffen werden, ob eine On-Chip-Lösung oder ein separater Chip für die Kommunikationsbewältigung verwendet werden soll. In der Regel bieten On-Chip-Lösungen eine niedrigere Gesamtleistungsaufnahme, obwohl es manchmal nicht möglich ist, eine integrierte Lösung zu finden, sodass ein separater Baustein in einigen Fällen die einzige Option ist.

Die Verwaltung der Kommunikationsschnittstelle ist entscheidend, da sogar stromsparende Kommunikationstechnologien die Batterieleistung sehr schnell aufbrauchen können und die Verarbeitungsanforderungen oftmals über denen der HF-Stufe liegen. Nehmen Sie die Produktreihe CC2650MODA von TI: Diese erfordert 9,4 mA, um die Übertragungsschaltung zu versorgen, welche die energiesparenden Kommunikationsstandards BLE und IEEE 802.15.4 unterstützt. Dieser Stromverbrauch ist dreimal so hoch wie die Leistungsaufnahme der CPU bei maximaler Frequenz.

Um die Batteriekapazität speziell mit Blick auf Kommunikationstechnologien zu maximieren, führen viele IoT-Systeme eine Vorverarbeitung sowie eine Datenzusammenführung durch und fahren die Kommunikationsschaltkreise erst dann hoch, wenn eine bestimmte Menge an Daten für die Übermittlung bereitsteht. Die Analyse des Einflusses von aggregierten Daten zur Reduzierung der Übertragungshäufigkeit ist mit der Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen ganz einfach.

Der richtige IoT-Sensor zur Maximierung der Batterielaufzeit

Da viele IoT-Geräte hauptsächlich zur Erfassung von Umweltdaten entwickelt wurden, können Sensoren die Batterielaufzeit eines IoT-Systems erheblich beeinflussen. Die Wahl der richtigen Technologie und Betriebsmodi sind kritische Punkte.

Nehmen Sie zum Beispiel einen Temperatursensor. Ein RTD (Widerstandstemperaturdetektor) wie derHEL-777 von Honeywelloder ein Thermistor (z. B. der135-104LAF-J01 von Honeywell) ändert den Widerstand mit der Temperatur. Eine einfache Anwendung, bei der Genauigkeit keine Rolle spielt, könnte einen Spannungsteiler verwenden; hochgradig präzise Systeme hingegen benötigen eine Stromquelle, die mehr Leistung erfordert.

Für viele Anwendungen sind integrierte Temperatursensoren, wie z. B. derLM35DZ von TI,eine gute Lösung: Dieses Gerät weist bei Raumtemperatur eine Genauigkeit von ± ¼ °C auf und verfügt über eine Leistungsaufnahme von lediglich 60 μA.

Für welchen Sensor Sie sich auch entscheiden: Es ist wichtig, dass er nur dann Strom verbraucht, wenn er verwendet wird. Wird der Sensor eingeschaltet, wenn der Prozessor keine Messungen durchführt, geht die Batteriekapazität verloren. Selbst der energiesparende LM36DZ verbraucht etwa das 30-fache dessen, was der CC2650MODA Prozessor im Standby-Modus verbraucht.

Hintergründe zu Batterietechnologien für das IoT

Für IoT-Anwendungen gibt es verschiedene Batterien, die sich einer hohen Beliebtheit erfreuen. Die „Knopfzelle“ CR2032 steht hier zunehmend im Mittelpunkt, da sie einen kompakten Formfaktor mit ausreichender Kapazität bietet, um für IoT-Produkte einen jahrelangen Betrieb zu gewährleisten.

Was einem bei Batterien stets als erstes auffällt, ist die Tatsache, dass zu vielen von ihnen nur wenige Informationen verfügbar sind. Neben den physischen Abmessungen und der Ausgangsspannung ist der einzige andere angegeben Parameter in vielen Fällen die Kapazität. Die Batteriekapazität ist natürlich entscheidend, da sie die gesamte verfügbare Energie für Ihr IoT-Gerät darstellt.

Die Batteriequalität hat dabei erhebliche Auswirkungen auf die Kapazität. Wenn Sie einfach eine CR2032-Knopfzelle auswählen, besteht die Gefahr, dass Sie ein günstigeres Produkt mit einer viel geringeren Kapazität kaufen. Dadurch wird die Batterielaufzeit Ihres IoT-Geräts reduziert und es fallen in Zukunft hohe Kosten für die Auswechslung der Batterie an. Zudem gibt es Batterien mit unterschiedlichen chemischen Zusammensetzungen in den von Ihnen gewünschten Formfaktoren: Auch unterschiedliche Zusammensetzungen können sich entscheidend auf die Batterielaufzeit auswirken.

Der IoT-Rechner von Farnell bietet verschiedene CR2032-Batterien, die beide Lithium-Mangan-Dioxide verwenden. Eine Batterie ist dabei so spezifiziert, dass sie etwa zehn Prozent weniger Kapazität als die andere hat – dies kann jedoch bei vielen Anwendungen durchaus sinnvoll sein, da diese Batterie für weniger als die Hälfte des Preises der Batterie mit höherer Kapazität erhältlich ist.

Batteriespezifikationen sind Schätzungen

Batterien werden stets mit sehr kurzen beiliegenden Produktinformationen geliefert. Daher ist es verlockend anzunehmen, dass Batterien sehr einfache Produkte sind. Der IoT-Rechner verfolgt einen ähnlichen Ansatz und geht davon aus, dass die Kapazität der Batterie fest ist. In der Praxis trifft das jedoch einfach nicht zu: Sehen Sie sich die CR2032 von Multicomp an. Abbildung 4 zeigt, wie sich die Kapazität mit Last und Temperatur verändert.

Abbildung 4 – Kapazität der Batterie CR2032 von Multicomp

Abbildung 4 – Kapazität der Batterie CR2032 von Multicomp

Was sich als erstes zeigt, ist die Tatsache, dass eine Kapazität von 210 mAh nur bei optimalen Bedingungen erreicht wird. Wenn eine Last mehr Strom erfordert, kann die Lebensdauer dadurch erheblich verkürzt werden. Wichtiger für einige Anwendungen – wie z. B. die Temperaturverfolgung von gekühlten Gegenständen – ist, dass mit fallenden Temperaturen auch die Kapazität der Batterie beträchtlich abnimmt.

IoT-Anwendungen verbrauchen Strom in Impulsen. Der Prozessor und der Sensor können für kurze Impulse mehrere mA verbrauchen und dann für einen längeren Zeitraum in einen Energiesparmodus wechseln. Der Stromverbrauch in Impulsen kann dazu führen, dass die Ausgangsspannung sinkt. Abbildung 3 zeigt, dass sogar eine mit 2 mA betriebene Last dazu führen kann, dass eine CR2032 von 3 V auf ca. 2,2 V fällt.

Abbildung 5 – Impulsentladung bei der Batterie CR2032 von Multicomp

Abbildung 5 – Impulsentladung bei der Batterie CR2032 von Multicomp

Batterielebensdauer und IoT-Anwendungen

Die Batterielebensdauer wird von Entwicklern oft ignoriert: Viele glauben, dieser Begriff beziehe sich auf die Lagerung und nicht auf die Nutzung der Batterie. IoT-Anwendungen müssen jedoch oft über einen Zeitraum von mehreren Jahren mit einer einzigen Batterie auskommen, weshalb die Batterielebensdauer so wichtig ist.

Zwei Spezifikationen bestimmen die Lebensdauer einer Batterie, wenn sie nicht verwendet wird: die Haltbarkeit und die Selbstentladung. Sofern angegeben, beträgt die Selbstentladung einer CR2032-Batterie in der Regel lediglich ein bis zwei Prozent pro Jahr. Das bedeutet jedoch nicht, dass eine Batterie eine Haltbarkeit von 50 bis 100 Jahren aufweist: Tatsächlich bieten die meisten Batterien eine angegebene Haltbarkeit von nur sieben oder acht Jahren. Dieses scheinbare Paradoxon ist auf das nichtlineare Verhalten der Batteriechemie zurückzuführen.

Die Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen geht davon aus, dass die Batterie ihre gesamte Ladung linear über die angegebene Haltbarkeit verliert. Obwohl die Realität anders aussieht, macht es im Hinblick auf das Ergebnis der Berechnung kaum einen Unterschied, wenn das analysierte IoT-Gerät eine Batterielaufzeit von weniger als ein paar Jahren aufweist, und es wird sichergestellt, dass der Rechner eine konservative Batterielebensdauer errechnet, wenn das Produkt für eine Nutzungsdauer ähnlich der Batterielebensdauer ausgelegt ist.

Fazit: Die Batterielaufzeit in IoT-Anwendungen berechnen

Die Entwicklung eines IoT-Gerätes, das mit einer Batterie betrieben werden kann, erfordert große Sorgfalt. Obwohl die Wahl der richtigen Bauelemente wichtig ist, können die Vorteile eines stromsparenden Prozessors durch falsche Entscheidungen negativ beeinflusst werden. Um eine ausreichende Batterielaufzeit zu erreichen, ist es wichtig sicherzustellen, dass sich der Prozessor wann immer möglich in einem energiesparenden Standby-Modus befindet und die drahtlose Kommunikation minimiert wird.

Da viele Faktoren die Batterielaufzeit beeinflussen, kann es sich schwierig gestalten, die Batterielaufzeit für ein Design abzuschätzen. Zudem ist es sehr zeitaufwendig, verschiedene Ansätze zu vergleichen. Obwohl jeder Rechner letztendlich nur Schätzungen vornehmen kann, bietet die Lösung zur Berechnung der Batterielaufzeit in IoT-Anwendungen eine einfache Möglichkeit, Hypothesen zu testen und die Auswirkungen zu verstehen, die mit der Auswahl verschiedener Algorithmen, Komponenten oder Kommunikationstechnologien einhergehen.

IoT-Leistungsrechner von Farnell
Verarbeitungsleistung
 
Wählen Sie einen Prozessor aus oder geben Sie Ihre eigenen Parameter ein
 
 
Systemspannung
Volt
 
Strom im Verarbeitungs-/Kommunikationsmodus
mA
Strom bei Nutzung von integrierten Peripheriekomponenten
mA
 
Strom im Datenaufzeichnungsmodus
μA
Strom von Peripheriekomponenten zur Datenaufzeichnung
μA
 
Strom im Ruhemodus
μA
 
Aufwachzeit
μs
Verarbeitungs- und Kommunikationsmodus
 
Aktive Taktfrequenz
MHz
 
Taktzyklen pro Aufwachvorgang
Zyklen
 
Zeit zwischen Aufwachvorgängen
ms
Datenaufzeichnungsmodus
 
Taktfrequenz bei Datenaufzeichnung
MHz
 
Taktzyklen pro Aufwachvorgang
Zyklen
 
Zeit zwischen Aufwachvorgängen
ms
Strombedarf Peripheriekomponenten
 
Sensor-/Aufnehmerstrom im aktiven Modus
mA
Sensor immer eingeschaltet?
 
Strom der Kommunikationslösung
mA
Batterie
 
Wählen Sie eine Standardbatterie aus oder geben Sie Ihre eigenen Parameter ein
 
 
Batteriekapazität
mAh
 
Haltbarkeit der Batterie (Lebensdauer)
Jahre
0
Batterielaufzeit für Ihre Anwendung
 
 
Berechnen
 
Batterielaufzeit:
 
Stunden
 
Batterielaufzeit:
 
Jahre

Die Batterielaufzeit in IoT-Anwendungen berechnen Datum der Veröffentlichung: 4. Mai 2017 von Farnell