Die Zukunft der KI ist tiny!Â
ChatGPT hat unsere Welt im Sturm erobert. FĂŒr manch einen ist die KI fast gar nicht mehr wegzudenken.Â
Die Kritik an der Technologie ist jedoch mindestens genauso groĂ. ChatGPT wird durch ein riesiges Rechenzentrum, das HerzstĂŒck des Modells, am Laufen gehalten. Wenn man sich eine E-Mail mit 100 Wörtern von ChatGPT generieren lĂ€sst, werden knapp 140Wh verbraucht. Damit kann man knapp sieben Mal das eigene Handy vollstĂ€ndig aufladen. Dabei hört es jedoch nicht auf, denn die Server im Rechenzentrum mĂŒssen stĂ€ndig gekĂŒhlt werden. Die KĂŒhlung erfolgt herkömmlich ĂŒber Wasser. Das Beispiel von oben benötigt knapp 500ml Wasser â nur um die Temperatur zu regulieren. Statt die eigene Nachhaltigkeit zu verbessern, setzt OpenAI â die Firma hinter ChatGPT â auf Wachstum nach dem kapitalistischen Prinzip: immer gröĂer, immer schneller, immer mehr. Es geht aber auch anders. Es gibt intelligente Modelle, die kein riesiges Rechenzentrum oder Unmengen an Wasser benötigen. Und: sie passen in die Hosentasche. Das Prinzip nennt sich âTinyMLâ (kurz fĂŒr Tiny Maschine Learning) oder âEdgeAIâ. Viele werden den Begriff noch nicht gekannt haben, obwohl TinyML uns fast tĂ€glich begegnet. Wann immer ein Sprachassistent durch âHey, Siriâ oder âHey, Googleâ aktiviert wird, wird davon Gebrauch gemacht. In unseren Smartphones ist nĂ€mlich ein Chip eingebaut, der darauf trainiert ist, dieses bestimmte Wort zu erkennen. Dieses Wort, was eine bestimmte Aktion auslöst, wird auch âWake Wordâ genannt. TinyML begegnet uns auch in vielen Smart-Home-GerĂ€ten, z.B. einer Lampe, die automatisch angeht, wenn sie Bewegung erkennt oder die Umgebung dunkel wird. HĂ€ufig wird sie fĂŒr die Erkennung von Audiosignalen (âHey Siriâ), Objekten oder Gesten erkannt.Â
Ein TinyML-Modell wird direkt in die Hardware eingebunden. Das kann beispielsweise ein Chip oder ein Mikrokontroller sein. Sie zeichnen sich deswegen â im Gegensatz zu ChatGPT â wĂ€hrend ihrer Laufzeit durch einen besonders niedrigen Stromverbrauch aus. Es reicht aus, einen Mikrokontroller an eine herkömmliche 9V Batterie zu stecken, um es fĂŒr mehrere Stunden zu betreiben. Da solche GerĂ€te gleichzeitig weniger Speicher besitzen, muss das Modell entsprechend klein sein. Im Gegensatz zu Modellen wie ChatGPT, die auf einer Anzahl von Servern laufen und unzĂ€hlige Parameter besitzen, werden die Modelle so stark komprimiert, dass sie nur noch ein paar Bytes in Anspruch nehmen â ein winziger Bruchteil der GröĂe. Die begrenzte GröĂe der Modelle hat auch einen Haken: die Anwendungsgebiete fĂŒr ein TinyML-Modell sind in der Regel streng begrenzt. Sie ist sogar so stark begrenzt, dass sie sich auf eine einzige Aufgabe beschrĂ€nken. Wenn man also ein solches Modell trainiert, trainiert man es fĂŒr ein einziges spezielles GerĂ€t mit einer speziellen Aufgabe und fĂŒr gewöhnlich auch einen ganz speziellen Anwendungsfall oder Kontext. Ein Mikrokontroller mit TinyML ist damit beispielsweise nicht in der Lage, gleichzeitig Gesangstöne und Gesten zu erkennen. Diese BeschrĂ€nkung ermöglicht es allerdings auch, das Modell fĂŒr seinen Anwendungsfall zu optimieren. TinyML ist damit keine kĂŒnstliche Intelligenz im klassischen Sinne, zumindest keine generalisierte. Sie ist aber in der Lage, ein Muster in einem Datenset prĂ€zise zu erkennen und basierend darauf eine Entscheidung zu treffen, beispielsweise ob die Lampe angehen sollte oder nicht.Â
TinyML und EdgeAI ersetzen ChatGPT damit natĂŒrlich nicht und als solches sollte es auch nicht behandelt werden. DafĂŒr ist das, was so ein kleines Modell kann, zu wenig. Aber das, was es kann, macht es gut und macht es, ohne dabei viele Ressourcen zu verbrauchen. In Zeiten, in denen sowohl die Digitalisierung als auch der Klimawandel in rasendem Tempo voranschreiten, mĂŒssen innovative Lösungen gefunden werden, die Zukunftstechnologie und Nachhaltigkeit miteinander vereint. Mit TinyML und EdgeAI können kleine Assistenten geschaffen werden, die redundante Arbeiten automatisieren und uns Zeit fĂŒr wichtigere Dinge einrĂ€umen, ohne wĂ€hrenddessen Unmengen an Strom und Wasser zu verbrauchen. Aktuell sehen wir eine Entwicklung, im Zuge dessen alle unsere GerĂ€te immer stĂ€rker, leistungsfĂ€higer und schneller werden. Die Laptops und PCs, die wir uns anschaffen, brauchen mehr Speicher und mehr Leistung, um die Anwendungen laufen lassen zu können. Diese Anwendungen können unseren GerĂ€ten wiederum so viel Leistung abverlangen können, weil die KapazitĂ€t âja eh schon da istâ. Ein Teufelskreislauf entsteht. Dabei braucht es diese AnhĂ€ufung von KapazitĂ€ten und stĂ€ndige Erneuerung und Erweiterung von Hardware nicht, damit eine Technologie besser wird. Â
TinyML kann als Sinnbild dafĂŒr verstanden werden. Die Leistung der GerĂ€te, auf denen die Modelle laufen, ist sehr stark begrenzt und dennoch sind sie in der Lage, zuverlĂ€ssig ihre Aufgabe zu erledigen. Dieses Prinzip funktioniert, weil wir die Technologie optimieren und die KapazitĂ€ten, die aktuell da sind, ausnutzen. Wir können Fortschritt erreichen, ohne uns mehr Ressourcen zu nehmen, ohne immer gröĂer und immer mehr zu werden und immer mehr Leistung zu erbringen, wie wir vielleicht glauben. Raffiniert, klein, optimiert â so geht es auch.