MIT: Neuartiges Chip-Konzept für stromsparende Berechnungen neuronaler Systeme

Das Massachusetts Institute of Technology (MIT) informiert darüber, dass es einer Gruppe von Forschern des Instituts nun gelungen sei, einen speziellen Chip zu entwickeln, der es ermöglichen könnte, neuronale Berechnungen von Systemen in jedem x-beliebigen Gerät stattfinden zu lassen. Der Grund: der Rechenaufwand ist aufgrund der Konstruktion des Chips stark minimiert, die Energieersparnis bei Berechnungsvorgängen liegt bei bis zu 95 Prozent.

Neuronale Netze dienen der Technik heutzutage bereits schon sehr oft dazu, wesentlich komplexere Berechnungen stattfinden lassen zu können, beispielsweise für persönlichere Wortvorhersagen bei Tastatur-Apps oder auch zur Erkennung von Parallelen zwischen Fotos von Personen und Gemälden verstorbener Künstler – Themen, die wir hier auch schon verbloggt hatten. Die Berechnungen dahinter sind allerdings derart komplex, dass sie auch den größten Teil des Stromverbrauchs der arbeitenden Chipsätze ausmachen.

Apps, die bisher auf jene neuronalen Netze setzen, verschicken ihre Daten daher aktuell an Server, die dann dort die Berechnungen vornehmen und das Ergebnis zurückschicken. Die vom MIT nun entwickelten Chips schaffen es aber, Prozessor und Speicher in einer Einheit so zu kombinieren, dass die Daten nicht mehr wie bisher zwischen beiden Komponenten hin und hergeschickt werden müssen.

Für das Internet der Dinge, aber eben auch Smartphones, wäre das der nötige Fortschritt, um in Zukunft wesentlich schneller mit solchen neuronalen Systemen interagieren zu können, um einfach noch intelligenter zu funktionieren.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Benjamin Mamerow

Nordlicht, Ehemann und Vater, hauptberuflich mit der Marine verbündet. Außerdem zu finden auf Twitter und Google+. PayPal-Kaffeespende an den Autor. Mail: benjamin@caschys.blog

Das könnte dir auch gefallen…

Mit dem Absenden eines Kommentars willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. „Apps, die bisher auf jene neuronalen Netze setzen, verschicken ihre Daten daher aktuell an Server, die dann dort die Berechnungen vornehmen“

    Woher hast du die Info?
    Man ML jetzt auch schon auf den Smartphones direkt ausführen lassen.
    Inzwischen gibt es sogar entsprechende Frameworks (wie CoreML) dass man gar nicht mehr Low-Level Zugriffe auf den Grafikchip machen muss

  2. Die erzwingen Gewichte von +1 oder -1 was die Operationen deutlich einfacher und entsprechend effizienter macht. Ob diese Vereinfachung die Reduktion um 94% erklärt ist die andere Frage.

    Dann sollte man nicht von einem normalen Prozessor als Referenz ausgehen, sondern einen Grafikprozessor nehmen, welcher parallele Operationen bereits sehr effizient durchführen kann.

    Würde mich mal interessieren wie effizient da ein einfacher FPGA wäre…

  3. Das klingt ein bisschen nach „The Machine“ von HP. Da sollen die Berechnungen auch direkt im Speicher ausgeführt werden, sofern das Teil jemals fertig wird (schon lange nichts mehr davon gehört…?). Wobei da der Speicher auf Basis von Memristoren wohl persistent sein soll, also auch ohne Strom die Daten halten würde.

    Ein FPGA muss seine Daten trotzdem noch in einem Speicher lagern und abrufen. Egal wie effizient der Rechenkern ist, bleibt doch der Datenaustausch mit dem Speicher und die damit verbundene Latenz. Das gilt auch für Grafikkerne und dedizierte ML-Kerne wie im Kirin.

    Wenn diese Rechen/Speicher-Einheit so effizient ist, könnte man die doch sicher auch als Grundlage für ganz neue CPUs hernehmen, die auch ganz normale Berechnungen abseits der KI effizienter ausführen?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.