MIT: Neuartiges Chip-Konzept für stromsparende Berechnungen neuronaler Systeme

Das Massachusetts Institute of Technology (MIT) informiert darüber, dass es einer Gruppe von Forschern des Instituts nun gelungen sei, einen speziellen Chip zu entwickeln, der es ermöglichen könnte, neuronale Berechnungen von Systemen in jedem x-beliebigen Gerät stattfinden zu lassen. Der Grund: der Rechenaufwand ist aufgrund der Konstruktion des Chips stark minimiert, die Energieersparnis bei Berechnungsvorgängen liegt bei bis zu 95 Prozent.

Neuronale Netze dienen der Technik heutzutage bereits schon sehr oft dazu, wesentlich komplexere Berechnungen stattfinden lassen zu können, beispielsweise für persönlichere Wortvorhersagen bei Tastatur-Apps oder auch zur Erkennung von Parallelen zwischen Fotos von Personen und Gemälden verstorbener Künstler – Themen, die wir hier auch schon verbloggt hatten. Die Berechnungen dahinter sind allerdings derart komplex, dass sie auch den größten Teil des Stromverbrauchs der arbeitenden Chipsätze ausmachen.

Apps, die bisher auf jene neuronalen Netze setzen, verschicken ihre Daten daher aktuell an Server, die dann dort die Berechnungen vornehmen und das Ergebnis zurückschicken. Die vom MIT nun entwickelten Chips schaffen es aber, Prozessor und Speicher in einer Einheit so zu kombinieren, dass die Daten nicht mehr wie bisher zwischen beiden Komponenten hin und hergeschickt werden müssen.

Für das Internet der Dinge, aber eben auch Smartphones, wäre das der nötige Fortschritt, um in Zukunft wesentlich schneller mit solchen neuronalen Systemen interagieren zu können, um einfach noch intelligenter zu funktionieren.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Nordlicht, Ehemann und Vater. Technik-verliebt und lebt fürs Bloggen. Außerdem: PayPal-Kaffeespende an den Autor. Mail: benjamin@caschys.blog / Mastodon

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. „Apps, die bisher auf jene neuronalen Netze setzen, verschicken ihre Daten daher aktuell an Server, die dann dort die Berechnungen vornehmen“

    Woher hast du die Info?
    Man ML jetzt auch schon auf den Smartphones direkt ausführen lassen.
    Inzwischen gibt es sogar entsprechende Frameworks (wie CoreML) dass man gar nicht mehr Low-Level Zugriffe auf den Grafikchip machen muss

  2. Die erzwingen Gewichte von +1 oder -1 was die Operationen deutlich einfacher und entsprechend effizienter macht. Ob diese Vereinfachung die Reduktion um 94% erklärt ist die andere Frage.

    Dann sollte man nicht von einem normalen Prozessor als Referenz ausgehen, sondern einen Grafikprozessor nehmen, welcher parallele Operationen bereits sehr effizient durchführen kann.

    Würde mich mal interessieren wie effizient da ein einfacher FPGA wäre…

  3. Das klingt ein bisschen nach „The Machine“ von HP. Da sollen die Berechnungen auch direkt im Speicher ausgeführt werden, sofern das Teil jemals fertig wird (schon lange nichts mehr davon gehört…?). Wobei da der Speicher auf Basis von Memristoren wohl persistent sein soll, also auch ohne Strom die Daten halten würde.

    Ein FPGA muss seine Daten trotzdem noch in einem Speicher lagern und abrufen. Egal wie effizient der Rechenkern ist, bleibt doch der Datenaustausch mit dem Speicher und die damit verbundene Latenz. Das gilt auch für Grafikkerne und dedizierte ML-Kerne wie im Kirin.

    Wenn diese Rechen/Speicher-Einheit so effizient ist, könnte man die doch sicher auch als Grundlage für ganz neue CPUs hernehmen, die auch ganz normale Berechnungen abseits der KI effizienter ausführen?

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.