Machine Learning im All: Erster Satellit wurde trainiert

Neues vom maschinellen Lernen: Forscher aus Oxford haben ein einfaches Modell an Bord eines Satelliten im Weltraum trainiert. Die ML-Technik soll hier die Echtzeit-Überwachung von Waldbränden und anderen Umweltkatastrophen ermöglichen. Das Modell wurde darauf trainiert, Veränderungen in der Wolkendecke zu erkennen. Als Datengrundlage dienten Satellitenbilder. Das Forscherteam um Vít Ruzicka nutzte dafür das Few-Shot-Learning, bei dem nur ein kleiner Datensatz benötigt wird. In diesem Fall waren es 1.300 Bilder. Das Modell war in 1,5 Sekunden mit dem Training durch.

Vít Ruzicka erklärt: „Das von uns entwickelte Modell namens RaVÆn komprimiert zunächst die großen Bilddateien in Vektoren mit 128 Zahlen. Während der Trainingsphase lernt das Modell, nur die informativen Werte in diesem Vektor zu behalten, also die Werte, die sich auf die Veränderung beziehen, die es zu erkennen versucht – in diesem Fall, ob Wolken vorhanden sind oder nicht.“

Ein Teil des RaVÆn-Modells, das zur Komprimierung verwendet wird, wurde am Boden trainiert. Projektleiter, Professor Andrew Markham, sieht große Chancen: „Maschinelles Lernen hat ein enormes Potenzial für die Verbesserung der Fernerkundung – die Fähigkeit, so viel Intelligenz wie möglich in Satelliten zu integrieren, wird die weltraumgestützte Sensorik zunehmend autonom machen. Dies würde dazu beitragen, die Probleme zu überwinden, die durch die Verzögerung zwischen Erfassung und Aktion entstehen, indem der Satellit aus den Daten an Bord lernt. Die Arbeit von Vít ist ein interessanter Machbarkeitsnachweis.“

Solche Satelliten werden aufgrund der Latenzzeit, die bis zu zwei Tage betragen kann, besonders wichtig sein. Ein ML-getriebener Satellit würde hier eine deutliche Verkürzung der Reaktionszeit bringen. Dies scheint aber erst der Anfang zu sein. Die Auswertung von Wettersatelliten in Echtzeit wäre bestimmt ein solcher Fortschritt und würde die zeitliche Auflösung der Wettermodelle erhöhen. Ob das tatsächlich so kommt, wird sich zeigen. Wer das Paper lesen möchte, es ist hier als Preprint verfügbar.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Als ehrenamtlicher First-Level-Support und quasi Apple-Jünger, der gerne seine Lebenszeit in Tech-Blogs verbrennt, stehe ich auch gerne für hitzige Diskussionen zur Verfügung.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. „Ein ML-getriebener Satellit würde hier eine deutliche Verkürzung der Reaktionszeit bringen.“

    Halte ich für wenig überzeugend:
    Die Mustererkennung sollte (near) RT stattfinden, für das Mustertraining sind 2 Tage Verzögerung hingegen Peanuts. Es werden also teure/knappe Ressourcen für Lernen fehlalloziert, statt dass sie das Lernen auf die Erde ‚outsourcen‘ und den Satelliten auf tatsächliche Erkennung (unter Anwendung der auf der Erde ‚erlernten‘ Muster) optimieren.

    Wirklich notwendig wird allgestütztes ML erst für Marsmissionen o.Ä., d.h. wenn die Latenz deutlich grösser wird. Damit verargumentieren sie es aber nicht.

  2. Sind 1300 Bilder zum Trainieren nicht viel zu wenig?

    Damit wird man kaum die richtigen Gewichtungen im neuronalen Netzwerk setzen können. Zudem kann ein 128 dimensionaler Vektor kaum ein Bild repräsentieren. Stable Diffusion mit seinen extrem komprimierten Latent Space verwendet pro 512×512 Pixel Bild eine 4x64x64 Matrix.

    • Die Forscher verwendeten „Few-Shot Learning“, um Modelle mit begrenzten Beispielen zu trainieren, indem sie Muster und Informationen extrahierten. Die Herausforderung lag im effektiven Erfassen und Nutzen dieser Informationen.

      Die Wahl von 128-dimensionalen Vektoren zur Darstellung von Bilddaten entspricht den Projektanforderungen. Es geht nicht um perfekte Bildreproduktion, sondern um das Erkennen von Wolkendeckenveränderungen. Diese vereinfachte Darstellung genügt, um notwendige Informationen zu extrahieren, ohne Komplexität einzuführen.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.