AMD Ryzen AI 300: Zwei neue Chips für KI-Notebooks

AMD Ryzen AI 300: Neue Prozessoren für KI-PCs starten.

AMD Ryzen AI 300: Neue Prozessoren für KI-PCs starten.

AMD hat nicht nur seine neuen Prozessoren der Reihe Ryzen 9000 für Desktop-PCs vorgestellt, sondern auch zwei neue Chips für Notebooks. Hier hat man dann allerdings eine Umtaufe vollzogen und betitelt die frischen Modelle als AMD Ryzen AI 300. Auch sie basieren auf der Architektur Zen 5. Als Fertiger fungiert TSMC, der die Prozessoren im 4-Nanometer-Verfahren herstellt.

Die neuen AMD Ryzen AI 300 laufen auch unter dem Codenamen „Strix Point“ und bieten bis zu zwölf CPU-Kerne. Ebenfalls an Bord ist eine integrierte GPU, die im Gegensatz zu den Desktop-Pendants auf der neueren Architektur RDNA 3.5 basiert und bis zu 16 CUs (Compute Units) mitbringt. Auch nicht fehlen darf natürlich eine neue NPU auf Basis von XDNA 2 mit bis zu 50 TOPS.

Der neue Ryzen AI 9 HX 370 ist das leistungsfähigere Modell mit einem Basis-Takt von 2 und einem Boost-Takt von 5,1 GHz sowie einer TDP von 28 Watt. Notebook-Hersteller haben aber Spielraum für Aufbauten mit 15 bis 54 Watt. Als GPU dient hier die Radeon 890M mit 16 CUs. Als Takt sind 2,9 GHz angegeben. Der Ryzen AI 9 365 speckt auf zehn Kerne mit identischem Basis-Takt ab. Der Boost-Takt sinkt leicht, auf 5 GHz. Auch verbaut man hier eine etwas schwächere GPU, die AMD Radeon 880M.

AMD Ryzen AI 300 Series: Erste Notebooks ab Juli 2024

Die beiden Chips haben 16 PCIe-4.0-Lanes gemeinsam und sind für DDR5-5600- und LPDDR5X-7500-RAM bereit. AMD wirbt dabei aber vor allem aggressiv mit der KI-Leistung und hat auch schon eigene Benchmarks vorgelegt, welche die neuen Notebook-Chips den Apple M3, Qualcomm Snapdragon X Elite und Intel Core Ultra 9 185H gegenüberstellen. Dabei liegen die hauseigenen Chips natürlich stets deutlich vorne. Hier sollte man aber erst unabhängige Tests abwarten.

Als erste Partner wollen unter anderem Asus und MSI Notebooks auf Basis der AMD Ryzen AI 300 auf den Markt bringen. Über 100 Designs seien bereits durch Partner in der Mache, so AMD selbst. Als Beispiele nennt man aus dem Hause Asus sogar schon konkret die ROG Zephyrus G16, ProArt P16 und PX13, Zenbook S 16, Vivobook S 14, S 15 und S 16 sowie die TUF Gaming A14 und A16. Weitere Partner sind z. B. auch noch HP und Lenovo.

Model Cores /
Threads
Boost / Base Frequency Total
Cache
Graphics
Model
cTDP NPU
AMD Ryzen AI 9 HX 370 12 / 24 5.1 GHz /
2.0 GHz
36 MB AMD Radeon 890M Graphics 15-54W Yes
(50 TOPs)
AMD Ryzen AI 9 365 10 / 20 5.0 GHz /
2.0GHz
34 MB AMD Radeon 880M Graphics 15-54W Yes
(50 TOPs)

In den Handel kommen die ersten Notebooks auf Basis der AMD Ryzen AI 300 ab Juli 2024.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

2 Kommentare

  1. mal eine Verständnis Frage ich dachte immer die KI´s die wir vorgesetzt bekommen sind Cloud Anwendungen für was brauch ich dann ein Notebook Chip mit einem speziellen KI Teil, will mir gerade auch nicht beim Apple M4 einleuchten

    • => um KI Modelle lokal laufen zu lassen so dass du
      – nicht ein Abo brauchst (die Zeit im Rechenzentrum auf extrem teuren nVidia GPUs schenkt Dir auf Dauer keiner)
      – kürzere Reaktionszeiten und weniger Anforderung an schnelles Internet hast als wenn die Daten erst zur Verarbeitung woanders hin geschickt werden müssen
      – größere Privatsphäre weil die Daten Verarbeitung rein lokal laufen kann (nVidia hat doch z.B. so ein Demo-Tool wo man mit einer AI über Inhalte von Dateien sprechen kann die man lokal in einem Ordner hat).

      Konkrete Anwendungsfälle gibt es momentan leider wenig weil es kaum Software gibt die diese Beschleuniger unterstützen, aber was ich denke recht wahrscheinlich ist in naher Zukunft:
      – qualitativ besseres Hintergrund-austauschen bei Videokonferenzen
      – evtl. live Audioverarbeitung (Geräuschfilter?)
      – Spracherkennung (OpenAI Whisper ist ne tolle Sache und komplett kostenlos, läuft IMHO bisher noch nicht auf Ryzen AI, aber denke das kommt vermutlich)
      – Bildergenerierung / retuschieren mit AI Hilfe lokal ohne Adobe-Cloud
      – Face ID für den Laptop zum entsperren? (ok, ging bisher auch irgendwie)

      Bei Apple denke ich ist der NPU Teil des Chips wohl primär für Bilderkennung/Spracherkennung/AI-Photoverbesserung im Einsatz. Also eher ne Handy-Diktier/Fotosache. Bin nicht sicher ob wir langfristig schon wissen was die „Killer-App“ dafür sein wird. Ist sicher noch viel Hype ohne konkreten vorhandenen Anwendungszweck, aber es ist auch nicht nur Hype, könnte schon was sinnvolles sich damit anstellen lassen mittelfristig.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.