Apple Music: Android-App offenbart Vorbereitungen auf Lossless-Audio
Apple Music könnte in Zukunft eine Art Hi-Fi-Stufe integrieren – ähnlich wie Spotify oder Tidal. Die Android-App für Apple Music in der Version 3.6 (Beta) gibt uns da nun weitere Hinweise. Hinter den Kulissen finden sich jedenfalls im Code der App laut 9to5Google bereits mehrere Verweise auf eine neue Option für Lossless-Audio.
So sind bereits Hinweise hinterlegt, die Nutzer etwa warnen sollen, dass Lossless-Streaming sehr viel Datenvolumen benötige, weil die beste Qualität gewährleistet sei. Auch auf den erhöhten Speicherplatzbedarf wird verwiesen. Ein einziges Lied werde dann ca. 145 MByte benötigen, wenn es mit 24-bit / 192 kHz vorliege. Spannend ist jedoch, dass die Android-App im Gegensatz zum iOS-Pendant keine Verweise auf Dolby Audio oder Dolby Atmos enthält. Vielmehr ist von „Lossless“ und „High-Res Lossless“ die Rede.
Beide Formate sollen Apples ALAC-Codec verwenden. High-Res Lossless stehe dabei bei Apple für als ALAC codierte Musik mit 24-bit / 192 kHz, während Lossless dann die Codierung als ALAC bei 24-bit und 48 kHz beinhalte.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
„High-Res Lossless stehe dabei bei Apple für als ALAC codierte Musik mit 24-bit / 192 kHz, während Lossless dann die Codierung als ALAC bei 24-bit und 48 kHz beinhalte.“ Ist das fix? Oder bedeutet das BIS 192 kHz bzw. 48 kHz.
Weil Musik überlicherweise in 44,1 kHz oder einem Vielfachen davon vorliegt. 48 kHz wird meist bei Film/Video-Ton verwendet. Beim upsampling von 44,1 auf 48 kHz leider meist die Qualität (außer es wird sehr hochwertige Technik genutzt).
leidet meist die Qualität muss es natürlich heißen…sorry
Wie kommst du drauf, dass Musik normal in 44,1 kHz vorliegt?
Fast alle Musikstudios erstellen ihre Masters mit 24 bit mit mind. 96 kHz bis 192 kHz und sie werden dann nur für die jeweilige Verwertung runtergerechnet.
(Bei RedBook – also CD – halt 16 Bit mit 44.1 khz, weil das olle Ding halt nicht mehr kann)
Aber Apple selber nimmt übrigens wohl grob geschätzt ca. einem Jahrzehnt nur unwillig Material mit weniger als 24/96 an und für ihr „Mastered for iTunes“ bzw. seit 2 Jahren oder so „Apple Digital Masters“, das dann noch ein paar zusätzliche technische Vorraussetzungen (wie max. Lautstärkepegel) hat, ist es sogar unmöglich was unter 24/96 an Apple „hochzuladen“
Und immerhin ist ein Großteil der Musik der letzten Jahre ein „Apple Digital Master“
(bei der Umbenennung 2019 sprach man von 75% der US und 71% der globalen Charts)
Man fragt sich eigentlich eh schon seit Jahren, wann Apple endlich ein lossless und da evtl. sogar HighRes Angebot rausbringt.
Weil gerade Apple eigentlich eines der Größten Archive damit haben müsste.
„Wie kommst du drauf, dass Musik normal in 44,1 kHz vorliegt?“
Antwort (siehe oben): „Weil Musik … oder einem Vielfachen davon vorliegt.“
Und weil ich das als Toningenieur studiert habe 😉 Noch wird Musik größtenteils in 44,1 kHz ausgespielt. Daher wird Musik im Studio mit 44,1 ODER 88,2 kHz aufgenommen. Ein Downsampling von 88,2 kHz auf 44,1 kHz ist einfach und ohne große Fehler durchführbar, weil einfach durch 2 teilbar, keine Rundungsfehler. Um eine Datei von 96 kHz auf 44,1 kHz down zu sampeln ist ein hoher Rechenaufwand bzw. sehr hochwertige (teure) Hardware notwendig, zumindest wenn man sich keine Rundungsfehler einfangen will.
Klar, wenn man den Aufwand nicht scheut kann man auch in 96 kHz aufnehmen. Ist nur Unsinn weil der Decoder beim Abspielen einfach 44,1 kHz oder 88,2 kHz wählt. Die Dinger können nämlich von… bis…
Sehr ungerne gehört ist auch die Tatsache dass viele Musik einfach upgesampelt wird. Nicht selten entpuppen sich angebliche 96 kHz Titel als hochgejubelte 44,1 kHz Dateien.
Die Wortbreite von 24 bit hat im Übrigen einen viel höheren (weil deutlicher wahrnehmbar) Einfluss auf die Wahrnehmung von Musik als die Sapmlingrate. Dynamik ist für das Menschliche Ohr viel besser wahrnehmbar als Hohe Frequenzen (evtl. Evolutionäre Vorteil?). Aber das ( Menschen die Frequenzen bis 44.000 Hz und höher hören) ist eine endlose Diskussion die ich leid bin zu führen 😉
„Und weil ich das als Toningenieur studiert habe“ und „Weil Musik … oder einem Vielfachen davon vorliegt.“
Ich selber bin zwar selber kein Toningenieur, aber bin aber aktiv in der Industrie (bei einem halbwegs bekannten Label) tätig.
Dein Studium muss wohl länger her sein und du bist wohl nicht mehr wirklich in dem Bereich tätig – seit so 2005 bis 2010 ist man von 44.1, 88.1 und dem selteneren 176.4 kHz ist man seit Jahren am weggehen.
Heute bevorzugt man mehr das Vielfache von 48 statt von 44.1
88.2 und 176.4 sind z.b. bei den technical guidelines von den Grammys, an das sich so gut wie alle Labels halten, bei PCM schon seit Jahren garnicht mehr vorgesehen und 44.1 ist eh nur noch aus Kompatibilitätsgründen drin.
Und auch jede moderne DAW und fast jede neuere Hardware hat 24/96 oder gar 24/192 als default (mittlerweile hat man während der Produktion, wenn es um Effekte usw geht, sogar bis 32/192)
Und wie gesagt, Apple hat mittlerweile ein Riesen Archiv an 24/48, 24/96 bis sogar 24/192 Material. (ok, sie nehmen auch heute noch 24/88.2 an und bis Ende 2019 konnte man zur Not auch noch 24/44.1 nach „wegklicken“ eines Hinweises submitten)
Und das Gute ist:
weil die für ihre „Apple Digital Masters“ auch entsprechende limits für die pegel usw. setzen, gibt es (so gut wie) keine „brickwalled“ Musik, weil anfangs entweder die Studio Masters oder die master für SACD oder vinyl submitted wurden. Mittlerweile auch welche, die wirklich nur für die Regeln von Apple erstellt wurden.
Aber ja am Ende gebe ich dir recht – die hohen Abtastraten sind schön und gut für Produktion und Verarbeitung und gerne auch noch als Basis für ein eventuelles (Re)encoding
Am Ende der Kette, wie es dann letztendlich beim Konsumenten ankommt, halte ich ebenfalls 44.1 khz – (also damit nyquist bei 22.05 kHz) für jedes normale Gehör ab dem Teenager Alter mehr als ausreichend.
Oder zur Not geht man für Sonderfälle („goldene Ohren“ usw.) auf 48. – Aber das reicht dann auch…
Seltsam, mein Abschluss war 2010. Da muss ich dann wohl komplett geschlafen haben 😉
Fehlt dann nur noch die Integration in Roon und ich würde von Tidal wechseln.
Welche Vorteile siehst Du denn in Amazon Music im Gegensatz zu Tidal? Mir fällt da nur der Preis ein.
Mich würde interessieren, wie Apple gedenkt, dass sinnvoll in Ihr Ökosystem zu integrieren. Es geht bei Apple doch immer darum, alles einfach zu halten, alles bestmöglich zu verknüpfen? Seit Jahren arbeitet Apple darauf hin, möglichst alle Kopfhörer drahtlos zu betreiben, unterstützen aber in IOS nur SBC via Bluetooth. Ich bin da nicht so fit – aber wenn solche Dateien dann mit den 600 Euro teuren Airpods Max oder den immer noch bei 200 Euro liegenden Airpods pro nicht einmal übertragbar sind, was soll dann Apple Music HiFi bringen? Ist es (technisch) möglich, dass Apple HiFi-kompatible Codecs via update nachrüstet? Also vielleicht ein Apple-LDAC oder sowas? Kann man das via Update in IOS und die Airpods bekommen? Ansonsten wäre das ja wie bei Tidal und Co nur mit einem ext. DAC hörbar?! Oder stehe ich irgendwie auf dem Schlauch?
Das frage ich mich ebenfalls.
Wobei das mit SBC nicht stimmt. – Das ist die Rückfalloption.
Normal wird AAC verwendet.
Aber evtl. haben sie ja in ihren W1 und H1 chips etwas eigenes LDAC – ähnliches verbaut.
Eine Art moderneres ALAC.
Oder preschen sie wieder vor und setzen auf lc3plus – der HighRes Variante von LC3, was ja in zukünftigen Bluetoothversionen in den Standard aufgenommen werden soll.
Macht sich Marketing-technisch auch super. Noch besser natürlich, wenn man es dann nicht per Bluetooth ausgibt. Was bei den aktuellen Kopfhörer-Trends nicht leicht ist.