Microsoft entwickelt eigene KI-Modelle

Microsoft macht einen Schritt in Richtung KI-Eigenständigkeit und stellt zwei selbst entwickelte Modelle vor. Das Unternehmen präsentierte MAI-Voice-1 für Sprachgenerierung und MAI-1-preview als textbasiertes Fundament-Modell. MAI-Voice-1 kommt bereits in den Copilot-Daily- und Podcast-Funktionen zum Einsatz (kann man z. B. hier reinhören). MAI-1-preview steht auf LMArena für öffentliche Tests bereit und wird in den kommenden Wochen in ausgewählten Copilot-Anwendungen eingeführt.
MAI-Voice-1 läuft auf einer einzelnen GPU, während MAI-1-preview mit etwa 15.000 Nvidia H-100 GPUs trainiert wurde. Zum Vergleich: Das Training von xAIs Grok benötigte mehr als 100.000 dieser Chips.
Microsoft Copilot basiert zwar weiterhin hauptsächlich auf der GPT-Technologie von OpenAI, doch die Entwicklung eigener Modelle trotz Milliarden-Investitionen in OpenAI zeigt vermutlich Microsofts Wunsch nach Unabhängigkeit im KI-Sektor.
- Ultra-schlanke, Qi2-kompatible magnetische Powerbank: Erlebe die Raffinesse einer nur 0,86 cm dünnen...
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich bin nur wegen des Bildes hier.
Und nein, früher war eben nicht alles besser.
@Cashy
Ich weiß, es ist zusätzliche Arbeit, aber da es mir gerade aufgefallen ist, eine Anregung:
Ein beschreibender Alternativtext, der beim „Mouseover“ erscheint, könnte eine echte Hilfe für Sehgeschädigte sein. Gerade wenn wir hier der Gag im Bild sitzt.
Ja, verdammt, leider denke ich da nie dran :/
@Geoldoc Find ich gut, dass du auch an andere denkst! Als Software-Ingenieur versuch ich auch immer wieder die Wichtigkeit klar zu machen aber die meisten Firmen haben da 0 Interesse daran. Selbst mit Barrierefreiheitsstärkungsgesetzes will man sich eher drüber unterhalten wie man es vielleicht umgehen könnte.
Wundert mich nicht, das die nun eigene Wege gehen, die Infrastruktur ist ja bereits vorhanden, Microsost ist mit der größte Kunde bei NVidia was KI-Hardware betrifft.
Und die Kunden nutzen nun mal viel AI-Dienste der Cloud, da versuchte ich die doch mal direkt auf meine eigenen Umgebung zu bekommen, anstatt dafür noch Geld an OpenAI abzudrücken.
Die sollten die Technik mal in Teams bzw. Teams Admin Center bringen, damit das Text to Speech in Call Queues oder Auto Attendants besser wird.
Dankeschön.
ich habe ja die Hoffnung, dass KI inzwischen solche Bilder auch beschreiben kann und damit manche Barriere auch fällt, aber dann ist da natürlich noch ein weiterer „Filter“ eingebaut.
Wobei ich zum Teil schon selbst damit zu kämpfen habe, dass in der mobilen Ansicht hier auf der Startseite des Blogs die Werbung häufig zwischen Bild und Text des Artikel eingeblendet wird und ich dann erst genauer hinschauen muss, dass zum Beispiel aktuell auf meiner Starseitenansicht der Hyundai Tucson Werbung ist und nichts mit dem Text darunter zu tun hat, während das Tesla MY das Artikelbild ist.
Da wäre es hilfreich, wenn die Werbeeinblendungen (so wichtig sie auch für die Fanzierung hier vermutlich sein dürften) nur nach dem Artikel und nciht zwischen Bild und Text wären (Ich hoffe, man versteht mich?)
Und ja, ich weiß, was ein Adblocker ist und nein, ich nutze hier aus Prinzip keinen.
Der Copilot kann längst noch viel mehr
Bsp.
https://drive.google.com/file/d/109SQkR_Fjo0nx_n1B-JMyntPA53Vzo9E
oder:
https://drive.google.com/file/d/1HyEu5ZodTSV8IOLxUvuCAfkNmSMi8_cL
Daraus kannst du dir dann auch gleich ein Programm generieren lassen.