Amazon lässt Alexa menschlicher klingen

28. April 2017 Kategorie: Smart Home, geschrieben von: caschy

Amazon hat heute nicht nur die Einstellung des Underground-Angebotes für den Amazon App Shop verlauten lassen, auch in Sachen Alexa lässt man etwas vom Stapel. Amazons künstliche Intelligenz in der Cloud soll nämlich menschlicher wirken. Alexa ist die Stimme hinter Echo, Echo Dot, den neuen Fire TV-Oberflächen und anderen Komponenten, die auf Alexa als Assistent setzen. Damit Alexa menschlicher klingt, müssen die Entwickler mithelfen, ihre Skills dahingehend anpassen. Alexa nutzt eine XML-basierte „Speech Synthesis Markup Language“ und gibt Entwicklern die Möglichkeit, die Sprachmuster und ihre Eigenschaften zu verändern.

Eine XML-basierte Geschichte klingt standardisiert, aber insgesamt fünf neue Eigenschaften sollen die Sprachausgabe nun einen Ticken besser machen – unterstützt wird dabei übrigens auch die deutsche Alexa. So kann man nun Alexa unter anderem mitgeben, dass sie flüstern, die Tonhöhe, Lautstärke, die Pause zwischen langen Sätzen oder die Sprechgeschwindigkeit anzupassen soll. Entwickler können sich hier einlesen. Ebenfalls neu für Deutschland sind die Speechcons. Hiermit will man Alexa die natürlichere Wiedergabe von Redewendungen beibringen. Beispiele: Da lachen ja die Hühner oder auch „Donnerwetter“.


Über den Autor: caschy

Hallo, ich bin Carsten! Baujahr 1977, Dortmunder im Norden, BVB-Getaufter und Gründer dieses Blogs. Auch zu finden bei Twitter, Google+, Facebook, Instagram und YouTube. Persönliches Blog. PayPal-Kaffeespende. Mail: carsten@caschys.blog

Carsten hat bereits 25309 Artikel geschrieben.