Amazon lässt Alexa menschlicher klingen
Amazon hat heute nicht nur die Einstellung des Underground-Angebotes für den Amazon App Shop verlauten lassen, auch in Sachen Alexa lässt man etwas vom Stapel. Amazons künstliche Intelligenz in der Cloud soll nämlich menschlicher wirken. Alexa ist die Stimme hinter Echo, Echo Dot, den neuen Fire TV-Oberflächen und anderen Komponenten, die auf Alexa als Assistent setzen. Damit Alexa menschlicher klingt, müssen die Entwickler mithelfen, ihre Skills dahingehend anpassen. Alexa nutzt eine XML-basierte „Speech Synthesis Markup Language“ und gibt Entwicklern die Möglichkeit, die Sprachmuster und ihre Eigenschaften zu verändern.
Eine XML-basierte Geschichte klingt standardisiert, aber insgesamt fünf neue Eigenschaften sollen die Sprachausgabe nun einen Ticken besser machen – unterstützt wird dabei übrigens auch die deutsche Alexa. So kann man nun Alexa unter anderem mitgeben, dass sie flüstern, die Tonhöhe, Lautstärke, die Pause zwischen langen Sätzen oder die Sprechgeschwindigkeit anzupassen soll. Entwickler können sich hier einlesen. Ebenfalls neu für Deutschland sind die Speechcons. Hiermit will man Alexa die natürlichere Wiedergabe von Redewendungen beibringen. Beispiele: Da lachen ja die Hühner oder auch „Donnerwetter“.
Witzigerweise heisst die deutsche „Alexa“ Stimme bei Amazon im Dev Center „Silke“.
Es gibt zudem bereits seit langem einen Parameter um eine „männliche“ Version zu nutzen. Letzteres ist aber scheinbar komplett ungenutzt bzw. ohne Rückmeldung einer Sprachausgabe.
Anscheinend verkauft sich Alexa richtig gut wenn Apple jetzt ein Siri-Device entwickelt!
Ich finde nur IBM Watson wirklich ausgereift wenn es um Sprachausgabe geht, lässt sich natürlich nicht vergleichen.
@Chrischi: Silke ist nicht Alexa. Schon den Unterschied gehört ?
@stiflers.mom
tatsächlich nicht! Daher bin ich verwundert.
Aber was aus dem deutschen Echo raus kommt ist definitiv Silke und nicht Alexa.