Google DeepMind: Klingen Computerstimmen bald wie „richtige“ Menschen?

Heiko Bauer 13. September 2016 0 Kommentar(e)

DeepMind, Googles englische Entwicklungsfirma f├╝r k├╝nstliche Intelligenz, hat ein System entwickelt, mit dem sich die nat├╝rliche Sprache deutlich besser nachahmen l├Ąsst als bisher.

Auch interessant: Rovio und Papagei bringen Englisch-Lern-App mit den Angry Birds

Wellenmuster einer Sprachsequenz von WaveNet (Bild: DeepMind)

Wellenmuster einer Sprachsequenz von WaveNet (Bild: DeepMind)

WaveNet soll in der Lage sein, menschliche Sprache 50 Prozent besser nachzuahmen als Googles bisherige Systeme. Das ist das Ergebnis aus Blindtests.

Normalerweise arbeiten Verfahren zu Sprachsynthese entweder mit vorhandenen ┬╗echten┬ź Sprachschnipseln oder mit computergenerierten Stimmen. Bei der ersten Methode┬áklingt das Resultat recht nat├╝rlich, doch die Betonung h├Ąngt immer von der jeweiligen Aufnahme ab. Bei der zweiten Variante kennt der Computer Regeln f├╝r die Aussprache von Buchstabenkombinationen, die Sprache klingt aber undeutlich.

Nichts ist unm├Âglich

WaveNet kann die Vorteile beider Systeme vereinen. Daf├╝r nutzt es ein Verfahren, das bisher vor allem in der Bildanalyse eingesetzt wurde und als f├╝r Audiosignale ungeeignet galt. Allerdings ist das neue System noch so komplex, dass es wohl etwas dauern wird, bis Google Now klingt wie ein humanes Wesen.

Quelle: Bloomberg Technology

auf Facebook teilen auf Google+ teilen auf Twitter teilen