
Verbesserungen in Azure AI Speech: Einführung des DragonV2.1 Neural TTS-Modells
Microsoft hat mit der Einführung des neuronalen Text-to-Speech-Modells (TTS) DragonV2.1 ein bedeutendes Upgrade seiner Azure AI Speech-Funktionen vorgestellt. Dieses Zero-Shot-Modell revolutioniert die Sprachsynthese, indem es die Generierung ausdrucksstarker und natürlich klingender Stimmen aus minimalen Eingabedaten ermöglicht. Die Verbesserungen versprechen eine höhere Aussprachegenauigkeit und verbesserte Kontrolle über Stimmeigenschaften und setzen damit einen neuen Standard in der Sprachtechnologie.
Hauptfunktionen von DragonV2.1
Das aktualisierte DragonV2.1-Modell unterstützt Sprachsynthese in über 100 Sprachen und benötigt für eine effektive Bedienung lediglich eine kurze Probe der Stimme des Benutzers. Diese Funktion stellt einen deutlichen Fortschritt gegenüber dem früheren DragonV1-Modell dar, bei dem die Aussprache, insbesondere bei benannten Entitäten, Probleme bereitete.
DragonV2.1 verfügt über ein breites Anwendungsspektrum, darunter:
- Anpassung von Stimmen für Chatbots
- Synchronisation von Videoinhalten mit der Originalstimme eines Schauspielers in zahlreichen Sprachen
Verbesserte Natürlichkeit und Kontrolle
Eines der herausragenden Merkmale des neuen Modells ist die Fähigkeit, eine realistischere und stabilere Prosodie zu erzeugen, was zu einem verbesserten Hörerlebnis führt. Microsoft meldet eine bemerkenswerte durchschnittliche Reduzierung der Wortfehlerrate (WER) um 12, 8 % im Vergleich zum Vorgängermodell DragonV1. Benutzer können verschiedene Aspekte der Aussprache und des Akzents mithilfe von Phonem-Tags der Speech Synthesis Markup Language (SSML) und benutzerdefinierten Lexika feingranular steuern.
Bedenken hinsichtlich Deepfakes und Strategien zur Eindämmung
Diese Fortschritte eröffnen zwar spannende Möglichkeiten, wecken aber auch Bedenken hinsichtlich des möglichen Missbrauchs dieser Technologie zur Erstellung von Deepfakes. Um diesen Risiken entgegenzuwirken, hat Microsoft strenge Nutzungsrichtlinien eingeführt. Diese verlangen von den Nutzern die ausdrückliche Zustimmung des ursprünglichen Sprachinhabers, legen offen, wann Inhalte synthetisch generiert werden, und verbieten jegliche Form von Identitätsbetrug oder Täuschung.
Darüber hinaus führt Microsoft automatische Wasserzeichen in der synthetisierten Sprachausgabe ein. Diese Funktion überzeugt mit einer Erkennungsgenauigkeit von 99, 7 % in verschiedenen Audiomanipulationsszenarien und erhöht so die Sicherheit vor Missbrauch KI-generierter Stimmen.
Erste Schritte mit Azure AI Speech
Interessierte Nutzer können die Funktionen der persönlichen Sprachfunktion in Speech Studio ausprobieren. Unternehmen, die vollen Zugriff auf die API wünschen, können sich hier bewerben, um die erweiterten Funktionen in ihre Anwendungen zu integrieren.
Bild über Depositphotos.com
Schreibe einen Kommentar