マイクロソフト AI「りんな」が話し声だけではなく歌声にも感情表現ができるようになった

マイクロソフトは、AI「りんな」に、話し声と歌声に新たに「感情スタイル」を導入したと先般発表

今回、人間が嬉しさ・悲しさを表現する時に出す声のニュアンスを学習し、「嬉しい」「悲しい」という 2 つの感情スタイルをりんなの声に追加したとのこと。
また話し声でだけではなく、これまでのポップやバラードなどの音楽的な表現に感情表現を組み合わせた歌声の表現が可能となった。
これら 2 つの感情スタイルの追加によって、より一層聞き手との共感を醸成することを狙っているという。

音声サンプル: ニュートラル
音声サンプル: 嬉しい声
音声サンプル: 悲しい声

また、昨年発表した「歌唱モデル」にも、「嬉しい」および「悲しい」声をデータとして学習させることで、ポップ、バラード、ロックなどの歌唱表現と感情表現を組み合わせた歌声の生成が可能となった。これにより、学習データには含まれていない「ポップ調の悲しい歌声」や「バラード調の嬉しい歌声」といった歌唱表現をモデルが予測できるようになった。

ソース(マイクロソフト社)

この記事が良かったらシェア!