006 领先全球语音技术-《我真不是科技巨星啊》


    第(2/3)页

    例如问他一个脑筋急转弯。

    小明的爸爸有四个儿子,大儿子叫大明,二儿子叫二明,三儿子叫三明,四儿子叫什么?

    语音助手根据逻辑算法,它会回答:“四明!”

    有一种东西叫大数据,程序员完全可以把所有的脑筋急转弯采集下来啊,那样,上面的问题,智能音箱不就可以答对了吗?

    但要是我换一个询问方式。

    有一个人叫傻笔,傻笔的爸爸有三个儿子,大儿子叫大笔,二儿子叫二笔,三儿子叫什么?

    然后智能音箱又不会回答了,要么不知道,要么胡说八道。

    虽然配音不需要什么高智商,也不需要它回答问题,但它至少也要有图象分辨能力。

    给电影、动漫做配音,配音师需要根据里边的场景,人物的表情等等调整说话的语气、语调。

    现在的人工智能在文字识别很强,基本可以做到100%,看着电影字幕,机器人也能配音。

    但问题是……

    识别不了电影动漫里边的景象、表情,效果就会非常差劲。

    在动态图象识别方面,当今世界没有一家公司真正做得好。

    第二个问题,就是人工语音的感情。

    真人说话的声音,抑扬顿挫、喜怒哀乐、有呼吸、有口水声,节奏或快或慢,这样的配音效果是当今的语音无法做到的。

    现在的语音就是电子音,金属音,虽然某些公司做的语音做得很逼真,但还是能很明显听得出那种没人情味的“机器人”声音。

    同一句话在不同的影视动漫场景,都会有不同的表现效果。

    喜!

    “今生得不到你的爱,来世再相见。”女主角在灾难现场找到了男主角,他还活着,她的语气是喜悦的。

    怒!

    “今生得不到你的爱,来世再相见。”反派被女主一剑刺穿胸膛,他语气充满了愤怒与不甘。

    哀!

    “今生得不到你的爱,来世再相见。”男主角向女主表白,被拒绝了,他语气低落。

    乐!

    “今生得不到你的爱,来世再相见。”男主角在愚人节戏弄女主成功,他得意大笑。

    真人配音可以根据不同的场景,表现出不同的配音效果。
    第(2/3)页