从SAPI 5.1中提取中文发音引擎

简介:

不过如果仅仅使用TTS,难道也要从API SDK装到语言包吗(总共100多M)?如果要发布带语音朗读的软件,一定要用微软的再发布包(SDK Redistributables file)吗?小生经过反复的对比和研究,发现软件中SR占了很大的比重,而TTS只要有引擎就可以了。比如中文TTS,主要是一个SPTTSCHS.DLL文件,还有两个词素(Lexicon)文件。到 这里下载压缩文件,并按原路径信息解压到C:\Program Files\Common Files文件夹下(适用于XP和2003,Win2000不清楚)。当然,还需要在注册表中注册一下该引擎,下面是导出的相关部分:
Windows Registry Editor Version 5.00

[ HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Speech\Voices\Tokens\MSSimplifiedChineseVoice ]
@="Microsoft Simplified Chinese"
"CLSID"="{AE2CF4DB-3697-45F4-9787-0FC5A37BEB36}"
"409"="Microsoft Simplified Chinese"

[ HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Speech\Voices\Tokens\MSSimplifiedChineseVoice\Attributes ]
"Language"="804"
"Vendor"="Microsoft"
"Name"="Microsoft Simplified Chinese"
"Gender"="Male"
"Age"="Adult"

把上面内容保存为ttscn.reg,双击导入该文件,在控制面板的“语音”(Speech)中应该可以看到语音选择中除了“Microsoft Sam”外又多了一项“Microsoft Simplified Chinese”。
开始玩中文TTS吧!




本文转自94cool博客园博客,原文链接:http://www.cnblogs.com/94cool/archive/2010/01/28/1658617.html,如需转载请自行联系原作者 

相关文章
|
2月前
火山中文编程 -- 如果和如果真命令
火山中文编程 -- 如果和如果真命令
14 0
|
3月前
|
机器学习/深度学习 自然语言处理 PyTorch
Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)
阿里的FunAsr对Whisper中文领域的转写能力造成了一定的挑战,但实际上,Whisper的使用者完全可以针对中文的语音做一些优化的措施,换句话说,Whisper的“默认”形态可能在中文领域斗不过FunAsr,但是经过中文特殊优化的Whisper就未必了。
Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)
|
存储 自然语言处理 Python
中文文本清洗和结巴分析,写一个详细python案例
你可以根据你的需要添加、删除或修改其中的词语。通常,停用词表会根据特定的任务和数据进行调整。
1339 0
|
JSON API 数据格式
Jmeter系列(27)- 详解正则提取器
Jmeter系列(27)- 详解正则提取器
169 0
Jmeter系列(27)- 详解正则提取器
|
自然语言处理 Python Ubuntu
自然语言处理工具python调用hanlp中文实体识别
Hanlp作为一款重要的中文分词工具,在GitHub的用户量已经非常之高,应该可以看得出来大家对于hanlp这款分词工具还是很认可的。本篇继续分享一篇关于hanlp的使用实例即Python调用hanlp进行中文实体识别。
1814 0
|
自然语言处理 算法 计算机视觉
pyhanlp 共性分析与短语提取内容详解
HanLP中的词语提取是基于互信息与信息熵。想要计算互信息与信息熵有限要做的是 文本分词进行共性分析。在作者的原文中,有几个问题,为了便于说明,这里首先给出短语提取的原理。在文末在给出pyhanlp的调用代码。
3610 0
|
自然语言处理 Python
python实战,中文自然语言处理,应用jieba库来统计文本词频
模块介绍 安装:pip install jieba 即可 jieba库,主要用于中文文本内容的分词,它有3种分词方法: 1. 精确模式, 试图将句子最精确地切开,适合文本分析: 2. 全模式,把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义; 3. 搜索引擎模式,在精确模式的基础上,对长词再词切分,提高召回率,适合用于搜索引擎分词。
2397 0
|
机器学习/深度学习 自然语言处理 Python
中文自然语言处理工具集:分词,相似度匹配
欢迎大家关注我们的网站和系列教程:http://www.tensorflownews.com/,学习更多的机器学习、深度学习的知识! 分词工具 结巴分词 https://github.
2392 0