android讯飞语音开发常遇到的问题
场景:android项目中共使用了3个语音组件:在线语音听写、离线语音合成、离线语音识别
11208:遇到这个错误,授权应用失败,先检查装机量(3台测试权限),以及appid的申请时间(35天期限),我的没问题,所以就定位在资源文件的问题了。请注意:保证所有的资源文件都是最新的(在线语音听写、离线语音合成、离线语音识别),比如说你某个页面只需要离线语音识别,但是却没有更新“离线语音合成”的资源文件(common.jet).
23108:这个错误提示语法构建失败,其实我已经写语法了,但是由于编码乱码的原因,造成语法构建失败,所以编码问题也请大家注意。
待续。。。
讯飞官方提供的错误码及解决办法:
错误码 | 错误码说明 | 原因说明 | 解决方案 |
10106 | MSP_ERROR_INVALID_PARA 无效的参数 | 传入的参数有误 | 查看参数是否传错了地方,参数值是否有问题 |
10107 | 可能是 jar 和 libmsc.so 不一致 。 魅族有预装我们的软件 可能会把libmsc.so push到 System lib 下面,造成版本之间的混乱 |
||
10108 | 无效的句柄 | 一般是客户端网络问题,导致服务端释放了这路会话。所以客户端消息再来的时候,就报无效句柄了。 | |
10109 | MSP_ERROR_INVALID_DATA 无效的数据 | (1)上传的命令词语法文件有问题(2)网络状况导致音频数据传输不了 | 客户端上传的命令词语法,单词长度限制为128字节。语法首部限制为#ABNF 1.0 UTF-8; 或者 #ABNF 1.0 gb2313; |
10110 | MSP_ERROR_NO_LICENSE | ||
10111 | MSP_ERROR_NOT_INIT 没有初始化 | 没有调用初始化,或登录未完成 | |
10114 | MSP_ERROR_TIME_OUT 连接超时 | 网络环境出问题了 | |
10117 | MSP_ERROR_NO_ENOUGH_BUFFER 没有足够的内存 | 每次合成字数太多 | 每次合成字数限制4096字节,时长60s |
10118 | MSP_ERROR_NO_DATA 没有数据 |
前段点VAD_BOS没有检测到数据即停止监听 | 检查代码中VAD_BOS的设置 |
合成是没有文本 | |||
10119 | 网络连接异常 | 可能是你说话离开麦克风比较远时,录音的音频声音太小作为噪音处理的,所以识别不到 | |
10121 | MSP_ERROR_ALREADY_EXIST | 人脸模型已经存在 | |
10129 | |||
10132 | 无效的用户操作 | 上次服务未正常结束又启动下次的服务 | 在本次合成或者识别之前确认,上次合成或者识别已经结束 |
10137 | 语法构建频繁 | 上次构建还没有出结果又构建了 | |
10138 | 词典更新失败 | 离线命令词出现 | 上一次更新词典未结束 又来一次 |
10214 | DNS解析错误 | 域名转换到IP失败 | 换个网络通畅的环境,或者先用固定IP测试 |
10301 | 解析错误 | 协议被不法分子篡改了,导致http协议解析失败 | |
10402 | 没有结果 | 在使用通用语义时:在跳转sdk下载界面时,没有勾选具体的语义场景;在使用私有语义时:后台语义测试正常,但没有点击发布 | |
10407 | appid和资源没有来自同一应用下 | ||
10701 | 处于不活跃的状态 | grammarid可能有误 | |
10702 | 语法错误 | 检查语法文件格式、内容、编码设置(实际编码与文件开头、代码参数设置是否一致 ) |
|
10703 | 没有活跃的语法 | 客户端没有携带任何语法文件,直接调用语法接口,造成引擎找不到可激活的语法文件 | 查看是否有合法的grammarid,语法文件是否有误,语法文件的真实编码、文件头填写的编码、函数中传入的编码参数,三者是否一致 |
11201 | 未经授权的语音应用 | 没有审核的话每天的使用次数为500次,调用startlistening,调用一次算一次 | 如果应用语音功能已经完成,可以提交上线审核。审核通过后就没有限制 |
11207 | 禁止使用未经授权的语言服务 | 测试版本超过限制 | 测试版本的只有3台装机量,35天的使用限制 |
11208 | |||
11700 | MSP_ERROR_IFR_NOT_FACE_IMAGE | 没有检测到人脸 | |
12413 | 图片传的太大,http最大限制了 | jpg 格式,人脸最低在80*80像素,大小建议不超过150k | |
14002 | 服务端脚本错误,没有结果 | appid 跟语义的服务没有关联好 |
1、在使用通用语义时:在跳转sdk下载界面时,没有勾选具体的语义场景; 2、在使用私有语义时:后台语义测试正常,但没有点击发布,会出现14002; |
16006 | 请求超时 | ||
20004 | 无效的结果 | 没有说话就停止识别监听 | |
20005 | Android无匹配结果 | 使用命令词识别或者语法文件识别出现,查看所说的话是否在语法文件或者命令词识别中 | |
20006 | Android录音失败 | A、重启手机,B、查看是否使用的虚拟机,建议真机调试,虚拟机很多时候不能识别到麦克风设备,C、查看工程是否添加了录音权限,D、查看是否有其他进程正在占用麦克风; | |
20009 | iOS录音失败 | ||
20010 | iOS无匹配结果 | 使用命令词识别或者语法文件识别出现,查看所说的话是否在语法文件或者命令词识别中 | |
20012 | 参数错误 | ||
20017 | 本地引擎错误 | 被异常打断 | 做语音识别出现20017错误,可能会是同时在一个Activity做识别和合成造成,但主要可能是如果上一次未结束,又开启了下一次。可以检查一下上一次是否结束,结束标志:识别判断上一次是否结束: OnResult isLast=true 或者 onError 合成判断上一次是否结束:onCompleted |
21001 | 没有安装语音组件 | 1、有没有使用SpeechUtility.createUtility()设置appid 2、有没有将libmsc.so放到工程中 3、如果使用的是讯飞语音+的本地功能,有没有安装讯飞语音+ 4、如果设备是android 5.0及其以上,需要将工程中的armeabi和armeabi-v7a文件夹中都放上libmsc.so,如果你下载的SDK中没有armeabi-v7a对应的库,可以将armeabi中的libmsc.so复制一份到armeabi-v7a文件夹中 5、SpeechUtility.createUtility()如在Application中调用,需要在Mainifest中注册该Applicaiton。此方法不是必须在Appcation中调用,可在需要使用语音能力之前,例如进入语音搜索页面调用。 |
|
21002 | 引擎不支持 | ||
21003 | 初始化失败 | 调用过程中刚开始初始化就开始设置参数、开始识别或开始合成 | 初始化是相对异步进行的,初始化的时候在InitListener里面的onInit()回调初始化成功之后在开始设置参数、调用合成、调用识别。需要先设置appid。使用speechapi.jar的话需要先安装讯飞语音+。添加各项权限 |
23001 | 在离线语音合成没有放入资源 | 使用demo测试时,需将res中资源拷贝到demo中assets相应的路径下;使用带UI接口时,需要将assets下的文件拷贝到项目中 | |
23003 | ERROR_ASR_OUT_OF_MEMORY | 内存耗尽 | |
23007 | 引擎未初始化 | 可能是未按照Demo进行集成,没有将资源拷贝进项目中 | |
23108 | 打开文件失败 | 一般在打开文件时候没有权限导致打开失败或者是代码里相关文件的路径写错,参数设置不正确。 | 1.检查是否增加本地读写权限:
<uses-permissionandroid:name="android.permission.WRITE_EXTERNAL_STORAGE" |
23109 | 识别语法错误 | 读取资源、词典、场景等文件失败 | |
23300 | 识别语法有问题 | ||
24110 | 本地引擎错误 |
android讯飞语音开发常遇到的问题的更多相关文章
- Android讯飞语音云语音听写学习
讯飞语音云语音听写学习 这几天两个舍友都买了iPhone 6S,玩起了"Hey, Siri",我依旧对我的Nexus 5喊着"OK,Google" ...
- Android 讯飞语音听写SDK快速接入(附空指针解决和修改对话框文字方法)
1.账号准备工作 首先要有一个讯飞的账号啦,为后面申请APPID.APPKey等东西做准备.顺带一提:讯飞对不同认证类型用户开 放的SDK的使用次数是有不同的,详情如下图. 账号申请完成后,需要去你自 ...
- Android 讯飞语音之语音合成(在线有声朗读)
原文:http://www.cnblogs.com/scetopcsa/p/3845427.html 在线语音合成的使用方法: 首先下载相关的sdk,这个网址里有多种版本,我选择的Android. h ...
- iOS: 讯飞语音的使用
一.介绍: 讯飞语音做的相当不错,容错率达到90%多,如果需要做语音方面的功能,它绝对是一个不错的选择.讯飞语音的功能很多:语音听写.语音识别.语音合成等,但我们最常用的还是语音听写.讯飞语音中包含界 ...
- 基于讯飞语音API应用开发之——离线词典构建
最近实习在做一个跟语音相关的项目,就在度娘上搜索了很多关于语音的API,顺藤摸瓜找到了科大讯飞,虽然度娘自家也有语音识别.语义理解这块,但感觉应该不是很好用,毕竟之前用过百度地图的API,有问题也找不 ...
- cocos2dx实现android的对讯飞语音的合成(语言朗读的实现)
事实上非常easy,只是有些细节须要注意. 关于讯飞语音在android上的应用,大家须要自己去下载SDK,然后依照讯飞语音提供的api在自己的android的Demo上执行成功,那东西也相当的简单. ...
- Android自带语音播报+讯飞语音播报封装(直接用)
一.Android自带的语音播报 1.查看是否支持中文,在测试的设备中打开‘设置’ -->找到 '语言和输入法'-->查看语音选项,是否支持中文,默认仅支持英文. 使用如下: public ...
- 继《关于讯飞语音SDK开发学习》之打包过程中遇到小问题
关于讯飞语音SDK开发学习 使用vs自带打包,具体怎么操作就不说了,网上关于这方面的资料挺多的.例如:winform 打包部署,VS2010程序打包操作(超详细的),关键是桌面上创建快捷方式中的&qu ...
- iOS开发讯飞语音的集成
1.进入官网注册账号,登陆,注册,应用. 2,下载sdk 导入系统库. 3,关闭bitcode 4,初始化讯飞语音. NSString * initString = [[NSString alloc ...
随机推荐
- 生成.a文件步骤
1.新建一个Project 选择 iOS->Framework & Library ->Cocoa Touch Static Library点击Next-> 输入Produc ...
- 很不错的安卓FadingActionBar控件源码
这个我刚刚从一个github下载过来的,自己测试一下运行了,感觉还不错的,安卓FadingActionBar控件源码,现在就给大家分享一下,源码我已经上传到源码天堂那里了,想下载的朋友可以去那里下载吧 ...
- Android数据库(sqlite)加密方案
最近因为一些项目的安全性需要将数据库加密,一开始想到的就是先将数据库通过AES加密,然后运行时再解密,另一种是将数据库里的内容加密. 很快这两种方案都是不理想的,第一种加密方式形同虚设,第二种,如果加 ...
- %SELECTALL
If you ever need to create a view that selects all fields from a particular record, then you should ...
- wamp+zendstudio12+xDebugger环境搭建
1.网上找到Wampserver,下载即可,一路安装即可,安装好后打开浏览器输入http://localhost即可看到有没有安装成功 比如我的是这样的,就说嘛wampserver安装成功了 wamp ...
- nginx+php与apache+php性能对比
测试工具http_load相同的动态页面测试,相同的硬件资源,相同并发,相同请求数量的前提下,nginx+php比apache+php的性能要 差,而且如果请求的压力大于硬件资源的承受能力,nginx ...
- 基于jQuery编写的横向自适应幻灯片切换特效
基于jQuery编写的横向自适应幻灯片切换特效 全屏自适应jquery焦点图切换特效,在IE6这个蛋疼的浏览器兼容性问题上得到了和谐,兼容IE6. 适用浏览器:IE6.IE7.IE8.360.Fire ...
- PHP 定时任务|Cron
一. Crontab 介绍 crontab命令的功能是在一定的时间间隔调度一些命令的执行.在/etc目录下有一个crontab文件,这里存放有系统运行的一些调度程序.每个用户可以建立自己的调度cro ...
- jQuery操作 input type=checkbox的实现代码
代码如下: <input type="checkbox">: 2012欧洲杯"死亡之组"小组出线的国家队是:<br> <input ...
- uva 11538 Chess Queen<计数>
链接:http://uva.onlinejudge.org/index.php?option=com_onlinejudge&Itemid=8&page=show_problem&am ...