讯飞语音的中的bug用户校验失败】的更多相关文章

用户校验失败:原因是目录没有复制粘贴正确. 下面是刚刚下载的SDK目录: 下面的是自己Android工程中的目录:注意复制粘贴的文件路径要正确…
关于讯飞语音SDK开发学习 使用vs自带打包,具体怎么操作就不说了,网上关于这方面的资料挺多的.例如:winform 打包部署,VS2010程序打包操作(超详细的),关键是桌面上创建快捷方式中的"打开文件位置"不能使用,如下图: 起初以为是我打包的时候桌面快捷方式那儿某个参数没设置正确,问题并没出现在那儿.查了一下资料结果是微软自己一个小bug. 微软已给出解决方案:快捷方式的目标值是错误的是通过使用 Visual Studio.NET 创建一个 Windows 安装程序包安装后 按照…
讯飞语音云语音听写学习         这几天两个舍友都买了iPhone 6S,玩起了"Hey, Siri",我依旧对我的Nexus 5喊着"OK,Google".但种种原因,国内的"OK,Google"并不能展示出他的全部威力,于是上网搜索国内Android平台的语音助手,个人觉得评价最好的是讯飞的--灵犀语音助手.其实讯飞语音云平台早就注册过了,并下载了相应的SDK,只是没仔细研究.今天突然想好好学习一下,以方便以后集成到自己开发的APP中,…
场景:android项目中共使用了3个语音组件:在线语音听写.离线语音合成.离线语音识别 11208:遇到这个错误,授权应用失败,先检查装机量(3台测试权限),以及appid的申请时间(35天期限),我的没问题,所以就定位在资源文件的问题了.请注意:保证所有的资源文件都是最新的(在线语音听写.离线语音合成.离线语音识别),比如说你某个页面只需要离线语音识别,但是却没有更新“离线语音合成”的资源文件(common.jet). 23108:这个错误提示语法构建失败,其实我已经写语法了,但是由于编码乱…
一.Android自带的语音播报 1.查看是否支持中文,在测试的设备中打开‘设置’ -->找到 '语言和输入法'-->查看语音选项,是否支持中文,默认仅支持英文. 使用如下: public class AndroidTTSActivity extends AppCompatActivity implements View.OnClickListener { private TextToSpeech textToSpeech = null;//创建自带语音对象 @Override protect…
前奏,浑浑噩噩已经工作一年多,这一年多收获还是挺多的.逛园子应该有两年多了,工作后基本上是天天都会来园子逛逛,园子 里还是有很多牛人写了一些不错的博客,帮我解决很多问题.但是一直没写过博客,归根到底一个字“懒”,还有就是不知道该写 些什么... 今天把我最近研究讯飞语音东东,分享一下,不过有些还是前辈们提供的.之前公司让我做一个小的语音识别功能,一开始我就建议使用讯飞语音,个人觉得讯飞识别正确率还是可观的.可是老总说不能考 虑联网,还有就是钱的问题.想到微软自带语音识别引擎(基于win7).第一…
1.账号准备工作 首先要有一个讯飞的账号啦,为后面申请APPID.APPKey等东西做准备.顺带一提:讯飞对不同认证类型用户开 放的SDK的使用次数是有不同的,详情如下图. 账号申请完成后,需要去你自己的控制台注册你的应用,同时也可以看到你的应用对应的 APPID 等属性,开通的功能,调用量剩余次数等信息. 本文介绍的是Android SDK的接入,这是Android SDK的下载地址,可以根据项目的具体需求具体分析. 2.SDK集成准备工作 如果参照官方文档中或者官方DEMO的做法,需要把对应…
最近实习在做一个跟语音相关的项目,就在度娘上搜索了很多关于语音的API,顺藤摸瓜找到了科大讯飞,虽然度娘自家也有语音识别.语义理解这块,但感觉应该不是很好用,毕竟之前用过百度地图的API,有问题也找不到人帮忙解决(地图开发者群里都是潜水的)...不得不说,科大讯飞在语音这块尤其是中文识别方面做的真心不错,而且Android还支持离线识别. 讯飞官方给的文档内容很详细,在这我就不赘述了.在开发中,由于一些原因需要用到离线识别这块,就学习了一下.讯飞离线识别只支持Android系统,使用时需要安装讯…
一.介绍: 讯飞语音做的相当不错,容错率达到90%多,如果需要做语音方面的功能,它绝对是一个不错的选择.讯飞语音的功能很多:语音听写.语音识别.语音合成等,但我们最常用的还是语音听写.讯飞语音中包含界面的语音听写和不带界面的语音听写,下面我来演示一下. 二.准备工作: (1)去讯飞语音开发平台注册账号并登陆,然后在控制台创建应用,获取对应的app id,这个以后使用它注册激活讯飞语音. (2)下载讯飞语音SDK,将其拖入到项目中,然后添加需要所有的依赖库,另外还有新添加库Contacts.fra…
事实上非常easy,只是有些细节须要注意. 关于讯飞语音在android上的应用,大家须要自己去下载SDK,然后依照讯飞语音提供的api在自己的android的Demo上执行成功,那东西也相当的简单. 然后,大家也须要把自己的cocos2dx项目在android 上部署起来,这些网上资料非常多,也不一一解释,兴许我也会做出相应的总结.这里不多说. OK,废话不多说,直接上代码 思路就是,通过cocos2dx的JNIhelper类实现C++对Java的调用,然后实现语音功能 废话不多说: 直接上代…
11:13 2017/3/141,安装问题:JDK与ECLIPSE位数一定要对应,32位对64位会出现 java was returned ....code 13的弹框错误.版本号可以不一致.2,ECLIPSE 启动后,需要设置JRE路径,否则代码提示错误.3,智能提示问题:在window -preference -java -editor下设置 .为 .abcdefghijklmnopqrstuvwxyz 17:05 2017/3/17讯飞SDK接入UNITY过程:1,导入unity的类包cl…
唤醒功能,顾名思义,通过语音,唤醒服务,做我们想做的事情. 效果图(开启应用后说讯飞语音或者讯飞语点唤醒) 源码下载 地址:http://download.csdn.net/detail/q4878802/9023213 步骤 1. 创建应用,开通服务 地址:http://blog.csdn.net/q4878802/article/details/47762169 2. 下载SDK 我们要使用的是讯飞的付费功能,选择唤醒服务,点击下载以后,会提示没有购买.点击“购买服务”  点击购买一会看到付…
这次给大家带来的是项目的离线语音功能. 讯飞开放平台中的离线语音 首先创建开放平台的账号.这个不必多说 然后创建新应用 选择我的应用,例如以下图,注意下我打马赛克的地方,这个appId非常重要 点击进入 这里要重要提醒下 .讯飞离线语音注冊是要花钱.本项目当然也花了钱买了注冊量 只是大家想熟悉这样的东西他是有3个装机量的,也就是说3个手机是能够在35天内用的 废话不多说 下载人家的sdk 下载完是这个样子的 ,箭头标记的都是非常重要的,须要拷贝到自己项目其中 然后去资源文件中把下面3个复制粘贴…
1.进入官网注册账号,登陆,注册,应用. 2,下载sdk  导入系统库. 3,关闭bitcode 4,初始化讯飞语音. NSString * initString = [[NSString alloc] initWithFormat:@"appid=%@",@"56fb34f4"]; [IFlySpeechUtility createUtility:initString]; 5.集成代码 #import <UIKit/UIKit.h> #import &…
大半夜的,先说些废话提提神 如今智能家居已经不再停留在概念阶段,高大上的科技公司都已经推出了自己的部分或全套的智能家居解决方案,不过就目前的现状而言,大多还停留在展厅阶段,还没有广泛的推广起来,有人说最大的问题是标准不统一云云,但在我看来,最大的问题在于两个方面,一个是价格,一个是操作的简便性,技术上的问题并不是阻碍智能家居推广的核心因素. 再来说说最近很火很惹人爱的微软小娜,Cortana.本人作为微软的死忠,作为一名靠.Net混饭的屌丝程序男,自然是有一部撸妹的,并且在小娜推送当天更新了手机…
官方网站:http://www.xfyun.cn/ 注册还要绑定微信,坑啊,识别率感觉没得微信语音好,但是微信语音审核一直不过,研究下这个 1.下载sdk,主要就下面几个文件,我主要用的是语音识别…
1. 支持功能介绍: 2. Android API主要业务接口和流程介绍 -------------------------------------------------------- 工程代码: http://www.jikexueyuan.com/course/408_3.html?ss=1 -------------------------------------------------------- 准备工作: 在 讯飞开放平台(http://www.xfyun.cn/)注册,下载An…
在线语音合成 将文字信息转化为声音信息,给应用配上"嘴巴".我们提供了众多极具特色的发音人(音库)供您选择.其合成音在音色.自然度等方面的表现均接近甚至超过了人声.这种语音合成体验,达到了真正可商用的标准 讯飞的语音合成还是很牛P的,不但有基础发音人,还有精品发音人.特色发音人.明星发音人,当然你如果有特殊要求还可以定制. 这里我们选择基础发音人做简单的JavaWeb集成测试,因为其他选项还要申请,想想还是算了,等流程走通再说. 平台环境 JDK1.7.Tomcat8.Eclipse.…
1.首先下载讯飞sdk及文档:http://open.voicecloud.cn/ 2.学习里面的demo简单实现了一个小的语音识别功能 先做一个简单demo,看看识别效果.注:语音识别必须联网. 所有接口必需在联网状态下才能正常使用. 效果图: #import <UIKit/UIKit.h> #import "iflyMSC/IFlySpeechRecognizer.h" #import "iflyMSC/IFlyDataUploader.h" @pr…
场景:进入程序后处于语音唤醒状态,当说到某个关键词的时候打开某个子界面(如:语音识别界面) 技术要点: 1. // 设置唤醒一直保持,直到调用stopListening,传入0则完成一次唤醒后,会话立即结束(默认0) mIvw.setParameter(SpeechConstant.KEEP_ALIVE, "1"); 2.添加资源文件appid.jet    很奇怪为什么这里demo里面不需要语法文件 关键代码: /*********************************语音…
原文:http://www.cnblogs.com/scetopcsa/p/3845427.html 在线语音合成的使用方法: 首先下载相关的sdk,这个网址里有多种版本,我选择的Android. http://open.voicecloud.cn/index.php/services/voicebase?type=tts&tab_index=1 需要注意的是,最好先创建应用,审核通过后会返回一个APPID号,这个号在开发时会使用. 下载并解压后如图: 其中,doc中是相关文档,libs中是待会…
看一下打包的版本是不是release, Debug : 调试版本,主要是让程序员使用,在调试的过程中调用 Debug 会启动更多的服务来监控错误,运行速度相对较慢,而且比较耗能. Release : 发布版本,主要是让用户使用, 在使用的过程中会去掉那些繁琐的监控服务,运行速度相对较快,而且比较节约内存. 建议 : 在程序开发完成以后,建议在测试的时候 把 Debug 和 Release 两个版本都测试一下,在提测的时候以 Release 测试的情况为准. 因为 Release 状态下测试的情况…
项目实践:https://blog.csdn.net/Jsagacity/article/details/80094164 demo下载地址:https://fir.im/jy28 demo源码:https://github.com/wapchief/android-CollectionDemo 百度网盘:https://pan.baidu.com/s/1gvoTlcddstxb7tyS8MvWzw密码:l5gd 2 科大讯飞  https://www.xfyun.cn/ 网友使用1https:…
项目需求,需要使用讯飞的语音识别接口,将微信小程序上传的录音文件识别成文字返回 而微信小程序上传的文件格式是silk的,而讯飞接口能识别wav 格式的文件,所以需要将小程序上传的silk文件转成wav的格式 由于小程序上传的silk文件是变异的silk(小程序上传的silk文件中在编码头多添加了一个字节)文件,所以需要将他处理成正常的silk文件 由于项目是运行在Linux上,所以写了一个简单的shell脚本以供java程序调用处理 这个脚本的作用是删除输入文件中#!SILK_V3所在行的第一个…
项目需求,需要使用讯飞的语音识别接口,将微信小程序上传的录音文件识别成文字返回 首先去讯飞开放平台中申请开通语音识别功能 在这里面下载sdk,然后解压,注意appid与sdk是关联的,appid在初始化接口时候需要 由于是在Linux上开发,所以需要将.so文件和.dll文件上传到Linux服务器上安装的jdk/lib/amd64里面,要不会报引擎错误,window环境直接放在项目跟目录就行. 由于微信小程序上传的文件格式是silk的,而讯飞接口能识别wav 格式的文件,所以需要将小程序上传的s…
在配置好Android Studio 2.3.3后,依照结合网上例子,动手创建讯飞语言听写app,最终手机上运行成功. 主要参考两篇博文(zqHero/XunFeiVoiceDEmo ,Android Studio 2.3.3 接入讯飞语音接口),都非常好,基本步骤参考第一篇,代码参考第二篇. 创建讯飞应用:在讯飞开发平台注册账号,在网站上创建应用,得到一个APPID,这个ID用来绑定讯飞SDK和自己制作的APP 创建SDK:选择所需服务(如语言听写).平台(Android).和应用(第一步创建…
Android系统从1.6版本开始就支持TTS(Text-To-Speech),即语音合成.但是android系统默认的TTS引擎:Pic TTS不支持中文.所以我们得安装自己的TTS引擎和语音包. 在项目中,一开始用的是手说TTS,免费版的,感觉声音很不僵硬,不自然,不连贯.付费版的还要钱激活,如果不激活,限制每次只能度5个字,而且比免费版也好不了多少.最后采用了讯飞语音TTS1.0,发音连贯自然,个人感觉很不错了,以后就用它. 介绍下使用方法: 1.首先下载讯飞的语音包apk,以及语音引擎a…
21001,没有安装语音组件1.有没有使用SpeechUtility.createUtility()设置appid2.有没有将libmsc.so放到工程中,jar包有Msc.jar.Sunflower.jar.3.如果使用的是讯飞语音+的本地功能,有没有安装讯飞语音+4.如果设备是android 5.0及其以上,需要将工程中的armeabi和armeabi-v7a文件夹中都放上libmsc.so,如果你下载的SDK中没有armeabi-v7a对应的库,可以将armeabi中的libmsc.so复…
1.进入讯飞官网,注册帐号,进入控制台,创建新应用UnityXunfeiDemo,平台选Android.在当前应用这点下载SDK,添加AI能力(添加新服务),选择语音听写,即可下载安卓SDK(下称讯飞安卓SDK). 2.打开Android Studio,新建一个项目(选Empty Activity即可),打开该项目,点击菜单[File—New—Import Module],导入的模块路径是刚才下载的安卓SDK包/sample/speechDemo> 3.导入AS后会看到报错如下,该模块需要and…
在unity里集成讯飞语音听写iOS sdk的过程中,遇到一个问题,官方的demo中可以将多次onResults回调返回的结果累积拼接起来组成一个完整的结果,而我集成过来以后就不能累积了,只拿到最后一次返回的结果. 但是代码是一样的,怎么会结果不一样呢.最后发现: 原demo里用的是一个UITextView来缓存结果的: @property (weak, nonatomic) IBOutlet UITextView *textView; 而我移过来以后由于不能用iOS原生UI,要改用unity的…