这可能是重复的,但我找不到我的问题的答案。
我正在尝试为Android设备4.1和4.2开发一种连续语音识别,但我想知道当麦克风打开且语音识别应用程序运行时,会消耗多少电池?我还没有决定使用哪一种,比如:语音识别API、Sphinx、Speex等等。。。
有人能帮我区分哪个解决方案需要更少的功耗吗?
预测电池消耗几乎是不可能的,因为它取决于几个因素:
即使一切都处于理想状态,不同的设备具有不同的屏幕、处理器和电池容量这一简单事实也将使我们无法预测消耗量。
如何使用REST API(带javascript SDK)Bing语音API实现连续语音识别? 使用do Javascript SDK示例:https://github.com/Microsoft/Cognitive-Speech-STT-JavaScript只能用麦克风转录短句
我想在phonegap中创建应用程序,在Android和IOS中使用连续语音识别。我的应用程序应该等待用户的声音,当他/她说“下一步”时,应用程序应该更新屏幕并执行一些操作。 我发现这个插件:https://github.com/macdonst/SpeechRecognitionPlugin而且它工作得非常快。但在语音识别启动几秒钟后,语音识别器停止工作,但并没有语音。是否有任何方法或标志,如i
我有一个实现识别侦听器(RecognitionListener)的活动。要使其连续,每次我再次启动侦听器时: 但是,它需要一些时间(大约半秒钟)才能开始,所以有半秒钟的间隙,没有人在听。因此,我怀念那段时差中所说的话。 另一方面,当我使用谷歌的语音输入时,代替键盘来口述消息——这个时间间隔不存在。意思是——有一个解决方案。 这是什么? 谢谢
我知道“x-webkit-speech”能够进行某种语音识别,实际上识别效果很好。 我发现“x-webkit-语音”有利于开发Q 然而,我正在寻找的是一种在浏览器中执行连续语音识别的方法。例如,如果我在网上听到一个讲座,我想实时转录教授正在谈论的内容。 是否可以使用“x-webkit-speech”?我的感觉是,“x-webkit-speech”在检测到一段很短的静默期时会自动停止,这很烦人。我知
我想使用Azure Speech服务从麦克风进行语音识别。我有一个使用recognize_once_async()在Python中顺利运行的程序,但它只能识别具有15秒音频限制的第一个话语。我对这个主题做了一些研究,并检查了MS(https://github.com/Azure-Samples/cognitive-services-speech-sdk/blob/master/samples/py
我正在尝试使用适用于Xamarin Android的Microsoft认知语音从麦克风构建连续语音识别。我认为没有Xamarin的库,所以我稍微修改了“Xamarin。认知。BingSpeech”库(endpoint等)以使其正常工作。我有一些问题 我想通过以下教程连接到microsoft web套接字https://docs.microsoft.com/en-us/azure/cognitive