我使用以下代码调用google的语音识别器: 在我的测试机器Nexus 7和Android 4.3中,这在没有网络连接的情况下工作。我认为它在任何android设备上都能起到同样的作用。然而,当我在三星Galaxy S2上试用Android版姜饼时。el21,语音识别器活动出现,但表示需要网络连接,拒绝工作。为什么它在Nexus 7中工作而在Galaxy S2中不工作?它是脱机工作还是需要网络连接
我想构建一个Android应用程序,它可以识别语音并将其转换为发音文本(即比较特殊单词和用户语音之间的真实发音或口音)。我只知道可以创建语音到文本。我想转换用户说的任何单词。 有没有API来做?如果没有,请帮助我如何实现它。
Android 4.1包括离线语音输入。当您单击弹出键盘上的麦克风时,您可以看到这一点,如果您没有网络连接,它仍然可以工作。但是,当您想从您的应用程序中进行语音识别时,API似乎最终仍然需要网络连接。 是否有API可用于从我的应用程序访问Android中的新脱机语音输入功能?
我已经查看了语音识别的Android示例,但我并不真正了解它应该做什么或它是如何工作的。在清单中没有任何类型的主要活动要运行,因此当我在手机上安装该应用程序时,我无法运行它。 我还试图找到一个简单的语音到文本的示例,它将语音作为输入并在屏幕上输出文本。这样我就可以研究它来看看它是如何工作的,但是我在网上找不到任何展示它的示例。
Java中是否有任何方法可以检测Android设备是否安装了脱机语音识别语言,以及它是否不会提示用户下载该语言? 我知道您可以要求语音对文本以选择脱机语音对文本,但您如何知道设备是否安装了该语言? 这个问题不是关于如何使用脱机语音,这是可行的。问题是“如何从Java应用程序代码中检测和下载/安装脱机语音语言”。i、 e.让应用程序检测他们是否安装了离线德语,如果没有,则提示用户下载/安装。
有人能帮我吗? 我正在开发一个通过RecognizerIntent进行语音识别的应用程序。 哪一个Android版本正式带来了API对应用程序的离线识别?有什么声明吗 据我所知,如果语音识别将通过在线服务或离线词典完成,开发人员无法选择。我说得对吗?或者是否有任何记录在案的API可以脱机设置 谢谢
我一直在android中开发语音识别API,发现当语言设置更改时,语音结果会发生变化,有没有办法通过编程进行设置?或者是否打算在语音语言设置屏幕上使用午餐?或者其他什么?注意:我试图使用这个额外的意图: 但这是无效的
我使用RecognizerIntent并实现RecognitionListener,并实现其所有回调方法来执行语音命令。我试着调整参数EXTRA\u SPEECH\u INPUT\u MINIMUM\u LENGTH\u MILLIS、EXTRA\u SPEECH\u INPUT\u mably\u COMPLETE\u SILENCE\u LENGTH\u MILLIS和EXTRA\u SPEE
我正在使用SpeechRecognitor API在Google Glass上制作一个可以接收语音的应用程序。我遇到的问题是,如果语音检测器没有听到任何声音,它会很快停止收听并结束识别过程。 我发现可以添加以下额外内容:Extra\u SPEECH\u INPUT\u COMPLETE\u SILENCE\u LENGTH\u MILLIS Extra\u SPEECH\u INPUT\u mab
我确实试过给下面这些额外的东西以毫秒为单位的时间 但不影响语音收听时间!我现在得到的语音收听时间只有3秒!如何实现10秒的收听时间
我正在使用GoogleAppis包中的Google Speech To Text API。但我没有找到任何文档(用于dart
我正在处理一项语音识别任务。到目前为止,我一直在使用Google云语音识别API(Python)并取得了良好的效果。API将返回一个置信值以及每个转录文本块。正如文档中所述,置信度是一个介于0和1之间的数字,但我没有找到任何更深入的解释来解释谷歌的API是如何得出这个数字的,所以我假设它某种程度上来自于进行识别的神经网络。 我想采取的下一步是制作我自己的(离线)自动语音识别程序,我发现pyKald
我正在编写一个应用程序,它应该接收音频并将其发送到Bing识别API以获取文本。我使用了服务库,它可以使用wav文件。因此,我编写了自己的流类来从麦克风或网络(RTP)接收音频,并将其发送到识别API。当我在音频流前面添加WAV头时,它会工作几秒钟。 调试表明,识别api读取表单流的速度比音频源(16k samplerate,16位,mono)填充的速度快。 所以我的问题是:有没有办法将识别api
可以使用Google的语音识别API来获取音频文件(WAV、MP3等)的转录。)通过请求 示例:我在WAV文件中说过“一二三五”。谷歌API给了我这个: 问:有没有可能得到每个单词说出的时间(以秒为单位)? 以我的例子: 即单词一已经在时间00:00:00.23和00:00:00.80之间说了, 单词二已经在时间00:00:01.03和00:00:01.45之间说了(以秒为单位)。 PS:寻找支持
我试图调用google speech to text api,但它总是返回空结果。我从这个答案中得到了实现提示:在dart、FLATTER中使用gcloud语音api进行实时语音识别 我使用的是颤振声(https://pub.dev/packages/flutter_sound)打包以录制音频,然后将base64编码的音频发送到语音API 录音代码 音频文件android。aac带。从上述代码成功