当前位置: 首页 > 知识库问答 >
问题:

使用gcloud语音api在飞镖、颤振中进行实时语音识别

柳和怡
2023-03-14

我想在一个用dart编写的颤振项目中使用Google的实时语音识别api。我已经激活了一个gcloud帐户,创建了api密钥(这应该是谷歌语音唯一必要的身份验证方法),并编写了一个基本的apk,它应该向谷歌云发送音频流并显示响应。我导入了googleapis/speech和googleapis\u auth插件。

但是我不知道如何设置它。他们说你必须使用gRPC,这是有道理的,因为它应该使它易于使用,但是他们在github上的插件实现似乎没有使用它。

那么,有人能告诉我如何使用它吗?设置身份验证和转录语音?

共有2个答案

明越
2023-03-14

对于所有仍然对该主题感兴趣的人。我发布了一个Flutter包,通过grpc支持Google的Speech-to-Text Api。这也允许使用Streing认可。

您可以在此处找到:https://pub.dev/packages/google_speech

宗政欣可
2023-03-14

更新时间:

以下是一个工作示例:

https://gist.github.com/DazWilkin/34d628b998b4266be818ffb3efd688aa

只需插入服务帐户密钥的值。json并应接收:

{
    alternatives: [{
        confidence: 0.9835046,
        transcript: how old is the Brooklyn Bridge
    }]
}

文件记录不完整:-(

我熟悉谷歌API开发,但不熟悉Dart和谷歌语音文本API,所以,请提前道歉。

参见:https://github.com/dart-lang/googleapis/tree/master/generated/googleapis

GoogleSDK|库有两种风格,更常见的(API客户端库)和新的(Cloud[!]客户端库)。IIUC,对于Dart for Speech,您将使用API客户端库,而这不使用gRPC。

我将根据直觉调整样品,请耐心等待:

import 'package:googleapis/speech/v1.dart';
import 'package:googleapis_auth/auth_io.dart';

final _credentials = new ServiceAccountCredentials.fromJson(r'''
{
  "private_key_id": ...,
  "private_key": ...,
  "client_email": ...,
  "client_id": ...,
  "type": "service_account"
}
''');

const _SCOPES = const [SpeechApi.CloudPlatformScope];

void main() {
  clientViaServiceAccount(_credentials, _SCOPES).then((http_client) {
    var speech = new SpeechApi(http_client);
    speech...
  });
}

这需要创建具有适当权限的服务号并为其生成(JSON)密钥。通常,密钥文件由代码加载,但在本例中,它以字符串文字的形式提供。密钥将提供fromJson的内容。您应该(!)能够使用应用程序默认凭据进行测试(更简单),请参阅下面的链接。

不知怎的(!)Dart API将包含一个方法函数,用于进行此底层REST调用。呼叫需要一些配置和音频:

https://cloud.google.com/speech-to-text/docs/reference/rest/v1/speech/recognize

我怀疑是这个识别,它期望一个识别请求

抱歉我帮不上什么忙。

如果你确实让它工作,请考虑发布相同的,这样其他人可能会受益。

NB公司

  • https://developers.google.com/identity/protocols/googlescopes#speechv1
  • https://pub.dartlang.org/packages/googleapis_auth_default_credentials
 类似资料:
  • 我正在努力寻找使用谷歌云语音API进行实时连续语音识别的例子。我的要求是使用麦克风,检测语音,并在用户说话时进行转录。 我知道他们的RESTAPI没有这种支持,所以我研究了grpc示例,包括他们提供的示例。但它们似乎都是用户可以上传音频并检测语音的例子。 我在Java,谷歌grpc也支持java。有人遇到一个很好的例子,展示了如何通过麦克风持续进行这种识别吗?

  • 代码封装自科大语音讯飞无UI版本,通过1行代码来实现语音识别 1行代码来实现文字识别,在封装的.h文件中有集成说明。 测试方式:点击“识别语音”,然后对着说话,在Xcode的debug输出窗口可以看到识别的结果。见下面右图。 [Code4App.com]

  • 我在Bing语音API的文档中看到,可以将录音麦克风输入流式传输到REST服务(https://docs.microsoft.com/en-us/azure/cognitive-services/speech/home): 实时连续识别。语音识别API使用户能够实时将音频转录成文本,并支持接收目前已识别单词的中间结果。 然而,我找不到一个示例来说明如何使用Xamarin表单以跨平台的方式实现这一点

  • 本文向大家介绍Android基于讯飞语音SDK实现语音识别,包括了Android基于讯飞语音SDK实现语音识别的使用技巧和注意事项,需要的朋友参考一下 一、准备工作 1、你需要android手机应用开发基础 2、科大讯飞语音识别SDK android版 3、科大讯飞语音识别开发API文档 4、android手机 关于科大讯飞SDK及API文档,请到科大语音官网下载:http://www.xfyun

  • 我正在开发一个用于实时翻译的Python应用程序。我需要实时识别语音:当用户说话时,它会自动将这段音频发送到谷歌语音API并返回文本。因此,我希望在说话时立即显示已识别的文本。 我发现了流式语音识别,但似乎我仍然需要先录制完整的语音,然后将其发送到服务器。此外,没有关于如何在Python中使用它的示例 是否可以使用Google Speech API执行此操作?