当前位置: 首页 > 知识库问答 >
问题:

用Buildozer进行语音识别

楚羽
2023-03-14

[信息]:#安装纯Python模块

[信息]:需求(SpeechRecognition,pyaudio)没有菜谱,试图用pip安装它们

[信息]:如果失败,这可能意味着模块已经编译了组件,需要一个配方。

工作:pid 3095的线程后台线程异常:n/python2.7-u-c“导入设置...(和509更多)

回溯(最近调用的最后一次):

文件“/usr/lib/python2.7/threading.py”,第801行,位于__bootstrap_inner中

文件“/home/proctronics/.local/lib/python2.7/site-packages/sh.py”,第2157行,以fn表示

返回self.command.handle_command_exit_code(exit_code)

文件“/home/proctronics/.local/lib/python2.7/site-packages/sh.py”,第815行,位于handle_command_exit_code中

使用缓存的pyaudio-0.2.11.tar.gz

收集包装的建筑轮子:pyaudio

正在为pyaudio运行setup.py bdist_wheel...错误

创建生成

创建build/lib.linux-x86_64-2.7

正在复制src/pyaudio.py->build/lib.linux-x86_64-2.7

正在为pyaudio运行setup.py clean

未能构建pyaudio

安装收集的软件包:SpeechRecognition,

运行build_py

创建生成

创建build/lib.linux-x86_64-2.7

建造'_Portaudio'扩展

创建build/temp.linux-x86_64-2.7

创建build/temp.linux-x86_64-2.7/src

文件“/usr/lib/python2.7/runpy.py”,第174行,在_run_module_as_main中

“main”,fname,loader,pkg_name)

文件“/usr/lib/python2.7/runpy.py”,第72行,在_run_code中

文件“/home/proctronics/desktest/test/.buildozer/android/platform/python-for-android-master/pythonforandroid/toolchain.py”,第508行,在init中

getattr(self,args.subparser_name.replace('-','_'))(args)

文件“/home/proctronics/desktest/test/.buildozer/android/platform/python-for-android-master/pythonforandroid/toolchain.py”,第147行,在wrapper_func中

文件“pythonforAndroid/build.py”,第585行,在build_recipes中

文件“pythonforAndroid/build.py”,第626行,在run_pymodules_install中

文件“PythonForAndroid/logger.py”,第175行,用shprint格式显示

sh.errorReturnCode_1:

ran:/bin/bash-c source venv/bin/activate&&env cc=/bin/false cxx=/bin/false pythonpath=/home/proctronics/desktop/test/.buildozer/android/platform/build/build/python-installs/blue/lib/python2.7/site-packages pip安装--target'/home/proctronics/desktons.txt

STDOUT:

“,”

');f.close();exec(compile(code,file,'exec'))“bdist_wheel-d/tmp/tmp9ibfgppip-wheel----python-tag cp27:

运行bdist_wheel

创建build/temp.linux-x86_64-2.7

创建build/temp.linux-x86_64-2.7/src

/bin/false-dndebug-g-fwrapv-o2-wall-wstrict-prototypes-fno-strict-aliasing-wdate-time-d_fortify_source=2-g-fstack-protector-strong-wformat-werror=format-security-fpic-ic-/usr/include/python2.7-c src/_portaudiomodule.c-o build/temp.linux-x86_64-2.7/src/_portaudiomodule.o

“,”

');f.close();exec(compile(code,file,'exec'))“install--record/tmp/pip-obcfb4-record/install-record.txt--single-version-externally-managed--compile--install--headers/home/proctronics/desktop/test/.buildozer/android/platform/build/build/venv/include/site/python2.7/pyaudio--

运行安装

创建build/lib.linux-x86_64-2.7

正在复制src/pyaudio.py->build/lib.linux-x86_64-2.7

正在运行build_ext

STDERR:

提前谢了。

共有1个答案

昌乐生
2023-03-14

根据这个链接,只有纯python包可以自动安装,所有依赖二进制编译的包都必须编写一个配方。

配方是包含要编译的模块的“定义”的脚本。的食谱的目录布局类似于:

Python-for-Android/recipes//recipe.sh

 类似资料:
  • 我正在尝试使用适用于Xamarin Android的Microsoft认知语音从麦克风构建连续语音识别。我认为没有Xamarin的库,所以我稍微修改了“Xamarin。认知。BingSpeech”库(endpoint等)以使其正常工作。我有一些问题 我想通过以下教程连接到microsoft web套接字https://docs.microsoft.com/en-us/azure/cognitive

  • 我正在努力寻找使用谷歌云语音API进行实时连续语音识别的例子。我的要求是使用麦克风,检测语音,并在用户说话时进行转录。 我知道他们的RESTAPI没有这种支持,所以我研究了grpc示例,包括他们提供的示例。但它们似乎都是用户可以上传音频并检测语音的例子。 我在Java,谷歌grpc也支持java。有人遇到一个很好的例子,展示了如何通过麦克风持续进行这种识别吗?

  • 我想在一个用dart编写的颤振项目中使用Google的实时语音识别api。我已经激活了一个gcloud帐户,创建了api密钥(这应该是谷歌语音唯一必要的身份验证方法),并编写了一个基本的apk,它应该向谷歌云发送音频流并显示响应。我导入了googleapis/speech和googleapis\u auth插件。 但是我不知道如何设置它。他们说你必须使用gRPC,这是有道理的,因为它应该使它易于使

  • 我正在开发amazon alexa skill,我想在其中添加语音识别功能,因此当任何用户与alexa通话时,我的技能应该能够识别语音,并从我们的数据库中获取他的信息,或者将他的数据保存为我们数据库中的新帐户,我不知道如何进行语音识别,你知道如何进行语音识别吗?

  • 我正在尝试从扬声器转录音频 我正在将声音从扬声器传送到节点。js文件(https://askubuntu.com/a/850174) 这是我的抄本。js公司 但谷歌云语音到文本在1分钟内对流媒体识别有一个限制。所以我有一个错误“超过了允许的最大流持续时间65秒” 如何将流拆分为以静默为拆分器的块,或拆分为持续30秒的块?

  • 我正在为嵌入式设备的语音相关语音识别解决方案寻找解决方案。我已经研究过Pocketsphinx,但由于我仍然不熟悉它,我想也许更有经验的人可能会知道。是否有可能使用Pocketsphinx来实现这样的语音识别。它应该记录音频,提取其特征,然后将其与所说的任何内容进行匹配,而不是使用声学和语言模型。是否有可能使用Pocketsphinx实现此流程?如果没有,有人能为这样的解决方案指出正确的方向吗?谢