谷歌发布了新的CameraX库,作为JetPack的一部分。它看起来很适合拍照,但我的用例也需要制作视频的。我试着在谷歌上搜索,但什么也找不到。
那么,用CameraX Jetpack库录制视频是可能的吗?
是的,我们可以使用camerax
录制视频。我已经尝试在Camerax的Github演示的帮助下实现自己。请参考下面的代码,可能会对您有所帮助。
Camerax中视频的配置:
val videoCaptureConfig = VideoCaptureConfig.Builder().apply {
setLensFacing(lensFacing)
setTargetAspectRatio(screenAspectRatio)
setTargetRotation(viewFinder.display.rotation)
}.build()
videoCapture = VideoCapture(videoCaptureConfig)
CameraX.bindToLifecycle(this, preview, imageCapture, videoCapture)
开始录像:
videoCapture?.startRecording(videoFile, object : VideoCapture.OnVideoSavedListener {
override fun onVideoSaved(file: File?) {
Log.i(javaClass.simpleName, "Video File : $file")
}
override fun onError(useCaseError: VideoCapture.UseCaseError?, message: String?, cause: Throwable?) {
Log.i(javaClass.simpleName, "Video Error: $message")
}
})
videoCapture?.stopRecording()
我在Android中使用新的库CameraX和Firebase ML工具包,并检测设备可以检测的每一帧人脸。 我知道这个库仍然在阿尔法,但我想有一种方法可以做到这一点。 即使没有jet,用Firebase ML录制视频时,还有什么方法可以实现人脸检测呢?
他们的任何源代码或示例项目,允许录制应用程序正在运行的屏幕的视频。我必须制作一个能够在Android设备中录制应用程序屏幕视频的应用程序。我搜索了这个,但什么也没找到。
在一个涉及光学摄像机通信(OCC)的研究项目中,我需要主动分析视频帧,我目前正在我的pc上使用python和opencv进行离线分析(我用智能手机录制视频,然后进行处理)。我想用我的三星galaxy A40上的相机现场处理视频。我对android开发相当陌生,所以我只想创建一个用于捕获视频并将其传输到我的pc上进行分析的基本应用程序。我的应用程序要求在30 fps或更高的速度下捕获1080p。 任
我们有一台摄像机,记录高FPS率-163的视频。 谢谢!
问题内容: 我正在创建一个应用程序,其中需要录制视频并将其上传到服务器。现在我的项目也有一个android版本。为了支持android版本,我必须以mp4格式录制视频。我按照本教程将UIImagePicker媒体类型设置为电影格式 这是最适合我的要求,我唯一需要更改的是将其保存为mp4格式。我试过了,但是在运行时抛出错误,没有错误描述。 这是我的视频捕获功能 我正在使用Swift 2.2和Xcod