使用python3+opencv3.3.1环境将视频流保存为本地视频文件,具体内容如下
1、利用opencv中的VideoCapture类获取视频流的链接,通过cv2的方法得到该视频流的帧数和每帧大小。
2、使用VideoWriter类进行视频编码
3、通过VideoCapture的read()方法进行视频流解码成每一帧
4、获取到每一帧frame,我们就可以对该帧做图像算法(例如识别、图像加强、灰度变换等)
import cv2 from matplotlib import pyplot as plt #通过cv2中的类获取视频流操作对象cap cap = cv2.VideoCapture('rtsp://admin:passwd@10.130.10.111:554/MPEG-4/ch1/main/av_stream') #调用cv2方法获取cap的视频帧(帧:每秒多少张图片) fps = cap.get(cv2.CAP_PROP_FPS) print(fps) #获取cap视频流的每帧大小 size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))) print(size) #定义编码格式mpge-4 fourcc = cv2.VideoWriter_fourcc('M', 'P', '4', '2') #定义视频文件输入对象 outVideo = cv2.VideoWriter('saveDir.avi',fourcc,fps,size) #获取视频流打开状态 if cap.isOpened(): rval,frame = cap.read() print('ture') else: rval = False print('False') tot=1 c=1 #循环使用cv2的read()方法读取视频帧 while rval: rval,frame = cap.read() cv2.imshow('test',frame) #每间隔20帧保存一张图像帧 # if tot % 20 ==0 : # cv2.imwrite('cut/'+'cut_'+str(c)+'.jpg',frame) # c+=1 tot+=1 print('tot=',tot) #使用VideoWriter类中的write(frame)方法,将图像帧写入视频文件 outVideo.write(frame) cv2.waitKey(1) cap.release() outVideo.release() cv2.destroyAllWindows()
结果:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍opencv实现读取视频保存视频,包括了opencv实现读取视频保存视频的使用技巧和注意事项,需要的朋友参考一下 不得不说opencv是个强大的东东,以前做一个项目的一个模块时使用到进行图形处理,这次是想将一个视频的播放放慢,以前在网上看到opencv有这个功能,今天就不小心尝试了下,东西不多,主要是做个小记录还有一点要注意的小问题说一下,代码不多,基本上也都是copy的网上的 有几
我有一个基于AWS的web应用程序。客户端使用Angular 1.5.3用JavaScript编写 null 我已经找到了这篇教程:http://docs.aws.amazon.com/amazoncloudfront/latest/developerguide/tutorialstreamingjwplayer.html,但不幸的是,这篇教程没有多大用处,因为它描述了如何从公共bucket进行流
我对JavaCV FFMPEGFrameRecOrder的使用有点困惑。我有几个字节[]或短[]数组(取决于我的图像是8位还是16位),如果我有几个图像的相关数据。现在,我的想法是使用JavaCPP将每个图像发送到ffmpeg,这样它就可以在我希望的framerate上从这个集合中创建一个静音视频。到目前为止,我有: 但我经常犯这样的错误 谢了!
我使用aws kinesis video stream webRTC在reactjs中进行视频聊天。一切都很好。但是我想把视频存储在s3 Bucket中。我应该如何实现这个视频存储?
我正在开发一个有视频流功能的应用程序。我正在使用firebase数据库和firebase存储。我试图找到一些关于firebase存储如何处理视频文件的文档,但真的找不到太多。
我想从Firebase存储中播放视频,其中包含我正在尝试的视频视图,如下所示: 但它不会播放。视频是空的。