我正在尝试将opencv图像放入python中的gstreamer rtsp服务器中。我在mediafactory中写了一些问题,我是gst-rtsp-
server
ancd的新手,几乎没有文档,所以我不确定我是否使用正确的方法。我正在使用一个线程来启动MainLoop,并且正在使用主线程来创建一个缓冲区来推送mediafactory管道的appsrc元素。我是否使用正确的方法达成目标?谁能帮我?我的代码如下:
from threading import Thread
from time import clock
import cv2
import gi
gi.require_version('Gst', '1.0')
gi.require_version('GstRtspServer', '1.0')
from gi.repository import Gst, GstRtspServer, GObject
class SensorFactory(GstRtspServer.RTSPMediaFactory):
def __init__(self, **properties):
super(SensorFactory, self).__init__(**properties)
self.launch_string = 'appsrc ! video/x-raw,width=320,height=240,framerate=30/1 ' \
'! videoconvert ! x264enc speed-preset=ultrafast tune=zerolatency ' \
'! rtph264pay config-interval=1 name=pay0 pt=96'
self.pipeline = Gst.parse_launch(self.launch_string)
self.appsrc = self.pipeline.get_child_by_index(4)
def do_create_element(self, url):
return self.pipeline
class GstServer(GstRtspServer.RTSPServer):
def __init__(self, **properties):
super(GstServer, self).__init__(**properties)
self.factory = SensorFactory()
self.factory.set_shared(True)
self.get_mount_points().add_factory("/test", self.factory)
self.attach(None)
GObject.threads_init()
Gst.init(None)
server = GstServer()
loop = GObject.MainLoop()
th = Thread(target=loop.run)
th.start()
print('Thread started')
cap = cv2.VideoCapture(0)
print(cap.isOpened())
frame_number = 0
fps = 30
duration = 1 / fps
timestamp = clock()
while cap.isOpened():
ret, frame = cap.read()
if ret:
print('Writing buffer')
data = frame.tostring()
buf = Gst.Buffer.new_allocate(None, len(data), None)
buf.fill(0, data)
buf.duration = fps
timestamp = clock() - timestamp
buf.pts = buf.dts = int(timestamp)
buf.offset = frame_number
frame_number += 1
retval = server.factory.appsrc.emit('push-buffer', buf)
print(retval)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
顺便说一句,我试图从opencv源代码复制缓冲区创建,但是我不确定我是否正确地将python中的c ++代码进行了转换。
我找到了解决方案,很多东西都丢失了。
我使用了需求数据信号,例如gst-rtsp-server的示例。
我更改了appsrc的一些默认参数,例如is-live,block和format。
appsrc元素上的大写字母。
这是遇到相同问题或有类似问题的任何人的代码。
#!/usr/bin/env python3
import cv2
import gi
gi.require_version('Gst', '1.0')
gi.require_version('GstRtspServer', '1.0')
from gi.repository import Gst, GstRtspServer, GObject
class SensorFactory(GstRtspServer.RTSPMediaFactory):
def __init__(self, **properties):
super(SensorFactory, self).__init__(**properties)
self.cap = cv2.VideoCapture(0)
self.number_frames = 0
self.fps = 30
self.duration = 1 / self.fps * Gst.SECOND # duration of a frame in nanoseconds
self.launch_string = 'appsrc name=source is-live=true block=true format=GST_FORMAT_TIME ' \
'caps=video/x-raw,format=BGR,width=640,height=480,framerate={}/1 ' \
'! videoconvert ! video/x-raw,format=I420 ' \
'! x264enc speed-preset=ultrafast tune=zerolatency ' \
'! rtph264pay config-interval=1 name=pay0 pt=96'.format(self.fps)
def on_need_data(self, src, lenght):
if self.cap.isOpened():
ret, frame = self.cap.read()
if ret:
data = frame.tostring()
buf = Gst.Buffer.new_allocate(None, len(data), None)
buf.fill(0, data)
buf.duration = self.duration
timestamp = self.number_frames * self.duration
buf.pts = buf.dts = int(timestamp)
buf.offset = timestamp
self.number_frames += 1
retval = src.emit('push-buffer', buf)
print('pushed buffer, frame {}, duration {} ns, durations {} s'.format(self.number_frames,
self.duration,
self.duration / Gst.SECOND))
if retval != Gst.FlowReturn.OK:
print(retval)
def do_create_element(self, url):
return Gst.parse_launch(self.launch_string)
def do_configure(self, rtsp_media):
self.number_frames = 0
appsrc = rtsp_media.get_element().get_child_by_name('source')
appsrc.connect('need-data', self.on_need_data)
class GstServer(GstRtspServer.RTSPServer):
def __init__(self, **properties):
super(GstServer, self).__init__(**properties)
self.factory = SensorFactory()
self.factory.set_shared(True)
self.get_mount_points().add_factory("/test", self.factory)
self.attach(None)
GObject.threads_init()
Gst.init(None)
server = GstServer()
loop = GObject.MainLoop()
loop.run()
问题内容: 更新资料 去年接受的答案很好,但是今天我将使用其他所有人使用的软件包:https : //github.com/mikeal/request 原版的 我正在尝试获取Google的徽标,并使用node.js将其保存到我的服务器中。 这是我现在所拥有的并且不起作用: 我该如何工作? 问题答案: 这里发生了一些事情: 我假设您需要fs / http,并设置dir变量:) google.com
如您所见,我正在使用codePipeline和codeBuild自动化部署。我的后端基于无服务器框架,它在触发命令时部署lambda函数。这就是我没有使用codeDeploy进行传统部署的原因<代码>构建规范。yml文件如下所示: 现在,我有3个关于CodeBuild和Serverless的问题: 问题1:命令依赖于一个名为的文件,其中包含数据库密码等秘密。此文件将不会被签入git。你认为在cod
如何将托管策略附加到lambda函数? 我试过: 但这导致了以下错误: 预配堆栈时发生错误:检测到GaDasheretLambdaFunction-1验证错误:值'arn: aws: iam::aws:策略/Amazon CognitoReadOnly'at'角色'未能满足约束:成员必须满足正则表达式模式: arn: aws: iam::\d{12}:角色/?[Z_0-9 =,.@- _/]。
本文向大家介绍微服务哪些框架相关面试题,主要包含被问及微服务哪些框架时的应答技巧和注意事项,需要的朋友参考一下 Dubbo,是阿里巴巴服务化治理的核心框架,并被广泛应用于阿里巴巴集团的各成员站点。阿里巴巴近几年对开源社区的贡献不论在国内还是国外都是引人注目的,比如:JStorm 捐赠给 Apache 并加入 Apache 基金会等,为中国互联网人争足了面子,使得阿里巴巴在国人眼里已经从电商升级为一
问题内容: 我想创建具有低负载的简单服务器。目标是使一些javascript客户端可以通过WebSocket访问以Java实现的某些功能。我正在寻找最佳的库来使用- 它应该简单,健壮等。现在我考虑3个替代方案-jWebSocket-jetty-netty最好的是什么?还是其他呢? 提前致谢 问题答案: jWebSocket现在包括Jetty8.0引擎,该引擎包括SSL,并且在其之上还包括许多功能。