我正在研究Kinesis实时流媒体视频PoC。
我可以从android应用程序流视频到视频流,并调用python boto3 api('get_records')进行人脸检测。
"InputInformation": {
"KinesisVideo": {
"StreamArn": "arn:aws:kinesisvideo:<video-stream>",
"FragmentNumber": "913..",
"ServerTimestamp": 1.5234201234E9,
"ProducerTimestamp": 1.523420130123E9,
"FrameOffsetInSeconds": 0.6769999861718424
}
},
"StreamProcessorInformation": {
"Status": "RUNNING"
},
"FaceSearchResponse": [{
"DetectedFace": {
"BoundingBox": {
"Height": 0.41025642,
"Width": 0.30769232,
"Left": 0.45673078,
"Top": 0.23397435
},
"Confidence": 99.99998, ........
在java/python api中从视频流生成帧的示例中有任何帮助/指针吗?
对于AWS Rekognition与Kinesis视频流的集成,请查看发布在消费者解析器库中的KinesisVideoRekognitionIntegrationExample。这个例子展示了如何摄取视频文件(您可以用像GStreamer样例应用程序这样的实时生成器替换它)、检索数据、解析MKV、使用JCodec解码H264帧、与Rekognition JSON输出集成以及使用JFrame在检测到的人脸上绘制边框。
我在Android中使用新的库CameraX和Firebase ML工具包,并检测设备可以检测的每一帧人脸。 我知道这个库仍然在阿尔法,但我想有一种方法可以做到这一点。 即使没有jet,用Firebase ML录制视频时,还有什么方法可以实现人脸检测呢?
我试图通过亚马逊rekogntion和kinesis服务在直播中运行人脸识别。我已经为输入视频配置了kinesis视频流,为识别配置了流处理器,为从流处理器获得结果配置了kinesis数据流。一切都很好,但我只得到一帧每秒在流。 通过将和字段值相加,我按照以下方式计算帧时间戳:https://docs.aws.amazon.com/rekognition/latest/dg/streaming-v
1.接口描述 对照片中的人脸进行检测,返回人脸数目和每张人脸的位置信息 图片要求 格式为 JPG(JPEG),BMP,PNG,GIF,TIFF 宽和高大于 8px,小于等于4000px 小于等于 5 MB 请求方式: POST 请求URL: https://cloudapi.linkface.cn/face/face_detect 2.请求参数 字段 类型 必需 描述 api_id string
我正在开发一个网络应用程序,从网络摄像头捕捉视频,并将流保存到Amazon Kinesis。我提出的第一个方法是getUserMedia/mediaRecorder/XMLHttpRequest,它将分块的MKV发布到我的unix服务器(而不是AWS),在那里简单的PHP后端代理通过PutMedia传输到Kinesis。 这应该工作,但所有媒体流从用户将通过我的服务器,这可能成为一个瓶颈。据我所知
我有一个网络摄像头连接到Raspberry PI和一个web服务器,这是一个简单的python-Flask服务器。利用OpenCV捕捉网络摄像头图像,并将其格式化为JPEG格式。随后,这些JPEG被发送到服务器的一个UDP端口。到目前为止,我所做的类似于自制的MJPEG(motion-jpeg)流媒体。 在服务器端,我有一个简单的python脚本,它可以连续读取UDP端口并将JPEG图像放入HTM
一直在通过HLS使用ffmpeg进行直播,并通过video.js播放它可以工作,但从流开始到实际开始播放之间有20秒的延迟。