本文实例讲述了js+HTML5基于过滤器从摄像头中捕获视频的方法。分享给大家供大家参考。具体如下:
index.html页面:
<div class="warning"> <h2>Native web camera streaming (getUserMedia) is not supported in this browser.</h2> </div> <div class="container"> <h3>Current filter is: None</h3> <button>Click here to change video filter</button> <div style="clear:both"></div> <div class="col"> <h2>HTML5 <video> object</h2> <video></video> </div> <div class="col"> <h2>HTML5 <canvas> object</h2> <canvas width="600" height="450"></canvas> </div> </div>
style.css文件:
.grayscale{ -webkit-filter:grayscale(1); -moz-filter:grayscale(1); -o-filter:grayscale(1); -ms-filter:grayscale(1); filter:grayscale(1); } .sepia{ -webkit-filter:sepia(0.8); -moz-filter:sepia(0.8); -o-filter:sepia(0.8); -ms-filter:sepia(0.8); filter:sepia(0.8); } .blur{ -webkit-filter:blur(3px); -moz-filter:blur(3px); -o-filter:blur(3px); -ms-filter:blur(3px); filter:blur(3px); } .brightness{ -webkit-filter:brightness(0.3); -moz-filter:brightness(0.3); -o-filter:brightness(0.3); -ms-filter:brightness(0.3); filter:brightness(0.3); } .contrast{ -webkit-filter:contrast(0.5); -moz-filter:contrast(0.5); -o-filter:contrast(0.5); -ms-filter:contrast(0.5); filter:contrast(0.5); } .hue-rotate{ -webkit-filter:hue-rotate(90deg); -moz-filter:hue-rotate(90deg); -o-filter:hue-rotate(90deg); -ms-filter:hue-rotate(90deg); filter:hue-rotate(90deg); } .hue-rotate2{ -webkit-filter:hue-rotate(180deg); -moz-filter:hue-rotate(180deg); -o-filter:hue-rotate(180deg); -ms-filter:hue-rotate(180deg); filter:hue-rotate(180deg); } .hue-rotate3{ -webkit-filter:hue-rotate(270deg); -moz-filter:hue-rotate(270deg); -o-filter:hue-rotate(270deg); -ms-filter:hue-rotate(270deg); filter:hue-rotate(270deg); } .saturate{ -webkit-filter:saturate(10); -moz-filter:saturate(10); -o-filter:saturate(10); -ms-filter:saturate(10); filter:saturate(10); } .invert{ -webkit-filter:invert(1); -moz-filter:invert(1); -o-filter: invert(1); -ms-filter: invert(1); filter: invert(1); }
script.js 文件:
// Main initialization document.addEventListener('DOMContentLoaded', function() { // Global variables var video = document.querySelector('video'); var audio, audioType; var canvas = document.querySelector('canvas'); var context = canvas.getContext('2d'); // Custom video filters var iFilter = 0; var filters = [ 'grayscale', 'sepia', 'blur', 'brightness', 'contrast', 'hue-rotate', 'hue-rotate2', 'hue-rotate3', 'saturate', 'invert', 'none' ]; // Get the video stream from the camera with getUserMedia navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia; window.URL = window.URL || window.webkitURL || window.mozURL || window.msURL; if (navigator.getUserMedia) { // Evoke getUserMedia function navigator.getUserMedia({video: true, audio: true}, onSuccessCallback, onErrorCallback); function onSuccessCallback(stream) { // Use the stream from the camera as the source of the video element video.src = window.URL.createObjectURL(stream) || stream; // Autoplay video.play(); // HTML5 Audio audio = new Audio(); audioType = getAudioType(audio); if (audioType) { audio.src = 'polaroid.' + audioType; audio.play(); } } // Display an error function onErrorCallback(e) { var expl = 'An error occurred: [Reason: ' + e.code + ']'; console.error(expl); alert(expl); return; } } else { document.querySelector('.container').style.visibility = 'hidden'; document.querySelector('.warning').style.visibility = 'visible'; return; } // Draw the video stream at the canvas object function drawVideoAtCanvas(obj, context) { window.setInterval(function() { context.drawImage(obj, 0, 0); }, 60); } // The canPlayType() function doesn't return true or false. In recognition of how complex // formats are, the function returns a string: 'probably', 'maybe' or an empty string. function getAudioType(element) { if (element.canPlayType) { if (element.canPlayType('audio/mp4; codecs="mp4a.40.5"') !== '') { return('aac'); } else if (element.canPlayType('audio/ogg; codecs="vorbis"') !== '') { return("ogg"); } } return false; } // Add event listener for our video's Play function in order to produce video at the canvas video.addEventListener('play', function() { drawVideoAtCanvas(this, context); }, false); // Add event listener for our Button (to switch video filters) document.querySelector('button').addEventListener('click', function() { video.className = ''; canvas.className = ''; var effect = filters[iFilter++ % filters.length]; // Loop through the filters. if (effect) { video.classList.add(effect); canvas.classList.add(effect); document.querySelector('.container h3').innerHTML = 'Current filter is: ' + effect; } }, false); }, false);
希望本文所述对大家的javascript程序设计有所帮助。
问题内容: 如何使用Python API使用OpenCV一次(或几乎)捕获两个或更多摄像机的视频? 我有三个可以进行视频流传输的网络摄像头,分别位于/ dev / video0,/ dev / video1和/ dev / video2。 以本教程为例,从单个摄像机捕获图像很简单: 这很好。 但是,如果我尝试初始化第二台相机,则尝试从它返回None: 为了确保我不会意外给OpenCV一个不好的相机
什么是照相机实时滤镜的最佳方式。我最近正在使用链接中的GPUImage库:https://github.com/CyberAgent/android-gpuimagelibrary.比我找到的SurfaceView和GLSurfaceView还要多。 问题是:如何使用SurfaceView或GLSurfaceView将实时过滤器应用于摄影机。 提前感谢。
问题内容: 如何连续从摄像头捕获图像? 我想尝试对象识别(也许使用Java Media Framework)。 我当时正在考虑创建两个线程 一个线程: 节点1:捕获实时图像 节点2:将图片另存为“ 1.jpg” 节点3:等待5秒 节点4:重复… 其他线程: 节点1:等到捕获图像 节点2:使用“ 1.jpg”获取每个像素的颜色 节点3:将数据保存在数组中 节点4:重复… 问题答案: 此JavaCV实
后摄像头工作正常,但是,当我们从后摄像头切换到前摄像头时,它会崩溃(在使用MediaCorder录制视频的情况下)....它显示了我在日志中显示的错误!! 下面是我的代码: 对于初始化,我使用
我正在开发一个简单的博客应用程序,允许用户将照片从手机图库和描述上传到Firebase服务器。我正在尝试修改我的当前项目,以允许用户从照相机捕获照片并将其上载到firebase服务器。 目前,我能够将我捕获的图像显示到Image按钮中,但是我无法将我的图像发布到Firebase服务器(提交发布按钮不会对我的点击功能做出反应)。 我怀疑我的startPosting()函数中有错误,或者我没有正确编码
问题内容: 我想每5秒从视频中捕获一帧。 这是我的JavaScript代码: 我的问题是,第一次生成的两个图像相同,而持续时间为5秒的图像却没有生成。我发现缩略图是在标记中显示特定时间的视频帧之前生成的。 例如,当时,生成帧0s的图像。然后视频帧跳到时间5s。因此,当时,将生成帧5s的图像。 问题答案: 原因 问题在于(通过设置)查找视频是异步的。 您需要收听事件,否则可能会冒取当前实际帧的风险,