我的问题是:我在Android系统中安装了一个摄像头,并使用onPreviewFrame侦听器接收预览数据,该侦听器会向我传递一个字节[]数组,其中包含默认AndroidYUV格式的图像数据(设备不支持R5G6B5格式)。每个像素由12位组成,这让事情有点棘手。现在我想做的是将YUV数据转换成ARGB数据,以便对其进行图像处理。为了保持高性能,这必须使用renderscript来完成。
我的想法是在一个元素中传递两个像素(24位=3字节),然后返回两个ARGB像素。问题是,在Renderscript中,u8_3(三维8位向量)存储在32位中,这意味着最后8位未使用。但当将图像数据复制到分配中时,所有32位都被使用,因此最后8位丢失。即使我使用32位输入数据,最后的8位也是无用的,因为它们只有1像素的2/3。当定义一个由3字节数组组成的元素时,它的实际大小是3字节。但接下来是分配。copyFrom()-方法不使用数据填充in分配,因为它没有正确的数据类型来填充字节[]。
renderscript文档声明,有一个ScriptIntrinsicYuvToRGB,它应该在API级别17中完全做到这一点。但事实上,这个阶级并不存在。我已经下载了API级别17,尽管它似乎不再可以下载了。有人知道这件事吗?有人试过脚本吗?
总之,我的问题是:如何快速、硬件加速地将摄像机数据转换成ARGB数据?
这就是在Dalvik VM中实现的方法(在网上的某个地方找到了代码,它可以工作):
@SuppressWarnings("unused")
private void decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {
final int frameSize = width * height;
for (int j = 0, yp = 0; j < height; j++) {
int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;
for (int i = 0; i < width; i++, yp++) {
int y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
int y1192 = 1192 * y;
int r = (y1192 + 1634 * v);
int g = (y1192 - 833 * v - 400 * u);
int b = (y1192 + 2066 * u);
if (r < 0)
r = 0;
else if (r > 262143)
r = 262143;
if (g < 0)
g = 0;
else if (g > 262143)
g = 262143;
if (b < 0)
b = 0;
else if (b > 262143)
b = 262143;
rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);
}
}
}
对于不知道的人来说,RenderScript现在在Android支持库中,包括intrinsics。
http://android-developers.blogspot.com.au/2013/09/renderscript-in-android-support-library.html
http://android-developers.blogspot.com.au/2013/08/renderscript-intrinsics.html
我无法运行ScriptInstrinsicYuvToRgb,所以我决定编写自己的RS解决方案。
下面是准备好的脚本(名为yuv.rs):
#pragma version(1)
#pragma rs java_package_name(com.package.name)
rs_allocation gIn;
int width;
int height;
int frameSize;
void yuvToRgb(const uchar *v_in, uchar4 *v_out, const void *usrData, uint32_t x, uint32_t y) {
uchar yp = rsGetElementAtYuv_uchar_Y(gIn, x, y) & 0xFF;
int index = frameSize + (x & (~1)) + (( y>>1) * width );
int v = (int)( rsGetElementAt_uchar(gIn, index) & 0xFF ) -128;
int u = (int)( rsGetElementAt_uchar(gIn, index+1) & 0xFF ) -128;
int r = (int) (1.164f * yp + 1.596f * v );
int g = (int) (1.164f * yp - 0.813f * v - 0.391f * u);
int b = (int) (1.164f * yp + 2.018f * u );
r = r>255? 255 : r<0 ? 0 : r;
g = g>255? 255 : g<0 ? 0 : g;
b = b>255? 255 : b<0 ? 0 : b;
uchar4 res4;
res4.r = (uchar)r;
res4.g = (uchar)g;
res4.b = (uchar)b;
res4.a = 0xFF;
*v_out = res4;
}
不要忘记将相机预览格式设置为NV21:
Parameters cameraParameters = camera.getParameters();
cameraParameters.setPreviewFormat(ImageFormat.NV21);
// Other camera init stuff: preview size, framerate, etc.
camera.setParameters(cameraParameters);
分配初始化和脚本使用:
// Somewhere in initialization section
// w and h are variables for selected camera preview size
rs = RenderScript.create(this);
Type.Builder tbIn = new Type.Builder(rs, Element.U8(rs));
tbIn.setX(w);
tbIn.setY(h);
tbIn.setYuvFormat(ImageFormat.NV21);
Type.Builder tbOut = new Type.Builder(rs, Element.RGBA_8888(rs));
tbOut.setX(w);
tbOut.setY(h);
inData = Allocation.createTyped(rs, tbIn.create(), Allocation.MipmapControl.MIPMAP_NONE, Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outData = Allocation.createTyped(rs, tbOut.create(), Allocation.MipmapControl.MIPMAP_NONE, Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outputBitmap = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
yuvScript = new ScriptC_yuv(rs);
yuvScript.set_gIn(inData);
yuvScript.set_width(w);
yuvScript.set_height(h);
yuvScript.set_frameSize(previewSize);
//.....
相机回调方法:
public void onPreviewFrame(byte[] data, Camera camera) {
// In your camera callback, data
inData.copyFrom(data);
yuvScript.forEach_yuvToRgb(inData, outData);
outData.copyTo(outputBitmap);
// draw your bitmap where you want to
// .....
}
我相信你会发现LivePreview测试应用程序很有趣...它是最新Jelly Bean(MR1)中Android源代码的一部分。它实现了相机预览,并使用ScriptIntrinsicYuvToRgb将预览数据与Rendercript进行转换。您可以在此在线浏览源:
直播预览
问题内容: 我正在尝试从相机预览中捕获图像并在其上进行一些绘制。问题是,我只有大约3-4 fps的绘图,并且一半的帧处理时间是从摄像机预览接收和解码NV21图像并将其转换为 位图 。我有一个执行此任务的代码,是在另一个堆栈问题上找到的。它似乎并不快,但我不知道如何优化它。在Samsung Note 3(图像尺寸1920x1080)上大约需要100-150毫秒。我怎样才能使其更快地工作? 代码: 图
我已经复制粘贴了我在stackoverflow上找到的一些代码,将默认的相机预览YUV转换成RGB格式,然后上传到OpenGL进行处理。这很好,问题是大部分中央处理器都忙于将YUV图像转换成RGB格式,这变成了瓶颈。 我想将YUV图像上传到GPU,然后在片段着色器中将其转换为RGB。我使用了在CPU上运行的Java YUV to RGB函数,并试图使其在GPU上运行。 这变成了一场小小的噩梦,因为
有人知道怎么做吗?显然有一个Windows命令用于这种事情... 谢谢
本文向大家介绍使用JavaScript将图像转换为数据URI,包括了使用JavaScript将图像转换为数据URI的使用技巧和注意事项,需要的朋友参考一下 若要使用javascript将图像从HTML页面标签转换为数据URI,首先需要创建一个canvas元素,将其宽度和高度设置为与图像相同,在其上绘制图像,最后在其上调用toDataURL方法。 这将返回图像的base64编码数据URI。例如,如果
主要内容:第1步:加载OpenCV本机库,第2步:实例化视频捕获类,第3步:阅取帧,示例在本章中,我们将学习如何使用OpenCV使用系统摄像头捕获帧。包中的类包含使用相机捕获视频的类和方法。下面来一步一步学习如何捕捉帧 - 第1步:加载OpenCV本机库 在使用OpenCV库编写Java代码时,使用加载OpenCV本地库。加载OpenCV本机库,如下所示 - 第2步:实例化视频捕获类 使用本教程前面提到的函数来实例化类。 第3步:阅取帧 可以使用类的方法从相机读取帧。此方法接受类的对
我正在尝试旋转一个与这三个元素相关的2D对象(在GTA风格的小地图覆盖中)。js摄像机旋转。我的3D场景中的y值。 问题是相机返回的弧度。旋转y值有点奇怪,从0开始 有人知道如何将这些值转换或翻译成360个坐标吗? 我用的是透视相机和轨道控制。 提前谢谢!