本文实例为大家分享了UnityShader实现运动模糊的具体代码,供大家参考,具体内容如下
原理:
像素的当前帧的NDC坐标(x,y值由uv映射而来,z值由深度值映射而来)——(使用_CurrentViewProjectionInverseMartix变换,并除以w分量)—— 像素的世界坐标 ——(使用_PreviousViewProjectionMatrix变换,并除以w分量)—— 像素的前一帧的NDC坐标 —— (当前帧NDC-前一帧NDC)—— 速度
1.此代码挂在摄像机上,使摄像机运动起来
using UnityEngine; using System.Collections; public class Translating : MonoBehaviour { public float speed = 10.0f; public Vector3 startPoint = Vector3.zero; public Vector3 endPoint = Vector3.zero; public Vector3 lookAt = Vector3.zero; public bool pingpong = true; private Vector3 curEndPoint = Vector3.zero; // Use this for initialization void Start () { transform.position = startPoint; curEndPoint = endPoint; } // Update is called once per frame void Update () { transform.position = Vector3.Slerp(transform.position, curEndPoint, Time.deltaTime * speed); transform.LookAt(lookAt); if (pingpong) { if (Vector3.Distance(transform.position, curEndPoint) < 0.001f) { curEndPoint = Vector3.Distance(curEndPoint, endPoint) < Vector3.Distance(curEndPoint, startPoint) ? startPoint : endPoint; } } } }
2.此代码挂在摄像机上
using System.Collections; using System.Collections.Generic; using UnityEngine; public class MotionBlurWithDepthTexture : PostEffectsBase { public Shader MotionBlurShader; private Material _motionBlurMaterial = null; public Material Material { get { _motionBlurMaterial = CheckShaderAndCreateMaterial(MotionBlurShader, _motionBlurMaterial); return _motionBlurMaterial; } } //定义运动模糊时模糊图像使用的大小 [Range(0.0f, 1.0f)] public float BlurSize = 0.5f; //定义一个Camera变量,获取该脚本所在的摄像机组建,得到摄像机的视角和投影矩阵 private Camera _myCamera; public Camera Camera { get { if (_myCamera == null) { _myCamera = GetComponent<Camera>(); } return _myCamera; } } //定义一个变量保存 上一帧摄像机的视角 * 投影矩阵 private Matrix4x4 _previousViewProjectionMatrix; //在OnEnable中设置摄像机的状态,以获得深度纹理 void OnEnable() { Camera.depthTextureMode = DepthTextureMode.Depth; } void OnRenderImage(RenderTexture src, RenderTexture dest) { if (Material != null) { //将模糊大小传给Shader Material.SetFloat("_BlurSize", BlurSize); //使用 视角 * 投影矩阵 对NDC(归一化的设备坐标)下的顶点坐标进行变换,得到该像素在世界空间下的位置 //计算前一帧与当前帧的位置差,生成该像素的速度 //将 前一帧视角 * 投影矩阵 传给Shader Material.SetMatrix("_PreviousViewProjectionMatrix", _previousViewProjectionMatrix); //计算 当前帧视角 * 投影矩阵 //Camera.projectionMatrix获得当前摄像机投影矩阵 //Camera.worldToCameraMatrix获得当前摄像机视角矩阵 Matrix4x4 currentViewProjectionMartix = Camera.projectionMatrix * Camera.worldToCameraMatrix; //计算 当前帧视角 * 投影矩阵 的逆矩阵 Matrix4x4 currentViewProjectionInverseMartix = currentViewProjectionMartix.inverse; //将当前帧视角 * 投影矩阵 的逆矩阵 传递给Shader Material.SetMatrix("_CurrentViewProjectionInverseMartix", currentViewProjectionInverseMartix); //将 当前帧视角 * 投影矩阵 保存为 前一帧视角 * 投影矩阵 _previousViewProjectionMatrix = currentViewProjectionMartix; Graphics.Blit(src, dest, Material); } else { Graphics.Blit(src, dest); } } }
3.此Shader赋值给代码2
Shader "Unity Shaders Book/Chapter 13/MotionBlurWithDepthTexture" { Properties { _MainTex ("Base (RGB)", 2D) = "white" {} //模糊图像时使用的参数 _BlurSize ("Blur Size", Float) = 1.0 //这里并没有声明_PreviousViewProjectionMatrix和_CurrentViewProjectionInverseMartix //是因为Unity并没有提供矩阵类型的属性,但仍然可以在CG代码块中定义这些矩阵,并从脚本中设置它们 } SubShader { CGINCLUDE #include "UnityCG.cginc" sampler2D _MainTex; //使用_MainTex_TexelSize变量来对深度纹理的采样坐标进行平台化差异处理 half4 _MainTex_TexelSize; //Unity传递来的深度纹理 sampler2D _CameraDepthTexture; //声明_PreviousViewProjectionMatrix和_CurrentViewProjectionInverseMartix float4x4 _PreviousViewProjectionMatrix; float4x4 _CurrentViewProjectionInverseMartix; half _BlurSize; //定义顶点着色器 struct v2f { float4 pos : SV_POSITION; half2 uv : TEXCOORD0; //添加了用于深度纹理采样的纹理坐标变量 half2 uv_depth : TEXCOORD1; }; v2f vert(appdata_img v) { v2f o; o.pos = UnityObjectToClipPos(v.vertex); o.uv = v.texcoord; o.uv_depth = v.texcoord; //平台差异化处理 #if UNITY_UV_STARTS_AT_TOP if (_MainTex_TexelSize.y < 0) { o.uv_depth.y = 1 - o.uv_depth.y; } #endif return o; } //定义片元着色器 fixed4 frag(v2f i) : SV_Target{ //使用宏和纹理坐标对深度纹理进行采样,得到深度值 float d = SAMPLE_DEPTH_TEXTURE(_CameraDepthTexture, i.uv_depth); //构建当前像素的NDC坐标,xy坐标由像素的纹理坐标映射而来,z坐标由深度值d映射而来 float4 H = float4(i.uv.x * 2 - 1, i.uv.y * 2 - 1, d * 2 - 1, 1); //使用 当前帧的视角 * 投影矩阵 的逆矩阵 对H进行变换 float4 D = mul(_CurrentViewProjectionInverseMartix, H); //把结果除以它的w分量,得到该像素世界空间下的坐标 float4 worldPos = D / D.w; //像素当前帧NDC坐标 float4 currentPos = H; //使用 前一帧视角 * 投影矩阵 变换世界空间的的坐标worldPos,并除以它的w分量,得到前一帧的NDC坐标 float4 previousPos = mul(_PreviousViewProjectionMatrix, worldPos); previousPos /= previousPos.w; //计算当前帧与前一帧在屏幕空间下的位置差,得到该像素的速度 float2 velocity = (currentPos.xy - previousPos.xy) / 2.0f; //使用速度值对邻域像素进行采样,相加后取平均值得到一个模糊效果,使用_BlurSize控制采样距离 float2 uv = i.uv; float4 c = tex2D(_MainTex, uv); uv += velocity * _BlurSize; for (int it = 1; it < 3; it++, uv += velocity * _BlurSize) { float4 currentColor = tex2D(_MainTex, uv); c += currentColor; } c /= 3; return fixed4(c.rgb, 1.0); } ENDCG Pass { ZTest Always Cull Off ZWrite Off CGPROGRAM #pragma vertex vert #pragma fragment frag ENDCG } } Fallback Off }
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍UnityShader使用图像叠加实现运动模糊,包括了UnityShader使用图像叠加实现运动模糊的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了UnityShader实现运动模糊的具体代码,供大家参考,具体内容如下 1.此代码挂在摄像机上,使摄像机运动起来 2.此代码挂在摄像机上 3.此Shader赋值给代码2 以上就是本文的全部内容,希望对大家的学习有所帮助,也希
我正在尝试将ArrayList转换为Treemap,所以我编写了一个比较各种方法的基准: 1)并行流中的toMap 2)toMap在流中 3)流中forEach 主 大小为10_000的输出如下 “for loop”与预期一样是最慢的 回到正题,为什么当arraylist列表很大时,for each in parallel steam会失败? 运行i7 2670QM,因此线程池大小应为8
本文向大家介绍Mybatis模糊查询及自动映射实现详解,包括了Mybatis模糊查询及自动映射实现详解的使用技巧和注意事项,需要的朋友参考一下 这篇文章主要介绍了Mybatis模糊查询及自动映射实现详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 Mybatis的模糊查询 1. 参数中直接加入%% 1 2 3 4 5 6 7 8 9 param
映射容器端口到宿主主机的实现 默认情况下,容器可以主动访问到外部网络的连接,但是外部网络无法访问到容器。 容器访问外部实现 容器所有到外部网络的连接,源地址都会被 NAT 成本地系统的 IP 地址。这是使用 iptables 的源地址伪装操作实现的。 查看主机的 NAT 规则。 $ sudo iptables -t nat -nL...Chain POSTROUTING (policy ACCEP
实现内核重映射 在上文中,我们虽然构造了一个简单映射使得内核能够运行在虚拟空间上,但是这个映射是比较粗糙的。 我们知道一个程序通常含有下面几段: .text 段:存放代码,需要可读、可执行的,但不可写; .rodata 段:存放只读数据,顾名思义,需要可读,但不可写亦不可执行; .data 段:存放经过初始化的数据,需要可读、可写; .bss 段:存放零初始化的数据,需要可读、可写。 我们看到各个
当我尝试通过枚举将源中的字符串映射到目标中的整数时。ModelMapper失败。 来源 目的地 字符串和整数之间的映射在枚举中定义