在某些情况下,不同图形 API 之间的图形渲染行为方式存在差异。大多数情况下,Unity 编辑器会隐藏这些差异,但在某些情况下,编辑器无法为您执行此操作。下面列出了这些情况以及发生这些情况时需要采取的操作。
垂直纹理坐标约定在两种类型的平台之间有所不同,分别是 Direct3D 类和 OpenGL 类平台。
除了渲染到渲染纹理的情况下,这种差异不会对您的项目产生任何影响。在 Direct3D 类平台上渲染到纹理时,Unity 会在内部上下翻转渲染。这样就会使坐标约定在平台之间匹配,并以 OpenGL 类平台约定作为标准。
在着色器中,有两种常见情况需要您采取操作确保不同的坐标约定不会在项目中产生问题,这两种情况就是图像效果和 UV 空间中的渲染。
使用图像效果和抗锯齿时,系统不会翻转为图像效果生成的源纹理来匹配 OpenGL 类平台约定。在这种情况下,Unity 渲染到屏幕以获得抗锯齿效果,然后将渲染解析为渲染纹理,以便通过图像效果进行进一步处理。
如果您的图像效果是一次处理一个渲染纹理的简单图像效果,则 Graphics.Blit 会处理不一致的坐标。但是,如果您在图像效果中一起处理多个渲染纹理,则在 Direct3D 类平台中以及在您使用抗锯齿时,渲染纹理很可能以不同的垂直方向出现。要标准化坐标,必须在顶点着色器中手动上下“翻转”屏幕纹理,使其与 OpenGL 类坐标标准匹配。
以下代码示例演示了如何执行此操作:
// Flip sampling of the Texture:
// The main Texture
// texel size will have negative Y).
#if UNITY_UV_STARTS_AT_TOP
if (_MainTex_TexelSize.y < 0)
uv.y = 1-uv.y;
#endif
GrabPass 也出现了类似的情况。生成的渲染纹理实际上可能不会在 Direct3D 类(非 OpenGL 类)平台上进行上下翻转。如果着色器代码对 GrabPass 纹理进行采样,请使用 UnityCG include 文件中的 ComputeGrabScreenPos
函数。
在纹理坐标 (UV) 空间中渲染特殊效果或工具时,您可能需要调整着色器,以便在 Direct3D 类和 OpenGL 类系统之间进行一致渲染。您还可能需要在渲染到屏幕和渲染到纹理之间进行渲染调整。为进行此类调整,应上下翻转 Direct3D 类投影,使其坐标与 OpenGL 类投影坐标相匹配。
The built-in variable ProjectionParams.x
contains a +1
or –1
value. -1
indicates a projection has been flipped upside down to match OpenGL-like projection coordinates, while +1
indicates it hasn’t been flipped.
You can check this value in your Shaders and then perform different actions. The example below checks if a projection has been flipped and, if so, flips and then returns the UV coordinates to match.
float4 vert(float2 uv : TEXCOORD0) : SV_POSITION
{
float4 pos;
pos.xy = uv;
// 此示例使用上下翻转的投影进行渲染,
// 因此也翻转垂直 UV 坐标
if (_ProjectionParams.x < 0)
pos.y = 1 - pos.y;
pos.z = 0;
pos.w = 1;
return pos;
}
与纹理坐标类似,裁剪空间坐标(也称为投影后空间坐标)在 Direct3D 类和 OpenGL 类平台之间有所不同:
Direct3D 类:裁剪空间深度从近平面的 +1.0 到远平面的 0.0。此类型适用于 Direct3D、Metal 和游戏主机。
OpenGL 类:裁剪空间深度从近平面的 –1.0 到远平面的 +1.0。此类适用于 OpenGL 和 OpenGL ES。
在着色器代码内,可使用内置宏 UNITY_NEAR_CLIP_VALUE
来获取基于平台的近平面值。
在脚本代码内,使用 GL.GetGPUProjectionMatrix 将 Unity 的坐标系(遵循 OpenGL 类约定)转换为 Direct3D 类坐标(如果这是平台所期望的)。
要避免精度问题,请确保在目标平台上测试着色器。移动设备和 PC 中的 GPU 在处理浮点类型方面有所不同。PC GPU 将所有浮点类型(浮点精度、半精度和固定精度)视为相同;PC GPU 使用完整 32 位精度进行所有计算,而许多移动设备 GPU 并不是这样做。
有关详细信息,请参阅数据类型和精度的文档。
Use of const
differs between Microsoft HLSL (see msdn.microsoft.com) and OpenGL’s GLSL (see Wikipedia) Shader language.
Microsoft 的 HLSL const
与 C# 和 C++ 中的含义大致相同:声明的变量在其作用域内是只读的,但可按任何方式初始化。
OpenGL 的 GLSL const
表示变量实际上是编译时常量,因此必须使用编译时约束(文字值或其他对于 const
的计算)进行初始化。
最好是遵循 OpenGL 的 GLSL 语义,并且只有当变量真正不变时才将变量声明为 const
。避免使用其他一些可变值初始化 const
变量(例如,作为函数中的局部变量)。这一原则也适用于 Microsoft 的 HLSL,因此以这种方式使用 const
可以避免在某些平台上混淆错误。
If you use buffers to declare variables in your shader, then set values using the data from a GPU compute buffer or graphics buffer, the data layouts might not match depending on the graphics API. This means you might overwrite data or set variables to the wrong values.
For example if you use cbuffer
or Unity’s constant buffer macro, depending on the constant buffer’s data layout and the graphics API, a float3
might become a float4
, or a float
might become a float2
.
You can do the following to make sure all graphics APIs compile a buffer with the same data layout:
float4
and float4x4
instead of float3
and float3x3
, because float4
variables are the same size on all graphics APIs, while float3
variables can become a different size on some graphics APIs.float4
then float2
then float
, so all graphics APIs structure the data in the same way.例如:
cbuffer myConstantBuffer {
float4x4 matWorld;
float4 vObjectPosition; // Uses a float4 instead of a float3
float arrayIndex;
}
要让着色器在所有平台上运行,一些着色器值应该使用以下语义:
__顶点着色器输出(裁剪空间)位置__:SV_POSITION
。有时,着色器使用 POSITION 语义来使着色器在所有平台上运行。请注意,这不适用于 Sony PS4 或有曲面细分的情况。
__片元着色器输出颜色__:SV_Target
。有时,着色器使用 COLOR
或 COLOR0
来使着色器在所有平台上运行。请注意,这不适用于 Sony PS4。
将网格渲染为点时,从顶点着色器输出 PSIZE
语义(例如,将其设置为 1)。某些平台(如 OpenGL ES 或 Metal)在未从着色器写入点大小时会将点大小视为“未定义”。
有关更多详细信息,请参阅有关着色器语义的文档。
Direct3D 平台使用 Microsoft 的 HLSL 着色器编译器。对于各种细微的着色器错误,HLSL 编译器比其他编译器更严格。例如,它不接受未正确初始化的函数输出值。
使用此编译器时,您可能遇到的最常见情况是:
out
参数的表面着色器顶点修改器。按如下方式初始化输出: void vert (inout appdata_full v, out Input o)
{
**UNITY_INITIALIZE_OUTPUT(Input,o);**
// ...
}
部分初始化的值。例如,函数返回 float4
,但代码只设置它的 .xyz
值。如果只需要三个值,请设置所有值或更改为 float3
。
在顶点着色器中使用 tex2D
。这是无效的,因为顶点着色器中不存在 UV 导数。这种情况下,您需要采样显式 Mip 级别;例如,使用 tex2Dlod
(tex, float4(uv,0,0)
)。此外,还需要添加 #pragma target 3.0
,因为 tex2Dlod
是着色器模型 3.0 的功能。
表面着色器编译管线的某些部分不能理解特定于 DirectX 11 的 HLSL(Microsoft 的着色器语言)语法。
如果您正在使用 HLSL 功能(比如 StructuredBuffers
、RWTextures
和其他非 DirectX 9 语法),请将它们包裹在 DirectX X11 专用的预处理器宏中,如下例所示。
# ifdef SHADER_API_D3D11
// DirectX11 专用代码,例如
StructuredBuffer<float4> myColors;
RWTexture2D<float4> myRandomWriteTexture;
# endif
一些 GPU(最明显的是 iOS 上基于 PowerVR 的 GPU)允许您通过提供当前片元颜色作为片元着色器的输入来进行某种可编程混合(请参阅 khronos.org 上的 EXT_shader_framebuffer_fetch
)。
可在 Unity 中编写使用帧缓冲提取功能的着色器。要执行此操作,请在使用 HLSL(Microsoft 的着色语言,请参阅 msdn.microsoft.com)或 Cg(Nvidia 的着色语言,请参阅 nvidia.co.uk)编写片元着色器时使用 inout
颜色参数。
以下示例采用的是 Cg 语言。
CGPROGRAM
// only compile Shader for platforms that can potentially
// do it (currently gles,gles3,metal)
#pragma only_renderers framebufferfetch
void frag (v2f i, inout half4 ocol : SV_Target)
{
// ocol can be read (current framebuffer color)
// and written into (will change color to that one)
// ...
}
ENDCG
深度 (Z) 方向在不同的着色器平台上不同。
DirectX 11, DirectX 12, Metal: Reversed direction
深度 (Z) 缓冲区在近平面处为 1.0,在远平面处减小到 0.0。
裁剪空间范围是 [near,0](表示近平面处的近平面距离,在远平面处减小到 0.0)。
其他平台:传统方向
深度 (Z) 缓冲区值在近平面处为 0.0,在远平面处为 1.0。
请注意,使反转方向深度 (Z) 与浮点深度缓冲区相结合,可显著提高相对于传统方向的深度缓冲区精度。这样做的优点是降低 Z 坐标的冲突并改善阴影,特别是在使用小的近平面和大的远平面时。
因此,在使用深度 (Z) 发生反转的平台上的着色器时:
_CameraDepth
纹理的纹理范围是 1(近平面)到 0(远平面)。但是,以下宏和函数会自动计算出深度 (Z) 方向的任何差异:
Linear01Depth(float z)
LinearEyeDepth(float z)
如果要手动提取深度 (Z) 缓冲区值,则可能需要检查缓冲区方向。以下是执行此操作的示例:
float z = tex2D(_CameraDepthTexture, uv);
# if defined(UNITY_REVERSED_Z)
z = 1.0f - z;
# endif
如果要手动使用裁剪空间 (Z) 深度,则可能还需要使用以下宏来抽象化平台差异:
float clipSpaceRange01 = UNITY_Z_0_FAR_FROM_CLIPSPACE(rawClipSpace);
注意:此宏不会改变 OpenGL 或 OpenGL ES 平台上的裁剪空间,因此在这些平台上,此宏返回“-near”1(近平面)到 far(远平面)之间的值。
如果处于深度 (Z) 发生反转的平台上,则 GL.GetGPUProjectionMatrix() 返回一个还原了 z 的矩阵。 但是,如果要手动从投影矩阵中进行合成(例如,对于自定义阴影或深度渲染),您需要通过脚本按需自行还原深度 (Z) 方向。
以下是执行此操作的示例:
var shadowProjection = Matrix4x4.Ortho(...); //shadow camera projection matrix
var shadowViewMat = ... //shadow camera view matrix
var shadowSpaceMatrix = ... //from clip to shadowMap texture space
//'m_shadowCamera.projectionMatrix' is implicitly reversed
//when the engine calculates device projection matrix from the camera projection
m_shadowCamera.projectionMatrix = shadowProjection;
//'shadowProjection' is manually flipped before being concatenated to 'm_shadowMatrix'
//because it is seen as any other matrix to a Shader.
if(SystemInfo.usesReversedZBuffer)
{
shadowProjection[2, 0] = -shadowProjection[2, 0];
shadowProjection[2, 1] = -shadowProjection[2, 1];
shadowProjection[2, 2] = -shadowProjection[2, 2];
shadowProjection[2, 3] = -shadowProjection[2, 3];
}
m_shadowMatrix = shadowSpaceMatrix * shadowProjection * shadowViewMat;
Unity 自动处理深度 (Z) 偏差,以确保其与 Unity 的深度 (Z) 方向匹配。但是,如果要使用本机代码渲染插件,则需要在 C 或 C++ 代码中消除(反转)深度 (Z) 偏差。