欢迎来到皮皮网官网

【源码公式符号大全】【app底部菜单源码】【dubbo注册中心源码】vertex工具源码_vert.x 源码

时间:2024-12-23 04:24:24 来源:ureka源码

1.非线性优化(三):g2o源代码
2.计算机图形学:线段剪裁中点分割算法,工具要求用C++做,源码x源急求源代码啊,工具谢谢! 752512212
3.游戏引擎随笔 0x36:UE5.x Nanite 源码解析之可编程光栅化(下)
4.TinkerPop Gremlin Traversal 源码解析
5.Flutter 新一代图形渲染器 Impeller
6.基于Shell的源码x源毛发系统

vertex工具源码_vert.x 源码

非线性优化(三):g2o源代码

       新年伊始,让我们探讨一下g2o(通用图优化)在SLAM(Simultaneous Localization and Mapping)中的工具后端优化库应用。在《十四讲》中,源码x源源码公式符号大全我们对g2o有了初步的工具了解,并总结了其在SLAM中的源码x源使用情况。与ceres相比,工具g2o的源码x源文档较为简略,主要依赖于两篇论文进行参考。工具本文将深入探讨g2o的源码x源源代码,特别是工具核心文件夹中的部分,以揭示这个在SLAM领域广为人知的源码x源后端优化库的内在机理。

       首先,工具让我们通过一张类关系图来直观理解g2o的架构。整个g2o系统分为三层:HyperGraph、OptimizableGraph、以及SparseOptimizer。HyperGraph作为最高层,提供了一个高度抽象的框架,其内部通过内类的方式实现了Vertex和Edge的结构。Vertex和Edge相互关联,Vertex存储与节点相关联的边的集合,而Edge则记录了与之链接的节点信息。HyperGraph提供了基本的节点和边的操作,如获取、设置等,同时也包含了更复杂的功能,如节点和边的合并、删除等。

       OptimizableGraph继承自HyperGraph,进一步丰富了Vertex和Edge的实现,为图优化提供了更具体的接口。OptimizableGraph引入了海塞矩阵和b向量的概念,以及与之相关的操作,如获取海塞矩阵元素、设置参数位置等。此外,它还支持通过栈操作(pop、push)来管理节点信息。

       在OptimizableGraph之上,SparseOptimizer作为优化操作的对象,实现了优化的接口,并提供了初始化、辅助函数以及优化的核心函数。SparseOptimizer通过内部类实现了Vertex和Edge的实例化,为具体的优化算法提供了操作图的接口。

       在实现细节方面,BaseVertex和BaseEdge类继承了OptimizableGraph中的相应类,实现了节点和边的基本功能。BaseVertex类负责记录节点的海塞矩阵、b向量和估计值,并提供了数值求导的备份和恢复功能。BaseEdge类则负责处理测量信息和信息矩阵的计算,包括计算误差、构造二次形式等。此外,不同类型的边(BaseUnaryEdge、BaseBinaryEdge、BaseMultiEdge)通过继承BaseEdge类,实现了不同链接节点数量的边的特殊操作。

       鲁棒核函数的实现是g2o优化框架中一个关键部分,它在处理非线性优化问题时提供了鲁棒性,确保了优化过程的稳定性。g2o通过RobustKernel虚基类提供了设置和获取核函数参数的接口,并在具体实现中使用了简化版本的计算公式,以保证信息矩阵的正定性。

       最后,OptimizationAlgorithm类定义了优化器的app底部菜单源码一系列接口,如初始化、计算边际值和求解等。g2o的优化算法包括GN、LM和dog-leg,它们分别实现了不同的求解策略,而具体的矩阵求解任务则通过Solver类及其派生类(如BlockSolver)完成。BlockSolver类提供了一个通用框架,允许用户自定义线性求解器,如直接求解、迭代求解等。

       综上所述,g2o通过层次化的类结构,提供了从抽象到具体、从基础到进阶的图优化解决方案,其设计旨在高效、鲁棒地解决SLAM中的后端优化问题。深入理解g2o的源代码,对于开发者和研究者来说,不仅能够提高优化算法的实现效率,还能深刻理解SLAM系统中的优化机制。

计算机图形学:线段剪裁中点分割算法,要求用C++做,急求源代码啊,谢谢!

       #include <GL/glut.h>#include <stdlib.h>#include "iostream.h"int x0,y0,x1,y1;int Max(int a,int b,int c){ if(a>b) { if(a>c) return a; else return c; } else { if(b>c) return b; else return c; }}int Min(int a,int b,int c){ if(a<b) { if(a<c) return a; else return c; } else { if(b<c) return b; else return c; }}void DrawLine1(int x0,int y0,int x1,int y1){ int d,temp; temp=y0; d=2*(y1-y0)-(x1-x0); glBegin(GL_POINTS); glVertex2d(x0,y0); glEnd(); for(int k=x0+1;k<x1;k++) { if(d>=0) { glBegin(GL_POINTS); glVertex2d(k,temp+1); glEnd(); d=d+2*(y1-y0)-2*(x1-x0); temp=temp+1; } else { glBegin(GL_POINTS); glVertex2d(k,temp); glEnd(); d=d+2*(y1-y0); temp=temp; } } glBegin(GL_POINTS); glVertex2d(x1,y1); glEnd();}void DrawLine2(int x0,int y0,int x1,int y1){ int d,temp; temp=x0; d=2*(x1-x0)-(y1-y0); glBegin(GL_POINTS); glVertex2d(x0,y0); glEnd(); for(int k=y0+1;k<y1;k++) { if(d>=0) { glBegin(GL_POINTS); glVertex2d(temp+1,k); glEnd(); d=d+2*(x1-x0)-2*(y1-y0); temp=temp+1; } else { glBegin(GL_POINTS); glVertex2d(temp,k); glEnd(); d=d+2*(x1-x0); temp=temp; } } glBegin(GL_POINTS); glVertex2d(x1,y1); glEnd();}void DrawTriangle(int x0,int y0,int x1,int y1,int x2,int y2){ int xmin,xmax,ymin,ymax; float a,b,c; xmin=Min(x0,x1,x2); xmax=Max(x0,x1,x2); ymin=Min(y0,y1,y2); ymax=Max(y0,y1,y2); glColor3f(1.0f,0.0f,0.0f); glBegin(GL_POINTS); glVertex2d(x0,y0); glEnd(); glColor3f(0.0f,1.0f,0.0f); glBegin(GL_POINTS); glVertex2d(x1,y1); glEnd(); glColor3f(0.0f,0.0f,1.0f); glBegin(GL_POINTS); glVertex2d(x2,y2); glEnd(); for(float n=ymin;n<=ymax;n++) for(float m=xmin;m<xmax;m++) { a=((y1-y2)*m+(x2-x1)*n+x1*y2-x2*y1)/((y1-y2)*x0+(x2-x1)*y0+x1*y2-x2*y1); b=((y2-y0)*m+(x0-x2)*n+x2*y0-x0*y2)/((y2-y0)*x1+(x0-x2)*y1+x2*y0-x0*y2); c=((y0-y1)*m+(x1-x0)*n+x0*y1-x1*y0)/((y0-y1)*x2+(x1-x0)*y2+x0*y1-x1*y0); if(a>0 && b>0 && c>0) { float color0=a*1.0; float color1=b*1.0; float color2=c*1.0; glColor3f(color0,color1,color2); glBegin(GL_POINTS); glVertex2d(m,n); glEnd(); } } }void display(){ /* clear all pixels */ glClear (GL_COLOR_BUFFER_BIT); glColor3f (1.0, 1.0, 1.0); glBegin(GL_POINTS); glVertex2d(x,y); 中间是点的坐标 glEnd(); */ /*下面的语句是画一个白色的正方形*/ if((y1-y0)/(x1-x0)<=1) { DrawLine1(x0,y0,x1,y1); } else { DrawLine2(x0,y0,x1,y1); } DrawTriangle(,,,,,);/* don't wait! * start processing buffered OpenGL routines */ glFlush ();}void init (void) { /* select clearing color */ glClearColor (0.0, 0.0, 0.0, 0.0);/* initialize viewing values */ glMatrixMode(GL_PROJECTION); glLoadIdentity(); gluOrtho2D(0, , 0, );}/* * Declare initial window size, position, and display mode * (single buffer and RGBA). Open window with "hello" * in its title bar. Call initialization routines. * Register callback function to display graphics. * Enter main loop and process events. */int main(int argc, char** argv){ cout<<"input x0,y0,x1,y1 :"<<endl; cin>>x0>>y0>>x1>>y1; glutInit(&argc, argv); glutInitDisplayMode (GLUT_SINGLE | GLUT_RGB); //设置窗口大小,以像素为单位 glutInitWindowSize (, ); glutInitWindowPosition (, ); glutCreateWindow ("hello");

       希望能够帮助到你,望采纳,谢谢!

游戏引擎随笔 0x:UE5.x Nanite 源码解析之可编程光栅化(下)

       书接上回。

       在展开正题之前,先做必要的铺垫,解释纳尼特(Nanite)技术方案中的Vertex Reuse Batch。纳尼特在软光栅路径实现机制中,将每个Cluster对应一组线程执行软光栅,每ThreadGroup有个线程。在光栅化三角形时访问三角形顶点数据,但顶点索引范围可能覆盖整个Cluster的个顶点,因此需要在光栅化前完成Cluster顶点变换。纳尼特将变换后的顶点存储于Local Shared Memory(LDS)中,进行组内线程同步,确保所有顶点变换完成,光栅化计算时直接访问LDS,实现软光栅高性能。

       然而,在使用PDO(Masked)等像素可编程光栅化时,纳尼特遇到了性能问题。启用PDO或Mask时,可能需要读取Texture,根据读取的Texel决定像素光栅化深度或是否被Discard。读取纹理需计算uv坐标,而uv又需同时计算重心坐标,增加指令数量,降低寄存器使用效率,影响Active Warps数量,降低延迟隐藏能力,导致整体性能下降。复杂材质指令进一步加剧问题。

       此外,当Cluster包含多种材质时,同一Cluster中的三角形被重复光栅化多次,尤其是材质仅覆盖少数三角形时,大量线程闲置,浪费GPU计算资源。

       为解决这些问题,纳尼特引入基于GPU SIMT/SIMD的Vertex Reuse Batch技术。技术思路如下:将每个Material对应的三角形再次分为每个为一组的Batch,每Batch对应一组线程,每个ThreadGroup有个线程,正好对应一个GPU Warp。利用Wave指令共享所有线程中的dubbo注册中心源码变换后的顶点数据,无需LDS,减少寄存器数量,增加Warp占用率,提升整体性能。

       Vertex Reuse Batch技术的启用条件由Shader中的NANITE_VERT_REUSE_BATCH宏控制。

       预处理阶段,纳尼特在离线时构建Vertex Reuse Batch,核心逻辑在NaniteEncode.cpp中的BuildVertReuseBatches函数。通过遍历Material Range,统计唯一顶点数和三角形数,达到顶点去重和优化性能的目标。

       最终,数据被写入FPackedCluster,根据材质数量选择直接或通过ClusterPageData存储Batch信息。Batch数据的Pack策略确保数据对齐和高效存储。

       理解Vertex Reuse Batch后,再来回顾Rasterizer Binning的数据:RasterizerBinData和RasterizerBinHeaders。在启用Vertex Reuse Batch时,这两者包含的是Batch相关数据,Visible Index实际指的是Batch Index,而Triangle Range则对应Batch的三角形数量。

       当Cluster不超过3个材质时,直接从FPackedCluster中的VertReuseBatchInfo成员读取每个材质对应的BatchCount。有了BatchCount,即可遍历所有Batch获取对应的三角形数量。在Binning阶段的ExportRasterizerBin函数中,根据启用Vertex Reuse Batch的条件调整BatchCount,表示一个Cluster对应一个Batch。

       接下来,遍历所有Batch并将其对应的Cluster Index、Triangle Range依次写入到RasterizerBinData Buffer中。启用Vertex Reuse Batch时,通过DecodeVertReuseBatchInfo函数获取Batch对应的三角形数量。对于不超过3个材质的Cluster,DecodeVertReuseBatchInfo直接从Cluster的VertReuseBatchInfo中Unpack出Batch数据,否则从ClusterPageData中根据Batch Offset读取数据。

       在Binning阶段的AllocateRasterizerBinCluster中,还会填充Indirect Argument Buffer,将当前Cluster的Batch Count累加,用于硬件光栅化Indirect Draw的Instance参数以及软件光栅化Indirect Dispatch的ThreadGroup参数。这标志着接下来的光栅化Pass中,每个Instance和ThreadGroup对应一个Batch,以Batch为光栅化基本单位。

       终于来到了正题:光栅化。本文主要解析启用Vertex Reuse Batch时的软光栅源码,硬件光栅化与之差异不大,此处略过。此外,本文重点解析启用Vertex Reuse Batch时的光栅化源码,对于未启用部分,除可编程光栅化外,与原有固定光栅化版本差异不大,不再详细解释。

       CPU端针对硬/软光栅路径的Pass,分别遍历所有Raster Bin进行Indirect Draw/Dispatch。由于Binning阶段GPU中已准备好Draw/Dispatch参数,因此在Indirect Draw/Dispatch时只需设置每个Raster Bin对应的Argument Offset即可。

       由于可编程光栅化与材质耦合,导致每个Raster Bin对应的Shader不同,因此每个Raster Bin都需要设置各自的PSO。对于不使用可编程光栅化的Nanite Cluster,即固定光栅化,为不降低原有性能,在Shader中通过两个宏隔绝可编程和固定光栅化的执行路径。

       此外,Shader中还包括NANITE_VERT_REUSE_BATCH宏,实现软/硬光栅路径、Compute Pipeline、Graphics Pipeline、sht31 源码Mesh Shader、Primitive Shader与材质结合生成对应的Permutation。这部分代码冗长繁琐,不再详细列出讲解,建议自行阅读源码。

       GPU端软光栅入口函数依旧是MicropolyRasterize,线程组数量则根据是否启用Vertex Reuse Batch决定。

       首先判断是否使用Rasterizer Binning渲染标记,启用时根据VisibleIndex从Binning阶段生成的RasterizerBinHeaders和RasterizerBinData Buffer中获取对应的Cluster Index和光栅化三角形的起始范围。当启用Vertex Reuse Batch,这个范围是Batch而非Cluster对应的范围。

       在软光栅中,每线程计算任务分为三步。第一步利用Wave指令共享所有线程中的Vertex Attribute,线程数设置为Warp的Size,目前为,每个Lane变换一个顶点,最多变换个顶点。由于三角形往往共用顶点,直接根据LaneID访问顶点可能重复,为确保每个Warp中的每个Lane处理唯一的顶点,需要去重并返回当前Lane需要处理的唯一顶点索引,通过DeduplicateVertIndexes函数实现。同时返回当前Lane对应的三角形顶点索引,用于三角形设置和光栅化步骤。

       获得唯一顶点索引后,进行三角形设置。这里代码与之前基本一致,只是写成模板函数,将Sub Pixel放大倍数SubpixelSamples和是否背面剔除bBackFaceCull作为模板参数,通过使用HLSL 语法实现。

       最后是光栅化三角形写入像素。在Virtual Shadow Map等支持Nanite的场景下,定义模板结构TNaniteWritePixel来实现不同应用环境下Nanite光栅化Pipeline的细微差异。

       在ENABLE_EARLY_Z_TEST宏定义时,调用EarlyDepthTest函数提前剔除像素,减少后续重心坐标计算开销。当启用NANITE_PIXEL_PROGRAMMABLE宏时,可以使用此机制提前剔除像素。

       最后重点解析前面提到的DeduplicateVertIndexes函数。

       DeduplicateVertIndexes函数给每个Lane返回唯一的顶点索引,同时给当前Lane分配三角形顶点索引以及去重后的顶点数量。

       首先通过DecodeTriangleIndices获取Cluster Local的三角形顶点索引,启用Cluster约束时获取所有Lane中最小的顶点索引,即顶点基索引。将当前三角形顶点索引(Cluster Local)减去顶点基索引,得到相对顶点基索引的局部顶点索引。

       接下来生成顶点标志位集合。遍历三角形三个顶点,将局部顶点索引按顺序设置到对应位,表示哪些顶点已被使用。每个标志位是顶点的索引,并在已使用的顶点位置处设置为1。使用uint2数据类型,最多表示个顶点位。

       考虑Cluster最多有个顶点,为何使用位uint2来保存Vertex Mask而非位?这是由于Nanite在Build时启用了约束机制(宏NANITE_USE_CONSTRAINED_CLUSTERS),该机制保证了Cluster中的三角形顶点索引与当前最大值之差必然小于(宏CONSTRAINED_CLUSTER_CACHE_SIZE),因此,生成的Triangle Batch第一个索引与当前最大值之差将不小于,并且每个Batch最多有个唯一顶点,顶点索引差的最大值为,仅需2个位数据即可。约束机制确保使用更少数据和计算。

       将所有Lane所标记三个顶点的Vertex Mask进行位合并,得到当前Wave所有顶点位掩码。通过FindNthSetBit函数找出当前Lane对应的Mask索引,加上顶点基索引得到当前Lane对应的Cluster Local顶点索引。

       接下来获取当前Lane对应的简洁页面html源码三角形的Wave Local的三个顶点索引,用于后续通过Wave指令访问其他Lane中已经计算完成的顶点属性。通过MaskedBitCount函数根据Vertex Mask以及前面局部顶点索引通过前缀求和得到当前Lane对应的Vertex Wave Local Index。

       最后统计Vertex Mask所有位,返回总计有效的顶点数量。

       注意FindNthSetBit函数,实现Lane与顶点局部索引(减去顶点基索引)的映射,返回当前Lane对应的Vertex Mask中被设置为1的位索引。如果某位为0,则返回下一个位为1的索引。如果Mask中全部位都设置为1,则实际返回为Lane索引。通过二分法逐渐缩小寻找索引范围,不断更新所在位置,最后返回找到的位置索引。

       最后,出于验证目的进行了Vertex Reuse Batch的性能测试。在材质包含WPO、PDO或Mask时关闭Vertex Reuse Batch功能,与开启功能做对比。测试场景为由每颗万个三角形的树木组成的森林,使用Nsight Graphics进行Profiling,得到GPU统计数据如下:

       启用Vertex Reuse Batch后,软光栅总计耗时减少了1.毫秒。SM Warp总占用率有一定提升。SM内部工作量分布更加均匀,SM Launch的总Warp数量提升了一倍。长短板Stall略有增加,但由于完全消除了由于LDS同步导致的Barrier Stall,总体性能还是有很大幅度的提升。

       至此,Nanite可编程光栅化源码解析讲解完毕。回顾整个解析过程,可以发现UE5团队并未使用什么高深的黑科技,而是依靠引擎开发者强悍的工程实现能力完成的,尤其是在充分利用GPU SIMT/SIMD机制榨干机能的同时,保证了功能与极限性能的实现。这种能力和精神,都很值得我们学习。

TinkerPop Gremlin Traversal 源码解析

       构建图的数据结构是图数据的基本单位,它由顶点和边组成。在使用TinkerPop Gremlin进行操作时,首先需要创建图环境,然后通过Gremlin-Console来执行Java集成的调试。

       在Java环境中,通过pom文件引入Gremlin相关的依赖,从而可以执行等价于Java代码的Gremlin语言,便于进行调试和代码拆分。对应的源代码可以在Git仓库中找到。

       在进行源码解析时,每一步都会详细讲解具体的代码逻辑实现,重点是算子的源码解析。以Gremlin1为例,通过调用explain()方法可以查看执行计划,展示详细的图处理流程。

       Java调用堆栈提供了执行过程的可视化,帮助理解计算过程。Gremlin2同样通过类似的解析流程进行,展示其对应的执行算子和操作过程。

       TinkerGraphStep是图处理的基本组件之一,它提供了对图数据的操作接口。查看TinkerGraphStep类图,了解其扩展源码,可以获取更深入的顶点数据。

       VertexStep涉及的类图和源码解析,主要关注于顶点的处理方法,包括获取顶点属性、范围查询等操作。通过源码分析,可以理解Iterator迭代器传递过程。

       PropertiesStep类图展示了属性操作的结构,源码解析涉及与顶点属性相关的具体方法,包括读取、修改属性等。

       RangeGlobalStep类图提供了全局范围查询的支持,源码解析聚焦于如何实现高效、准确的范围过滤。

       对于HugeGraph,其GraphStep和VertexStep的具体实现类图提供了深入理解的基础,鼓励使用者沿用解析Tinker-Graph源码的思路,对HugeGraph进行源码探查。

       相关引用包括了TinkerPop图框架的官方文档、Apache TinkerPop的提供者信息、HugeGraph的官方文档以及SQLG的文档。这些都是进行深入学习和实践的宝贵资源。

Flutter 新一代图形渲染器 Impeller

       Flutter在年的Roadmap中提出需重新考虑着色器使用方式,计划重写图像渲染后端。此计划的初步成果是名为Impeller的渲染后端,本文将探讨Impeller解决的问题、目标、架构和渲染细节。

       背景部分, Flutter过去一年解决了不少Jank问题,但着色器编译导致的Jank问题一直没有解决。着色器编译Jank问题源于Flutter底层使用skia做2D图形渲染库,内部定义了SkSL(Skia shading language)。在光栅化阶段,skia生成SkSL着色器,再将其转换为特定后端(GLSL、GLSL ES 或 Metal SL)着色器,并在设备上编译,此过程可能耗时数百毫秒,导致数十帧丢失。通过在Flutter 1.版本中为GL后端实现SkSL预热机制,离线收集并保存应用程序中使用的SkSL着色器,进而提升性能。

       Impeller架构部分,Impeller是专为Flutter设计的渲染器,目前处于早期原型阶段,仅支持iOS和Mac系统,依赖flutter fml和display list,并实现了display list dispatcher接口,便于替换skia。其核心目标是解决着色器编译Jank问题。

       Impeller着色器离线编译部分,Impeller compiler模块是关键。在编译阶段,将compiler相关源码编译为host工具impellerc binary,利用impellerc compiler将所有着色器源码(包括顶点和片段着色器)编译为SPIR-V中间语言,再转换为特定后端的高级着色器语言(如Metal SL),并编译为shader library,同时生成C++ shader binding用于快速创建pipeline state objects。这样所有着色器在离线时被编译,运行时不需执行任何编译操作,提升首帧渲染性能。

       Impeller渲染流程部分,通过继承IOSContext、IOSSurface和flow Surface实现IOSContextMetalImpeller、IOSSurfaceMetalImpeller和GPUSurfaceMetalImpeller结构,对接flutter flow子系统。光栅化阶段,通过DisplayListCanvasRecorder合成Layer Tree,将所有layer中的绘图命令转换为DLOps,并存储到DisplayList结构。随后,使用DisplayListDispatcher执行所有Ops,将信息转换为EntityPass结构。接着,使用RenderPass从Root EntityPass开始遍历,将每个Entity转换为Command结构,生成GPU Pipeline,设置顶点和片段着色器的数据,将顶点数据和颜色或纹理数据转换为GPU buffer。最后,开始渲染指令编码阶段,根据MTLCommandBuffer生成MTLRenderCommandEncoder,遍历所有Commands,设置PipelineState、Vertext Buffer和Fragment Buffer,提交command buffer。

       总结部分,Impeller通过离线编译着色器、优化渲染流程等手段解决着色器编译Jank问题,显著提升渲染性能。Flutter重写图像渲染后端的决心可见一斑,期待Impeller能进一步提升Flutter的渲染性能。

基于Shell的毛发系统

       最近两天我研究了一下gFur插件。由于该插件目前停止了维护,所以我对其源码进行了修改,以便支持UE5.1。

       Shell技术是一种构建面片并叠加以实现毛发效果的技术。构建的面片越多,效果越好,但性能也会越低。因此,在实际使用中,需要平衡层数(Layer)以实现视觉效果与性能成本的平衡。

       关于Shell技术的详细介绍,可以参考:gim.studio/an-introduct...

       gFur插件通过自定义MeshComponent来实现毛发效果。除了定义配置参数和自定义FPrimitiveSceneProxy,它还通过重写以下两个方法来更新数据。

       本篇文章主要分析了Vertex Shader相关内容,对如何自定义MeshComponent、数据如何从CPU传递到GPU以及如何创建shader文件等不做过多介绍。感兴趣的读者可以阅读以下系列文章,内容比较详细。

       这里的shader文件只需要定义一个xxVertexFactory.ush文件即可。.ush文件是头文件,提供给.usf文件依赖的,这里指的是BasePassVertexShader.usf文件。

       FVertexFactoryInput可以理解为VS的input参数,它随着BasePassVertexShader.usf的Main函数传入。自定义的每个xxVertexFactory.ush都可以定义自己需要的入参,gFur中定义的参数如下:

       在CPU运算的InitDeclaration阶段,完成了参数的一一对应。

       在自定义的VertexFactory.ush中,需要重写一些函数,具体可以参考UE本身的GPUSkinVertexFactory.ush。这里我们只关注这几个方法:

       上面提到.ush文件是提供给BasePassVertexShader.usf依赖的,而这些方法也是在这里进行调用的。

       完整内容如下:

       这里可以看到,从VertexFactory中得到的World position,然后转换到裁剪空间(Clip Space)。

       为什么不是传统的World Space -> Camera Space -> Clip Space呢?我的理解是,从VertexFactory中得到的Position其实是一个TranslatedWorld Position,而TranslatedWorld Position = World Position + PreViewTranslation。PreViewTranslation数值上等于相机平移的反向量(剥离了相机的旋转),负责把世界坐标转换到不考虑相机旋转的相机空间(即translated world)。

       所以从方法名上来看,可能会产生一些误解,认为返回的是世界空间的位置,而实际上返回的是相机空间位置(即TranslatedWorldPosition)。

       UE中对各个坐标空间的解释可以参考:Coordinate Space Terminology

       GetVertexFactoryIntermediates函数会在BasePassVertexShader中最先调用,用来预先计算一些数据,并缓存到FVertexFactoryIntermediates结构体中,避免重复计算。该结构体也是定义在自定义的VertexFactory.ush文件中,需要什么数据就定义什么。在UE5中,该结构体需要定义一个FSceneDataIntermediates类型的SceneData参数(必须要有,不然会无法编译shader),该参数会在很多shader文件中进行使用。

       其中LocalToWorld参数是顶点从Local Space转换到World Space的转换矩阵。WorldToLocal是World Space到Local的转换矩阵。BlendMatrix是骨骼矩阵,用以蒙皮计算。TangentToLocal则是Local Space下的切线信息。

       GFUR_PHYSICS主要是蒙皮操作,通过mesh骨骼以及影响权重来计算我们生成的毛发顶点位置,以此来实现某些动画效果。这里是先把顶点位置从Local转到了World,蒙皮计算完成后,再转回Local。

       此时我们得到的Position是在Local Space下的顶点位置。UE本身提供了TransformLocalToTranslatedWorld方法来将Local Space下的顶点位置转为TranslatedWorld position。

       VertexFactoryGetPreviousWorldPosition方法与VertexFactoryGetWorldPosition类似,只需要将最后的LocalToWorld矩阵替换为PrevLocalToWorld即可。

9个用于测试自动化的最佳AI测试工具()

       选择优质的AI测试工具能确保测试流程的准确性和效率,加速软件测试周期。相反,设计不佳的工具可能无法发现错误,并可能引发安全问题,导致误报或漏报,误导开发与测试团队,引发潜在软件故障。以下是九款用于测试自动化的AI测试工具,它们在不同方面表现出色,为软件开发和测试团队提供了强大的支持。

       1. testRigor

       testRigor是一个基于AI的测试工具,简化了测试用例的编写过程,让开发人员和测试人员能够轻松操作。它通过AI自动化维护过程,确保测试的高准确度。testRigor提供顺畅的Web或移动应用测试体验,包括自我修复和真实设备测试功能,且能完美集成到CI/CD流程中。

       2. Global App Testing

       Global App Testing是一种用于复杂功能和用户体验测试的AI驱动工具,适合产品主管和QA专业人员使用。它通过与后端服务连接,帮助用户更好地理解软件和AI输出,被多家企业采用,包括谷歌、微软和Facebook。

       3. LambdaTest

       LambdaTest是一个AI驱动的测试执行平台,支持在云基础架构上进行大规模手动和自动化测试。它利用AI增强的HyperExecute功能,优化测试流程,提供RCA以快速解决问题,并进行高级片段测试检测。

       4. BlinqIO

       BlinqIO是一种AI驱动的测试工具,提供强大的测试框架,简化软件开发流程。它帮助用户在开发阶段识别错误,优化和改进软件解决方案。

       5. Roost.ai

       Roost.ai是一个AI驱动的测试工具,利用Vertex AI和GPT-4等LLM进行自动化软件测试。它提供%的测试覆盖率,加速测试过程,通过源代码、用户故事和其他输入自动创建测试用例,实现过程自动化和准确结果。

       6. MagnifAI

       MagnifAI是一个AI驱动的测试平台,自动化不同行业软件测试流程。它集成LLM和AI自动创建测试脚本,加速测试周期,提高软件质量,减少测试时间和自动化重复任务。

       7. ContextQA

       ContextQA是一种支持AI的软件测试工具,提供自动测试解决方案,增强软件QA过程。它是由Deep Barot创建的Selenium的替代品。

       8. Relicx

       Relicx利用生成AI简化软件测试,提供无代码测试编写、自我修复测试和可视化回归检测功能。它的强大API和CLI使其无缝集成到CI/CD流程中,支持可靠软件版本的高效端到端测试和用户验收测试。

       9. Momentic

       Momentic是一个低代码、AI驱动的测试平台,帮助开发人员快速高效地创建端到端测试。它与CI/CD工作流无缝集成,加速开发流程。

g2o:非线性优化与图论的结合

       g2o,全名General Graph Optimization,是用于解决非线性优化问题的一种工具。它的核心在于提供了一种通用的框架,通过自定义图中的顶点和边,几乎可以处理任何能够用图表示的优化问题。常见应用如bundle adjustment、ICP、数据拟合等。

       从技术实现层面看,g2o是一个基于C++的开源项目,采用cmake构建。它广泛使用模板类来实现高度可扩展性和灵活性,特别是通过Eigen库来处理矩阵运算。

       在g2o的类结构中,`SparseOptimizer`是核心类,它封装了一个优化问题的图,并通过添加顶点和边进行构建。优化过程包括选择求解器和迭代算法。求解器通常从PCG、CSparse、Cholmod中选择,而迭代算法则包括Gauss-Newton、Levernberg-Marquardt以及Powell's dogleg。

       优化流程主要分为四个步骤,包括定义问题、选择求解器、配置参数、执行优化。流程图展示了这些步骤的实现逻辑。

       在g2o中,优化求解器是关键,主要负责求解线性方程。线性求解器可以采用Cholesky分解、PCG迭代或Dense方法,也可以利用Eigen库的稀疏Cholesky分解。BlockSolver定义了一系列针对不同位姿和观测点维度的优化器结构,如g2o::BlockSolver_6_3、g2o::BlockSolver_7_3、g2o::BlockSolver_3_2。

       在实现层面,`OptimizationAlgorithm`类提供了Gauss-Newton、Levenberg-Marquardt和Dogleg算法,其中Dogleg法特别适用于优化问题的求解。`SparseOptimizer`类提供了接口,允许用户添加顶点和边,最终调用优化方法。

       顶点部分提供了基础类`Vertex`,允许用户定义不同的顶点类型,例如3D旋转使用四元数表示。g2o预定义了一些常用的顶点类型供用户直接使用。

       边的定义分为一元边、二元边和多元边,分别用于连接一个顶点、两个顶点或多个顶点。边类提供了接口来定义测量值和连接的顶点类型,预定义了一些边缘类型以简化应用。

       源码解读部分,建议深入g2o的官方文档和源代码,进行详细的代码分析和实验,以深入了解其内部实现和优化策略。

笔记UE5 Shader 调试工具 - Microsoft PIX

       为了有效地调试使用DX的着色器,开发者通常需要一个高效且可靠的工具,微软的PIX调试工具就是这样一个理想的选择。与RenderDoc相比,PIX能够提供更全面、准确的调试信息,具体包括:

       - 强大的性能分析和回放功能

       - 显示着色器符号,方便调试源代码

       - 精确的渲染时间duration值

       在开始之前,需要确保你的渲染引擎使用的是DX RHI(渲染硬件接口),这是成功使用PIX的基础。为了避免插件冲突导致的崩溃,必须先禁用RenderDoc插件,确保PIX插件被正确配置。

       在配置文件ConsoleVariables.ini中,调整Shader编译相关设置,为接入PIX打下良好的基础。

       按下PrintScreen或F键进行截帧操作,观察系统提示完成截图。在不同系统下,可能需要调整快捷键以避免与系统功能冲突。

       利用PIX附着到Unreal的进程,同时开启Analysis模式,确保进行开发者模式设置,以获取详尽的调试信息。

       在打开的游戏或编辑器中,截帧后进行分析,选择需要调试的DrawCall和具体Shader资源,以深入了解渲染管线的工作过程。深色主题的视觉体验虽然酷炫,但在读取代码时可能不够清晰,因此,调整主题到更利于阅读的白底配色。

       记得检查在编译设置中已启用Shader符号信息,以获取额外的调试支持。当启用Shader符号信息时,确保编译选项中不包含某些不必要的优化标志。

       Pix目前不支持调试DX或Vulkan,但这并不意味着它不是一个强大的调试工具,其在DX上的功能强大且实用。

       最后,深入理解和应用DirectX 管道中的关键概念,如Pipeline State、Root Signature、Input Assembler、Vertex Shader和Pixel Shader以及Output Merger,对优化和调试有着重要影响。它们共同构成了渲染流程的核心,理解它们将帮助你在开发过程中更加得心应手。

       要深入使用这些知识和工具,参考微软官方文档和教程,比如微软的GPU捕获、Pix下载指南、如何将开发者设备配置为启用Pix、如何职业游戏开发者使用Pix提高在Xbox和Windows上的游戏质量等相关文章。

       这便是PIX为DirectX 着色器调试提供的全面支持和深究其功能以优化性能的过程概览,希望对你的开发旅程有所帮助。

copyright © 2016 powered by 皮皮网   sitemap