欢迎来到【html心情评价源码】【短信端口php源码】【网站源码 最简单】纹理贴图源码_纹理贴图源码怎么用-皮皮网网站!!!

皮皮网

【html心情评价源码】【短信端口php源码】【网站源码 最简单】纹理贴图源码_纹理贴图源码怎么用-皮皮网 扫描左侧二维码访问本站手机端

【html心情评价源码】【短信端口php源码】【网站源码 最简单】纹理贴图源码_纹理贴图源码怎么用

2024-12-22 22:08:00 来源:{typename type="name"/} 分类:{typename type="name"/}

1.UE TextureStreaming纹理流送系统分析与评测
2.用Python和OpenGL探索数据可视化(基础篇)- 完善pygl增加OpenGL二维纹理对象
3.cocos教程?
4.用Python和OpenGL探索数据可视化(基础篇)- 你好,纹理纹理纹理!贴图贴图
5.cesium 笔记-自定义Primitive
6.python游戏引擎有哪些

纹理贴图源码_纹理贴图源码怎么用

UE TextureStreaming纹理流送系统分析与评测

       纹理流送系统的源码源码用主要功能在于动态调整纹理贴图的mip等级,以保证画面质量的纹理纹理同时有效管理内存占用。为此,贴图贴图搭建了功能评测环境,源码源码用html心情评价源码场景中添加了大量引用不同纹理贴图的纹理纹理材质,并仅使用*和*两种分辨率纹理。贴图贴图评测时,源码源码用考察了系统对帧率、纹理纹理加载速度、贴图贴图内存占用、源码源码用显存占用的纹理纹理影响。关键参数为r.Streaming.PoolSize,贴图贴图通过调整测试了不同值和关闭系统时的源码源码用性能表现。

       测试发现,PoolSize大小决定了可流送内存大小,进而影响使用mip等级的因素。场景中选取了近、中、远三个对象,观察纹理分辨率受PoolSize影响。结果显示,PoolSize与纹理流送系统的性能紧密相关。

       性能数据方面,帧率表现平稳,差异在2帧以内,说明纹理流送系统对帧率无显著提升作用。加载速度方面,开启纹理流送系统时,加载时间与PoolSize设置基本无关,而关闭系统时加载时间显著增加。内存占用测试显示,开启纹理流送系统内存占用相对稳定,关闭系统时内存占用显著增加。显存占用随着PoolSize增大而增加,但M~M区间显存占用稳定,表明PoolSize=M时对于本次评测demo已满足纹理流送所需内存。

       功能分析指出,通过阅读引擎源码并了解TextureStreaming系统,设计了数据模型进行功能测评。实际流程包括:游戏启动时加载部分较低精度纹理,计算有效可流送纹理内存;对可流送资源进行线程异步管理;完成纹理流入流出、拷贝至显存后释放内存。纹理流送系统管理的是纹理的显存占用。

用Python和OpenGL探索数据可视化(基础篇)- 完善pygl增加OpenGL二维纹理对象

       在 Python 和 OpenGL 4.5 的数据可视化开发系列文章中,本文将介绍如何利用 Python 和 OpenGL 进行数据可视化。首先,确保你的电脑支持 OpenGL 4.5 版本,大约从年开始销售的电脑通常支持。接下来,配置你的开发环境,包括 VS Code、Python 以及 OpenGL 开发工具。

       在上一篇文章中,我们已经学习了如何创建 OpenGL 的纹理对象,并使用文件生成纹理贴图。然而,OpenGL 中的纹理类型多样,其中二维纹理是最常见的。因此,本篇文章将基于上一篇文章的知识,重构一个专门读取文件的二维纹理类,并将其集成到 pygl 工具包中。

       在 VS Code 中,打开文件夹 D:\pydev\pygl,新建一个名为 imagetexture2d.py 的文件。在该文件中,定义了一个名为 ImageTexture2D 的类,该类用于读取文件并创建 OpenGL 二维纹理对象。

       首先,定义了一个构造函数 __init__,用于初始化需要读取的文件路径。接着,对读取文件和坐标系进行了调整,以确保数据正确地映射到 OpenGL 纹理中。之后,检查读取的纹理对象是否有效,并调用相应的 OpenGL 函数进行纹理对象的创建和绑定。

       在完成纹理类的定义后,需要在 __init__.py 文件中添加导入语句,以便其他模块可以访问 ImageTexture2D 类。在 texture_app.py 文件中,更新代码以引用新的 ImageTexture2D 类,并进行必要的配置调整。通过运行代码,验证功能是否正常。

       最后,本系列文章的源代码可以在 gitee.com/eagletang/pygl... 获取。同时,参考系列文章以获取更多有关 Python 和 OpenGL 数据可视化开发的知识。

       本文主要关注如何使用 Python 和 OpenGL 进行数据可视化,包括配置开发环境、使用纹理对象、重构代码以实现更高效的数据处理。通过实践和理解这些概念,你将能够使用 Python 和 OpenGL 开发出丰富且高效的数据可视化应用。

cocos教程?

       求cocos2d-x教程

       cocos教程百度网盘免费资源在线学习

       链接:

       提取码:e2ht?

       cocos教程极客学院Cocos2d-x源码_第5阶段项目实战_第4阶段功能扩展_第3阶段常用功能_第2阶段基础知识_第1阶段环境搭建5使用Eclipse在Ubuntu下搭建Cocos2d-x3集成开发环境4CocosCodeIDE使用3Windows环境下VisualStudio中搭建Cocos2d-x3.1集成开发环境2Cocos2d-x3.1rc0项目创建及新功能介绍1WinMac环境Cocos2d-x开发环境搭建.HelloWorld示例详解.webm.在Mac平台编译成Android程序.webm.Mac平台开发环境搭建.webm

       五子棋人机博弈游戏(cocoscreator)

       参考文章:CocosCreator实战教程(1)——人机对战五子棋(节点事件相关)

       源码:goBang

       思考一:作为对手的系统用什么算法下棋?

       估值函数、搜索算法和胜负判断等

       博弈算法,在极大极小值搜索中应用alpha-beta剪枝

       智能五子棋博弈程序的核心算法

       智能五子棋中的算法研究

       人机版五子棋两种算法概述

       思考二:人机博弈的要点

       1.棋局的状态能够在机器中表示出来,并能让程序知道当时的博弈状态

       2.合法的走法规则如何在机器中实现,以便不让机器随便乱走而有失公平

       3.如何让机器从所有的合法走法中选择最佳的走法

       4.一种判断博弈状态优劣的方法,并能让机器能够做出智能的选择

       5.一个显示博弈状态的界面,有了这样的界面程序才能用的起来而有意义

       思考三:五子棋下棋规矩

       五子棋对局,执行黑方指定开局、三手可交换、五手两打的短信端口php源码规定。

       整个对局过程中黑方有禁手,白方无禁手。

       黑方禁手有三三禁手、四四禁手和长连禁手三种

       思考四:人机下棋逻辑

       系统先下,黑棋落子,交换下子顺序

       玩家下,监测胜负(无胜负,交换下子顺序)

       系统下(五元组中找最优位置),监测胜负(无胜负,交换下子顺序)

       。。。

       直到分出胜负(这里未考虑平局)

       出现提示窗,告知玩家战局结果,同时可选择“返回菜单”或“再来一局”

       具体实现:涉及知识点

       官方文档--预制资源

       将其改名为Chess拖入下面assets文件夹使其成为预制资源

       1.在canvas节点上挂载Menu脚本组件

       2.在按钮事件中,拖拽和选择相应的Target,Component和Handler

       初始化棋子节点断点截图

       系统为黑棋的评分表:

       找最优位置下子

       个人想法

       这是我学习五子棋游戏开发的记录,后续还会写其他游戏开发,加油!

cocos游戏脚本怎么使用

       您好,方法

       我们首先启动CocosCreator,然后选择打开其他项目。

       在弹出的文件夹选择对话框中,选中我们刚下载并解压完成的start_project,点击打开按钮。

       CocosCreator编辑器主窗口会打开,我们将看到项目状态。

       在CoC中,游戏场景是开发时组织游戏内容的中心,也是呈现给玩家所有游戏内容的载体。

       游戏场景中一般会包括以下内容:场景图像和文字,角色,以组件形式附加在场景节点上的游戏逻辑脚本。

       当玩家运行游戏时,就会载入游戏场景,游戏场景加载后就会自动运行所包含组件的游戏脚本,实现各种各样开发者设置的逻辑功能。

       CocosCreator放置游戏教程

       所以除了资源以外,游戏场景是一切内容创作的基础,让我们现在就新建一个场景。

       CocosCreator放置游戏教程

CocosCreator教程(入门篇)

       自动释放资源:切换场景后,上一个场景中的资源,从内存中释放。

       延迟加载资源:意味着不用等待所有资源加载完毕,才显示场景。(快速切换场景,资源陆续在画面显示)

       普通图,子层为一张spriteFrame。

       创建方式:拖拽场景节点,到资源管理器。

       精灵图,子层为多张spriteFrame。(精灵图合成软件:TexturePacker、Zwoptex)

       打包时,将所在目录中的所有碎图,合成为图集。

       数字为内容的图集。

       动态字体:.ttf

       位图字体:.fnt+.png(存在于同一目录)

       小型动画

       模式:webaudio、domaudio

       操作流程:

       (1)导出:文件=资源导出,选择.fire场景文件,输出assets目录的.zip压缩包。

       (2)导入:文件=资源导入,选择压缩包源路径、解压路径,输出assets目录内容。

       基于sizemode,尽量去除spriteFrame无像素的部分,减小尺寸。

       作用:用于变换、子节点定位基准。

       对摄像机、渲染组件的了解。

       对widget、layout等UI组件的了解。

       (1)创建动画的基本流程

       (2)时间曲线(双击动画线,进入编辑窗口)

       (3)事件管理(双击游标、加减按钮控制参数个数)

       (4)脚本控制

       碰撞组件(普通碰撞)

       (1)editing——是否为编辑模式

       (2)regeneratepoints——计算图形边界,自定生成控制点,数值为控制点的生成密度/准确度

       (3)ctrl+点击——删除控制点

       (4)组件类型:矩形、圆形、多边形

       (5)设置碰撞组(项目=项目设置=分组设置):

       制定分组=匹配分组=碰撞组件所在节点上,设置所属分组

       (6)脚本控制

       Box2D物理引擎(高级碰撞)

       (1)audioSource组件

       (2)脚本控制

       (1)定义CCClass

       (2)实例化

       (3)判断类型

       (4)构造函数(ctor)

       (5)实例方法

       (6)继承(extends)

       (7)父构造函数

       (8)完整声明属性

       properties常用参数

       (1)获得组件所在的节点

       (2)获得其它组件

       (3)获得其它节点及其组件

       (4)访问已有变量里的值(通过模块访问)

       (1)节点状态和层级操作

       (2)更改节点的变换(位置、旋转、缩放、尺寸)

       (3)颜色和不透明度

       (4)常用组件接口

       cc.Component是所有组件的基类,任何组件都包括如下的常见接口:

       (1)创建新节点

       (2)克隆已有节点

       (3)创建预制节点

       (4)销毁节点

       (1)加载和切换

       (2)通过常驻节点,进行场景资源管理和参数传递

       (3)场景加载回调

       (4)预加载场景

       (1)资源属性的声明

       (2)静态加载(在属性检查器里设置资源)

       (3)动态加载

       (4)加载远程资源和设备资源

       (5)资源的依赖和释放

       (1)监听事件

       (2)关闭监听

       (3)发射事件

       (4)派送事件

       (5)事件对象(回调参数的event对象)

       (1)鼠标事件类型和事件对象

       (2)触摸事件类型和事件对象

       (3)其它事件

       (1)动作控制

       (2)容器动作

       (3)即时动作

       (4)时间间隔动作

       (5)动作回调

       (6)缓动动作

       (1)XMLHttpRequest——短连接

       (2)WebSocket——长连接

       对象池的概念

       在同一场景中,需要多次进行节点的生成、消失时,假如直接进行创建、销毁的操作,就会很浪费性能。因此,使用对象池,存储需要消失的节点,释放需要生成的节点,达到节点回收利用的目的。

       工作流程

       (1)初始化对象池

       (2)从对象池请求对象

       (3)将对象返回对象池

       清除对象池

如何用Cocos引擎打造次世代3D画质‘游戏大观

       从Cocos2d-x3.0起我们已经可以在游戏中使用3D元素。Cocos引擎推出3D功能的时间不算太迟,我们已经可以看到越来越多的手机上能流畅地渲染3D游戏,而且这些机型正在成为主流。在最近两年我们可以看到,高端手机游戏从2D转到3D的倾向很明显。许多游戏开发商试图在竞争激烈的红海里占有一席之地,那么选择开发3D游戏或许会是一个强有力的竞争手段。

       上面的网站源码 最简单视频是我的下一款游戏作品《FoodoftheGods》。这游戏使用了Cocos2d-x3.3,视频是从我iPhone上录制的实际运行效果。在这篇文章里我将要介绍我是如何制作它、如何把它跑在cocos引擎上的。对于熟悉cocos官方提供的3D示例游戏《FantasyWarrior》的开发者,将会看到以下一些主要不同点:

       1.光照贴图(LightMapping):你将看到每件物体都有被照亮并且投射阴影。光影效果的质量是由你的3D工具软件决定的,用3D软件能烘焙出复杂的光效,包括直接光照,反射光照,以及阴影。

       2.顶点合并(VertexBlending):请注意看路、草地和悬崖交接的地方,看不到任何可见的接缝。

       3.透明遮罩(AlphaMasks):灌木如果没有透明遮罩就跟纸片一样。

       4.滤色叠加的公告板(Billboards):增加一些光束和其他环境的效果。

       所有的模型都是用一个叫Modo的3D软件建模制作的,贴图则是使用Photoshop。关于3D模型的制作和贴图的绘制在此就不再赘述,网上已经有很多教程,在此主要介绍下跟Cocos2d-x有关的部分。

       模型网格和贴图(MeshesandTextures)

       如下图所示,每个模型的贴图都是由几个x或者更小的贴图组成的。同时你也会注意到我把所有的小都合在了一张贴图上,这是减少GPU绘制次数(drawcall)最简单的方法之一。贴图是从或者网上找的。

       为了把这些拼接起来,我使用的是Photoshop的补偿滤镜(offsetfilter)然后在接缝的地方用修复画笔来做一些自然的过渡。为了获得一种油画的视觉效果我会先使用cutout滤镜(注意:cutout滤镜也会使得png格式的压缩效果更好),然后在需要的地方绘制一些高光和阴影的效果。我发现如果直接拿照片当贴图的话,当你把它尺寸缩小的时候会出现图像噪点。

       另一种方案是为每一个模型网格制作一整张独立的贴图。当网格比较小或者摄像机不是很靠近网格的时候这种方法是可行的。如果你的photoshop技术过硬的话,出来的效果会更好。附带的好处是,因为只使用一张贴图因此只有一次GPU绘制调用。但我不建议采用这种方法来制作第一人称射击游戏(FPS)中的建筑,因为当你走得很靠近建筑物的时候,贴图分辨率过低的问题就会显露出来。我不喜欢用这种整张贴图方法,因为这实在太费时耗力了。这个场景的制作花了我足足四天时间。

       光照贴图(LightMaps)

       当你做好模型和贴图之后,现在就可以来烘焙光照贴图了。Cocos2d-x目前还不像Unreal或Unity一样在官方编辑器里提供烘焙光照贴图的功能,但是别失望,大部分的制作3D模型的软件都可以烘焙光照贴图,并且效果比市面上任何游戏引擎的效果还好。首先,在你的3D工具软件里,先给场景打好灯光,照亮场景,然后为每份网格制作第二张UVmap。每份网格的表面都必须被映射在0到1范围内的UV平面上。这听起来好像很复杂且耗时,但在Modo里这是非常简单的。我先后使用“Atlasmap”的UV工具和“PackUV”工具,这两个工具会自动将网格展开成一个相当不错的排布图。

       这些都完成之后,设置3D工具软件的渲染器为“只渲染烘焙的光照”,然后开始渲染。当然了,如果你想做一些环境光遮罩的效果也是可以的。

       你也可以使用一些分辨率较低的光照贴图。有时候这样的效果反而会看起来更好,因为相互混叠的模糊像素会让阴影看起来更柔和。上面的这些建筑都映射到一张x的光照贴图上。整个场景总共使用了4张x的光照贴图。请确保每个小图块之间有一定的空隙,且让你的渲染范围比这些图块的边界多出几个像素。这样可以防止当较低的mip-maps(一种纹理采样)起作用时黑边出现在网格周围的角落里。

       最后一点听起来像是3D技术的行话。如果是对TexturePacker熟悉的话,那么其中的“Extrude”值起到的作用就是刚刚我所描述的。对贴图的边缘接缝做一些涂抹处理,这样在精灵之间就不会有那些烦人的缝隙了,那些缝隙在这里会变成多边形边缘的黑边。

       如果你想牺牲内存和包大小来提高性能的话,你可以把颜色和光照信息都烘焙到一张贴图上并避免共同使用一张光照贴图。但是这样做的话,同样的像素密度,贴图的大小至少得翻一倍。这完全取决于你个人、以及你游戏的要求。

       接下来,添加顶点颜色。我在地形上提供了顶点颜色,这可以让着色器在合成悬崖顶上的草地贴图时,不会有任何可见的接缝。下图中涂成白色的顶点部分可以合成你指定的贴图。在这个例子里实际上我只使用红色通道,当然了根据实际需要你可以使用4个通道(RGBA)去合成不同的贴图。

       最后,我把整个场景分成了很多独立的网格(mesh):每个建筑都有自己独立的网格,地形独立一个网格,水也是独立一个。带透明遮罩的贴图也会有一个网格——比如视频中看到的植物叶子和小旗子。我这样做有两个原因,首先,让地形、建筑、水和带透明遮罩的贴图各自使用不同的着色器。其次,我们打算通过不渲染摄像机范围外的网站留言插件源码对象来减少性能开支。很重要的一点是摄像机会根据网格的包围盒来决定对象是否可见,因此尽量把网格弄成小块,这样包围盒会比较小。

       导出

       完成了模型和贴图之后,我们需要把每个mesh导出为一个.fbx文件。幸运的是,大多数的3D建模软件都支持这个功能。Autodesk为此格式提供了一个免费SDK。但不幸的是,Modo在导出fbx格式时会出现相当多的错误。因此我必须自己写一些脚本来保证第二组贴图坐标和顶点颜色的正确导出。你可以从我个人网站上的“ModoScripts”部分下载这个导出脚本。搞定fbx之后,你将需要用到Cocos2d-x自带的fbx-conv.exe命令行工具,它位于Cocos2d-x根目录的/tools下。

       fbx-conv.exe-ayour_mesh_name_here.fbx

       使用“-a”参数后,工具会同时导出mesh的二进制文件(.c3b)和文本格式文件(.c3t)。文本格式的文件非常的有用,你可以利用它来查看所有的东西是否被正确导出,但千万不要把它放到resource目录下。如果所有的都被正确地导出的话,你将在c3t文件的开头看到以下的内容:

       “attributes”:[{

       “size”:3,

       “type”:“GL_FLOAT”,

       “attribute”:“VERTEX_ATTRIB_POSITION”

       },{

       “size”:3,

       “type”:“GL_FLOAT”,

       “attribute”:“VERTEX_ATTRIB_NORMAL”

       },{

       “size”:2,

       “type”:“GL_FLOAT”,

       “attribute”:“VERTEX_ATTRIB_TEX_COORD”

       },{

       “size”:2,

       “type”:“GL_FLOAT”,

       “attribute”:“VERTEX_ATTRIB_TEX_COORD1″

       }]

       注意VERTEX_ATTRIB_TEX_COORD1这个属性。如果没有它光照贴图将无法显示。如果你导出了一张带顶点颜色的mesh,你也应该要看到一个类似的属性才行。还有一点很重要,贴图的坐标也必须按正确的顺序才行。我通常采用的是第一个tex_coord是瓦片贴图,最后一个tex_coord是光照贴图。使用Modo的话,uvmaps会按照字母顺序排列。

       着色器(Shaders)

       我花了很长的一段时间来搞懂GLSL和着色器,但正如编程中经常遇到的,有时候一个点通了,其他的就都好理解了。一旦理解了其中的原理,你便会发现着色器真的很简单。如果你不只是想用Cocos2d-x来把贴图套到模型网格上的话,你需要学会如何写着色器。目前Cocos2d-x没有Unreal那样好用的着色器可视化编辑器(visualshadereditor),所以我们只能自己动手焊代码。

       本节我将讲解我为视频中的游戏场景所写的着色器,并说明我做了什么、为什么这样做。如果你对着色器已经非常熟悉了,那么可以快速跳过本节。

       首先,先来看一下如何将着色器应用到模型网格上。

       这段代码摘自Cocos2d-x的测试集cpp-tests工程。如果你用不同的着色器来加载大量的meshes,那么最好根据功能来进行,这样可以避免冗余。那么现在我们只关心如下的代码段,来看下这个着色器。

       GLProgram*shader=GLProgram::createWithFilenames(“shaders/lightmap1.vert”,”shaders/lightmap2.frag”);

       GLProgramState*state=GLProgramState::create(shader);

       mesh-setGLProgramState(state);

       Texture2D*lightmap=Director::getInstance()-getTextureCache()-addImage(“lightmap.png”);

       state-setUniformTexture(“lightmap”,lightmap);

       “lightmap1.vert”是顶点着色器(vertexshader)。如果将其应用到网格上,那么每个顶点的每一帧都将执行这个操作。而“lightmap2.frag”是片段着色器(fragmentshader),网格上贴图的每个像素的每一帧都将执行这个操作。我不太确定为什么将其命名为“片段着色器”,我一直认为应叫做“像素”着色器(pixelshader)。从这段描述,我们可以很容易理解为什么大量着色器指令会降低帧率,尤其是你用片段着色器的话。

       接下来我们详细地分解顶点着色器:

       attributevec4a_position;

       attributevec2a_texCoord;

       attributevec2a_texCoord1;

       这些属性是由渲染器提供的。“a_position”是顶点的位置。“a_texCoord”和“a_texCoord1”对应你那两个UV坐标。还记得在.cbt文本格式文件中开头部分的“VERTEX_ATTRIB_TEX_COORD”么?这些值与属性对应起来了。你可以在渲染器中获取更多其他的属性,包括顶点法线(vertexnormal)和顶点颜色(vertexcolor)。请在cocos引擎的CCGLProgram.cpp中查看完整属性列表。

       varyingvec2v_texture_coord;

       varyingvec2v_texture_coord1;

       “varying”值将被传到片段着色器中(fragmentshader)。片段着色器所需要的任何变量前都需要添加“varying”限定符。这个例子中,我们仅需要知道这两个贴图的坐标。

       voidmain(void)

       {

       gl_Position=CC_MVPMatrix*a_position;

       v_texture_coord.x=a_texCoord.x;

       v_texture_coord.y=(1.0–a_texCoord.y);

       v_texture_coord1.x=a_texCoord1.x;

       v_texture_coord1.y=(1.0–a_texCoord1.y);

       }

       设置顶点位置,拷贝贴图的坐标给varyingvalues,这样片段着色器就可以使用这些值。现在我们一起来分解片段着色器。

       #ifdefGL_ES

       varyingmediumpvec2v_texture_coord;

       varyingmediumpvec2v_texture_coord1;

       #else

       varyingvec2v_texture_coord;

       varyingvec2v_texture_coord1;

       #endif

       声明从顶点着色器传递过来的“varying”值

       uniformsampler2Dlightmap;

       还记得在将着色器应用到网格时所使用的state-setUniformTexture(“lightmap“,lightmap);语句么?这个值就是对应语句中的那个贴图。

       voidmain(void)

       {

       gl_FragColor=texture2D(CC_Texture0,v_texture_coord)*(texture2D(lightmap,v_texture_coord1)*2.0);

       }

       这个语句设置像素颜色。首先你会注意到从未声明过的CC_Texture0变量。Cocos2d-x中有大量可在着色器中使用的默认统一变量。再次强调,可在CCGLProgram.cpp中查看完整属性列表。这个例子中,CC_Texture0对应在3D模型中所应用到网格中的贴图。texture2D命令会在给定的贴图坐标中去查找贴图的像素颜色和透明度。它会返回一个包含了那个像素的RGBA值的vec4值。所以这里我会在UV1中查找到瓦片贴图的颜色值,然后在UV2中查到光照贴图的颜色值,最后把两个值相乘。

       你应该注意到了我先是把光照贴图的颜色值两两相乘了。因为贴图颜色值范围为0.0-1.0,所以很显然,如果用白色值vec4(1.0,1.0,1.0,1.0)去乘中间灰值vec4(0.5,0.5,0.5,1.0),那么你仍是得到一个中间灰值vec4(0.5,0.5,0.5,1.0)。

用Python和OpenGL探索数据可视化(基础篇)- 你好,纹理!

       本系列文章旨在教授如何运用Python和OpenGL 4.5进行数据可视化开发,前提读者电脑需支持OpenGL 4.5版本。请参考《准备工作(一)Windows下检测显卡和OpenGL信息》进行检测,以及《准备工作(二)配置Windows下VS Code + Python + OpenGL开发环境》进行环境配置。源代码已上传至gitee.com/eagletang/pyg...

       在探索数据可视化的旅程中,我们已经学会了如何通过顶点属性和统一变量赋予矩形不同的颜色。然而,蓝星微商城源码现实世界中许多物体拥有复杂多变的颜色,如何在OpenGL中处理这些问题?答案在于纹理(Texture)的使用。纹理通过捕捉并转为数字化图像,再将图像“贴”在物体的三角形上,实现丰富色彩的显示。这一过程称为纹理贴图(Texture mapping)。

       纹理贴图的基础元素是纹素(Texture element,简称texel)。接下来,我们通过代码实践来感受纹理贴图的魅力。首先,在VS Code中打开D:\pydev\pygl下的basic文件夹,并新建texture_app.py文件。在shaders文件夹下分别新建texture.vs、texture.fs文件,并输入相应的代码。在pygl文件夹下新建textures文件夹,下载木箱并将其复制至其中。运行VS Code,点击右上角三角形图标运行代码,屏幕将显示一个蓝色矩形,可切换至线框、实体加线框或纹理模式。切换至纹理模式,矩形将贴上木箱图案。

       在GLSL部分,我们引入了纹理坐标tex_coord,并在顶点着色器中使用它。片段着色器中则引入了采样器sampler2D rect_texture,使用GLSL内置的函数texture从纹理中采集颜色信息。Python + OpenGL部分中,通过PIL库读取,定义纹理坐标、顶点属性、索引列表等,创建OpenGL程序对象、顶点缓存对象、元素缓存对象等,并与纹理对象绑定。通过代码实现,我们成功将纹理贴在了矩形上。

       本文通过代码实践和解释,详细介绍了如何使用Python和OpenGL进行纹理贴图,使矩形能够展示出纹理的丰富色彩。通过本系列文章的学习,您将逐步掌握数据可视化开发的技能,探索更多可能。

cesium 笔记-自定义Primitive

       在 Cesium 技术中,`Primitive` 是一个关键接口,尤其对于新手来说,通常会更熟悉 `Entity`。官方也提供了相应的指导文档来解释 `Entity` 和 `Primitive` 的区别。相比之下,`Entity` 在 Cesium 中属于更上层的接口,它封装了一系列的图形,提供了一致的对外 API,更加易于理解和使用。`Entity` 具备强大的属性功能,但性能方面不如更底层的 `Primitive`。而 `Primitive` 更多面向底层图形开发人员,通过 `Geometry` 和 `Appearance` 实现更底层的绘制操作。它提供了接近原始 WebGL 的接口,但在上层进行了一定的封装,使其相对于原始 WebGL 更加易于使用。

       使用 `Primitive` 创建一个矩形并添加贴图,主要代码如下。第一步是创建一个矩形,并添加所需的贴图。在第二步,我们考虑更改皮肤。我们知道,像 Windy 的色斑图渲染通常使用 canvas 方式,而现在我们使用单通道,可以考虑类似 Wind-Layer 的方式在着色器中进行双线性插值和着色,使渲染效果更佳。下面是如何进行改造的步骤。

       在着色器中,我们创建一个 * 1 的 canvas 来兼容渐变色带和非渐变色带,具体效果可以通过观察结果来验证。接着,我们修改材质的 uniforms,并新增一些数据以适应这个变化。然而,到目前为止,我们还无法获得预期效果。我们还需要修改 fabric 以添加一个新的材质着色器。最后,我们改变 options.colorScaleType,将其设置为 step,并指定插值步长,重新查看效果。

       在实现预期效果后,我们提出需求,需要针对瓦片数据进行拾取。基于材质的修改,我们尝试使用默认的 `scene.pick` 方法。虽然结果表明 `Primitive` 被正确拾取,但我们无法获取对应数据位置的像素数据。因此,我们考虑使用鼠标位置计算其在原始灰度数据瓦片的位置,然后读取数据。然而,在处理大规模图像数据时,这种方法在 JS 中操作效率较低。为提高效率,我们应考虑使用类似 `pick` 的方式通过 GPU 进行读取,这需要我们对 `Primitive` 进行自定义。

       自定义 `Primitive` 需要实现以下接口,以达到实现上节效果的目的。关键点包括顶点着色器实现、顶点数据生成、适应 3D 和 2D 渲染需求、数据投影兼容性、渲染过程和拾取操作。在 SCENE3D 下渲染时,代码可以正常工作,但在 SCENE2D 和 COLUMBUS_VIEW 视图中无法渲染。我们在查看 Cesium 相关资料时发现,实际内部使用的顶点数据是区分 3D 和 2D 的。在源码的 `Primitive.prototype.update` 函数中,可以看到它并未直接使用 `vertexArray` 的数据,而是经过了一系列处理步骤。这些步骤包括 `PrimitivePipeline.combineGeometry` 的处理,以及 `loadSynchronous` 和 `createVertexArray` 的具体工作,有兴趣的开发者可以自行查看源码。完成这些处理后,需要根据 `va` 的数量生成多个 `DrawCommand`。

       数据投影兼容性是实现自定义 `Primitive` 的重要部分,特别是在使用不同投影系统时。例如,当使用 Web Mercator 纹理数据时,需要对数据进行重投影计算。在实现中,这一步骤确保了与 Cesium 内部使用的投影系统相兼容。

       在创建 `DrawCommand` 同时,应创建与之对应的 framebuffer 的渲染。这两个渲染是一一对应的,fboShaderProgram 的顶点着色器复用真实绘制的顶点着色器,但在去除灰度值与色带的对应逻辑后,将计算结果保存到 framebuffer 的纹理输出。从 framebuffer 读取像素值的过程较为复杂,需要先将对应数据渲染到 framebuffer,然后读取鼠标位置的颜色值,根据传入参数计算像素值对应的数值。

       在完成以上步骤后,即可实现预期功能,如对鼠标位置的像素值进行计算,进而获取真实值。这涵盖了自定义 `Primitive` 的关键实现过程,包括渲染、拾取操作等,为实现更复杂的图形渲染功能提供了基础。

python游戏引擎有哪些

       在国内外,业界广泛认可的十大开源游戏引擎包括OGRE、Irrlicht、Panda3D、CrystalSpace、jME、BlenderGameEngine、RealityFactory、TheNebulaDevice2、RealmForge、OpenSceneGraph。这些引擎各有特点,适用于不同的开发需求。

       OGRE是一款面向对象图形渲染引擎,采用C++开发,支持Windows、Linux、Mac操作系统,其主要特征包括面向对象,插件扩展架构,支持脚本,物理碰撞检测,顶点灯光、像素灯光、灯光映射,阴影映射、三维阴影,多纹理、凹凸贴图、多重材质贴图、立体投影,顶点、像素、高级着色,场景管理,逆向运动动画、骨架动画、变形动画、混合动画及姿态动画,网格加载、皮肤、渐进网格,环境映射、镜头眩光、公告牌、粒子、运动模糊、天空、水、雾、丝带轨迹、透明对象,支持XML文件转换。其稳定性好,支持全面,但不容易上手和使用。

       Irrlicht同样采用C++开发,支持Windows、Linux、Mac、Solaris、FreeBSD、Xbox操作系统,主要特征包括面向对象,插件扩展架构,支持物理碰撞检测,顶点灯光、像素灯光、灯光映射,阴影映射、三维阴影、模板缓冲区阴影,多纹理、凹凸贴图、多重材质贴图、立体投影,顶点、像素、高级着色,场景管理,支持骨架动画、变形动画及混合动画,网格加载,环境映射、公告牌、粒子、天空、水、雾,地形渲染。其稳定性好,支持全面,容易上手和使用。

       Panda3D使用C++和Python开发,支持Windows、Linux、Mac、SunOS操作系统,是一个完整的游戏引擎,主要特征包括面向对象,脚本扩展架构,支持物理碰撞检测,顶点灯光、像素灯光、灯光映射,阴影映射、三维阴影、模板缓冲区阴影,多纹理、凹凸贴图、多重材质贴图、立体投影,顶点、像素、高级着色,场景管理,支持骨架动画,网格加载及皮肤,环境映射、公告牌、粒子、雾、火,地形渲染,支持“客户端/服务器”网络模式,2D、3D和流音效,有限状态机、人工智能。其稳定性很好,支持很全面,很容易上手和使用。

       CrystalSpace使用C++开发,支持Windows、Linux、Mac操作系统,是一个完整的游戏引擎,主要特征包括面向对象,组件扩展架构,支持物理碰撞检测,顶点灯光、灯光映射,阴影映射、三维阴影,多纹理、多重材质贴图,顶点、像素着色,场景管理,支持骨架动画、帧动画、变形动画,网格加载、渐进网格,环境映射、镜头眩光、公告牌、粒子、天空、镜像,地形渲染,2D、3D音效,游戏世界管理,通过有限状态机、行为树、神经网络、遗传算法支持人工智能。其特性很全面,稳定性好,支持很全面,不容易上手和使用。

       jME是jMonkeyEngine的缩写,使用Java开发,支持Windows、Linux、Mac操作系统,主要特征包括面向对象,插件扩展架构,支持物理碰撞检测,顶点灯光、灯光映射,三维阴影,多纹理、多重材质贴图,顶点、像素、高级着色,场景管理,支持骨架动画、帧动画,网格加载及皮肤,环境映射、镜头眩光、公告牌、粒子、天空、水、火、爆炸、雾,地形渲染,3D音效。其特性全面,稳定性好,支持很全面,容易上手和使用。

       Blender游戏引擎采用C++和Python开发,支持Windows、Linux、Mac、Solaris、FreeBSD、Irix操作系统,主要特征包括面向对象,插件及脚本扩展架构,支持物理碰撞检测,顶点灯光、像素灯光,阴影映射,多纹理、凹凸贴图,顶点、像素着色,场景管理,支持逆向运动动画、帧动画,网格加载及皮肤,环境映射、粒子、天空、水、雾,地形渲染,“客户端/服务器”网络模式,2D及3D音效,通过脚本方式支持人工智能。其特性基本全面,稳定性基本不错,支持全面,不容易上手和使用。

       RealityFactory使用C++开发,支持Windows操作系统,自称游戏无需编程,主要特征包括面向对象,脚本扩展架构,支持物理碰撞检测,顶点灯光、像素灯光、辐射灯光、三维灯光,阴影映射,多纹理、凹凸贴图、多重材质贴图、投影,顶点、像素着色,场景管理,支持骨架动画、帧动画及混合动画,网格加载及皮肤,环境映射、公告牌、粒子、天空、水、火、爆炸、雾、贴花、天气、镜像,地形渲染,“客户端/服务器”网络模式,3D及流音效,通过路径查找、决策及脚本方式支持人工智能。其特性基本全面,稳定性基本不错,支持基本全面,容易上手和使用。

       TheNebulaDevice2使用C++开发,支持Windows、Linux操作系统,主要特征包括面向对象,插件及脚本扩展架构,支持物理碰撞检测,顶点灯光、像素灯光、光泽映射,阴影映射,多纹理、凹凸贴图、多重材质贴图、投影,顶点、像素、高级着色,场景管理,支持骨架动画、帧动画、变形动画及混合动画,网格加载及皮肤,环境映射、镜头眩光、公告牌、粒子、天空,地形渲染,“客户端/服务器”、P2P网络模式,2D、3D及流音效,通过脚本方式支持人工智能。其特性全面,稳定性好,支持基本全面,不容易上手和使用。

       RealmForge基于OGRE开发,使用C#,支持Windows、Linux、Mac、Solaris、HP/UX、FreeBSD操作系统,主要特征包括面向对象,插件及脚本扩展架构,支持物理碰撞检测,顶点灯光、像素灯光、灯光映射,阴影映射、投影面、立体投影,多纹理、凹凸贴图、多重材质贴图、投影,顶点、像素、高级着色,场景管理,支持骨架动画、帧动画、面部动画及混合动画,网格加载、皮肤及渐进网格,环境映射、镜头眩光、公告牌、粒子、天空、水、火、爆炸、贴花、雾、天气、镜像,地形渲染,“客户端/服务器”、P2P网络、主控服务器模式,3D及流音效,通过路径查找、决策、优先状态机、脚本、神经网络等方式支持人工智能。其特性全面,稳定性基本不错,支持基本全面,不容易上手和使用。

       OpenSceneGraph使用C++开发,支持Windows、Linux、Mac、Solaris、SunOS、FreeBSD、Irix、Playstation操作系统,主要特征包括面向对象,插件及脚本扩展架构,支持物理碰撞检测,顶点灯光、各向异性灯光,投影面、立体投影,多纹理、多重材质贴图、投影,顶点、像素、高级着色,场景管理,支持骨架动画、帧动画及混合动画,网格加载及皮肤,环境映射、公告牌、粒子、镜像,地形渲染,“客户端/服务器”、P2P网络、主控服务器模式,2D、3D及流音效。其特性全面,稳定性好,支持还可以,上手和使用比较难。

       选择开源游戏引擎时,需注意获取源码、文档及开放式支持,稳定性对于商业化运作至关重要,但需引入新的游戏技术革新。引擎特性是一个积累过程,上手和使用性反映了设计开发团队的价值取向。

制作3d图的软件有哪些软件有哪些

       制作3D图的软件有:AutoCAD、3ds Max、Maya、SketchUp、Blender等。

       一、AutoCAD

       AutoCAD是一款广泛应用于建筑、工业设计等领域的矢量绘图软件。它可以用于创建三维对象并进行复杂的建模。通过该软件的强大功能,设计师能够绘制出精准的三维图形,适用于各种工程设计场景。该软件具有强大的工具集,包括建模、渲染和可视化功能,可以帮助用户创建高质量的三维图像。

       二、3ds Max

       3ds Max是另一款强大的三维建模软件,广泛应用于**、游戏开发等领域。该软件拥有丰富的库和工具集,可以创建出各种复杂的三维场景和角色模型。它支持高质量的纹理贴图、灯光效果以及特效模拟,为用户提供丰富的视觉体验。

       三、Maya

       Maya是一款全面的三维动画制作软件,既可以用于**特效制作,也可以用于游戏角色建模。它拥有强大的建模工具,可以创建出精细的角色模型和场景。此外,Maya还具备高级的动画和特效功能,可以满足各种创意需求。

       四、SketchUp

       SketchUp是一款简单易学的三维建模软件,广泛应用于建筑设计和室内设计领域。它提供了直观的用户界面和丰富的工具集,使得用户可以轻松创建三维模型。此外,SketchUp还支持实时渲染和可视化功能,方便用户进行设计和展示。

       五、Blender

       Blender是一款开源的三维图形软件,适用于各种三维制作需求。它具有全面的建模、渲染、动画和仿真功能,可以应对各种复杂的项目需求。由于Blender是开源的,用户可以自由获取其源代码并进行定制开发,适用于各种专业领域和创新项目。

       上述软件各具特点,用户可以根据自身的需求和实际情况选择合适的工具进行三维图形的制作。