# QHWhiteBoardMan **Repository Path**: chenqihui/qhwhite-board-man ## Basic Information - **Project Name**: QHWhiteBoardMan - **Description**: iOS:OpenGLES 实验室之2D篇 第三弹 の 直播白板 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 3 - **Forks**: 0 - **Created**: 2022-11-01 - **Last Updated**: 2023-12-04 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ## iOS:OpenGLES 实验室之2D篇 第三弹 の 直播白板        笔者之前发表的音视频文章,有图像的处理,音频的重采样等等,都属于入门级别。通过阅读它们,读者能对音视频有了了解。可在 [Gitee](https://gitee.com/chenqihui) 上面回顾。        2022 年,笔者将整理下 关于 OpenGLES 的实验室系列 并进行发表。首先为读者带来2D篇的系列,它大多是 x y 坐标,不涉及 z 坐标,所以用 2D篇。内容上,它不对 OpenGLES 的基础知识进行细说与讨论。但如果对 OpenGLES 不了解或者了解一点,仍可通过本实验室系列了解 OpenGLES。它旨在激起读者的兴趣,扩展到实际的应用上。总的来说,这些实验 & Demo 将是额外的,即对基础学习的补充,通过这些它们的实践和运用,能让读者进一步了解 OpenGLES 。 ### 前言        本次实验室带来的是《OpenGLES 实验室之2D篇 第三弹 の 直播白板》。        直播白板应用在搜狐视频App直播,配合播主的教学,在白板上展示英语、物理、历史等图片或者手绘文字。更加生动且有趣的进行讲解,并且还可以在助手App使用 PPT 等准备好的教材,让直播内容更加便捷,且素材丰富。助手还提供了大白板和小白板的切换来展示不同白板的效果,更充分和自由的展示白板,也让观众可以学习更多的知识。        而直播白板的原理是将另一部设备(助手端)的截图数据传到直播的手机上,然后将该图片进行主播端展示和推流的混流。        而本 Demo 只包含采集,不包含推流,所以摄像头采集的数据,与白板图片(固定图片)进行混流后回显。其实该混流输出的这个 output 就是要推流给观众观看的直播流画面。可能有读者会问,那为什么直播预览不直接用混流回显?其实是可以的,但缺少灵活性。主播端分开展示,可以比较好的满足主播端的多样性,如实现大小白板(不同白板大小)切换的动画,主播预览的自定义区域设置等等。 ### Demo        Demo 分别是直播实现的 多重纹理(顶部小白板) 和 多通道渲染(全屏大白板)。        [QHWhiteBoardMan: iOS:OpenGLES 实验室之2D篇 第三弹 の 直播白板](https://gitee.com/chenqihui/qhwhite-board-man) ### 实现 #### 效果        搜狐视频App的白板效果如下:
大白板
小白板
#### 结构图        多通道渲染 采用多纹理多次绘制,而多重纹理 采用多纹理单次绘制。 ![](./imgs/Diagram.png) #### 多通道渲染        通过 管道组合 进行一层一层绘制,跟画画很像。        **多通道渲染的顺序**很重要,由于大白板的主播画面是白板的上面,所以需要先绘制白板,再绘制主播画面,否则白板会覆盖在主播画面,这样主播就预览不到自己。 ~~~C // 第一层:白板 glViewport(0, 0, (int)_frameWidth, (int)_frameHeight); glActiveTexture(GL_TEXTURE1); glBindTexture(GL_TEXTURE_2D, _texId1); glUniform1i(_filterInputTextureUniform, 1); glDrawArrays(GL_TRIANGLE_STRIP, 0, 4); // 第二层:主播画面 CGFloat d = 4; glViewport(0, 0, (int)_frameWidth/d, (int)_frameWidth/d); glActiveTexture(GL_TEXTURE2); glBindTexture(GL_TEXTURE_2D, _texId2); glUniform1i(_filterInputTextureUniform2, 2); glDrawArrays(GL_TRIANGLE_STRIP, 0, 4); // 最终 glViewport(0, 0, (int)_frameWidth, (int)_frameHeight); ~~~        Shader 只需直接输出像素 ~~~ObjC NSString *const rgbFragmentShaderString = SHADER_STRING ( varying highp vec2 v_texcoord; uniform sampler2D inputImageTexture; void main() { gl_FragColor = vec4(texture2D(inputImageTexture, v_texcoord).bgr, 1); } ); ~~~        效果如下:
图片名称
#### 多重纹理        可见与多通道渲染明显的不同就是少了一次 glDrawArrays,它不仅仅是一次绘制,其包含的执行可看下一章节:**对比** ~~~C glViewport(0, 0, (int)_frameWidth, (int)_frameHeight); glActiveTexture(GL_TEXTURE1); glBindTexture(GL_TEXTURE_2D, _texId1); glUniform1i(_filterInputTextureUniform, 1); glActiveTexture(GL_TEXTURE2); glBindTexture(GL_TEXTURE_2D, _texId2); glUniform1i(_filterInputTextureUniform2, 2); glDrawArrays(GL_TRIANGLE_STRIP, 0, 4); ~~~        Shader 需要增加多一个 sampler2D 图数据变量,并进行区域控制,或者进行 mix。 ~~~ObjC NSString *const rgbFragmentShaderString2 = SHADER_STRING ( varying highp vec2 v_texcoord; uniform sampler2D inputImageTexture; uniform sampler2D inputImageTexture2; void main() { if (v_texcoord.y < 0.5) { gl_FragColor = vec4(texture2D(inputImageTexture2, v_texcoord).bgr, 1); } else { gl_FragColor = vec4(texture2D(inputImageTexture, v_texcoord).bgr, 1); } } ); ~~~        效果如下:
图片名称
#### 对比        多通道渲染 与 多重纹理 的对比 1、多通道渲染会多次绘制**glDrawArrays**,而多重纹理则绘制一次; 2、第二次后的绘制都要进行 前像素颜色的读取,并和当前像素颜色混合(如果允许 alpha,则它们会进行 mix,《iOS:OpenGLES 实验室之2D篇 第一弹 の 智能弹幕》介绍过),这些内部操作,即需要的更多性能开销,只要执行一次就多一次内部开销; 3、多通道渲染可通过**glViewport**更改每次绘制的视图区域,而多重纹理则不行,因为视图只有一个,但可以在 fsh 上处理,相对比较麻烦,还得进行图片的自行缩放; 4、多通道渲染的管道组合下,可动态添加图层。多重纹理需要在 fsh 里提前添加 纹理数据变量,并进行读取才可以。Apple 的 GLKBaseEffect 支持 2 个 GLKVertexAttribTexCoord。 #### 纹理缓存        首先将 白板图片的数据保存到 缓存,使用《iOS:OpenGLES 实验室之2D篇 第二弹 の 瘦脸修图》的一样的实现,直接将 png 转为 rgba 的原始数据,上传到共享缓存,并绑定 纹理id。 ~~~C glGenTextures(1, &_texId2); glBindTexture(GL_TEXTURE_2D, _texId2); glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR); glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR); glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE); glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE); unsigned char *pBGRAImageIn; [QHUtil input:@"WhiteBoard_rgba" ofType:@"rgb" len:&pBGRAImageIn]; glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, (GLsizei)1125, (GLsizei)2436, 0, GL_RGBA, GL_UNSIGNED_BYTE, pBGRAImageIn); glBindTexture(GL_TEXTURE_2D, 0); ~~~        激活纹理后使用,因为前面已经将图片缓存到共享内容,GPU 可以通过 textureId 直接获取数据。 ~~~C glActiveTexture(GL_TEXTURE2); glBindTexture(GL_TEXTURE_2D, _texId2); glUniform1i(_filterInputTextureUniform2, 2); ~~~ ### Android Demo #### Demo上 Android 与 iOS 的相同点        在 OpenGLES,在调用上和转化纹理有稍微不同,当主流程是一样, 都是 多通道渲染 先绘制白板,再绘制摄像头采集,而多重纹理则同时上传两个纹理进行位置的判断来选择渲染。        而 GLSL 的编写则都是一样的。 #### 说明        多通道渲染采用 Java 层调用 GLES,多重纹理 则采用 CPP 层调用 GLES,这应该是 Android 端调用 OpenGLES 的两种方式。        然后白板也使用两种上传纹理的方式,一种是 bitmap,一种是 RGB Data。        由于笔者编写 Android 能力有限,所以 Demo 的 多通道渲染是参考 **安卓同事(曾哥童鞋)** 的声网自采集水印,多重纹理是参考 **《音视频开发进阶指南——展晓凯/魏晓红》** 的采集例子。因此 Demo 里面对于 Camera 和 GLES 的封装和调用,笔者基本原封保留,这边对以上参考表示感谢。 #### 效果        由于白板的比例不一致,为保持 GLSL 写法一致,所以没处理变形,请忽略。
多通道渲染
多重纹理
### 最后        实际中,直播白板的内容是改变的,会不停传图片数据,然后进行更新。这其实才是 OpenGLES 混流最大的性能瓶颈里,因为大量的改变会进行很大的内存交换。        总的来说,如何选择使用 多通道渲染 还是 多重纹理,它们都能做到相同的混流效果,只是编写的实现不一样,还需根据实际需求进行选择应用哪种实现技术。而对直播而言,会使用超过两个图层,如直播水印,直播昵称,水印广告,大小白板,logo 等等,所以倾向于 多通道渲染,它在直播推流器的框架设计更具扩展性。        感谢各位读者,本实验室之2D篇,完结啦👋!        欢迎读者回顾本系列的文章: * [《iOS:OpenGLES 实验室之2D篇 第一弹 の 智能弹幕》](https://gitee.com/chenqihui/qhaidanmu-man) * [《iOS:OpenGLES 实验室之2D篇 第二弹 の 瘦脸修图》](https://gitee.com/chenqihui/qhdraw-bitmap-mesh-man) * [《iOS:OpenGLES 实验室之2D篇 第三弹 の 直播白板》](https://gitee.com/chenqihui/qhwhite-board-man) ### 链接 * 《Gitee》—— https://gitee.com/chenqihui * 《QHWhiteBoardMan: iOS:OpenGLES 实验室之2D篇 第三弹 の 直播白板》—— https://gitee.com/chenqihui/qhwhite-board-man * 《BradLarson/GPUImage: An open source iOS framework for GPU-based image and video processing》—— https://github.com/BradLarson/GPUImage