当前位置: 首页 > 知识库问答 >
问题:

将Coin3D SoOff屏幕渲染器转换为QImage并使用OpenGL渲染

宋昊然
2023-03-14

我正试图通过使用SoOffscreenRendererQGLWidget中显示一个带有QT的Coin3D/Open Inventor场景,我需要帮助将其转换为QImage

到目前为止,我尝试的是将场景渲染到SoOffscreenRenderer中,并获得如下缓冲区:

unsigned char * getCoinCubeImgBuffer(){
  // [...] create the scene, add lightning and camera

  SoOffscreenRenderer offscreenRenderer(vpRegion);
  offscreenRenderer.setComponents(
                      SoOffscreenRenderer::Components::RGB_TRANSPARENCY
                    );
  SbBool ok = offscreenRenderer.render(root);

  // to be sure that something is actually rendered
  // save the buffer content to a file
  SbBool ok = offscreenRenderer.render(root);
  qDebug() << "SbBool ok?" << ok;
  qDebug() << "wasFileWrittenRGB" << 
    offscreenRenderer.writeToRGB("C:/test-gl.rgb");
  qDebug() << "wasFileWrittenPS" << 
    offscreenRenderer.writeToPostScript("C:/test-gl.ps");


  unsigned char * imgbuffer = offscreenRenderer.getBuffer();
  return imgbuffer;
}

然后从缓冲区数据创建一个QImage

QImage convertImgBuffer(){
  unsigned char *const imgBuffer = getCoinCubeImgBuffer();
  QImage img(imgBuffer, windowWidth, windowHeight, QImage::Format_ARGB32);

  // Important!
  img = img.rgbSwapped();

  QImage imgGL = convertToGLFormat(img);
  return imgGL;
}

这是正确的方法吗?

正如在这个关于绘制图像的问题中所描述的,如果源是一张图片,我就能够绘制它。

e:为了确保我的缓冲区实际上包含一个场景,我将缓冲区内容写入两个文件。例如,您可以使用Irfan View及其插件查看. rgb和. ps文件。

E2:刚刚想出来,我必须使用img.rgb交换()。现在它显示场景为黑色

e3:使用这样的代码,您需要以这种方式调整OpenGL调用以呈现颜色

glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB, tex.width(), 
    tex.height(), 0, GL_RGBA, GL_UNSIGNED_BYTE, tex.bits());

第一种格式是GL_RGB,第二种格式是GL_RGBA。但立方体仍然是完全黑色的。

e4:这是我的场景中的一个错误,你必须在html" target="_blank">添加其余部分之前添加灯光,尤其是在添加相机之前。


我想出了如何使用OpenGL绘制QImage,请参阅此线程。因此缓冲区或其转换似乎存在问题。

共有3个答案

乔宏峻
2023-03-14

一个使用SoWin、Coin3D渲染局部场景的简单示例(从此处下载SoWin)

SoSeparator * CreateScene(SoSeparator* root)
{
    root->ref();
    root->setName("root_node");
    SoPerspectiveCamera * camera = new SoPerspectiveCamera;
    camera->setName("simple_camera");
    SbRotation cameraRotation = SbRotation::identity();
    cameraRotation *= SbRotation(SbVec3f(1, 0, 0), -0.4f);
    cameraRotation *= SbRotation(SbVec3f(0, 1, 0), 0.4f);
    camera->orientation = cameraRotation;

    SoCone* cone1= new SoCone();    
    cone1->setName("Cone1");

    SoBaseColor * color = new SoBaseColor;
    color->setName("myColor");

    root->addChild(camera);   
    root->addChild(cone1);    
    root->addChild(color);    

    return root;
}

渲染上面创建的场景

void RenderLocal()
{

    HWND window = SoWin::init("IvExample");
    if (window==NULL) exit(1);
    SoWinExaminerViewer * viewer = new SoWinExaminerViewer(window);

    SoSeparator * root = new SoSeparator;
    auto* data = CreateScene(root);
    data->getNumChildren();

    viewer->setSceneGraph(root);
    viewer->show();
    SoWin::show(window);
    SoWin::mainLoop();
    delete viewer;
    root->unref();

}

从iv文件渲染场景

int RenderFile()
{

 HWND window = SoWin::init("Iv");
    if (window==NULL) exit(1);
    SoWinExaminerViewer * viewer = new SoWinExaminerViewer(window);

     SoInput sceneInput;   
     if ( !sceneInput.openFile( "example.iv" ) )    
         return -1;
     if ( !sceneInput.openFile(cPath) )    
         return -1;
     SoSeparator *root =SoDB::readAll( &sceneInput );  
     root->ref();   
     viewer->setSceneGraph(root);  

     viewer->show();
     SoWin::show(window);
     SoWin::mainLoop();
     delete viewer;
  }
宋涵忍
2023-03-14

我不认为有必要通过QImage提供纹理。以下是一个工作示例:

#include <QApplication>
#include <QGLWidget>
#include <Inventor/SoInput.h>
#include <Inventor/SoOffscreenRenderer.h>
#include <Inventor/nodes/SoSeparator.h>

static GLuint textureID(0);

class GLWidget : public QGLWidget
{
public:
    explicit GLWidget() : QGLWidget() {}
    ~GLWidget() {}
protected:
    void initializeGL() {
        glShadeModel(GL_FLAT);
        glEnable(GL_LIGHTING);
        glEnable(GL_LIGHT0);
        static GLfloat lightAmbient[4] = { 1.0, 1.0, 1.0, 1.0 };
        glLightfv(GL_LIGHT0, GL_AMBIENT, lightAmbient);
    }
    void paintGL() {
        if (!textureID)
            return;
        glClearColor(0.4f, 0.1f, 0.1f, 1.0f);
        glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);

        glEnable(GL_TEXTURE_2D);
        glBindTexture(GL_TEXTURE_2D, textureID);

        glBegin(GL_QUADS);
            glTexCoord2f(0,0); glVertex3f(-1, -1, -1);
            glTexCoord2f(1,0); glVertex3f( 1, -1, -1);
            glTexCoord2f(1,1); glVertex3f( 1,  1, -1);
            glTexCoord2f(0,1); glVertex3f(-1,  1, -1);
        glEnd();

        glDisable(GL_TEXTURE_2D);
    }
    void resizeGL(int width, int height) {
        int side = qMin(width, height);
        glViewport((width - side) / 2, (height - side) / 2, side, side);

        glMatrixMode(GL_PROJECTION);
        glLoadIdentity();
        glOrtho(-1.0, 1.0, -1.0, 1.0, 0.0, 1000.0);
        glMatrixMode(GL_MODELVIEW);
    }
};

int main(int argc, char *argv[])
{
    QApplication app(argc, argv);

    GLWidget glWidget;
    glWidget.show();

    static const char * inlineSceneGraph[] = {
        "#Inventor V2.1 ascii\n",
        "\n",
        "Separator {\n",
        "  PerspectiveCamera { position 0 0 5 }\n",
        "  DirectionalLight {}\n",
        "  Rotation { rotation 1 0 0  0.3 }\n",
        "  Cone { }\n",
        "  BaseColor { rgb 1 0 0 }\n",
        "  Scale { scaleFactor .7 .7 .7 }\n",
        "  Cube { }\n",
        "\n",
        "  DrawStyle { style LINES }\n",
        "  ShapeHints { vertexOrdering COUNTERCLOCKWISE }\n",
        "  Coordinate3 {\n",
        "    point [\n",
        "       -2 -2 1.1,  -2 -1 1.1,  -2  1 1.1,  -2  2 1.1,\n",
        "       -1 -2 1.1,  -1 -1 1.1,  -1  1 1.1,  -1  2 1.1\n",
        "        1 -2 1.1,   1 -1 1.1,   1  1 1.1,   1  2 1.1\n",
        "        2 -2 1.1,   2 -1 1.1,   2  1 1.1,   2  2 1.1\n",
        "      ]\n",
        "  }\n",
        "\n",
        "  Complexity { value 0.7 }\n",
        "  NurbsSurface {\n",
        "     numUControlPoints 4\n",
        "     numVControlPoints 4\n",
        "     uKnotVector [ 0.0, 0.0, 0.0, 0.0, 1.0, 1.0, 1.0, 1.0 ]\n",
        "     vKnotVector [ 0.0, 0.0, 0.0, 0.0, 1.0, 1.0, 1.0, 1.0 ]\n",
        "  }\n",
        "}\n",
        NULL
    };

    SoInput in;
    in.setStringArray(inlineSceneGraph);

    glWidget.resize(600, 600);
    SoOffscreenRenderer renderer(SbViewportRegion(glWidget.width(),
                                                  glWidget.height()));
    renderer.setComponents(SoOffscreenRenderer::RGB_TRANSPARENCY);
    renderer.setBackgroundColor(SbColor(.0f, .0f, .8f));
    SoSeparator *rootScene = SoDB::readAll(&in);
    rootScene->ref();
    renderer.render(rootScene);
    rootScene->unref();

    glEnable(GL_TEXTURE_2D); // Enable texturing

    glGenTextures(1, &textureID); // Obtain an id for the texture
    glBindTexture(GL_TEXTURE_2D, textureID); // Set as the current texture

    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA,
                 renderer.getViewportRegion().getViewportSizePixels()[0],
                 renderer.getViewportRegion().getViewportSizePixels()[1],
                 0, GL_BGRA, GL_UNSIGNED_BYTE, renderer.getBuffer());

    glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);

    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP);

    glDisable(GL_TEXTURE_2D);

    return app.exec();
}
罗奇文
2023-03-14

下面是正确渲染场景的结果代码。

首先创建一个有效的场景

void loadCoinScene(){
    // Init Coin
    SoDB::init();
    // The root node
    root = new SoSeparator;
    root->ref();

    // Add the light _before_ you add the camera
    SoDirectionalLight * light = new SoDirectionalLight;
    root->addChild(light);

    vpRegion.setViewportPixels(0, 0, coinSceneWidth, coinSceneHeight);

    SoPerspectiveCamera *perscam = new SoPerspectiveCamera();
    root->addChild(perscam);

    SbRotation cameraRotation = SbRotation::identity();
    cameraRotation *= SbRotation(SbVec3f(0, 1, 0), 0.4f);
    perscam->orientation = cameraRotation;

    SoCube * cube = new SoCube;
    root->addChild(cube);
    // make sure that the cube is visible
    perscam->viewAll(root, vpRegion);
}

然后将场景渲染到屏幕外缓冲区,并将其转换为QImage

QImage getCoinCubeImgBuffer(){
    SoOffscreenRenderer offscreenRenderer(vpRegion);
    offscreenRenderer.setComponents(
      SoOffscreenRenderer::Components::RGB_TRANSPARENCY
    );
    offscreenRenderer.render(root);

    QImage img(offscreenRenderer.getBuffer(), coinSceneWidth, 
        coinSceneHeight, QImage::Format_ARGB32);

    // Important!
    return img.rgbSwapped();
}

如果您现在想用OpenGL渲染QImage,请使用我的render QImage with OpenGL问题的解决方案,并将loadTexture2()方法更改为:

QImage loadTexture2(GLuint &textureID){
    glEnable(GL_TEXTURE_2D); // Enable texturing

    glGenTextures(1, &textureID); // Obtain an id for the texture
    glBindTexture(GL_TEXTURE_2D, textureID); // Set as the current texture

    QImage im = getCoinCubeImgBuffer();
    // Convert to OpenGLs unnamed format
    // The resulting GL format is GL_RGBA
    QImage tex = QGLWidget::convertToGLFormat(im);

    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB, tex.width(), tex.height(), 0, 
        GL_RGBA, GL_UNSIGNED_BYTE, tex.bits());

    glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);

    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP);

    glDisable(GL_TEXTURE_2D);

    return tex;
}
 类似资料:
  • 问题内容: 我想将视图渲染为位图并保存位图。但是我需要在屏幕外进行所有操作。 我已经试过了: 编辑:我的应用程序崩溃,因为视图没有任何宽度或高度。(此措施是为了解决该问题) 抱歉英语不好。 问题答案: 问题在这里: 您需要传递父级布局,以便可以对其进行正确测量。我了解您不希望将视图附加到布局,但是您可以通过使用此方法的此版本来将父布局仅用于测量,将false传递给attachToRoot。 根据参

  • 下面的LWJGL代码将在屏幕中心呈现一个蓝色正方形。相反,我得到了一个空白的白色屏幕。就像渲染根本不工作,或者我在屏幕外渲染。 我是OpenGL和LWJGL的新手,所以我力不从心。我浏览了所有内容,但似乎找不到任何可能与代码有关的问题。 OpenGLTest.scala VertexArray.scala

  • 因为屏幕渲染可在位图中获取浏览器窗口内容,所以它可以呈现在任何地方,例如3D场景中的纹理。 Electron中的屏幕渲染的使用方法与 Chromium Embedded Framework项目类似,都可以使用两种渲染模式,并且只有脏区域在 'paint' 事件中传递才能更有效率。可以停止或继续渲染,还可以设置帧速率。指定的帧速率是上限值,当网页上没有发生任何事情时,不会生成任何帧。最大帧速率为60

  • 离线渲染允许您在位图中获取浏览器窗口的内容,因此可以在任何地方渲染,例如在3D场景中的纹理。 Electron中的离屏渲染使用与 Chromium Embedded Framework 项目类似的方法。 可以使用两种渲染模式,并且只有脏区通过 'paint' 事件才能更高效。 渲染可以停止、继续,并且可以设置帧速率。 指定的帧速率是上限值,当网页上没有发生任何事件时,不会生成任何帧。 最大帧速率是

  • 概览 离屏渲染允许你以位图的方式来获取 BrowserWindow 中的内容,所以它可以在任何地方被渲染,例如在3D场景中的纹理。 Electron中的离屏渲染使用与 Chromium Embedded Framework 项目类似的方法。 注意: 有两种渲染模式可以使用(见下),只有未渲染区域传递到 绘图 事件才能提高效率。 您可以停止/继续渲染并设置帧速率。 最高帧速率为 240,因为更高的值

  • 纹理根本不渲染,几何体都是黑色的。 截图:http://i.imgur.com/ypMdQY4.png 代码:http://pastebin.com/SvB8rxxt 我也会链接到我试图渲染的纹理和transformations.py模块,但是我没有被允许放置两个以上链接的声誉。谷歌搜索“现代opengl 02”会给你前者的教程,“转换py”会给你后者。 搜索“纹理材料开始”以查找纹理材料的设置位