Ширина байта D3D11_BUFFER_DESC не работает

У меня проблемы с Direct3D. А именно, буфер вершин и его элемент ByteWidth.

Я хочу нарисовать два четырехугольника, поэтому я создаю свой буфер вершин следующим образом:

struct Vertex
{
    XMFLOAT3 pos;
    XMFLOAT3 normal;
    XMFLOAT2 texCoord;
};

    ....

void GameWindow::CreateVerticesAndBuffer()
{
    Vertex vertices[] =
    {
        { XMFLOAT3(-1.0f, -1.0f, -1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(0.0f, 1.0f) },
        { XMFLOAT3(-1.0f, 1.0f, -1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(0.0f, 0.0f) },
        { XMFLOAT3(1.0f, 1.0f, -1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(1.0f, 0.0f) },
        { XMFLOAT3(1.0f, -1.0f, -1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(1.0f, 1.0f) },

        { XMFLOAT3(-1.0f, -1.0f, 1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(0.0f, 1.0f) },
        { XMFLOAT3(-1.0f, 1.0f, 1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(0.0f, 0.0f) },
        { XMFLOAT3(1.0f, 1.0f, 1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(1.0f, 0.0f) },
        { XMFLOAT3(1.0f, -1.0f, 1.0f), XMFLOAT3(0.0f, 0.0f, -1.0f), XMFLOAT2(1.0f, 1.0f) }
    };

    D3D11_BUFFER_DESC desc;
    ZeroMemory(&desc, sizeof(desc));
    desc.BindFlags = D3D11_BIND_VERTEX_BUFFER;
    desc.CPUAccessFlags = 0;
    desc.Usage = D3D11_USAGE_DEFAULT; //Will not ever change after creation (??)
    desc.MiscFlags = 0;
    desc.ByteWidth = sizeof(Vertex) * 8;
    desc.StructureByteStride = 0;

    D3D11_SUBRESOURCE_DATA data;
    ZeroMemory(&data, sizeof(data));
    data.pSysMem = vertices;

    HR(device->CreateBuffer(
        &desc,
        &data,
        &vertexBuffer));

    UINT stride = sizeof(Vertex);
    UINT offset = 0;
    deviceContext->IASetVertexBuffers(0, 1, &vertexBuffer, &stride, &offset);
}

Этот код приводит к странным результатам, как показано здесь. Задняя сторона почему-то зеркальная.

Но если я изменю

desc.ByteWidth = sizeof(Vertex) * 8

to

desc.ByteWidth = sizeof(Vertex) * 9

Он нарисован правильно.

Кто-нибудь знает, почему это происходит?

РЕДАКТИРОВАТЬ: вот мой CreateInputLayout:

D3D11_INPUT_ELEMENT_DESC inputDesc[] = {
    { "POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0 },
    { "NORMAL", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 12, D3D11_INPUT_PER_VERTEX_DATA, 0  },
    { "TEX", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 24, D3D11_INPUT_PER_VERTEX_DATA, 0  }
};

hRes = device->CreateInputLayout(
    inputDesc,
    ARRAYSIZE(inputDesc),
    vertexShaderSource->GetBufferPointer(),
    vertexShaderSource->GetBufferSize(),
    &vertexInputLayout);

person Semicolon    schedule 08.12.2013    source источник
comment
@ItzWarty Почему вы предполагаете, что это C++/CLI? Там нет ничего, кроме чистого C++.   -  person Trillian    schedule 09.12.2013
comment
@ItzWarty: StructureByteStride предназначен для передачи структурированных данных в шейдеры, а не для буферов вершин.   -  person Trillian    schedule 09.12.2013
comment
@Semicolon: Можете ли вы опубликовать свой вызов CreateInputLayout?   -  person Trillian    schedule 09.12.2013
comment
@Trillian Я разместил свой вызов CreateInputLayout   -  person Semicolon    schedule 09.12.2013


Ответы (1)


Вы указали DXGI_FORMAT_R32G32B32_FLOAT (float3) для члена TEX. Измените его на DXGI_FORMAT_R32G32_FLOAT, и он должен работать.

person MooseBoys    schedule 09.12.2013