#include <Windows.h>
#include <mfapi.h>
#include <mfidl.h>
#include <Mfreadwrite.h>
#include <mferror.h>
#include <d3d9.h> #pragma comment(lib, "mfreadwrite")
#pragma comment(lib, "mfplat")
#pragma comment(lib, "mfuuid")
#pragma comment(lib, "d3d9.lib") template <class T> void SafeRelease(T **ppT) { if (*ppT) {
(*ppT)->Release();
*ppT = NULL;
}
} #define REVERSE_IMAGE // Format constants
const UINT32 VIDEO_FPS = ;
const UINT64 VIDEO_FRAME_DURATION = * * / VIDEO_FPS;
const UINT32 VIDEO_BIT_RATE = ;
const GUID VIDEO_ENCODING_FORMAT = MFVideoFormat_H264;
const GUID VIDEO_INPUT_FORMAT = MFVideoFormat_RGB32;
const UINT32 VIDEO_FRAME_COUNT = * VIDEO_FPS; HRESULT InitializeDirect3D9(IDirect3DDevice9** ppDevice, IDirect3DSurface9** ppSurface, UINT32& uiWidth, UINT32& uiHeight) { IDirect3D9* d3d = NULL; d3d = Direct3DCreate9(D3D_SDK_VERSION); if (d3d == NULL)
return E_POINTER; D3DDISPLAYMODE mode;
HRESULT hr = d3d->GetAdapterDisplayMode(D3DADAPTER_DEFAULT, &mode); if (FAILED(hr)) {
SafeRelease(&d3d);
return hr;
} D3DPRESENT_PARAMETERS parameters = { }; parameters.Windowed = TRUE;
parameters.BackBufferCount = ;
uiHeight = parameters.BackBufferHeight = mode.Height;
uiWidth = parameters.BackBufferWidth = mode.Width;
parameters.SwapEffect = D3DSWAPEFFECT_DISCARD;
parameters.hDeviceWindow = NULL; hr = d3d->CreateDevice(D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL, NULL, D3DCREATE_SOFTWARE_VERTEXPROCESSING, &parameters, ppDevice); if (FAILED(hr)) {
SafeRelease(&d3d);
return hr;
} hr = (*ppDevice)->CreateOffscreenPlainSurface(mode.Width, mode.Height, D3DFMT_A8R8G8B8, D3DPOOL_SYSTEMMEM, ppSurface, nullptr); SafeRelease(&d3d); return hr;
} HRESULT InitializeSinkWriter(IMFSinkWriter **ppWriter, DWORD *pStreamIndex, const UINT32 uiWidth, const UINT32 uiHeight) { *ppWriter = NULL;
*pStreamIndex = NULL; IMFSinkWriter *pSinkWriter = NULL;
IMFMediaType *pMediaTypeOut = NULL;
IMFMediaType *pMediaTypeIn = NULL;
DWORD streamIndex; HRESULT hr = MFCreateSinkWriterFromURL(L"output.mp4", NULL, NULL, &pSinkWriter); // Set the output media type.
if (SUCCEEDED(hr)) {
hr = MFCreateMediaType(&pMediaTypeOut);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeOut->SetGUID(MF_MT_MAJOR_TYPE, MFMediaType_Video);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeOut->SetGUID(MF_MT_SUBTYPE, VIDEO_ENCODING_FORMAT);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeOut->SetUINT32(MF_MT_AVG_BITRATE, VIDEO_BIT_RATE);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeOut->SetUINT32(MF_MT_INTERLACE_MODE, MFVideoInterlace_Progressive);
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeSize(pMediaTypeOut, MF_MT_FRAME_SIZE, uiWidth, uiHeight);
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeRatio(pMediaTypeOut, MF_MT_FRAME_RATE, VIDEO_FPS, );
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeRatio(pMediaTypeOut, MF_MT_PIXEL_ASPECT_RATIO, , );
}
if (SUCCEEDED(hr)) {
hr = pSinkWriter->AddStream(pMediaTypeOut, &streamIndex);
} // Set the input media type.
if (SUCCEEDED(hr)) {
hr = MFCreateMediaType(&pMediaTypeIn);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeIn->SetGUID(MF_MT_MAJOR_TYPE, MFMediaType_Video);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeIn->SetGUID(MF_MT_SUBTYPE, VIDEO_INPUT_FORMAT);
}
if (SUCCEEDED(hr)) {
hr = pMediaTypeIn->SetUINT32(MF_MT_INTERLACE_MODE, MFVideoInterlace_Progressive);
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeSize(pMediaTypeIn, MF_MT_FRAME_SIZE, uiWidth, uiHeight);
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeRatio(pMediaTypeIn, MF_MT_FRAME_RATE, VIDEO_FPS, );
}
if (SUCCEEDED(hr)) {
hr = MFSetAttributeRatio(pMediaTypeIn, MF_MT_PIXEL_ASPECT_RATIO, , );
}
if (SUCCEEDED(hr)) {
hr = pSinkWriter->SetInputMediaType(streamIndex, pMediaTypeIn, NULL);
} // Tell the sink writer to start accepting data.
if (SUCCEEDED(hr)) {
hr = pSinkWriter->BeginWriting();
} // Return the pointer to the caller.
if (SUCCEEDED(hr)) { *ppWriter = pSinkWriter;
(*ppWriter)->AddRef();
*pStreamIndex = streamIndex;
} SafeRelease(&pSinkWriter);
SafeRelease(&pMediaTypeOut);
SafeRelease(&pMediaTypeIn);
return hr;
} HRESULT WriteFrame(IDirect3DDevice9* pDevice, IDirect3DSurface9* pSurface, IMFSinkWriter* pWriter, DWORD streamIndex, const LONGLONG& rtStart, const UINT32 uiWidth, const UINT32 uiHeight) { HRESULT hr = pDevice->GetFrontBufferData(, pSurface); if (FAILED(hr)) {
return hr;
} D3DLOCKED_RECT rc;
hr = pSurface->LockRect(&rc, NULL, ); if (FAILED(hr)) {
return hr;
} IMFSample *pSample = NULL;
IMFMediaBuffer *pBuffer = NULL; const LONG cbWidth = * uiWidth;
const DWORD cbBuffer = cbWidth * uiHeight; BYTE *pData = NULL; // Create a new memory buffer.
hr = MFCreateMemoryBuffer(cbBuffer, &pBuffer); // Lock the buffer and copy the video frame to the buffer.
if (SUCCEEDED(hr)) {
hr = pBuffer->Lock(&pData, NULL, NULL);
} if (SUCCEEDED(hr)) { #ifdef REVERSE_IMAGE
for (int i = , j = uiHeight - ; i < uiHeight; i++, j--)
for (int k = ; k < cbWidth; k++)
pData[(i * cbWidth) + k] = ((BYTE*)rc.pBits)[(j * cbWidth) + k];
#else
hr = MFCopyImage(pData, cbWidth, (BYTE*)rc.pBits, rc.Pitch, cbWidth, uiHeight);
#endif
} if (pBuffer) {
pBuffer->Unlock();
} // Set the data length of the buffer.
if (SUCCEEDED(hr)) {
hr = pBuffer->SetCurrentLength(cbBuffer);
} // Create a media sample and add the buffer to the sample.
if (SUCCEEDED(hr)) {
hr = MFCreateSample(&pSample);
} if (SUCCEEDED(hr)) {
hr = pSample->AddBuffer(pBuffer);
} // Set the time stamp and the duration.
if (SUCCEEDED(hr)) {
hr = pSample->SetSampleTime(rtStart);
} if (SUCCEEDED(hr)) {
hr = pSample->SetSampleDuration(VIDEO_FRAME_DURATION);
} // Send the sample to the Sink Writer.
if (SUCCEEDED(hr)) {
hr = pWriter->WriteSample(streamIndex, pSample);
} hr = pSurface->UnlockRect(); SafeRelease(&pSample);
SafeRelease(&pBuffer);
return hr;
} void main() { HRESULT hr = CoInitializeEx(NULL, COINIT_APARTMENTTHREADED); if (SUCCEEDED(hr)) { hr = MFStartup(MF_VERSION); if (SUCCEEDED(hr)) { UINT32 uiWidth = ;
UINT32 uiHeight = ; IDirect3DDevice9* pDevice = NULL;
IDirect3DSurface9* pSurface = NULL; hr = InitializeDirect3D9(&pDevice, &pSurface, uiWidth, uiHeight); if (SUCCEEDED(hr)) { IMFSinkWriter *pSinkWriter = NULL;
DWORD stream; hr = InitializeSinkWriter(&pSinkWriter, &stream, uiWidth, uiHeight); if (SUCCEEDED(hr)) { LONGLONG rtStart = ; for (DWORD i = ; i < VIDEO_FRAME_COUNT; ++i) { hr = WriteFrame(pDevice, pSurface, pSinkWriter, stream, rtStart, uiWidth, uiHeight); if (FAILED(hr)) {
break;
} rtStart += VIDEO_FRAME_DURATION;
}
} if (SUCCEEDED(hr)) {
hr = pSinkWriter->Finalize();
} SafeRelease(&pSinkWriter);
} SafeRelease(&pDevice);
SafeRelease(&pSurface);
MFShutdown();
} CoUninitialize();
}
}

https://stackoverflow.com/questions/33753912/directx-screen-capture-and-output-as-video

DirectX屏幕捕获和输出视频的更多相关文章

  1. FFmpeg 入门(2):输出视频到屏幕

    本文转自:FFmpeg 入门(2):输出视频到屏幕 | www.samirchen.com SDL 我们这里使用 SDL 来渲染视频到屏幕.SDL 是 Simple Direct Layer 的缩写, ...

  2. 屏幕录制H.264视频,AAC音频,MP4复,LibRTMP现场活动

    上周完成了一个屏幕录制节目,实时屏幕捕获.记录,视频H.264压缩,音频应用AAC压缩,复用MP4格公式,这使得计算机和ios设备上直接播放.支持HTML5的播放器都能够放,这是标准格式的优点.抓屏也 ...

  3. javaCV开发详解之12:视频转apng动态图片实现,支持透明通道,也支持摄像机、桌面屏幕、流媒体等视频源转apng动态图

    wjavaCV系列文章: javacv开发详解之1:调用本机摄像头视频 javaCV开发详解之2:推流器实现,推本地摄像头视频到流媒体服务器以及摄像头录制视频功能实现(基于javaCV-FFMPEG. ...

  4. 使用 C# 捕获进程输出

    使用 C# 捕获进程输出 Intro 很多时候我们可能会需要执行一段命令获取一个输出,遇到的比较典型的就是之前我们需要用 FFMpeg 实现视频的编码压缩水印等一系列操作,当时使用的是 FFMpegC ...

  5. 【译】如何使用Vue捕获网络摄像头视频

    几个月前,我一直关注着比特币的爆发并且在GDAX网站上注册账号.在注册验证的过程中,网站提示要通过计算机的网络摄像头提交我自己的一张照片作为照片ID.这是一个很酷的做法,让我思考一个问题:在网络浏览器 ...

  6. sql存储过程异常捕获并输出例子还有不输出过程里面判断异常 例子

    编程的异常处理很重要,当然Sql语句中存储过程的异常处理也很重要,明确的异常提示能够快速的找到问题的根源,节省很多时间. 下面,我就以一个插入数据为例来说明Sql Server中的存储过程怎么捕获异常 ...

  7. EDIUS分别输出视频和音频的教程

    使用EDIUS剪辑好视频之后渲染输出文件时,为什么视频和音频分别出,而不是一起呢?这个问题很可能会让一些新手困惑不已,到底是什么原因呢?又要如何设置才能让输出的文件视音频一体呢?下面,小编将来和大家探 ...

  8. 在 HTML5 中捕获音频和视频

    简介 长久以来,音频/视频捕获都是网络开发中的"圣杯".多年来,我们总是依赖于浏览器插件(Flash 或 Silverlight)实现这一点.快来看看吧! 现在轮到 HTML5 大 ...

  9. 屏幕录像专家exe视频批量翻录成视频avi格式

    笔者下载过一些视频,全部是屏幕录像专家录制的exe视频,这些视频没有密码,可以顺利打开看看. 有一日想把这些视频转换成wmv格式放到手机上查看.一个目录下有那么大exe视频.一个个转特别麻烦. 后来想 ...

随机推荐

  1. Jmeter(七)参数化

    初识Jmeter的时候, 除了感觉安装和配置都很轻量以外, 还有一个最大的感触就是, 翻译真硬啊, 真的够够的! 和他磨合了挺长一段时间之后, 终于开悟了, 这些硬硬的翻译, 其实还是基本靠谱的, 看 ...

  2. 阶段3 2.Spring_09.JdbcTemplate的基本使用_4 JdbcTemplate的CRUD操作

    复制demo起名3 保存 update delete selct 有这么多的重载方法 如何去定位 可变参数是JDK1.5版本之后才有的东西 RowMapper 实现RowMapper这个接口.然后实现 ...

  3. nginx启动用户和nginx工作用户要一致

    [root@bogon default]# ps aux | grep "nginx: worker process" | awk '{print $1}'rootrootroot ...

  4. Salesforce学习之路-developer篇(五)一文读懂Aura原理及实战案例分析

    1. 什么是Lightning Component框架? Lightning Component框架是一个UI框架,用于为移动和台式设备开发Web应用程序.这是一个单页面Web应用框架,用于为Ligh ...

  5. Brew 替换为国内源Mac

    # 替换brew.git cd "$(brew --repo)" git remote set-url origin https://mirrors.aliyun.com/home ...

  6. python的并发GIL 了解

    gil  又称 global interpreter lock (全局解释器锁) #python 中一个线程对应于c语言中的一个线程 #gil使得同一个时刻只有一个线程在一个cpu上执行字节码,无法将 ...

  7. springMvc中获取通过注解获取properties配置文件(转)

    springMvc的项目中,通过注解@Value获取properties配置文件中的配置,使用该注解必须引入的包: spring-beans-4.1.4.RELEASE.jar 下面是需要在sprin ...

  8. Luogu P3647 [APIO2014]连珠线

    题目 换根dp. 显然对于给定的一棵有根树,蓝线都不能拐弯. 设\(f_{u,0}\)表示\(u\)不是蓝线中点时子树内的答案,\(f_{u,1}\)表示\(u\)是蓝线中点时子树内的答案.(以\(1 ...

  9. py3.7安装Scrapy及安装时的 Running setup.py install for Twisted ... error 和安装后的 Unhandled error in Deferred:

    1.首先,win+r 进入cmd,打开命令提示符,输入  pip install scrapy  等待自动安装: 2.到了后半段会出现  Running setup.py install for Tw ...

  10. CentOS7下载与安装错误全记录

    这篇文章记录安装CentOS7过程错误全记录,供大家和自己参考 起因:笔记本用的win10系统,开启热点的时候,总是10分钟就自动关闭.于是折腾linux系统,平时用win10系统,也切换到linux ...