ffmpeg实现mjpeg摄像头的采集-预览-拍照
摄像头输出是mjpeg格式的,需要实现在线预览功能,然后实现拍照功能
1.可以设置采集图像的分辨率,预览分辨率为640*480,可以自定义
2.ctrl+\ 拍照,ctrl+c 退出
void test() {
if (signal(SIGQUIT, sigHandle) == SIG_ERR) {
perror("set signal err");
}
if (signal(SIGINT, sigHandle) == SIG_ERR) {
perror("set signal err");
}
AVOutputFormat *ofmt = NULL;
AVFormatContext *ifmt_ctx = NULL, *ofmt_ctx = NULL;
AVCodecContext *ifcodec_ctx, *ofcodec_ctx;
AVCodec *icodec, *ocodec;
AVStream *out_stream;
AVFrame *pFrame, *pFrameYUV420, *pFrameBGR;
struct SwsContext *in_conCtx, *out_conCtx;
unsigned char *in_buffer, *out_buffer;
AVPacket inpkg, outpkg;
const char *in_filename;
int ret, i;
int got_picture;
IplImage *image;
int videoindex = -;
int frame_index = ;
int64_t start_time = , end_time = ;
// in_filename = "test.mp4";
in_filename = "/dev/video1";
// in_filename = "rtmp://219.216.87.170/live/test3";
// out_filename = "rtmp://219.216.87.170/live/test2";
av_register_all();
avdevice_register_all();
avformat_network_init();
ifmt_ctx = avformat_alloc_context();
ifmt_ctx->probesize = ;
ifmt_ctx->max_analyze_duration = ;
AVDictionary* options = NULL;
av_dict_set(&options, "fflags", "nobuffer", );
av_dict_set(&options, "max_delay", "", );
av_dict_set(&options, "framerate", "", );
av_dict_set(&options, "input_format", "mjpeg", );
av_dict_set(&options, "video_size", "1920x1080", );
// av_dict_set(&options, "video_size", "1280x720", 0);
if ((ret = avformat_open_input(&ifmt_ctx, in_filename, , &options)) < ) {
printf("open input file err\n");
goto end;
}
av_dict_free(&options);
if ((ret = avformat_find_stream_info(ifmt_ctx, )) < ) {
printf("failed to retrieve input stream information\n");
goto end;
}
for (i = ; i < ifmt_ctx->nb_streams; i++) {
if (ifmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
videoindex = i;
break;
}
printf("codec %d:%d %d\n", i, ifmt_ctx->streams[i]->codec->codec_type,
ifmt_ctx->streams[i]->codec->codec_id);
}
// exit(1);
ifcodec_ctx = ifmt_ctx->streams[videoindex]->codec;
icodec = avcodec_find_decoder(ifcodec_ctx->codec_id);
if (icodec == NULL) {
printf("icodec not find\n");
goto end;
}
if (avcodec_open2(ifcodec_ctx, icodec, NULL) < ) {
printf("open icodec err\n");
goto end;
}
printf("**************** input file info ******************\n");
av_dump_format(ifmt_ctx, , in_filename, );
// avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_filename);
ofmt_ctx = avformat_alloc_context();
if (!ofmt_ctx) {
printf("could not create output context\n");
ret = AVERROR_UNKNOWN;
goto end;
}
ofmt = av_guess_format("mjpeg", NULL, NULL);
ofmt_ctx->oformat = ofmt;
out_stream = avformat_new_stream(ofmt_ctx, NULL);
if (!out_stream) {
printf("failed allocating output stream\n");
ret = AVERROR_UNKNOWN;
goto end;
}
ofcodec_ctx = out_stream->codec;
ofcodec_ctx->codec_id = ofmt->video_codec;
ofcodec_ctx->codec_type = AVMEDIA_TYPE_VIDEO;
ofcodec_ctx->pix_fmt = AV_PIX_FMT_YUVJ420P;
ofcodec_ctx->width = ifcodec_ctx->width;
ofcodec_ctx->height = ifcodec_ctx->height;
ofcodec_ctx->time_base.den = ;
ofcodec_ctx->time_base.num = ;
printf("timebase %d %d\n", ofcodec_ctx->time_base.den,
ofcodec_ctx->time_base.num);
// ofcodec_ctx->bit_rate = 1000000;
// ofcodec_ctx->gop_size = 5;
// ofcodec_ctx->me_range = 16;
// ofcodec_ctx->max_qdiff = 4;
// ofcodec_ctx->qmin = 10;
// ofcodec_ctx->qmax = 51;
// ofcodec_ctx->qcompress = 0.6;
// if (ofcodec_ctx->codec_id == AV_CODEC_ID_H264) {
// av_opt_set(ofcodec_ctx->priv_data, "preset", "slow", 0);
// ofcodec_ctx->max_b_frames = 1;
// }
out_stream->codec->codec_tag = ;
if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
}
ocodec = avcodec_find_encoder(ofcodec_ctx->codec_id);
if (!ocodec) {
printf("find encoder err\n");
goto end;
}
if (avcodec_open2(ofcodec_ctx, ocodec, NULL) < ) {
printf("open encoder err\n");
goto end;
}
/*******************************************/
pFrame = av_frame_alloc();
pFrameYUV420 = av_frame_alloc();
pFrameBGR = av_frame_alloc();
in_buffer = (unsigned char *) av_malloc(
avpicture_get_size(AV_PIX_FMT_BGR24, , ));
avpicture_fill((AVPicture*) pFrameBGR, in_buffer, AV_PIX_FMT_BGR24, ,
);
// printf("fmt %d\twidth %d\theight %d\n", pFrameBGR->format, pFrameBGR->width,
// pFrameBGR->height);
out_buffer = (unsigned char *) av_malloc(
avpicture_get_size(AV_PIX_FMT_YUV420P, ofcodec_ctx->width,
ofcodec_ctx->height));
avpicture_fill((AVPicture*) pFrameYUV420, out_buffer, AV_PIX_FMT_YUV420P,
ofcodec_ctx->width, ofcodec_ctx->height);
// printf("fmt %d\twidth %d\theight %d\n", pFrameYUV420->format,
// pFrameYUV420->width, pFrameYUV420->height);
in_conCtx = sws_getContext(ifcodec_ctx->width, ifcodec_ctx->height,
ifcodec_ctx->pix_fmt, , ,
AV_PIX_FMT_BGR24, SWS_BICUBIC, NULL, NULL, NULL);
out_conCtx = sws_getContext(ifcodec_ctx->width, ifcodec_ctx->height,
ifcodec_ctx->pix_fmt, ofcodec_ctx->width, ofcodec_ctx->height,
ofcodec_ctx->pix_fmt, SWS_BICUBIC, NULL, NULL, NULL);
image = cvCreateImageHeader(cvSize(, ),
IPL_DEPTH_8U, );
cvSetData(image, in_buffer, * );
// inpkg = (AVPacket*) av_malloc(sizeof(AVPacket));
// outpkg = (AVPacket*) av_malloc(sizeof(AVPacket));
start_time = av_gettime();
pFrameYUV420->format = AV_PIX_FMT_YUV420P;
pFrameYUV420->width = ofcodec_ctx->width;
pFrameYUV420->height = ofcodec_ctx->height;
av_new_packet(&outpkg, ofcodec_ctx->width * ofcodec_ctx->height * );
while (av_read_frame(ifmt_ctx, &inpkg) >= && runFlag) {
inpkg.dts = av_rescale_q_rnd(inpkg.dts,
ifmt_ctx->streams[videoindex]->time_base,
ifmt_ctx->streams[videoindex]->codec->time_base,
(enum AVRounding) (AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
inpkg.pts = av_rescale_q_rnd(inpkg.pts,
ifmt_ctx->streams[videoindex]->time_base,
ifmt_ctx->streams[videoindex]->codec->time_base,
(enum AVRounding) (AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
//decode
if (inpkg.stream_index == videoindex) {
ret = avcodec_decode_video2(ifcodec_ctx, pFrame, &got_picture,
&inpkg);
if (ret < ) {
printf("decode err\n");
exit(-);
}
if (got_picture) {
pFrame->pts = av_frame_get_best_effort_timestamp(pFrame);
sws_scale(in_conCtx,
(const unsigned char * const *) pFrame->data,
pFrame->linesize, , ifcodec_ctx->height,
pFrameBGR->data, pFrameBGR->linesize);
// printf("bgr fmt %d\twidth %d\theight %d\n", pFrameBGR->format,
// pFrameBGR->width, pFrameBGR->height);
cvShowImage("camera", image);
cvWaitKey();
if (flag == ) {
char out_filename[];
memset(out_filename, , sizeof(out_filename));
sprintf(out_filename, "%d.jpg", frame_index);
printf("encode frame %d\n", frame_index++);
if (!(ofmt->flags & AVFMT_NOFILE)) {
ret = avio_open(&ofmt_ctx->pb, out_filename,
AVIO_FLAG_WRITE);
if (ret < ) {
printf("could not open output url '%s'\n",
out_filename);
goto end;
}
}
printf(
"**************** output file info ******************\n");
av_dump_format(ofmt_ctx, , out_filename, );
ret = avformat_write_header(ofmt_ctx, NULL);
if (ret < ) {
printf("error occurred when opening output URL\n");
goto end;
}
sws_scale(out_conCtx,
(const unsigned char * const *) pFrame->data,
pFrame->linesize, , ofcodec_ctx->height,
pFrameYUV420->data, pFrameYUV420->linesize);
// printf("yuv420 fmt %d\twidth %d\theight %d\n",
// pFrameYUV420->format, pFrameYUV420->width,
// pFrameYUV420->height);
got_picture = ;
pFrameYUV420->pts = pFrame->pts;
ret = avcodec_encode_video2(ofcodec_ctx, &outpkg,
pFrameYUV420, &got_picture);
if (ret < ) {
printf("encode err\n");
goto end;
}
if (got_picture == && flag == ) {
av_write_frame(ofmt_ctx, &outpkg);
av_free_packet(&outpkg);
av_write_trailer(ofmt_ctx);
}
flag = ;
}
}
}
//encode
av_free_packet(&inpkg);
end_time = av_gettime();
printf("fps:%2f\n", (float) / (end_time - start_time));
start_time = end_time;
}
end: sws_freeContext(in_conCtx);
sws_freeContext(out_conCtx);
free(in_buffer);
free(out_buffer);
av_free(pFrameYUV420);
av_free(pFrameBGR);
avcodec_close(ifcodec_ctx);
avcodec_close(ofcodec_ctx);
avformat_close_input(&ifmt_ctx);
if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE))
avio_close(ofmt_ctx->pb);
avformat_free_context(ofmt_ctx);
if (ret < && ret != AVERROR_EOF) {
printf("Error occurred.\n");
exit(-);
}
exit();
}
代码是从标准的视频采集/转码程序改过来的,是测试程序,没有啥封装,看起来比较乱。
ffmpeg实现mjpeg摄像头的采集-预览-拍照的更多相关文章
- MFC Camera 摄像头预览 拍照
windows 上开发摄像头程序,比较容易的方式是 OpenCV ,几行代码就能显示出来,但是简单的容易搞,有点难度定制化需求的就不这么容易了.所以说还是要从,最基础的 DirectShow 开始搞起 ...
- ffmpeg实现视频文件合并/截取预览视频/抽取音频/crop(裁剪)(ffmpeg4.2.2)
一,ffmpeg的安装 请参见: https://www.cnblogs.com/architectforest/p/12807683.html 说明:刘宏缔的架构森林是一个专注架构的博客,地址:ht ...
- Unity 摄像头竖屏预览显示的问题
Unity可以通过WebCamTexture打开摄像头,通过 cameraRawImage.texture = camTexture; 将贴图给RawImage,但是WebCamTexture只能设置 ...
- Android开发:实时处理摄像头预览帧视频------浅析PreviewCallback,onPreviewFrame,AsyncTask的综合应用(转)
原文地址:http://blog.csdn.net/yanzi1225627/article/details/8605061# 很多时候,android摄像头模块不仅预览,拍照这么简单,而是需要在预览 ...
- ffmpeg从USB摄像头采集一张原始图片(转)
本文讲解使用ffmpeg从USB摄像头中采集一帧数据并写入文件保存,测试平台使用全志A20平台,其他平台修改交叉工具链即可移植.开发环境使用eclipse+CDT.交叉工具链使用arm-Linux-g ...
- Android 摄像头预览悬浮窗
用CameraX打开摄像头预览,显示在界面上.结合悬浮窗的功能.实现一个可拖动悬浮窗,实时预览摄像头的例子. 这个例子放进了单独的模块里.使用时注意gradle里的细微差别. 操作摄像头,打开预览.这 ...
- Android 摄像头预览悬浮窗,可拖动,可显示在其他app上方
市面上常见的摄像头悬浮窗,如微信.手机QQ的视频通话功能,有如下特点: 整屏页面能切换到一个小的悬浮窗 悬浮窗能运行在其他app上方 悬浮窗能跳回整屏页面,并且悬浮窗消失 我们探讨过用CameraX打 ...
- DirectShow 进行视频预览和录制
这一篇讲怎么采集摄像头图像并预览,以及录制视频到本地. 程序实现流程 这里通过使用 CaptureGraphBuilder 来简化 Graph 的创建流程. 具体流程如下: 初始化 COM 库 创建各 ...
- Android Camera2 预览功能实现
1. 概述 最近在做一些关于人脸识别的项目,需要用到 Android 相机的预览功能.网上查阅相关资料后,发现 Android 5.0 及以后的版本中,原有的 Camera API 已经被 Camer ...
随机推荐
- 02 看懂Oracle执行计划
看懂Oracle执行计划 最近一直在跟Oracle打交道,从最初的一脸懵逼到现在的略有所知,也来总结一下自己最近所学,不定时更新ing… 一:什么是Oracle执行计划? 执行计划是一条查询语句在 ...
- 12种开源Web安全扫描程序
转自:https://blog.csdn.net/wh211212/article/details/78620963 赛门铁克的一个有趣的报告显示,76%的被扫描网站有恶意软件 如果您使用的是Word ...
- 『C++』Temp_2018_12_06
#include <iostream> #include <string> using namespace std; class Type{ public: string Na ...
- sqlserver 导出数据库表结构
https://www.cnblogs.com/miaomiaoquanfa/p/6909835.html SELECT 表名 = case when a.colorder=1 then d.name ...
- 《MySQL必知必会》--使用cmd登陆数据库
数据库:保存有组织的数据的容器(通常是一个文件或一组文件). 表:某种特定类型数据的结构化清单. 模式:关于数据库和表的布局及特性的信息. 列:表中的一个字段.所有表都是由一个或多个列组成的. 数据类 ...
- Mongodb从库配置
1. 先以master方式启动mongodb 2. 导入主库的数据文件:/data/mongodb-3.0.12/bin/mongorestore /data/tmp/mongodbbak/ 3. 关 ...
- 基于FDC2214的手势识别
基于FDC2214的手势识别 1.本次题目来源于2018年全国电子设计大赛D题,要求实现对石头.剪刀.布以及数字12345的识别:同时在上述基础上实现对手势的学习. 2.硬件实现: 硬件主要采用STM ...
- mybatis入门(一):jdbc的缺点
mybatis的基础内容 1.mybatis的框架原理 2.mybatis开发dao两种方法: a.原始dao开发方法(程序需要编写dao接口和dao实现类) b.mybatis的mapper接口(相 ...
- VS2013 执行Enable-Migrations,产生错误的解决办法
我的错误是:提示文件或资源没有找到”Microsoft.VisualStudio.Shell, Version=10.0.0.0, Culture=neutral, PublicKeyToken=b0 ...
- 为 ItemsControl 类型的控件提供行号,mvvm模式 绑定集合
从网络上看到的两种方式,一种是,在 codebehind 里为 控件写事件,下面是将集合绑定到 DataGrid 控件: private void DataGridSoftware_LoadingRo ...