对最近的RTP和H264学习进行总结整理-04.20
虽然还是没有搞出来,但总感觉快了哈哈(哪来的自信)
1、RTP协议接受数据
#region 1-RTP协议变量声明
RTPSession session;
RTPReceiver receiver;
RTPParticipant participant;
private Dictionary<uint, List<RTPPacket>> Clients;
#endregion #region 对RTP进行初始化,并接收数据,调用之后就可以接收数据了
session = new RTPSession();
receiver = new RTPReceiver();
IPEndPoint rtpEp = new IPEndPoint(IPAddress.Parse("192.168.1.109"), 5000);
participant = new RTPParticipant(rtpEp);
receiver.AddParticipant(participant);
session.NewRTPPacket = new RTPSession.NewRTPPacket_Callback(NewRTPPacket);
session.AddReceiver(receiver);
Clients = new Dictionary<uint, List<RTPPacket>>();
#endregion
其中NewRTPPackt是
public delegate bool NewRTPPacket_Callback(
RTPPacket packet
)
类型的委托。packet为接收到的RTP包,我们就对这些包进行处理得到想要的帧,然后再把帧进行解码,得到想要的图像(我是这样理解的)
2、H.264进行解码
我从网络上搜索到了一个海思的DLL,可以对H.264进行解码
#region 解码器相关变量声明
/// <summary>
/// 数据的句柄
/// </summary>
IntPtr pData;
/// <summary>
/// 这是解码器属性信息
/// </summary>
public H264Dec.hiH264_DEC_ATTR_S decAttr;
/// <summary>
/// 这是解码器输出图像信息
/// </summary>
public H264Dec.hiH264_DEC_FRAME_S _decodeFrame = new H264Dec.hiH264_DEC_FRAME_S();
/// <summary>
/// 解码器句柄
/// </summary>
public IntPtr _decHandle;
#endregion #region 解码器相关初始化,一般在窗口load中进行初始化
decAttr = new H264Dec.hiH264_DEC_ATTR_S();
decAttr.uPictureFormat = ;
decAttr.uStreamInType = ;
decAttr.uPicWidthInMB = >> ;
decAttr.uPicHeightInMB = >> ;
decAttr.uBufNum = ;
decAttr.uWorkMode = ;
//创建、初始化解码器句柄
_decHandle = H264Dec.Hi264DecCreate(ref decAttr);
//_decodeFrame = new H264Dec.hiH264_DEC_FRAME_S();
#endregion //这一写代码就是h264解码的代码,其中未声明的函数和变量会在下面进行声明给出,主要是讲YUV转为RGB,在保存为Bitmap文件
if (H264Dec.Hi264DecAU(_decHandle, pData, (uint)newData.Length, , ref _decodeFrame, ) == )
{
if (_decodeFrame.bError == )
{
//策画 y u v 的长度
var yLength = _decodeFrame.uHeight * _decodeFrame.uYStride;
var uLength = _decodeFrame.uHeight * _decodeFrame.uUVStride / ;
var vLength = uLength;
var yBytes = new byte[yLength];
var uBytes = new byte[uLength];
var vBytes = new byte[vLength];
var decodedBytes = new byte[yLength + uLength + vLength]; //_decodeFrame 是解码后的数据对象,里面包含 YUV 数据、宽度、高度等信息 Marshal.Copy(_decodeFrame.pY, yBytes, , (int)yLength);
Marshal.Copy(_decodeFrame.pU, uBytes, , (int)uLength);
Marshal.Copy(_decodeFrame.pV, vBytes, , (int)vLength); //将从 _decodeFrame 中取出的 YUV 数据放入 decodedBytes 中
Array.Copy(yBytes, decodedBytes, yLength);
Array.Copy(uBytes, , decodedBytes, yLength, uLength);
Array.Copy(vBytes, , decodedBytes, yLength + uLength, vLength); ConvertYUV2RGB(yuv, rgb, width, height);
ConvertYUV2RGB(decodedBytes, rgb, width, height);
// 写 BMP 文件。
WriteBMP(rgb, width, height, string.Format("E:\\test\\yuv2bmp_{0}.bmp", index++));
}
}
其中pData为需要的一帧数据,因为pData为Intptr类型,而一帧数据是byte[]类型,所以我从网上查了查怎么转换,下面是代码,newData是byte【】,pData是intptr类型。
GCHandle hObject = GCHandle.Alloc(newData, GCHandleType.Pinned);
pData = hObject.AddrOfPinnedObject();
H264解码类
public class H264Dec
{
public const int HI_SUCCESS = ; public const int HI_FAILURE = -; public const int HI_LITTLE_ENDIAN = ; public const int HI_BIG_ENDIAN = ; public const int HI_DECODER_SLEEP_TIME = ; public const int HI_H264DEC_OK = ; public const int HI_H264DEC_NEED_MORE_BITS = -; public const int HI_H264DEC_NO_PICTURE = -; public const int HI_H264DEC_ERR_HANDLE = -; [DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecImageEnhance", CallingConvention = CallingConvention.Cdecl)]
public static extern int Hi264DecImageEnhance(IntPtr hDec, ref hiH264_DEC_FRAME_S pDecFrame, uint uEnhanceCoeff); [DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecCreate", CallingConvention = CallingConvention.Cdecl)]
public static extern IntPtr Hi264DecCreate(ref hiH264_DEC_ATTR_S pDecAttr); [DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecDestroy", CallingConvention = CallingConvention.Cdecl)]
public static extern void Hi264DecDestroy(IntPtr hDec); [DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecGetInfo", CallingConvention = CallingConvention.Cdecl)]
public static extern int Hi264DecGetInfo(ref hiH264_LIBINFO_S pLibInfo); /// <summary>
/// 对输入的一段码流进行解码并按帧输出图像
/// </summary>
/// <param name="hDec">解码器句柄</param>
/// <param name="pStream">码流起始地址</param>
/// <param name="iStreamLen">码流长度</param>
/// <param name="ullPTS">时间戳信息</param>
/// <param name="pDecFrame">图像信息</param>
/// <param name="uFlags">解码模式 0:正常解码;1、解码完毕并要求解码器输出残留图像</param>
/// <returns></returns>
[DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecFrame", CallingConvention = CallingConvention.Cdecl)]
public static extern int Hi264DecFrame(IntPtr hDec, IntPtr pStream, uint iStreamLen, ulong ullPTS, ref hiH264_DEC_FRAME_S pDecFrame, uint uFlags); [DllImport("hi_h264dec_w.dll", EntryPoint = "Hi264DecAU", CallingConvention = CallingConvention.Cdecl)]
public static extern int Hi264DecAU(IntPtr hDec, IntPtr pStream, uint iStreamLen, ulong ullPTS, ref hiH264_DEC_FRAME_S pDecFrame, uint uFlags);
/// <summary>
/// 解码器属性信息。
/// </summary>
[StructLayout(LayoutKind.Sequential)]
public struct hiH264_DEC_ATTR_S
{
/// <summary>
/// 解码器输出图像格式,目前解码库只支持YUV420图像格式
/// </summary>
public uint uPictureFormat;
/// <summary>
/// 输入码流格式 0x00: 目前解码库只支持以“00 00 01”为nalu分割符的流式H.264码流
/// </summary>
public uint uStreamInType;
/// <summary>
/// 图像宽度
/// </summary>
public uint uPicWidthInMB;
/// <summary>
/// 图像高度
/// </summary>
public uint uPicHeightInMB;
/// <summary>
/// 参考帧数目
/// </summary>
public uint uBufNum;
/// <summary>
/// 解码器工作模式
/// </summary>
public uint uWorkMode;
/// <summary>
/// 用户私有数据
/// </summary>
public IntPtr pUserData;
/// <summary>
/// 保留字
/// </summary>
public uint uReserved; } /// <summary>
/// 解码器输出图像信息数据结构
/// </summary>
[StructLayout(LayoutKind.Sequential)]
public struct hiH264_DEC_FRAME_S
{
/// <summary>
/// Y分量地址
/// </summary>
public IntPtr pY;
/// <summary>
/// U分量地址
/// </summary>
public IntPtr pU;
/// <summary>
/// V分量地址
/// </summary>
public IntPtr pV;
/// <summary>
/// 图像宽度(以像素为单位)
/// </summary>
public uint uWidth;
/// <summary>
/// 图像高度(以像素为单位)
/// </summary>
public uint uHeight;
/// <summary>
/// 输出Y分量的stride (以像素为单位)
/// </summary>
public uint uYStride;
/// <summary>
/// 输出UV分量的stride (以像素为单位)
/// </summary>
public uint uUVStride;
/// <summary>
/// 图像裁减信息:左边界裁减像素数
/// </summary>
public uint uCroppingLeftOffset;
/// <summary>
/// 图像裁减信息:右边界裁减像素数
/// </summary>
public uint uCroppingRightOffset;
/// <summary>
/// 图像裁减信息:上边界裁减像素数
/// </summary>
public uint uCroppingTopOffset;
/// <summary>
/// 图像裁减信息:下边界裁减像素数
/// </summary>
public uint uCroppingBottomOffset;
/// <summary>
/// 输出图像在dpb中的序号
/// </summary>
public uint uDpbIdx;
/// <summary>
/// 图像类型:0:帧; 1:顶场; 2:底场 */
/// </summary>
public uint uPicFlag;
/// <summary>
/// 图像类型:0:帧; 1:顶场; 2:底场 */
/// </summary>
public uint bError;
/// <summary>
/// 图像是否为IDR帧:0:非IDR帧;1:IDR帧
/// </summary>
public uint bIntra;
/// <summary>
/// 时间戳
/// </summary>
public ulong ullPTS;
/// <summary>
/// 图像信号
/// </summary>
public uint uPictureID;
/// <summary>
/// 保留字
/// </summary>
public uint uReserved;
/// <summary>
/// 指向用户私有数据
/// </summary>
public IntPtr pUserData; } /// <summary>
/// 解码库版本、版权和能力集信息。
/// </summary>
[StructLayout(LayoutKind.Sequential)]
public struct hiH264_LIBINFO_S
{
/// <summary>
/// 主编号
/// </summary>
public uint uMajor;
/// <summary>
/// 次编号
/// </summary>
public uint uMinor;
/// <summary>
/// 发布编号
/// </summary>
public uint uRelease;
/// <summary>
/// 建构编号
/// </summary>
public uint uBuild;
/// <summary>
/// 版本信息
/// </summary>
[MarshalAs(UnmanagedType.LPStr)]
public string sVersion;
/// <summary>
/// 版权信息
/// </summary>
[MarshalAs(UnmanagedType.LPStr)]
public string sCopyRight;
/// <summary>
/// 解码库能力集
/// </summary>
public uint uFunctionSet;
/// <summary>
/// 支持的输出图像格式
/// </summary>
public uint uPictureFormat;
/// <summary>
/// 输入码流格式
/// </summary>
public uint uStreamInType;
/// <summary>
/// 最大图像宽度(以像素为单位)
/// </summary>
public uint uPicWidth;
/// <summary>
/// 最大图像高度(以像素为单位)
/// </summary>
public uint uPicHeight;
/// <summary>
/// 最大参考帧数目
/// </summary>
public uint uBufNum;
/// <summary>
/// 保留字
/// </summary>
public uint uReserved; } /// <summary>
/// 用户私有数据信息。
/// </summary>
[StructLayout(LayoutKind.Sequential)]
public struct hiH264_USERDATA_S
{
/// <summary>
/// 用户数据类型
/// </summary>
public uint uUserDataType;
/// <summary>
/// 用户数据长度
/// </summary>
public uint uUserDataSize;
/// <summary>
/// 用户数据缓冲区
/// </summary>
public IntPtr pData;
/// <summary>
/// 指向下一段用户数据
/// </summary>
public IntPtr pNext;
}
}
这是YUV转RGB图像。
/// <summary>
/// 将转换后的 RGB 图像数据按照 BMP 格式写入文件。
/// </summary>
/// <param name="rgbFrame">RGB 格式图像数据。</param>
/// <param name="width">图像宽(单位:像素)。</param>
/// <param name="height">图像高(单位:像素)。</param>
/// <param name="bmpFile"> BMP 文件名。</param>
static void WriteBMP(byte[] rgbFrame, int width, int height, string bmpFile)
{
// 写 BMP 图像文件。
int yu = width * % ;
int bytePerLine = ;
yu = yu != ? - yu : yu;
bytePerLine = width * + yu; using (FileStream fs = File.Open(bmpFile, FileMode.Create))
{
using (BinaryWriter bw = new BinaryWriter(fs))
{
bw.Write('B');
bw.Write('M');
bw.Write(bytePerLine * height + );
bw.Write();
bw.Write();
bw.Write();
bw.Write(width);
bw.Write(height);
bw.Write((ushort));
bw.Write((ushort));
bw.Write();
bw.Write(bytePerLine * height);
bw.Write();
bw.Write();
bw.Write();
bw.Write(); byte[] data = new byte[bytePerLine * height];
int gIndex = width * height;
int bIndex = gIndex * ; for (int y = height - , j = ; y >= ; y--, j++)
{
for (int x = , i = ; x < width; x++)
{
data[y * bytePerLine + i++] = rgbFrame[bIndex + j * width + x]; // B
data[y * bytePerLine + i++] = rgbFrame[gIndex + j * width + x]; // G
data[y * bytePerLine + i++] = rgbFrame[j * width + x]; // R
}
} bw.Write(data, , data.Length);
bw.Flush();
}
}
} /// <summary>
/// 将一桢 YUV 格式的图像转换为一桢 RGB 格式图像。
/// </summary>
/// <param name="yuvFrame">YUV 格式图像数据。</param>
/// <param name="rgbFrame">RGB 格式图像数据。</param>
/// <param name="width">图像宽(单位:像素)。</param>
/// <param name="height">图像高(单位:像素)。</param>
static void ConvertYUV2RGB(byte[] yuvFrame, byte[] rgbFrame, int width, int height)
{
int uIndex = width * height;
int vIndex = uIndex + ((width * height) >> );
int gIndex = width * height;
int bIndex = gIndex * ; int temp = ; for (int y = ; y < height; y++)
{
for (int x = ; x < width; x++)
{
// R分量
temp = (int)(yuvFrame[y * width + x] + (yuvFrame[vIndex + (y / ) * (width / ) + x / ] - ) * YUV2RGB_CONVERT_MATRIX[, ]);
rgbFrame[y * width + x] = (byte)(temp < ? : (temp > ? : temp)); // G分量
temp = (int)(yuvFrame[y * width + x] + (yuvFrame[uIndex + (y / ) * (width / ) + x / ] - ) * YUV2RGB_CONVERT_MATRIX[, ] + (yuvFrame[vIndex + (y / ) * (width / ) + x / ] - ) * YUV2RGB_CONVERT_MATRIX[, ]);
rgbFrame[gIndex + y * width + x] = (byte)(temp < ? : (temp > ? : temp)); // B分量
temp = (int)(yuvFrame[y * width + x] + (yuvFrame[uIndex + (y / ) * (width / ) + x / ] - ) * YUV2RGB_CONVERT_MATRIX[, ]);
rgbFrame[bIndex + y * width + x] = (byte)(temp < ? : (temp > ? : temp));
}
}
}
3、这可能就是我遇到问题的地方了,怎么把RTPPack中的包数据转换为一帧图像信息,我找到的资料是;
#region 对收到的数据进行处理
if (!Clients.ContainsKey(packet.SSRC))//如果接受端第一次接受到某源的数据,则加入到
{
if (Clients.Count < )//如果发送端为4,则丢弃包
{
Clients.Add(packet.SSRC, new List<RTPPacket> { packet });
//ImagesBoxMapping[ImagesBoxMapping.First(pair => pair.Value == null).Key] = packet.SSRC;
}
}
else
{
Clients[packet.SSRC].Add(packet);
} if (packet.Marker)//如果已经发送完毕
{
//丢包检测
var orderPackets = Clients[packet.SSRC].OrderBy(rtpPacket => rtpPacket.SequenceNumber);
if (Clients[packet.SSRC].Count != (orderPackets.Last().SequenceNumber - orderPackets.First().SequenceNumber + ))
{
Clients[packet.SSRC].Clear();//清空缓存区
return true;
} //1.包重组
var count = Clients[packet.SSRC].Sum(rtpPacket => rtpPacket.DataSize);//数据总数 var newData = new byte[count]; long offSet = ;
foreach (var rtpPacket in Clients[packet.SSRC])
{
Array.Copy(rtpPacket.DataPointer, , newData, offSet, rtpPacket.DataSize);
offSet += rtpPacket.DataSize;
}
Clients[packet.SSRC].Clear();//清空缓存区
这里我理解的是newData里面就是一帧数据,但我测试了一下不对(晕)。
4、总结
这几天一直想要尽快做出来,却总没有办法深入去研究视频方面的东西。比如得到的包怎么变为一帧,怎么从一帧里面提取需要的数据,什么PPS、SPS、IDR都是什么,虽然知道名词,但总没法很明确的说出来。
我的解码思路是:RTP协议收到包后(这一步没有问题),将包的数据转为帧(这个地方可能出问题了,也可能是传过来的帧数据不符合解码的要求),再把一帧的数据传给H264解码类解码,解码后输出的是YUV,YUV->RGB->图片进行显示就可以了。这是我的思路,但没有成功。如果读者您懂这一方面,还希望给我指导。谢谢
每天写一点点,就能进步一点点.
晚上更新:
H264起始码有时是0x00000001,有时是0x000001,这两种的区别是:一共有两种起始码:3字节的0x000001和4字节的0x00000001,3字节的0x000001只有一种场合下使用,就是一个完整的帧被编为多个slice的时候,包含这些slice的nalu使用3字节起始码。其余场合都是4字节的。而海思的解码库中说的很清楚,只能解0x000001起始码的nalu,而我测试的都是0x00000001四个字节的,所以这方面可能出了点问题。哎,基础只是不好就是容易出现错误。使用VLC.NET开源可以解决RTP发送的H264码流,明天进行总结.
对最近的RTP和H264学习进行总结整理-04.20的更多相关文章
- (转)基于RTP的H264视频数据打包解包类
最近考虑使用RTP替换原有的高清视频传输协议,遂上网查找有关H264视频RTP打包.解包的文档和代码.功夫不负有心人,找到不少有价值的文档和代码.参考这些资料,写了H264 RTP打包类.解包类,实现 ...
- rtp传输h264
---恢复内容开始--- 基本概念的理解 H.264的主要目标:1.高的视频压缩比2.良好的网络亲和性 解决方案:VCL video coding layer 视频编码层NAL network abs ...
- canvas学习之API整理笔记(二)
前面我整理过一篇文章canvas学习之API整理笔记(一),从这篇文章我们已经可以基本了解到常用绘图的API.简单的变换和动画.而本篇文章的主要内容包括高级动画.像素操作.性能优化等知识点,讲解每个知 ...
- Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)
0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...
- 一份关于Swift语言学习资源的整理文件
一份关于Swift语言学习资源的整理文件 周银辉 在这里下载 https://github.com/ipader/SwiftGuide
- 【资源】C++学习资料 - 逆天整理 - 精华无密版【最新】
再失效就太无语了,链接都是多份的~~—————————————————基础——————————————C++环境搭建(全套)http://pan.baidu.com/s/1o6y0smY链接:http ...
- iOS学习笔记-精华整理
iOS学习笔记总结整理 一.内存管理情况 1- autorelease,当用户的代码在持续运行时,自动释放池是不会被销毁的,这段时间内用户可以安全地使用自动释放的对象.当用户的代码运行告一段 落,开始 ...
- iOS学习笔记总结整理
来源:http://mobile.51cto.com/iphone-386851_all.htm 学习IOS开发这对于一个初学者来说,是一件非常挠头的事情.其实学习IOS开发无外乎平时的积累与总结.下 ...
- 学习ReactNative笔记整理一___JavaScript基础
学习ReactNative笔记整理一___JavaScript基础 ★★★笔记时间- 2017-1-9 ★★★ 前言: 现在跨平台是一个趋势,这样可以减少开发和维护的成本.第一次看是看的ReactNa ...
随机推荐
- hibnate 创建表的时候type=innodb报错
这个原因是在MYSQL5.5及以后版本中type=InnoDB 由ENGINE=InnoDB 代替. 解决办法,自己定义一个方言: package com.hotusm.dialect; /** * ...
- ErrorExecution failed for task 'apptransformClassesWithDexForDebug'
[原因]: 在工程中既有本地的lib.jar文件,又有compile链接.
- Vue-router中文教程-Vue-router参考手册.CHM
下载地址http://download.csdn.net/detail/shouce_ren/9689243 百度云下载地址
- PHP 后台定时循环刷新某个页面 屏蔽apache意外停止
PHP 后台定时循环刷新某个页面 如果间隔时间过长的话 会出现apache自动停止的现象.出现的原因则是设置了 <IfModule mpm_winnt_module> ThreadsPe ...
- Spring------概述
Spring框架------概述: spring是j2ee应用程序框架,是轻量级的IOC和AOP的容器框架,主要是针对JAVABean的生命周期进行管理的轻量级容器,可以单独使用,也可以和Struts ...
- iOS上new Date出现Invalid Date的问题,
用angular的ngModel绑定time的时候,在安卓调试没问题,没想到在iOS上出现了NaN:NaN,后台丢过来的数据大概是这样的2016-03-08 20:14 然而问题就出在这个分隔符&qu ...
- Marketing with Microsoft Dynamics CRM IDEA CONFERENCE
Object:Marketing with Microsoft Dynamics CRM IDEA CONFERENCE 24 SEPTEMBER 2015 | BROADCAST ONLINE ...
- 实现微信浏览器内打开App Store链接(已被和谐,失效了)
微信浏览器是不支持打开App Store 页面的,不知道微信为什么这么做.比如你页面写 <a href=”http://itunes.apple.com/us/app/id399608199″& ...
- Java单例模式实现的几种方式
单例模式好多书上都是这么写的: public class SingleTon1 { private SingleTon1(){ } private static SingleTon1 instance ...
- spring.net (1) 概念-控制反转(又名依赖注入)
Spring.net 作为一个应用程序框架,在构建企业级.net应用程序提供了很多灵活而又丰富的功能(如:依赖注入,aop,数据访问抽象,asp.net 扩展). 控制反转: Inversion of ...