通过相邻块的预测得到mvp后,会以mvp为基础搜索最佳的匹配块,UMHexagonS就是h.264中用的一种搜索算法。

UMHexagonS是一种整像素搜索算法,也就是搜索过程中,参考图像一直都是原来的重构图像,并没有使用经过插值的图像进行搜索。

首先UMHexagonS会根据相关信息去得到比较有可能的mv,(然后用小菱形搜索到该区域去搜索该区域中的最佳mv,这种情况会在下面注明,至于如何才算最佳,请参照http://www.cnblogs.com/TaigaCon/p/3790218.html)

由于UMHexagonS是一种整像素搜索算法,所以会存在对分数的mv取整的情况,此时取整是指把mv对齐到某个像素上,消去分数部分

首先需要选取合适的搜索起点,有以下几种起点的选择

1.mvp

由于还是整像素搜索,所以这里需要对mvp取整,得到的整数的mv后采用小菱形搜索以得到比较优秀的mv。

2.原点

原点,即mv为0,即当前块的位置(然后采用小菱形搜索)

3.上层块mv

参考下图,如果当前块为8x8,那么覆盖当前块的16x8块就是其上层块

运动搜索中,分块模式有7种

模式4的上层模式为2,模式7的上层模式为4

4.共同位置块mv,取上一参考图像与当前块相同位置的块的mv,然后取整

5.共同位置参考mv通过参考图像距离计算后得到的mv,然后取整

6.最后还采用一次小菱形搜索

这里的小菱形搜索主要为了对上面3、4、5预测后得到的最佳mv再采用一次小菱形搜索以得到该区域内最佳mv

小菱形搜索就是把mv的x,y分别+1,-1后得到的新mv,然后各自对比得到其中最优的mv

Early Termination

通过上面的步骤得到最优的搜索起点后,需要计算该mv的匹配满意程度,以跳转做不同的后续搜索处理,该过程叫Early Termination。

Early Termination由于涉及到数学上的分析,所以会在后面的章节再细述。

Early Termination有两个个跳转出口,分别代表不同的匹配满意程度:

  • Extended Hexagon-based Search(六边形模板反复搜索)               满意
  • the third step with a small search pattern(小菱形模板反复搜索)   很满意

但是如果在不甚满意的情况下,Early Termination会不作跳转,直接执行下一步

UMH搜索

经过上面步骤后,得到其中最佳的搜索起点的mv,如果该mv经Early Termination判断为不甚满意,会以该mv为中心,直接开始UMH搜索。UMH搜索有以下步骤

1.Unsymmetrical-cross search(非对称十字搜索)

非对称十字搜索会先后对x轴与y轴进行搜索,y轴的搜索范围是x轴的一半,这是因为在一般的视频中,镜头的纵向移动距离会比较短,横向移动距离会比较长,而且比较常见。搜索时,横轴的搜索范围是search range,而纵轴会是它的一般。

2.Spiral search(螺旋搜索)

螺旋搜索采用的是full search(全搜索)的搜索方法,但是搜索步长只有24,相当于5x5的区域。而全搜索会对整个搜索范围进行搜索。

3.Uneven Multi-Hexagon-grid Search(不规律六边形模板搜索)

这种搜索方式是以当前mv指向的像素点为圆心,一圈一圈地往外搜索,一旦在某个圈内搜索到更佳的位置,立刻停止搜索,否则搜索完整个搜索范围

4.Extended Hexagon-based Search(六边形模板反复搜索)

不同于上一个搜索方式,这种搜索方式是以当前最佳mv指向的像素点为圆心,进行一次六边形模板搜索,一旦搜索到某个更佳的位置,则以此位置为圆心,重新进行一次六边形模板搜索。如果没有比圆心更佳的位置,则终止搜索。

5.the third step with a small search pattern(小菱形模板反复搜索)

类似Extended Hexagon-based Search(六边形模板反复搜索)的搜索方式,不过把六边形换成了菱形

以上可参照jvt-G016

JM8.6

  1. /*!
  2. ************************************************************************
  3. * \brief用非对称十字形多层次六边形格点搜索算法进行运动搜索
  4. * FastIntegerPelBlockMotionSearch: fast pixel block motion search
  5. * this algrithm is called UMHexagonS(see JVT-D016),which includes
  6. * four steps with different kinds of search patterns
  7. * \par Input:
  8. * pel_t** orig_pic, // <-- original picture
  9. * int ref, // <-- reference frame (0... or -1 (backward))
  10. * int pic_pix_x, // <-- absolute x-coordinate of regarded AxB block
  11. * int pic_pix_y, // <-- absolute y-coordinate of regarded AxB block
  12. * int blocktype, // <-- block type (1-16x16 ... 7-4x4)
  13. * int pred_mv_x, // <-- motion vector predictor (x) in sub-pel units
  14. * int pred_mv_y, // <-- motion vector predictor (y) in sub-pel units
  15. * int* mv_x, // --> motion vector (x) - in pel units
  16. * int* mv_y, // --> motion vector (y) - in pel units
  17. * int search_range, // <-- 1-d search range in pel units
  18. * int min_mcost, // <-- minimum motion cost (cost for center or huge value)
  19. * double lambda // <-- lagrangian parameter for determining motion cost
  20. * \par
  21. * Three macro definitions defined in this program:
  22. * 1. EARLY_TERMINATION: early termination algrithm, refer to JVT-D016.doc
  23. * 2. SEARCH_ONE_PIXEL: search one pixel in search range
  24. * 3. SEARCH_ONE_PIXEL1(value_iAbort): search one pixel in search range,
  25. * but give a parameter to show if mincost refeshed
  26. * \ Main contributors: (see contributors.h for copyright, address and affiliation details)
  27. * Zhibo Chen <chenzhibo@tsinghua.org.cn>
  28. * JianFeng Xu <fenax@video.mdc.tsinghua.edu.cn>
  29. * \date : 2003.8
  30. ************************************************************************
  31. */
  32. int // ==> minimum motion cost after search
  33. FastIntegerPelBlockMotionSearch (pel_t** orig_pic, // <-- not used
  34. int ref, // <-- reference frame (0... or -1 (backward))
  35. int list,
  36. int pic_pix_x, // <-- absolute x-coordinate of regarded AxB block
  37. int pic_pix_y, // <-- absolute y-coordinate of regarded AxB block
  38. int blocktype, // <-- block type (1-16x16 ... 7-4x4)
  39. int pred_mv_x, // <-- motion vector predictor (x) in sub-pel units MV_pred_space 中值预测矢量
  40. int pred_mv_y, // <-- motion vector predictor (y) in sub-pel units
  41. int* mv_x, /* --> motion vector (x) - in pel units
  42. 按照H.264标准算法进行的运动矢量预测得到MV_pred
  43. 指的是SetMotionVectorPreditor函数预测的MV
  44. 和中值预测的区别在于SetMotionVectorPreditor函数预测的MV的参考邻块和当前块必须参
  45. 考同一个参考帧,而中值预测的邻块则没有这个要求,二者可能一样,也可能不同*/
  46. int* mv_y, // --> motion vector (y) - in pel units
  47. int search_range, // <-- 1-d search range in pel units
  48. int min_mcost, // <-- minimum motion cost (cost for center or huge value)
  49. double lambda) // <-- lagrangian parameter for determining motion cost
  50. {
  51. static int Diamond_x[4] = {-1, 0, 1, 0};//对应不同算法 菱形插值
  52. static int Diamond_y[4] = {0, 1, 0, -1};
  53. static int Hexagon_x[6] = {2, 1, -1, -2, -1, 1};//六角形插值
  54. static int Hexagon_y[6] = {0, -2, -2, 0, 2, 2};
  55. static int Big_Hexagon_x[16] = {0,-2, -4,-4,-4, -4, -4, -2, 0, 2, 4, 4, 4, 4, 4, 2};
  56. static int Big_Hexagon_y[16] = {4, 3, 2, 1, 0, -1, -2, -3, -4, -3, -2, -1, 0, 1, 2, 3};//大六角形插值
  57.  
  58. int pos, cand_x, cand_y, mcost;
  59. pel_t *(*get_ref_line)(int, pel_t*, int, int, int, int);
  60. int list_offset = ((img->MbaffFrameFlag)&&(img->mb_data[img->current_mb_nr].mb_field))? img->current_mb_nr%2 ? 4 : 2 : 0;
  61. pel_t* ref_pic = listX[list+list_offset][ref]->imgY_11;//img->type==B_IMG? Refbuf11 [ref+((mref==mref_fld)) +1] : Refbuf11[ref];
  62. int best_pos = 0; // position with minimum motion cost
  63. int max_pos = (2*search_range+1)*(2*search_range+1); // number of search positions
  64. int lambda_factor = LAMBDA_FACTOR (lambda); // factor for determining lagragian motion cost
  65. int mvshift = 2; // motion vector shift for getting sub-pel units
  66. int blocksize_y = input->blc_size[blocktype][1]; // vertical block size
  67. int blocksize_x = input->blc_size[blocktype][0]; // horizontal block size
  68. int blocksize_x4 = blocksize_x >> 2; // horizontal block size in 4-pel units
  69. int pred_x = (pic_pix_x << mvshift) + pred_mv_x; // predicted position x (in sub-pel units)
  70. int pred_y = (pic_pix_y << mvshift) + pred_mv_y; // predicted position y (in sub-pel units)
  71. int center_x = pic_pix_x + *mv_x; // center position x (in pel units)
  72. int center_y = pic_pix_y + *mv_y; // center position y (in pel units)
  73. int best_x, best_y;
  74. int check_for_00 = (blocktype==1 && !input->rdopt && img->type!=B_SLICE && ref==0);
  75. int search_step,iYMinNow, iXMinNow;
  76. int i,m, iSADLayer;
  77. int iAbort;
  78. int N_Bframe = input->successive_Bframe;
  79. float betaSec,betaThird;
  80. int height=((img->MbaffFrameFlag)&&(img->mb_data[img->current_mb_nr].mb_field))?img->height/2:img->height;
  81.  
  82. //===== set function for getting reference picture lines =====
  83. if ((center_x > search_range) && (center_x < img->width -1-search_range-blocksize_x) &&
  84. (center_y > search_range) && (center_y < height-1-search_range-blocksize_y) )
  85. {
  86. get_ref_line = FastLineX;
  87. }
  88. else
  89. {
  90. get_ref_line = UMVLineX; //无运动矢量限制,需像素拓展
  91. }
  92.  
  93. //////allocate memory for search state//////////////////////////
  94. //初始化搜索标记
  95. memset(McostState[0],0,(2*search_range+1)*(2*search_range+1)*4);
  96.  
  97. ///////Threshold defined for early termination///////////////////
  98. //为早期终止设定门限值
  99. if(ref>0)
  100. {
  101. if(pred_SAD_ref!=0)
  102. {
  103. betaSec = Bsize[blocktype]/(pred_SAD_ref*pred_SAD_ref)-AlphaSec[blocktype];
  104. betaThird = Bsize[blocktype]/(pred_SAD_ref*pred_SAD_ref)-AlphaThird[blocktype];
  105. }
  106. else
  107. {
  108. betaSec = 0;
  109. betaThird = 0;
  110. }
  111. }
  112. else
  113. {
  114. if(blocktype==1)
  115. {
  116. if(pred_SAD_space !=0)
  117. {
  118. betaSec = Bsize[blocktype]/(pred_SAD_space*pred_SAD_space)-AlphaSec[blocktype];
  119. betaThird = Bsize[blocktype]/(pred_SAD_space*pred_SAD_space)-AlphaThird[blocktype];
  120. }
  121. else
  122. {
  123. betaSec = 0;
  124. betaThird = 0;
  125. }
  126. }
  127. else
  128. {
  129. if(pred_SAD_uplayer !=0)
  130. {
  131. betaSec = Bsize[blocktype]/(pred_SAD_uplayer*pred_SAD_uplayer)-AlphaSec[blocktype];
  132. betaThird = Bsize[blocktype]/(pred_SAD_uplayer*pred_SAD_uplayer)-AlphaThird[blocktype];
  133. }
  134. else
  135. {
  136. betaSec = 0;
  137. betaThird = 0;
  138. }
  139. }
  140. }
  141. /*********检测中值预测矢量**************//*其实就是把得到的mv_pred取整得到的预测矢量*/
  142. // MV_pred_space 中值预测矢量
  143. //check the center median predictor
  144. cand_x = center_x ;
  145. cand_y = center_y ;
  146. mcost = MV_COST (lambda_factor, mvshift, cand_x, cand_y, pred_x, pred_y);//通过计算候选mv所占用的bit得到mv_cost = lambda * bit_of_mv
  147. mcost = PartCalMad(ref_pic, orig_pic, get_ref_line,blocksize_y,blocksize_x,blocksize_x4,mcost,min_mcost,cand_x,cand_y);//cost = mv_cost + SAD
  148. McostState[search_range][search_range] = mcost;
  149. if (mcost < min_mcost)
  150. {
  151. min_mcost = mcost;
  152. best_x = cand_x;
  153. best_y = cand_y;
  154. }
  155.  
  156. iXMinNow = best_x;
  157. iYMinNow = best_y;
  158. for (m = 0; m < 4; m++) //小菱形检测
  159. {
  160. cand_x = iXMinNow + Diamond_x[m];
  161. cand_y = iYMinNow + Diamond_y[m];
  162. SEARCH_ONE_PIXEL
  163. }
  164. /*****************原点检测***************************************/
  165. if(center_x != pic_pix_x || center_y != pic_pix_y)
  166. {
  167. cand_x = pic_pix_x ;
  168. cand_y = pic_pix_y ;
  169. SEARCH_ONE_PIXEL
  170.  
  171. iXMinNow = best_x;
  172. iYMinNow = best_y;
  173. for (m = 0; m < 4; m++)//小菱形检测
  174. {
  175. cand_x = iXMinNow + Diamond_x[m];
  176. cand_y = iYMinNow + Diamond_y[m];
  177. SEARCH_ONE_PIXEL
  178. }
  179. }
  180. /**********************上层块预测矢量检测*********************************/
  181. if(blocktype>1)//
  182. {
  183. cand_x = pic_pix_x + (pred_MV_uplayer[0]/4);
  184. cand_y = pic_pix_y + (pred_MV_uplayer[1]/4);
  185. SEARCH_ONE_PIXEL
  186. if ((min_mcost-pred_SAD_uplayer)<pred_SAD_uplayer*betaThird)
  187. goto third_step;
  188. else if((min_mcost-pred_SAD_uplayer)<pred_SAD_uplayer*betaSec)
  189. goto sec_step;
  190. }
  191. /****************相应块预测***************************************/
  192.  
  193. //coordinate position prediction
  194. if ((img->number > 1 + ref && ref!=-1) || (list == 1 && (Bframe_ctr%N_Bframe) > 1)) //for debug
  195. {
  196. cand_x = pic_pix_x + pred_MV_time[0]/4;
  197. cand_y = pic_pix_y + pred_MV_time[1]/4;
  198. SEARCH_ONE_PIXEL
  199. }
  200. /******************相邻参考帧预测*********************************/
  201.  
  202. //prediciton using mV of last ref moiton vector
  203. if (input->PicInterlace == FIELD_CODING)//场编码,用最近的场MV预测
  204. {
  205. if ((list==0 && ref > 0) || (img->type == B_SLICE && list == 0 && (ref==0 ||ref==2 ) ))
  206. //Notes: for interlace case, ref==1 should be added
  207. {
  208. cand_x = pic_pix_x + pred_MV_ref[0]/4;
  209. cand_y = pic_pix_y + pred_MV_ref[1]/4;
  210. SEARCH_ONE_PIXEL
  211. }
  212. }
  213. else
  214. { //多参考帧预测时,用另一帧的MV预测
  215. if ((list==0 && ref > 0) || (img->type == B_SLICE && list == 0 && ref==0 ))
  216. //Notes: for interlace case, ref==1 should be added
  217. {
  218. cand_x = pic_pix_x + pred_MV_ref[0]/4;
  219. cand_y = pic_pix_y + pred_MV_ref[1]/4;
  220. SEARCH_ONE_PIXEL
  221. }
  222. }
  223. //small local search
  224. iXMinNow = best_x;
  225. iYMinNow = best_y;
  226. for (m = 0; m < 4; m++)//小菱形搜索
  227. {
  228. cand_x = iXMinNow + Diamond_x[m];
  229. cand_y = iYMinNow + Diamond_y[m];
  230. SEARCH_ONE_PIXEL
  231. }
  232.  
  233. //early termination algrithm, refer to JVT-D016
  234. //根据SAD值判断需要跳转的步骤,SAD较小时转到步骤3,较大时转到步骤2,很大时转到步骤1
  235. EARLY_TERMINATION
  236.  
  237. if(blocktype>6)
  238. goto sec_step;
  239. else
  240. goto first_step;
  241.  
  242. first_step: //Unsymmetrical-cross search 不甚满意
  243. iXMinNow = best_x;
  244. iYMinNow = best_y;
  245.  
  246. for(i=1;i<=search_range/2;i++)//水平方向搜索
  247. {
  248. search_step = 2*i - 1;
  249. cand_x = iXMinNow + search_step;
  250. cand_y = iYMinNow ;
  251. SEARCH_ONE_PIXEL
  252. cand_x = iXMinNow - search_step;
  253. cand_y = iYMinNow ;
  254. SEARCH_ONE_PIXEL
  255. }
  256.  
  257. //垂直方向搜索,注意垂直方向搜索点比水平方向少,考虑到了水平方向较垂直方向重要
  258. for(i=1;i<=search_range/4;i++)
  259. {
  260. search_step = 2*i - 1;
  261. cand_x = iXMinNow ;
  262. cand_y = iYMinNow + search_step;
  263. SEARCH_ONE_PIXEL
  264. cand_x = iXMinNow ;
  265. cand_y = iYMinNow - search_step;
  266. SEARCH_ONE_PIXEL
  267. }
  268. //early termination algrithm, refer to JVT-D016
  269. //在这里也进行中止、跳转检测,考虑到一般序列中含有大量水平、垂直方向的运动。
  270. EARLY_TERMINATION
  271.  
  272. iXMinNow = best_x;
  273. iYMinNow = best_y;
  274. //螺旋搜索,类似全搜索法,只搜索前25点,相当于5×5区域全搜索
  275. for(pos=1;pos<25;pos++)
  276. {
  277. cand_x = iXMinNow + spiral_search_x[pos];
  278. cand_y = iYMinNow + spiral_search_y[pos];
  279. SEARCH_ONE_PIXEL
  280. }
  281. //early termination algrithm, refer to JVT-D016
  282. EARLY_TERMINATION
  283.  
  284. // Uneven Multi-Hexagon-grid Search
  285. //超六边形模板搜索,(多圈)
  286. for(i=1;i<=search_range/4; i++)
  287. {
  288. iAbort = 0;
  289. for (m = 0; m < 16; m++)
  290. {
  291. cand_x = iXMinNow + Big_Hexagon_x[m]*i;
  292. cand_y = iYMinNow + Big_Hexagon_y[m]*i;
  293. SEARCH_ONE_PIXEL1(1)
  294. }
  295. if (iAbort)
  296. {
  297. //early termination algrithm, refer to JVT-D016
  298. EARLY_TERMINATION
  299. }
  300. }
  301.  
  302. // 六边形模板反复搜索(也可以用大菱形代替),搜索完后进入第三步骤
  303. sec_step: //Extended Hexagon-based Search 满意
  304. iXMinNow = best_x;
  305. iYMinNow = best_y;
  306. for(i=0;i<search_range;i++)
  307. {
  308. iAbort = 1;
  309. for (m = 0; m < 6; m++)
  310. {
  311. cand_x = iXMinNow + Hexagon_x[m];
  312. cand_y = iYMinNow + Hexagon_y[m];
  313. SEARCH_ONE_PIXEL1(0)
  314. }
  315. if(iAbort)
  316. break;
  317. iXMinNow = best_x;
  318. iYMinNow = best_y;
  319. }
  320. // 小菱形模板反复搜索,得到最终的运动矢量
  321. third_step: // the third step with a small search pattern 很满意
  322. iXMinNow = best_x;
  323. iYMinNow = best_y;
  324. for(i=0;i<search_range;i++)
  325. {
  326. iSADLayer = 65536;
  327. iAbort = 1;
  328. for (m = 0; m < 4; m++)
  329. {
  330. cand_x = iXMinNow + Diamond_x[m];
  331. cand_y = iYMinNow + Diamond_y[m];
  332. SEARCH_ONE_PIXEL1(0)
  333. }
  334. if(iAbort)
  335. break;
  336. iXMinNow = best_x;
  337. iYMinNow = best_y;
  338. }
  339.  
  340. *mv_x = best_x - pic_pix_x;
  341. *mv_y = best_y - pic_pix_y;
  342. return min_mcost;
  343. }

UMHexagonS搜索过程的更多相关文章

  1. 理解Lucene索引与搜索过程中的核心类

    理解索引过程中的核心类 执行简单索引的时候需要用的类有: IndexWriter.ƒDirectory.ƒAnalyzer.ƒDocument.ƒField 1.IndexWriter IndexWr ...

  2. Lucene学习笔记: 五,Lucene搜索过程解析

    一.Lucene搜索过程总论 搜索的过程总的来说就是将词典及倒排表信息从索引中读出来,根据用户输入的查询语句合并倒排表,得到结果文档集并对文档进行打分的过程. 其可用如下图示: 总共包括以下几个过程: ...

  3. Lucene学习总结之七:Lucene搜索过程解析

    一.Lucene搜索过程总论 搜索的过程总的来说就是将词典及倒排表信息从索引中读出来,根据用户输入的查询语句合并倒排表,得到结果文档集并对文档进行打分的过程. 其可用如下图示: 总共包括以下几个过程: ...

  4. Lucene学习总结之七:Lucene搜索过程解析 2014-06-25 14:23 863人阅读 评论(1) 收藏

    一.Lucene搜索过程总论 搜索的过程总的来说就是将词典及倒排表信息从索引中读出来,根据用户输入的查询语句合并倒排表,得到结果文档集并对文档进行打分的过程. 其可用如下图示: 总共包括以下几个过程: ...

  5. 【elasticsearch】搜索过程详解

    elasticsearch 搜索过程详解 本文基于elasticsearch8.1.在es搜索中,经常会使用索引+星号,采用时间戳来进行搜索,比如aaaa-*在es中是怎么处理这类请求的呢?是对匹配的 ...

  6. ElasticSearch+Springboot实际应用:索引同步建设,搜索过程

    1.介绍 springboot框架,众多自动化的部署和约定配置,造成了springboot的着手麻烦,熟练后可以快速快捷进行开发,常用作快捷开发的java底层框架.各位看官都是大神,自行体会.     ...

  7. ElasticSearch 基本介绍和读写搜索过程

    cluster 代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的.es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部 ...

  8. 动态链接--so的搜索过程

    可执行文件所依赖的so路径保存在.dynamic 里面,由DT_NEED类型表示.如下: 如果DT_NEED里面保存的是绝对路径,那ld就在绝对路径下查找so. 如果DT_NEED里面保存的是相对路径 ...

  9. EPZS搜索过程

    EPZS(Enhance Predictive Zonal Search) 增强预测区域搜索,是一种整像素运动估计的搜索算法. EPZS采用的是相关性较高的预测方法.这里的相关性较高是指,更多地根据已 ...

随机推荐

  1. AABB包围盒、OBB包围盒、包围球的比較

    1) AABB 包围盒: AABB 包围盒是与坐标轴对齐的包围盒, 简单性好, 紧密性较差(尤其对斜对角方向放置的瘦长形对象, 採用AABB, 将留下非常大的边角空隙, 导致大量不是必需的包围盒相交測 ...

  2. 搭建自己的SIPserver:开源sipserveropensips的搭建及终端TwInkle的使用

    先下载源代码: 这里我下载的是1.8.2,由于这个是眼下的最稳定版本号,(尽管已经有1.9及2.0了) http://opensips.org/pub/opensips/1.8.2/src/opens ...

  3. JQuery请求WebService返回数据的几种处理方式

    打开自己的博客仔细浏览了一番,发现已经好久没有写博客了,由于最近一直比较忙碌懈怠了好多.默默反省三分钟.......言归正传,现在就对最近在学习webservice的过程中遇到的几种类型的问题中我的理 ...

  4. 计数dp-hdu-4054-Number String

    题目链接: http://acm.hdu.edu.cn/showproblem.php?pid=4055 题目大意: 给一个只含‘I','D','?'三种字符的字符串,I表示当前数字大于前面的数字,D ...

  5. HTML5 Canvas 概述

    本文中,我们将探索如何使用HTML5的Canvas API.Canvas API很酷,我们可以通过它来动态创建生成和展示图形,图表,图像以及动画.本文将使用渲染API(rendering API)的基 ...

  6. iOS8中添加的extensions总结(一)——今日扩展

    通知栏中的今日扩展 分享扩展 Action扩展 图片编辑扩展 文件管理扩展 第三方键盘扩展 注:此教程来源于http://www.raywenderlich.com的<iOS8 by Tutor ...

  7. 关于——GCD

      GCD全称是Grand Central Dispatch,可译为“牛逼的中枢调度器”,纯C语言提供了强大的函数. GCD中2个核心概念 任务:执行什么操作. 队列:用来存放任务.(说白点,任务只有 ...

  8. Xcode7新特性

    更新Xcode7之后报错: Assertion failure in -[UIApplication _runWithMainScene:transitionContext:completion:], ...

  9. asp.net 图片质量压缩(不改变尺寸)

    private static ImageCodecInfo GetEncoderInfo(String mimeType) { int j; ImageCodecInfo[] encoders; en ...

  10. [转]delphi 删除动态数组的指定元素

    type TArr = array of TPoint; {把数组先定义成一个类型会方便许多, 这里仅用 TPoint 测试} {删除动态数组指定元素的过程: 参数 arr 是数组名, 参数 Inde ...