一、硬件知识

1. 摄像头硬件结构和工作原理,如图1&图2 

  

  外部光线穿过lens镜头,经过红外滤光片后光学图像投射到传感器上,然后光学图像被转换成电信号,电信号再经过模数转换变为数字信号,数字信号经过DSP加工处理,

再被送到接收端进行处理,最终转换成屏幕上能够看到的图像。 其中:

1)滤光片作用:

  a. 滤除红外线,滤除对可见光有干扰的红外光,使成像效果更清晰。

  b. 修整进来的光线,感光芯片由感光体(CELL)构成,最好的光线是直射进来,但为了怕干扰到邻近感光体

就需要对光线加以修整,因此那片滤光片不是玻璃,而是石英片,利用石英的物理偏光特性,把进来

的光线保留直射部份,反射掉斜射部份,避免去影响旁边的感光点。

2)常见的sensor传感器主要有两种:

  a. CCD传感器(Chagre Couled Device),即电荷耦合器。

  b. CMOS传感器(Complementary Metal-Oxide Semiconductor),即互补性金属氧化物半导体。

CCD的优势在于成像质量好,但是制造工艺复杂,成本高昂,且耗电高。在相同分辨率下,CMOS价格

     比CCD便宜,但图像质量相比CCD来说要低一些。CMOS影像传感器相对CCD具有耗电低的优势,加上随

着工艺技术的进步,CMOS的画质水平也不断地在提高,所以目前市面上的手机摄像头都采用CMOS传感器。

3)DSP (DIGITAL SIGNAL PROCESSING):

  主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。结构框架:  ISP(image signal processor)(镜像信号处理器)、JPEG encoder(JPEG图像解码器)、USB device controller(USB设备控制器)

  对于低分辨率来说(300W像素以下), 一般摄像头自带DSP/ISP处理模块,提供简单的自动白平衡、 gamma、sharpness等功能,而高分辨率或者需要提供更增强功能时,可以使用处理器自带的ISP模块(前提是处理器有)。

一般ISP支持输出YUV、RGB、JPEG格式。

2. 摄像头引脚作用&硬件连接:  

  目前摄像头接口主要采用MIPI CSI & DVP, 前者是串行(多组差分信号线), 后者是并口传输(8/10bit)。 图3以DVP接口介绍各个引脚作用及硬件连接:

  

DVP分为三个部分:

1)输入总线:

  a. data为sensor的数据管脚,可输出8/10bit并口数据到处理器接受端。

  b. VSYNC为帧同步信号管脚,一个VSYNC信号结束表示一个画面的数据已经传输完毕。

  c. HSYNC为行同步信号管脚,一个HSYNC信号结束表示一行的数据已经传输完毕。

   p. PCLK为像素同步信号管脚,一个PCLK信号结束表示一个像素的数据(大小取决格式)已经传输完毕。

  以上管脚的关系如下图:

            

2)输出总线 :

  a. PDN(power down enable), camera使能管脚,当PDN=1时, 一切对camera操作都是无效的。

  b. RESET, 复位管脚, 低电平有效。

  c. XCLK(MCLK), sensor的工作时钟管脚,可由外部晶振或者处理器提供。

  d. I2C总线, 处理器与sensor通信管脚, 用于配置sensor。

3)Power:

  a. AVDD 模拟电压

  b. DOVDD GPIO口数字电压

  c. DVDD 核工作电压

二、成像原理

  本节主要讲解目前主流的bayer格式图片的成像原理, bayer格式图片是伊士曼·柯达公司科学家Bryce Bayer发明的,Bryce Bayer所发明的拜耳阵列被广泛运用数字图像。

   对于彩色图像,需要采集最基本的颜色,如RGB三种颜色,最简单的方法就是用滤镜的方法,红色的滤镜透过红色的波长,绿色的滤镜透过绿色的波长,蓝色的滤镜透过蓝色的波长。如果要同时采集三个基本色,则需要三块滤镜,这样价格昂贵,且不好制造,因为三块滤镜都必须保证每一个像素点都对齐。当用bayer格式的时候,很好的解决了这个问题。bayer 格式在每个像素(pixel)上只设置一种颜色滤镜,外部光线在每个像素点上存储是单色的, 因此经过ADC转换出来的原始数据称为RAW RGB DATA,通过分析人眼对颜色的感知发现,人眼对绿色比较敏感,所以一般bayer格式的图片绿色格式的像素是是R和B像素的和。

  

  当Image Sensor往外逐行输出数据时,像素的序列为GRGRGR.../BGBGBG...(交替)。这样阵列的设计,使得RGB传感器为全色传感器的1/3。

  每一个像素仅仅包括了光谱的一部分,必须通过插值来实现每个像素的RGB值。为了从Bayer格式得到每个像素的RGB格式,我们需要通过插值填补缺失的2个色彩。插值的方法有很多(包括领域、线性、3*3等),速度与质量权衡,最好是线性插值补偿算法。

  从图5 Sensor 像素阵列来看, 存在4中分布格式:

                      

  

  对于图6(a)(b)来说, G像素的R、B分量分别取两个邻域的平均値,由于存在(a)(b)两种分布情况,所以直接去4个相邻域的平均値既是G像素的R&B分量。

  对于图6(c)来说,R像素的G分量可以取4个相邻域的平均值,B分量取外围4个域的平均值。

  对于图6(d)来说,B像素的G分量可以取4个相邻域的平均值,R分量取外围4个域的平均值。

  当然, RAW RGB DATA也可以转换成YUV格式或者 先转成RGB再转换YUV,就不详解了......

三、V4L2软件架构

1. 概述

Video4 for Linux 2是Linux内核中关于视频设备的内核驱动框架,为上层的访问底层的视频设备提供了统一的接口。凡是内核中的子系统都有抽象底层硬件的差异,为上层提供统一的接口和提取出公共代码避免代码冗余等。 V4L2支持三类设备:视频输入输出设备、VBI设备和radio设备(其实还支持更多类型的设备,暂不讨论),分别会在/dev目录下产生videoX、radioX和vbiX设备节点。 图7是V4L2在linux系统中的结构图:

  

Linux系统中视频输入设备主要包括以下四个部分:

  字符设备驱动:V4L2本身就是一个字符设备,具有字符设备所有的特性,暴露接口给用户空间;

  V4L2驱动核心:主要是构建一个内核中标准视频设备驱动的框架,为视频操作提供统一的接口函数;

  平台V4L2设备驱动:在V4L2框架下,根据平台自身的特性实现与平台相关的V4L2驱动部分,包括注册video_device和v4l2_dev;

  具体的sensor驱动:主要上电、提供工作时钟、视频图像裁剪、流IO开启等,实现各种设备控制方法供上层调用并注册v4l2_subdev。

2. 详解V4L2框架

  v4L2的核心源码位于drivers/media/v4l2-core,根据功能可以划分为四类:

  字符设备模块:由v4l2-dev.c实现,主要作用申请字符主设备号、注册class和提供video device注册注销等相关函数;

  V4L2基础框架:由v4l2-device.c、v4l2-subdev.c、v4l2-fh.c、v4l2-ctrls.c等文件构建V4L2基础框架;

  videobuf管理:由videobuf2-core.c、videobuf2-dma-contig.c、videobuf2-dma-sg.c、videobuf2-memops.c、videobuf2-vmalloc.c、v4l2-mem2mem.c等文件实现,完成videobuffer的分配、管理和注销;

  Ioctl框架:由v4l2-ioctl.c文件实现,构建V4L2ioctl的框架。

2.1 V4L2基础框架如图8:

  

  上图V4L2框架是一个标准的树形结构,v4l2_device充当了父设备,通过链表把所有注册到其下的子设备管理起来,这些设备可以是GRABBER、VBI或RADIO。V4l2_subdev是子设备,v4l2_subdev结构体包含了对设备操作的ops和ctrls,这部分代码和硬件相关,需要驱动工程师根据硬件实现控制上下电、读取ID、饱和度、对比度和视频数据流打开关闭等接口函数。Video_device用于创建子设备节点,把操作设备的接口暴露给用户空间。V4l2_fh是每个子设备的文件句柄,在打开设备节点文件时设置,方便上层索引到v4l2_ctrl_handler,v4l2_ctrl_handler管理设备的ctrls,这些ctrls(摄像头设备)包括调节饱和度、对比度和白平衡等。

结构体v4l2_device、video_device、v4l2_subdev和v4l2_ctrl_handler是构成框架的主要元素,现分别介绍:

  1. . struct v4l2_device
  2. v4l2_devicev4l2框架中充当所有v4l2_subdev的父设备,管理着注册在其下的子设备
  3.  
  4. struct v4l2_device {
  5. structlist_head subdevs; //用链表管理注册的subdev
  6. charname[V4L2_DEVICE_NAME_SIZE]; //device 名字
  7. structkref ref; //引用计数
  8. .........
  9. };
  10.  
  11. 可以看出v4l2_device的主要作用是管理注册在其下的子设备,方便系统查找引用到。
  12. v4l2_device的注册和注销:
  13. int v4l2_device_register(struct device*dev, struct v4l2_device *v4l2_dev)
  14. static void v4l2_device_release(struct kref *ref)
  15.  
  16. . struct v4l2_subdev
  17. v4l2_subdev代表子设备,包含了子设备的相关属性和操作。结构体原型:
  18.  
  19. struct v4l2_subdev {
  20. struct v4l2_device *v4l2_dev; //指向父设备
  21. conststruct v4l2_subdev_ops *ops; //提供一些控制v4l2设备的接口
  22. conststruct v4l2_subdev_internal_ops *internal_ops; //向V4L2框架提供的接口函数
  23. structv4l2_ctrl_handler *ctrl_handler; //subdev控制接口
  24. charname[V4L2_SUBDEV_NAME_SIZE];
  25. struct video_device *devnode;
  26. ..........
  27. };
  28.  
  29. 每个子设备驱动都需要实现一个v4l2_subdev结构体,v4l2_subdev可以内嵌到其它结构体中,也可以独立使用。
  30. 结构体中包含了对子设备操作的成员v4l2_subdev_opsv4l2_subdev_internal_ops
  31. struct v4l2_subdev_ops {
  32. const struct v4l2_subdev_core_ops *core; //视频设备通用的操作:初始化、加载FW、上电和RESET等
  33. const struct v4l2_subdev_tuner_ops *tuner; //tuner特有的操作
  34. const struct v4l2_subdev_audio_ops *audio; //audio特有的操作
  35. const struct v4l2_subdev_video_ops *video; //视频设备的特有操作:裁剪图像、开关视频流等
  36. const struct v4l2_subdev_pad_ops *pad;
  37. ..........
  38. };
  39. struct v4l2_subdev_internal_ops {
  40. /* 当subdev注册时被调用,读取IC的ID来进行识别 */
  41. int(*registered)(struct v4l2_subdev *sd);
  42. void(*unregistered)(struct v4l2_subdev *sd);
  43. /* 当设备节点被打开时调用,通常会给设备上电和设置视频捕捉FMT */
  44. int(*open)(struct v4l2_subdev *sd, struct v4l2_subdev_fh *fh);
  45. int(*close)(struct v4l2_subdev *sd, struct v4l2_subdev_fh *fh);
  46. };
  47.  
  48. 视频设备通常需要实现corevideo成员,这两个OPS中的操作都是可选的,但是对于视频流设备video->s_stream(开启或关闭流IO)必须要实现。v4l2_subdev_internal_ops是向V4L2框架提供的接口,只能被V4L2框架层调用。在注册或打开子设备时,进行一些辅助性操作。
  49. Subdev的注册和注销:
  50. int v4l2_device_register_subdev(struct v4l2_device *v4l2_dev, struct v4l2_subdev *sd)
  51. void v4l2_device_unregister_subdev(struct v4l2_subdev *sd)
  52.  
  53. . struct video_device
  54. video_device结构体用于在/dev目录下生成设备节点文件,把操作设备的接口暴露给用户空间
  55.  
  56. struct video_device
  57. {
  58. const struct v4l2_file_operations *fops; //V4L2设备操作集合
  59. struct cdev *cdev; //字符设备
  60.  
  61. struct v4l2_device *v4l2_dev;
  62. struct v4l2_ctrl_handler *ctrl_handler;
  63.  
  64. struct vb2_queue *queue; //指向video buffer队列
  65. int vfl_type; /* device type */
  66.  
  67. intminor; //次设备号
  68.  
  69. /*ioctl回调函数集,提供file_operations中的ioctl调用 */
  70. const struct v4l2_ioctl_ops *ioctl_ops;
  71. ..........
  72. };
  73.  
  74. Video_device分配和释放, 用于分配和释放video_device结构体:
  75. struct video_device *video_device_alloc(void)
  76. void video_device_release(struct video_device *vdev)
  77. video_device注册和注销,实现video_device结构体的相关成员后,就可以调用下面的接口进行注册:
  78. static inline int __must_check video_register_device(struct video_device *vdev, inttype, int nr)
  79. void video_unregister_device(struct video_device*vdev);
  80. vdev:需要注册和注销的video_device
  81. type:设备类型,包括VFL_TYPE_GRABBERVFL_TYPE_VBIVFL_TYPE_RADIOVFL_TYPE_SUBDEV
  82. nr:设备节点名编号,如/dev/video[nr]。
  83.  
  84. . struct v4l2_ctrl_handler
  85. v4l2_ctrl_handler是用于保存子设备控制方法集的结构体,结构体如下:
  86. struct v4l2_ctrl_handler {
  87. struct list_head ctrls;
  88. struct list_head ctrl_refs;
  89. struct v4l2_ctrl_ref *cached;
  90. struct v4l2_ctrl_ref **buckets;
  91. v4l2_ctrl_notify_fnc notify;
  92. u16 nr_of_buckets;
  93. int error;
  94. };
  95.  
  96. 其中成员ctrls作为链表存储包括设置亮度、饱和度、对比度和清晰度等方法,可以通过v4l2_ctrl_new_xxx()函数创建具体方法并添加到链表ctrls

2.2 videobuf管理

  在讲解v4l2的buffer管理前,先介绍v4l2的IO访问, V4L2支持三种不同IO访问方式(内核中还支持了其它的访问方式,暂不讨论):

  read和write:是基本帧IO访问方式,通过read读取每一帧数据,数据需要在内核和用户之间拷贝,这种方式访问速度可能会非常慢;

  内存映射缓冲区(V4L2_MEMORY_MMAP):是在内核空间开辟缓冲区,应用通过mmap()系统调用映射到用户地址空间。这些缓冲区可以是大而连续DMA缓冲区、通过vmalloc()创建的虚拟缓冲区,或者直接在设备的IO内存中开辟的缓冲区(如果硬件支持);

  用户空间缓冲区(V4L2_MEMORY_USERPTR):是用户空间的应用中开辟缓冲区,用户与内核空间之间交换缓冲区指针。很明显,在这种情况下是不需要mmap()调用的,但驱动为有效的支持用户空间缓冲区,其工作将也会更困难。

  read和write方式属于帧IO访问方式,每一帧都要通过IO操作,需要用户和内核之间数据拷贝,而后两种是流IO访问方式,不需要内存拷贝,访问速度比较快。内存映射缓冲区访问方式是比较常用的方式。

  现以V4L2_MEMORY_MMAP简单介绍数据流通过程:

            

  Camera sensor捕捉到图像数据通过并口或MIPI传输到CAMIF(camera interface),CAMIF可以对图像数据进行调整(翻转、裁剪和格式转换等)。然后DMA控制器设置DMA通道请求AHB将图像数据传到分配好的DMA缓冲区。待图像数据传输到DMA缓冲区之后,mmap操作把缓冲区映射到用户空间,应用就可以直接访问缓冲区的数据。而为了使设备支持流IO这种方式,v4l2需要实现对video buffer的管理,即实现:

  1. /* vb2_queue代表一个videobuffer队列,vb2_buffer是这个队列中的成员,vb2_mem_ops是缓冲内存的操作函数集,vb2_ops用来管理队列 */
  2. struct vb2_queue {
  3. enum v4l2_buf_type type; //buffer类型
  4. unsigned int io_modes; //访问IO的方式:mmap、userptr etc
  5. const struct vb2_ops *ops; //buffer队列操作函数集合
  6. const struct vb2_mem_ops *mem_ops; //buffer memory操作集合
  7. struct vb2_buffer *bufs[VIDEO_MAX_FRAME]; //代表每个frame buffer
  8. unsignedint num_buffers; //分配的buffer个数
  9. ..........
  10. };
  11.  
  12. /* vb2_mem_ops包含了内存映射缓冲区、用户空间缓冲区的内存操作方法 */
  13. struct vb2_mem_ops {
  14. void *(*alloc)(void *alloc_ctx, unsignedlong size); //分配视频缓存
  15. void (*put)(void *buf_priv); //释放视频缓存
  16.  
  17. /* 获取用户空间视频缓冲区指针 */
  18. void *(*get_userptr)(void *alloc_ctx, unsigned long vaddr, unsignedlong size, int write);
  19. void (*put_userptr)(void *buf_priv); //释放用户空间视频缓冲区指针
  20. /* 用于缓存同步 */
  21. void (*prepare)(void *buf_priv);
  22. void (*finish)(void *buf_priv);
  23. /* 缓存虚拟地址 & 物理地址 */
  24. void *(*vaddr)(void *buf_priv);
  25. void *(*cookie)(void *buf_priv);
  26.  
  27. unsignedint (*num_users)(void *buf_priv); //返回当期在用户空间的buffer数
  28. int (*mmap)(void *buf_priv, structvm_area_struct *vma); //把缓冲区映射到用户空间
  29. ..............
  30. };
  31.  
  32. /* mem_ops由kernel自身实现并提供了三种类型的视频缓存区操作方法:连续的DMA缓冲区、集散的DMA缓冲区以及vmalloc创建的缓冲区,分别由videobuf2-dma-contig.c、videobuf2-dma-sg.c和videobuf-vmalloc.c文件实现,可以根据实际情况来使用。*/
  33.  
  34. /* vb2_ops是用来管理buffer队列的函数集合,包括队列和缓冲区初始化等 */
  35. struct vb2_ops {
  36. //队列初始化
  37. int(*queue_setup)(struct vb2_queue *q, const struct v4l2_format *fmt,
  38. unsigned int *num_buffers, unsigned int*num_planes,
  39. unsigned int sizes[], void *alloc_ctxs[]);
  40.  
  41. //释放和获取设备操作锁
  42. void(*wait_prepare)(struct vb2_queue *q);
  43. void(*wait_finish)(struct vb2_queue *q);
  44.  
  45. //对buffer的操作
  46. int(*buf_init)(struct vb2_buffer *vb);
  47. int(*buf_prepare)(struct vb2_buffer *vb);
  48. int(*buf_finish)(struct vb2_buffer *vb);
  49. void(*buf_cleanup)(struct vb2_buffer *vb);
  50.  
  51. //开始/停止视频流
  52. int(*start_streaming)(struct vb2_queue *q, unsigned int count);
  53. int(*stop_streaming)(struct vb2_queue *q);
  54.  
  55. //把VB传递给驱动,以填充frame数据
  56. void(*buf_queue)(struct vb2_buffer *vb);
  57. };

  

  一个frame buffer(vb2_buffer/v4l2_buffer)可以有三种状态:

    1. 在驱动的输入队列中,驱动程序将会对此队列中的缓冲区进行处理,用户空间通过IOCTL:VIDIOC_QBUF 把缓冲区放入到队列。对于一个视频捕获设备,传入队列中的缓冲区是空的,驱动会往其中填充数据;

    2. 在驱动的输出队列中,这些缓冲区已由驱动处理过,对于一个视频捕获设备,缓存区已经填充了视频数据,正等用户空间来认领;

    3. 用户空间状态的队列,已经通过IOCTL:VIDIOC_DQBUF传出到用户空间的缓冲区,此时缓冲区由用户空 间拥有,驱动无法访问。

  这三种状态的切换如下图所示:

                

  

最终落脚点的struct v4l2_buffer结构如下:

  1. struct v4l2_buffer {
  2. __u32 index; //buffer 序号
  3. __u32 type; //buffer类型
  4. __u32 bytesused; //缓冲区已使用byte数
  5. structtimeval timestamp; //时间戳,代表帧捕获的时间
  6.  
  7. __u32 memory; //表示缓冲区是内存映射缓冲区还是用户空间缓冲区
  8. union {
  9. __u32 offset; //内核缓冲区的位置
  10. unsignedlong userptr; //缓冲区的用户空间地址
  11. structv4l2_plane *planes;
  12. __s32 fd;
  13. } m;
  14. __u32 length; //缓冲区大小,单位byte
  15. };

  当用户空间拿到v4l2_buffer,可以获取到缓冲区的相关信息。Byteused是图像数据所占的字节数,如果是V4L2_MEMORY_MMAP方式,m.offset是内核空间图像数据存放的开始地址,会传递给mmap函数作为一个偏移,通过mmap映射返回一个缓冲区指针p,p+byteused是图像数据在进程的虚拟地址空间所占区域;如果是用户指针缓冲区的方式,可以获取的图像数据开始地址的指针m.userptr,userptr是一个用户空间的指针,userptr+byteused便是所占的虚拟地址空间,应用可以直接访问

2.3 Ioctl框架如图:

  

  用户空间通过打开/dev/目录下的设备节点,获取到文件的file结构体,通过系统调用ioctl把cmd和arg传入到内核。通过一系列的调用后最终会调用到__video_do_ioctl函数,然后通过cmd检索v4l2_ioctls[],判断是INFO_FL_STD还是INFO_FL_FUNC。如果是INFO_FL_STD会直接调用到视频设备驱动中video_device->v4l2_ioctl_ops函数集。如果是INFO_FL_FUNC会先调用到v4l2自己实现的标准回调函数,然后根据arg再调用到video_device->v4l2_ioctl_ops或v4l2_fh->v4l2_ctrl_handler函数集。

四、用户空间访问 camera & 示例程序

  1. /*
  2. * V4L2 video capture example
  3. *
  4. * This program can be used and distributed without restrictions.
  5. *
  6. * This program is provided with the V4L2 API
  7. * see http://linuxtv.org/docs.php for more information
  8. */
  9.  
  10. #include <stdio.h>
  11. #include <stdlib.h>
  12. #include <string.h>
  13. #include <assert.h>
  14.  
  15. #include <getopt.h> /* getopt_long() */
  16.  
  17. #include <fcntl.h> /* low-level i/o */
  18. #include <unistd.h>
  19. #include <errno.h>
  20. #include <sys/stat.h>
  21. #include <sys/types.h>
  22. #include <sys/time.h>
  23. #include <sys/mman.h>
  24. #include <sys/ioctl.h>
  25. #include <linux/videodev2.h>
  26.  
  27. #define CLEAR(x) memset(&(x), 0, sizeof(x))
  28.  
  29. enum io_method {
  30. IO_METHOD_READ,
  31. IO_METHOD_MMAP,
  32. IO_METHOD_USERPTR,
  33. };
  34.  
  35. struct buffer {
  36. void *start;
  37. size_t length;
  38. };
  39.  
  40. static char *dev_name;
  41. static enum io_method io = IO_METHOD_MMAP;
  42. static int fd = -;
  43. struct buffer *buffers;
  44. static unsigned int n_buffers;
  45. static int out_buf;
  46. static int force_format;
  47. static int frame_count = ;
  48.  
  49. static void errno_exit(const char *s)
  50. {
  51. fprintf(stderr, "%s error %d, %s\n", s, errno, strerror(errno));
  52. exit(EXIT_FAILURE);
  53. }
  54.  
  55. static int xioctl(int fh, int request, void *arg)
  56. {
  57. int r;
  58.  
  59. do {
  60. r = ioctl(fh, request, arg);
  61. } while (- == r && EINTR == errno);
  62.  
  63. return r;
  64. }
  65.  
  66. static void process_image(const void *p, int size)
  67. {
  68. if (out_buf)
  69. fwrite(p, size, , stdout);
  70.  
  71. fflush(stderr);
  72. fprintf(stderr, ".");
  73. fflush(stdout);
  74. }
  75.  
  76. static void store_image(const char *buf_start, int size, int index)
  77. {
  78. char path[];
  79.  
  80. snprintf(path, sizeof(path), "./yuyv%d.yuv", index);
  81. int fd = open(path, O_WRONLY|O_CREAT, );
  82. if (- == fd) {
  83. fprintf(stderr, "Cannot open '%s': %d, %s\n",
  84. path, errno, strerror(errno));
  85. exit(EXIT_FAILURE);
  86. }
  87.  
  88. write(fd, buf_start, size);
  89. close(fd);
  90. }
  91.  
  92. static int read_frame(void)
  93. {
  94. struct v4l2_buffer buf;
  95. unsigned int i;
  96.  
  97. switch (io) {
  98. case IO_METHOD_READ:
  99. if (- == read(fd, buffers[].start, buffers[].length)) {
  100. switch (errno) {
  101. case EAGAIN:
  102. return ;
  103.  
  104. case EIO:
  105. /* Could ignore EIO, see spec. */
  106.  
  107. /* fall through */
  108.  
  109. default:
  110. errno_exit("read");
  111. }
  112. }
  113.  
  114. process_image(buffers[].start, buffers[].length);
  115. break;
  116.  
  117. case IO_METHOD_MMAP:
  118. CLEAR(buf);
  119.  
  120. buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  121. buf.memory = V4L2_MEMORY_MMAP;
  122. if (- == xioctl(fd, VIDIOC_DQBUF, &buf)) {
  123. switch (errno) {
  124. case EAGAIN:
  125. return ;
  126.  
  127. case EIO:
  128. /* Could ignore EIO, see spec. */
  129.  
  130. /* fall through */
  131.  
  132. default:
  133. errno_exit("VIDIOC_DQBUF");
  134. }
  135. }
  136. assert(buf.index < n_buffers);
  137.  
  138. //printf("buf.bytesused = %d\n", buf.bytesused);
  139. process_image(buffers[buf.index].start, buf.bytesused);
  140. store_image(buffers[buf.index].start, buf.bytesused, buf.index);
  141.  
  142. if (- == xioctl(fd, VIDIOC_QBUF, &buf))
  143. errno_exit("VIDIOC_QBUF");
  144. break;
  145.  
  146. case IO_METHOD_USERPTR:
  147. CLEAR(buf);
  148.  
  149. buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  150. buf.memory = V4L2_MEMORY_USERPTR;
  151.  
  152. if (- == xioctl(fd, VIDIOC_DQBUF, &buf)) {
  153. switch (errno) {
  154. case EAGAIN:
  155. return ;
  156.  
  157. case EIO:
  158. /* Could ignore EIO, see spec. */
  159.  
  160. /* fall through */
  161.  
  162. default:
  163. errno_exit("VIDIOC_DQBUF");
  164. }
  165. }
  166.  
  167. for (i = ; i < n_buffers; ++i)
  168. if (buf.m.userptr == (unsigned long)buffers[i].start
  169. && buf.length == buffers[i].length)
  170. break;
  171.  
  172. assert(i < n_buffers);
  173.  
  174. process_image((void *)buf.m.userptr, buf.bytesused);
  175.  
  176. if (- == xioctl(fd, VIDIOC_QBUF, &buf))
  177. errno_exit("VIDIOC_QBUF");
  178. break;
  179. }
  180.  
  181. return ;
  182. }
  183.  
  184. /* two operations
  185. * step1 : delay
  186. * step2 : read frame
  187. */
  188. static void mainloop(void)
  189. {
  190. unsigned int count;
  191.  
  192. count = frame_count;
  193.  
  194. while (count-- > ) {
  195. for (;;) {
  196. fd_set fds;
  197. struct timeval tv;
  198. int r;
  199.  
  200. FD_ZERO(&fds);
  201. FD_SET(fd, &fds);
  202.  
  203. /* Timeout. */
  204. tv.tv_sec = ;
  205. tv.tv_usec = ;
  206.  
  207. r = select(fd + , &fds, NULL, NULL, &tv);
  208.  
  209. if (- == r) {
  210. if (EINTR == errno)
  211. continue;
  212. errno_exit("select");
  213. }
  214.  
  215. if ( == r) {
  216. fprintf(stderr, "select timeout\n");
  217. exit(EXIT_FAILURE);
  218. }
  219.  
  220. if (read_frame())
  221. break;
  222. /* EAGAIN - continue select loop. */
  223. }
  224. }
  225. }
  226. /*
  227. * one operation
  228. * step1 : VIDIOC_STREAMOFF
  229. */
  230. static void stop_capturing(void)
  231. {
  232. enum v4l2_buf_type type;
  233. switch (io) {
  234. case IO_METHOD_READ:
  235. /* Nothing to do. */
  236. break;
  237.  
  238. case IO_METHOD_MMAP:
  239. case IO_METHOD_USERPTR:
  240. type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  241. if (- == xioctl(fd, VIDIOC_STREAMOFF, &type))
  242. errno_exit("VIDIOC_STREAMOFF");
  243. break;
  244. }
  245. }
  246.  
  247. /* tow operations
  248. * step1 : VIDIOC_QBUF(insert buffer to queue)
  249. * step2 : VIDIOC_STREAMOFF
  250. */
  251. static void start_capturing(void)
  252. {
  253. unsigned int i;
  254. enum v4l2_buf_type type;
  255.  
  256. switch (io) {
  257. case IO_METHOD_READ:
  258. /* Nothing to do. */
  259. break;
  260.  
  261. case IO_METHOD_MMAP:
  262. for (i = ; i < n_buffers; ++i) {
  263. struct v4l2_buffer buf;
  264.  
  265. CLEAR(buf);
  266. buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  267. buf.memory = V4L2_MEMORY_MMAP;
  268. buf.index = i;
  269.  
  270. if (- == xioctl(fd, VIDIOC_QBUF, &buf))
  271. errno_exit("VIDIOC_QBUF");
  272. }
  273. type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  274. if (- == xioctl(fd, VIDIOC_STREAMON, &type))
  275. errno_exit("VIDIOC_STREAMON");
  276. break;
  277.  
  278. case IO_METHOD_USERPTR:
  279. for (i = ; i < n_buffers; ++i) {
  280. struct v4l2_buffer buf;
  281.  
  282. CLEAR(buf);
  283. buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  284. buf.memory = V4L2_MEMORY_USERPTR;
  285. buf.index = i;
  286. buf.m.userptr = (unsigned long)buffers[i].start;
  287. buf.length = buffers[i].length;
  288.  
  289. if (- == xioctl(fd, VIDIOC_QBUF, &buf))
  290. errno_exit("VIDIOC_QBUF");
  291. }
  292. type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  293. if (- == xioctl(fd, VIDIOC_STREAMON, &type))
  294. errno_exit("VIDIOC_STREAMON");
  295. break;
  296. }
  297. }
  298.  
  299. /* two operations
  300. * step1 : munmap buffers
  301. * steo2 : free buffers
  302. */
  303. static void uninit_device(void)
  304. {
  305. unsigned int i;
  306.  
  307. switch (io) {
  308. case IO_METHOD_READ:
  309. free(buffers[].start);
  310. break;
  311.  
  312. case IO_METHOD_MMAP:
  313. for (i = ; i < n_buffers; ++i)
  314. if (- == munmap(buffers[i].start, buffers[i].length))
  315. errno_exit("munmap");
  316. break;
  317.  
  318. case IO_METHOD_USERPTR:
  319. for (i = ; i < n_buffers; ++i)
  320. free(buffers[i].start);
  321. break;
  322. }
  323.  
  324. free(buffers);
  325. }
  326.  
  327. static void init_read(unsigned int buffer_size)
  328. {
  329. buffers = calloc(, sizeof(*buffers));
  330.  
  331. if (!buffers) {
  332. fprintf(stderr, "Out of memory\n");
  333. exit(EXIT_FAILURE);
  334. }
  335.  
  336. buffers[].length = buffer_size;
  337. buffers[].start = malloc(buffer_size);
  338.  
  339. if (!buffers[].start) {
  340. fprintf(stderr, "Out of memory\n");
  341. exit(EXIT_FAILURE);
  342. }
  343. }
  344.  
  345. static void init_mmap(void)
  346. {
  347. struct v4l2_requestbuffers req;
  348.  
  349. CLEAR(req);
  350.  
  351. req.count = ;
  352. req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  353. req.memory = V4L2_MEMORY_MMAP;
  354.  
  355. if (- == xioctl(fd, VIDIOC_REQBUFS, &req)) {
  356. if (EINVAL == errno) {
  357. fprintf(stderr, "%s does not support "
  358. "memory mapping\n", dev_name);
  359. exit(EXIT_FAILURE);
  360. } else {
  361. errno_exit("VIDIOC_REQBUFS");
  362. }
  363. }
  364.  
  365. if (req.count < ) {
  366. fprintf(stderr, "Insufficient buffer memory on %s\n",
  367. dev_name);
  368. exit(EXIT_FAILURE);
  369. }
  370. buffers = calloc(req.count, sizeof(*buffers));
  371.  
  372. if (!buffers) {
  373. fprintf(stderr, "Out of memory\n");
  374. exit(EXIT_FAILURE);
  375. }
  376.  
  377. for (n_buffers = ; n_buffers < req.count; ++n_buffers) {
  378. struct v4l2_buffer buf;
  379.  
  380. CLEAR(buf);
  381.  
  382. buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  383. buf.memory = V4L2_MEMORY_MMAP;
  384. buf.index = n_buffers;
  385.  
  386. if (- == xioctl(fd, VIDIOC_QUERYBUF, &buf))
  387. errno_exit("VIDIOC_QUERYBUF");
  388.  
  389. buffers[n_buffers].length = buf.length;
  390. printf("buffers[%d].length=%d\n", n_buffers, buffers[n_buffers].length);
  391. buffers[n_buffers].start =
  392. mmap(NULL /* start anywhere */,
  393. buf.length,
  394. PROT_READ | PROT_WRITE /* required */,
  395. MAP_SHARED /* recommended */,
  396. fd, buf.m.offset);
  397.  
  398. if (MAP_FAILED == buffers[n_buffers].start)
  399. errno_exit("mmap");
  400. }
  401. }
  402.  
  403. static void init_userp(unsigned int buffer_size)
  404. {
  405. struct v4l2_requestbuffers req;
  406.  
  407. CLEAR(req);
  408.  
  409. req.count = ;
  410. req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  411. req.memory = V4L2_MEMORY_USERPTR;
  412.  
  413. if (- == xioctl(fd, VIDIOC_REQBUFS, &req)) {
  414. if (EINVAL == errno) {
  415. fprintf(stderr, "%s does not support "
  416. "user pointer i/o\n", dev_name);
  417. exit(EXIT_FAILURE);
  418. } else {
  419. errno_exit("VIDIOC_REQBUFS");
  420. }
  421. }
  422.  
  423. buffers = calloc(, sizeof(*buffers));
  424.  
  425. if (!buffers) {
  426. fprintf(stderr, "Out of memory\n");
  427. exit(EXIT_FAILURE);
  428. }
  429.  
  430. for (n_buffers = ; n_buffers < ; ++n_buffers) {
  431. buffers[n_buffers].length = buffer_size;
  432. buffers[n_buffers].start = malloc(buffer_size);
  433.  
  434. if (!buffers[n_buffers].start) {
  435. fprintf(stderr, "Out of memory\n");
  436. exit(EXIT_FAILURE);
  437. }
  438. }
  439. }
  440.  
  441. /* five operations
  442. * step1 : cap :query camera's capability and check it(is a video device? is it support read? is it support streaming?)
  443. * step2 : cropcap:set cropcap's type and get cropcap by VIDIOC_CROPCAP
  444. * step3 : set crop parameter by VIDIOC_S_CROP (such as frame type and angle)
  445. * step4 : set fmt
  446. * step5 : mmap
  447. */
  448. static void init_device(void)
  449. {
  450. struct v4l2_capability cap;
  451. struct v4l2_cropcap cropcap;
  452. struct v4l2_crop crop;
  453. struct v4l2_format fmt;
  454. unsigned int min;
  455.  
  456. if (- == xioctl(fd, VIDIOC_QUERYCAP, &cap)) {
  457. if (EINVAL == errno) {
  458. fprintf(stderr, "%s is no V4L2 device\n",
  459. dev_name);
  460. exit(EXIT_FAILURE);
  461. } else {
  462. errno_exit("VIDIOC_QUERYCAP");
  463. }
  464. }
  465. if (!(cap.capabilities & V4L2_CAP_VIDEO_CAPTURE)) {
  466. fprintf(stderr, "%s is no video capture device\n",
  467. dev_name);
  468. exit(EXIT_FAILURE);
  469. }
  470.  
  471. switch (io) {
  472. case IO_METHOD_READ:
  473. if (!(cap.capabilities & V4L2_CAP_READWRITE)) {
  474. fprintf(stderr, "%s does not support read i/o\n",
  475. dev_name);
  476. exit(EXIT_FAILURE);
  477. }
  478. break;
  479.  
  480. case IO_METHOD_MMAP:
  481. case IO_METHOD_USERPTR:
  482. if (!(cap.capabilities & V4L2_CAP_STREAMING)) {
  483. fprintf(stderr, "%s does not support streaming i/o\n",
  484. dev_name);
  485. exit(EXIT_FAILURE);
  486. }
  487. break;
  488. }
  489.  
  490. /* Select video input, video standard and tune here. */
  491. CLEAR(cropcap);
  492.  
  493. cropcap.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  494. /* if device support cropcap's type then set crop */
  495. if ( == xioctl(fd, VIDIOC_CROPCAP, &cropcap)) {
  496. crop.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  497. crop.c = cropcap.defrect; /* reset to default */
  498.  
  499. if (- == xioctl(fd, VIDIOC_S_CROP, &crop)) {
  500. switch (errno) {
  501. case EINVAL:
  502. /* Cropping not supported. */
  503. break;
  504. default:
  505. /* Errors ignored. */
  506. break;
  507. }
  508. }
  509. } else {
  510. /* Errors ignored. */
  511. }
  512.  
  513. CLEAR(fmt);
  514.  
  515. fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
  516. if (force_format) {
  517. fmt.fmt.pix.width = ;
  518. fmt.fmt.pix.height = ;
  519. fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
  520. fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
  521.  
  522. printf("set %d*%d YUYV format\n", fmt.fmt.pix.width, fmt.fmt.pix.height);
  523. if (- == xioctl(fd, VIDIOC_S_FMT, &fmt))
  524. errno_exit("VIDIOC_S_FMT");
  525.  
  526. /* Note VIDIOC_S_FMT may change width and height. */
  527. } else {
  528. /* Preserve original settings as set by v4l2-ctl for example */
  529. if (- == xioctl(fd, VIDIOC_G_FMT, &fmt))
  530. errno_exit("VIDIOC_G_FMT");
  531. }
  532.  
  533. /* Buggy driver paranoia. */
  534. min = fmt.fmt.pix.width * ;
  535. if (fmt.fmt.pix.bytesperline < min)
  536. fmt.fmt.pix.bytesperline = min;
  537. min = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height;
  538. if (fmt.fmt.pix.sizeimage < min)
  539. fmt.fmt.pix.sizeimage = min;
  540.  
  541. switch (io) {
  542. case IO_METHOD_READ:
  543. init_read(fmt.fmt.pix.sizeimage);
  544. break;
  545.  
  546. case IO_METHOD_MMAP:
  547. init_mmap();
  548. break;
  549.  
  550. case IO_METHOD_USERPTR:
  551. init_userp(fmt.fmt.pix.sizeimage);
  552. break;
  553. }
  554. }
  555.  
  556. /*
  557. * close (fd)
  558. */
  559. static void close_device(void)
  560. {
  561. if (- == close(fd))
  562. errno_exit("close");
  563.  
  564. fd = -;
  565. }
  566.  
  567. /* three operations
  568. * step 1 : check dev_name and st_mode
  569. * step 2 : open(device)
  570. */
  571. static void open_device(void)
  572. {
  573. struct stat st;
  574.  
  575. if (- == stat(dev_name, &st)) {
  576. fprintf(stderr, "Cannot identify '%s': %d, %s\n",
  577. dev_name, errno, strerror(errno));
  578. exit(EXIT_FAILURE);
  579. }
  580.  
  581. if (!S_ISCHR(st.st_mode)) {
  582. fprintf(stderr, "%s is no device\n", dev_name);
  583. exit(EXIT_FAILURE);
  584. }
  585.  
  586. fd = open(dev_name, O_RDWR /* required */ | O_NONBLOCK, );
  587.  
  588. if (- == fd) {
  589. fprintf(stderr, "Cannot open '%s': %d, %s\n",
  590. dev_name, errno, strerror(errno));
  591. exit(EXIT_FAILURE);
  592. }
  593. }
  594.  
  595. static void usage(FILE *fp, int argc, char **argv)
  596. {
  597. fprintf(fp,
  598. "Usage: %s [options]\n\n"
  599. "Version 1.3\n"
  600. "Options:\n"
  601. "-d | --device name Video device name [%s]\n"
  602. "-h | --help Print this message\n"
  603. "-m | --mmap Use memory mapped buffers [default]\n"
  604. "-r | --read Use read() calls\n"
  605. "-u | --userp Use application allocated buffers\n"
  606. "-o | --output Outputs stream to stdout\n"
  607. "-f | --format Force format to 640x480 YUYV\n"
  608. "-c | --count Number of frames to grab [%i]\n"
  609. "",
  610. argv[], dev_name, frame_count);
  611. }
  612.  
  613. static const char short_options[] = "d:hmruofc:";
  614.  
  615. static const struct option
  616. long_options[] = {
  617. { "device", required_argument, NULL, 'd' },
  618. { "help", no_argument, NULL, 'h' },
  619. { "mmap", no_argument, NULL, 'm' },
  620. { "read", no_argument, NULL, 'r' },
  621. { "userp", no_argument, NULL, 'u' },
  622. { "output", no_argument, NULL, 'o' },
  623. { "format", no_argument, NULL, 'f' },
  624. { "count", required_argument, NULL, 'c' },
  625. { , , , }
  626. };
  627.  
  628. int main(int argc, char **argv)
  629. {
  630. dev_name = "/dev/video0";
  631.  
  632. for (;;) {
  633. int idx;
  634. int c;
  635.  
  636. c = getopt_long(argc, argv,
  637. short_options, long_options, &idx);
  638.  
  639. if (- == c)
  640. break;
  641.  
  642. switch (c) {
  643. case : /* getopt_long() flag */
  644. break;
  645.  
  646. case 'd':
  647. dev_name = optarg;
  648. break;
  649.  
  650. case 'h':
  651. usage(stdout, argc, argv);
  652. exit(EXIT_SUCCESS);
  653.  
  654. case 'm':
  655. io = IO_METHOD_MMAP;
  656. break;
  657.  
  658. case 'r':
  659. io = IO_METHOD_READ;
  660. break;
  661.  
  662. case 'u':
  663. io = IO_METHOD_USERPTR;
  664. break;
  665.  
  666. case 'o':
  667. out_buf++;
  668. break;
  669.  
  670. case 'f':
  671. force_format++;
  672. break;
  673.  
  674. case 'c':
  675. errno = ;
  676. frame_count = strtol(optarg, NULL, );
  677. if (errno)
  678. errno_exit(optarg);
  679. break;
  680.  
  681. default:
  682. usage(stderr, argc, argv);
  683. exit(EXIT_FAILURE);
  684. }
  685. }
  686.  
  687. open_device();
  688. init_device();
  689.  
  690. start_capturing();
  691. mainloop();
  692. stop_capturing();
  693. uninit_device();
  694. close_device();
  695. fprintf(stderr, "\n");
  696. return ;
  697. }

  

/ # ./a.out -f
set 640*480 YUYV format
buffers[0].length=614400
buffers[1].length=614400
buffers[2].length=614400
buffers[3].length=614400
....
/ # sz yuyv2.yuv

用图片查看器“RawImageViewer.exe” :(由于我的摄像头配置成扫码模式 所以是黑白图)

Linux V4L2之camera的更多相关文章

  1. 【Linux开发】Linux V4L2驱动架构解析与开发导引

    Linux V4L2驱动架构解析与开发导引 Andrew按:众所周知,linux中可以采用灵活的多层次的驱动架构来对接口进行统一与抽象,最低层次的驱动总是直接面向硬件的,而最高层次的驱动在linux中 ...

  2. Linux v4l2编程(摄像头信息采集)

    基于Linux3.4.2,自己做一点儿视频信息采集及网络传输的小实验,边做边学,一些基础知识同步整理..... 1. 定义 V4L2(Video For Linux Two) 是内核提供给应用程序访问 ...

  3. 【原创】Linux v4l2框架分析

    背景 Read the fucking source code! --By 鲁迅 A picture is worth a thousand words. --By 高尔基 说明: Kernel版本: ...

  4. 介绍 Android 的 Camera 框架

    总体介绍 Android Camera 框架从整体上看是一个 client/service 的架构,有两个进程:一个是 client 进 程,可以看成是 AP 端,主要包括 JAVA 代码与一些 na ...

  5. v4l2驱动编写篇【转】

    转自:http://blog.csdn.net/michaelcao1980/article/details/53008418 大部分所需的信息都在这里.作为一个驱动作者,当挖掘头文件的时候,你可能也 ...

  6. linux下驱动webcam

    linux自带驱动只支持一些型号的camera,具体型号见http://www.ideasonboard.org/uvc/ 所以有些购买的webcam不能够在linux中被点亮,而且有些厂家只为了在W ...

  7. Linux Bootup Time

    Linux Bootup Time 英文原文地址:http://elinux.org/Boot_Time 1.   简介 启动时间这一话题包括很多子话题,比如启动时间的衡量.启动时间的分析.人为因素分 ...

  8. DAVINCI DM6446 开发攻略——V4L2视频驱动和应用分析

     针对DAVINCI DM6446平台,网络上也有很多网友写了V4L2的驱动,但只是解析Montavista linux-2.6.10 V4L2的原理.结构和函数,深度不够.本文决定把Montavis ...

  9. Linux 驱动开发

    linux驱动开发总结(一) 基础性总结 1, linux驱动一般分为3大类: * 字符设备 * 块设备 * 网络设备 2, 开发环境构建: * 交叉工具链构建 * NFS和tftp服务器安装 3, ...

随机推荐

  1. Windows10 Ubuntu bash 配置 LAMP+JDK+Tomcat

    Windows10的Bash省去了装ubuntu虚拟机的麻烦,而且可以直接用Windows下的浏览器去访问了,Exciting有没有,再也不用去忍受日常崩溃的chromium和慢慢的firefox了. ...

  2. Eeffective C++ 读书笔记( 32-38)

    条款三十二:确定你的public继承塑模出is-a关系 1.所谓最佳设计,取决于系统希望做什么事,包括现在和未来. 2.好的接口可以防止无效的代码通过编译,因此你应该宁可采取“在编译期拒绝企鹅飞行”的 ...

  3. vue项目在移动端(手机)调试

    查了很长一段时间的资料才搞好. 感悟就是:原来那么简单呐. 首要条件:同一局域网下(大致理解为链接相同的wifi) 1:命令行运行 ipconfig 2: 得到ipv4值, 用该值替换localhos ...

  4. 闲聊 “今日头条Go建千亿级微服务的实践”

      背景    今天跟同事偶然看到<今日头条Go建千亿级微服务的实践>文章,故做了一些探讨,与大家分享下,也欢迎大家多多共同探讨!.     其他资料:   如何理解 Golang 中“不 ...

  5. java 引用数据类型(类)

    我们可以把类的类型为两种: 第一种,Java为我们提供好的类,如Scanner类,Random类等,这些已存在的类中包含了很多的方法与属性,可供我们使用. 第二种,我们自己创建的类,按照类的定义标准, ...

  6. eclipse maven 构建简单springmvc项目

    环境:eclipse Version: Oxygen.3a Release (4.7.3a) 创建maven Project项目,目录结构 修改工程的相关编译属性 修改pop.xml,引入spring ...

  7. 【转】搭建自己的 sentry 服务

    1. 安装 docker 首先要确认你的 Ubuntu 版本是否符合安装 Docker 的前提条件.如果没有问题,你可以通过下边的方式来安装 Docker : 使用具有 sudo 权限的用户来登录你的 ...

  8. 基于支付系统真实场景的分布式事务解决方案效果演示: http://www.iqiyi.com/w_19rsveqlhh.html

    基于支付系统真实场景的分布式事务解决方案效果演示:http://www.iqiyi.com/w_19rsveqlhh.html

  9. PAT1017:Queueing at Bank

    1017. Queueing at Bank (25) 时间限制 400 ms 内存限制 65536 kB 代码长度限制 16000 B 判题程序 Standard 作者 CHEN, Yue Supp ...

  10. Java开发岗面试知识点解析

    本文作者参加过多场面试,应聘岗位均为 Java 开发方向.在不断的面试中,分类总结了 Java 开发岗位面试中的一些知识点. 主要包括以下几个部分: Java 基础知识点 Java 常见集合 高并发编 ...