作者:凌逆战
时间:2019年11月1日
博客园地址:https://www.cnblogs.com/LXP-Never/p/11415137.html


OpenCV基础

OpenCV是一个开源的计算机视觉库。提供了很多图像处理常用的工具

批注:本文所有图片数据都在我的GitHub仓库

读取图片并显示

  1. import numpy as np
  2. import cv2 as cv
  3.  
  4. original = cv.imread('../machine_learning_date/forest.jpg')
  5. cv.imshow('Original', original)

显示图片某个颜色通道的图像

  1. blue = np.zeros_like(original)
  2. blue[:, :, 0] = original[:, :, 0] # 0 - 蓝色通道
  3. cv.imshow('Blue', blue)
  4. green = np.zeros_like(original)
  5. green[:, :, 1] = original[:, :, 1] # 1 - 绿色通道
  6. cv.imshow('Green', green)
  7. red = np.zeros_like(original)
  8. red[:, :, 2] = original[:, :, 2] # 2 - 红色通道
  9. cv.imshow('Red', red)

  

图像剪裁

  1. h, w = original.shape[:2] # (397, 600)
  2. l, t = int(w / 4), int(h / 4) # 左上
  3. r, b = int(w * 3 / 4), int(h * 3 / 4) # 右下
  4. cropped = original[t:b, l:r]
  5. cv.imshow('Cropped', cropped)

图像缩放

cv2.resize(src,dsize,dst=None,fx=None,fy=None,interpolation=None)

参数

  • scr:原图
  • dsize:输出图像尺寸
  • fx:沿水平轴的比例因子
  • fy:沿垂直轴的比例因子
  • interpolation:插值方法
  1. # 输出图像大小=输入图像大小/4
  2. scaled1 = cv.resize(original, (int(w / 4), int(h / 4)), interpolation=cv.INTER_LINEAR)
  3. cv.imshow('Scaled1', scaled1)

  1. # 原图像大小,沿x轴,y轴的缩放系数
  2. scaled2 = cv.resize(scaled1, None, fx=4, fy=4, interpolation=cv.INTER_LINEAR)
  3. cv.imshow('Scaled2', scaled2)
  4. cv.waitKey() # 等待用户按键触发,或者按 Ese 键 停止等待

图像文件保存

  1. cv.imwrite('../ml_data/blue.jpg', blue)

边缘检测

物体的边缘检测是物体识别常用的手段。边缘检测常用亮度梯度方法。通过识别亮度梯度变化最大的像素点从而检测出物体的边缘。

  1. import cv2 as cv
  2. # 读取并展示图像
  3. original = cv.imread('../machine_learning_date/chair.jpg', cv.IMREAD_GRAYSCALE)
  4. cv.imshow('Original', original)

索贝尔边缘识别

cv.Sobel(original, cv.CV_64F, 1, 0, ksize=5)

参数

  • src:源图像
  • ddepth:cv.CV_64F:卷积运算使用数据类型为64位浮点型(保证微分的精度)
  • dx:1表示取水平方向索贝尔偏微分
  • dy:0表示不取垂直方向索贝尔偏微分
  • ksize:卷积核为5*5的方阵

水平方向索贝尔偏微分

  1. hsobel = cv.Sobel(original, cv.CV_64F, 1, 0, ksize=5)
  2. cv.imshow('H-Sobel', hsobel)

垂直方向索贝尔偏微分

  1. vsobel = cv.Sobel(original, cv.CV_64F, 0, 1, ksize=5)
  2. cv.imshow('V-Sobel', vsobel)

水平和垂直方向索贝尔偏微分

  1. sobel = cv.Sobel(original, cv.CV_64F, 1, 1, ksize=5)
  2. cv.imshow('Sobel', sobel)

拉普拉斯边缘识别

cv.Laplacian(original, cv.CV_64F)

  1. laplacian = cv.Laplacian(original, cv.CV_64F)
  2. cv.imshow('Laplacian', laplacian)

Canny边缘识别

cv.Canny(original, 50, 240)

  • image:输入图像
  • threshold1:50,水平方向阈值

  • threshold1:240,垂直方向阈值
  1. canny = cv.Canny(original, 50, 80)
  2. cv.imshow('Canny', canny)
  3. cv.waitKey()

亮度提升

OpenCV提供了直方图均衡化的方式实现亮度提升,更有利于边缘识别与物体识别模型的训练。

彩色图转为灰度图

gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY)

直方图均衡化

equalized_gray = cv.equalizeHist(gray)

案例:

读取图像

  1. import cv2 as cv
  2. # 读取图片
  3. original = cv.imread('../machine_learning_date/sunrise.jpg')
  4. cv.imshow('Original', original) # 显示图片

彩色图转为灰度图

  1. gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY)
  2. cv.imshow('Gray', gray)

灰度图直方图均衡化

  1. equalized_gray = cv.equalizeHist(gray)
  2. cv.imshow('Equalized Gray', equalized_gray)

YUV:亮度,色度,饱和度

  1. yuv = cv.cvtColor(original, cv.COLOR_BGR2YUV)
  2. yuv[..., 0] = cv.equalizeHist(yuv[..., 0]) # 亮度 直方图均衡化
  3. yuv[..., 1] = cv.equalizeHist(yuv[..., 1]) # 色度 直方图均衡化
  4. yuv[..., 2] = cv.equalizeHist(yuv[..., 2]) # 饱和度 直方图均衡化
  5. equalized_color = cv.cvtColor(yuv, cv.COLOR_YUV2BGR)
  6. cv.imshow('Equalized Color', equalized_color)
  7. cv.waitKey()

角点检测

平直棱线的交汇点(颜色梯度方向改变的像素点的位置)

Harris角点检测器

gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY)

corners = cv.cornerHarris(gray, 7, 5, 0.04)

  • src:输入单通道8位或浮点图像。
  • blockSize:角点检测区域大小
  • ksize:Sobel求导中使用的窗口大小
  • k:边缘线方向改变超过阈值0.04弧度即为一个角点,一般取[0.04 0.06]

案例:

  1. import cv2 as cv
  2.  
  3. original = cv.imread('../machine_learning_date/box.png')
  4. cv.imshow('Original', original)
  5. gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY) # 转换成灰度,减少计算量
  6. cv.imshow('Gray', gray)
  7. corners = cv.cornerHarris(gray, 7, 5, 0.04) # Harris角点检测器
  8. # 图像混合
  9. mixture = original.copy()
  10. mixture[corners > corners.max() * 0.01] = [0, 0, 255] # BGR [0, 0, 255]变红
  11. cv.imshow('Corner', mixture)
  12. cv.waitKey()

图像识别

特征点检测

常用特征点检测有:STAR特征点检测 / SIFT特征点检测

特征点检测结合了 边缘检测 与 角点检测 从而识别出图形的特征点

STAR特征点检测相关API如下:

star = cv.xfeatures2d.StarDetector_create()  # 创建STAR特征点检测器

keypoints = star.detect(gray)     # 检测出gray图像所有的特征点

把所有的特征点绘制在mixture图像中

cv.drawKeypoints(original, keypoints, mixture, flags=cv.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)

参数:

  • image:原图片
  • keypoints:源图像中的关键点
  • outImage:输出图片
  • flags:标志设置图形特征

案例:

  1. import cv2 as cv
  2.  
  3. original = cv.imread('../machine_learning_date/table.jpg')
  4. gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY) # 变成灰度图,减少计算
  5. cv.imshow('Gray', gray)
  6. star = cv.xfeatures2d.StarDetector_create() # 创建STAR特征点检测器
  7. keypoints = star.detect(gray) # 检测出gray图像所有的特征点
  8. mixture = original.copy()
  9. # drawKeypoints方法可以把所有的特征点绘制在mixture图像中
  10. cv.drawKeypoints(original, keypoints, mixture,
  11. flags=cv.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
  12. cv.imshow('Mixture', mixture)
  13. cv.waitKey()

 

SIFT特征点检测相关API:

sift = cv.xfeatures2d.SIFT_create()   # 创建SIFT特征点检测器
keypoints = sift.detect(gray)        # 检测出gray图像所有的特征点

案例:

  1. import cv2 as cv
  2.  
  3. original = cv.imread('../machine_learning_date/table.jpg')
  4. gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY)
  5. cv.imshow('Gray', gray)
  6. sift = cv.xfeatures2d.SIFT_create() # 创建SIFT特征点检测器
  7. keypoints = sift.detect(gray) # 检测出gray图像所有的特征点
  8. mixture = original.copy()
  9. # 把所有的特征点绘制在mixture图像中
  10. cv.drawKeypoints(original, keypoints, mixture,
  11. flags=cv.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
  12. cv.imshow('Mixture', mixture)
  13. cv.waitKey()

  

特征值矩阵

图像特征值矩阵(描述)记录了图像的特征点以及每个特征点的梯度信息,相似图像的特征值矩阵也相似。这样只要有足够多的样本,就可以基于隐马尔科夫模型进行图像内容的识别。

特征值矩阵相关API:

  1. sift = cv.xfeatures2d.SIFT_create()
  2. keypoints = sift.detect(gray)
  3. _, desc = sift.compute(gray, keypoints)

案例:

  1. import cv2 as cv
  2. import matplotlib.pyplot as plt
  3.  
  4. original = cv.imread('../machine_learning_date/table.jpg')
  5. gray = cv.cvtColor(original, cv.COLOR_BGR2GRAY)
  6. cv.imshow('Gray', gray)
  7. sift = cv.xfeatures2d.SIFT_create() # 创建SIFT特征点检测器
  8. keypoints = sift.detect(gray) # 检测出gray图像所有的特征点
  9. _, desc = sift.compute(gray, keypoints)
  10. print(desc.shape) # (454, 128)
  11. plt.matshow(desc.T, cmap='jet', fignum='Description')
  12. plt.title('Description')
  13. plt.xlabel('Feature')
  14. plt.ylabel('Sample')
  15. plt.tick_params(which='both', top=False, labeltop=False, labelbottom=True, labelsize=10)
  16. plt.show()

物体识别

1、读取training文件夹中的训练图片样本,每个图片对应一个desc矩阵,每个desc都有一个类别(car)

2、把所有类别为car的desc合并在一起,形成训练集

  1. | desc | |
    | desc | car |
    | desc | |
    .....

  由上述训练集样本可以训练一个用于匹配car的HMM。

3、训练3个HMM分别对应每个物体类别。 保存在列表中。

4、读取testing文件夹中的测试样本,整理测试样本

  1. | desc | car |
    | desc | moto |

5、针对每一个测试样本:

  1. 分别使用3个HMM模型,对测试样本计算score得分。
  2. 取3个模型中得分最高的模型所属类别作为预测类别。
  1. import os
  2. import numpy as np
  3. import cv2 as cv
  4. import hmmlearn.hmm as hl
  5.  
  6. def search_files(directory):
  7. directory = os.path.normpath(directory)
  8.  
  9. objects = {}
  10. for curdir, subdirs, files in os.walk(directory):
  11. for file in files:
  12. if file.endswith('.jpg'):
  13. label = curdir.split(os.path.sep)[-1]
  14. if label not in objects:
  15. objects[label] = []
  16. path = os.path.join(curdir, file)
  17. objects[label].append(path)
  18. return objects
  19.  
  20. # 加载训练集样本数据,训练模型,模型存储
  21. train_objects = search_files('../machine_learning_date/objects/training')
  22. train_x, train_y = [], []
  23. for label, filenames in train_objects.items():
  24. descs = np.array([])
  25. for filename in filenames:
  26. image = cv.imread(filename)
  27. gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)
  28. # 范围缩放,使特征描述矩阵样本数量一致
  29. h, w = gray.shape[:2]
  30. f = 200 / min(h, w)
  31. gray = cv.resize(gray, None, fx=f, fy=f)
  32. sift = cv.xfeatures2d.SIFT_create() # 创建SIFT特征点检测器
  33. keypoints = sift.detect(gray) # 检测出gray图像所有的特征点
  34. _, desc = sift.compute(gray, keypoints) # 转换成特征值矩阵
  35. if len(descs) == 0:
  36. descs = desc
  37. else:
  38. descs = np.append(descs, desc, axis=0)
  39. train_x.append(descs)
  40. train_y.append(label)
  41. models = {}
  42. for descs, label in zip(train_x, train_y):
  43. model = hl.GaussianHMM(n_components=4, covariance_type='diag', n_iter=100)
  44. models[label] = model.fit(descs)
  45.  
  46. # 测试模型
  47. test_objects = search_files('../machine_learning_date/objects/testing')
  48. test_x, test_y = [], []
  49. for label, filenames in test_objects.items():
  50. descs = np.array([])
  51. for filename in filenames:
  52. image = cv.imread(filename)
  53. gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)
  54. sift = cv.xfeatures2d.SIFT_create()
  55. keypoints = sift.detect(gray)
  56. _, desc = sift.compute(gray, keypoints)
  57. if len(descs) == 0:
  58. descs = desc
  59. else:
  60. descs = np.append(descs, desc, axis=0)
  61. test_x.append(descs)
  62. test_y.append(label)
  63.  
  64. # 遍历所有测试样本 使用model匹配测试样本查看每个模型的匹配分数
  65. pred_y = []
  66. for descs, test_label in zip(test_x, test_y):
  67. best_score, best_label = None, None
  68. for pred_label, model in models.items():
  69. score = model.score(descs)
  70. if (best_score == None) or (best_score < score):
  71. best_score = score
  72. best_label = pred_label
  73. print(test_label, '->', pred_label, score)
  74. # airplane -> airplane -373374.23370679974
  75. # airplane -> car -374022.20182585815
  76. # airplane -> motorbike -374127.46289302857
  77. # car -> airplane -163638.3153800373
  78. # car -> car -163691.52001099114
  79. # car -> motorbike -164410.0557508754
  80. # motorbike -> airplane -467472.6294620241
  81. # motorbike -> car -470149.6143097087
  82. # motorbike -> motorbike -464606.0040570249
  83. pred_y.append(best_label)
  84.  
  85. print(test_y) # ['airplane', 'car', 'motorbike']
  86. print(pred_y) # ['airplane', 'airplane', 'motorbike']

人脸识别

人脸识别与图像识别的区别在于人脸识别需要识别出两个人的不同点。

视频捕捉

通过OpenCV访问视频捕捉设备(视频头),从而获取图像帧。

视频捕捉相关API:

  1. import cv2 as cv

  2. # 获取视频捕捉设备
  3. video_capture = cv.VideoCapture(0)
  4. # 读取一帧
  5. frame = video_capture.read()[1]
  6. cv.imshow('VideoCapture', frame)
  7. # 释放视频捕捉设备
  8. video_capture.release()
  9. # 销毁cv的所有窗口
  10. cv.destroyAllWindows()

案例:

  1. import cv2 as cv
  2.  
  3. # 获取视频捕获设备
  4. video_capture = cv.VideoCapture(0)
  5.  
  6. # 读取一帧
  7. while True:
  8. frame = video_capture.read()[1]
  9. cv.imshow('frame', frame)
  10. # 每隔33毫秒自动更新图像
  11. if cv.waitKey(33) == 27: # 退出键是27(Esc)
  12. break
  13.  
  14. video_capture.release()
  15. cv.destroyAllWindows()

人脸定位

哈尔级联人脸定位

  1. import cv2 as cv
  2. # 通过特征描述文件构建哈尔级联人脸识别器
  3. fd = cv.CascadeClassifier('../data/haar/face.xml')
  4. # 从一个图像中识别出所有的人脸区域
  5. # 1.3:为最小的人脸尺寸
  6. # 5:最多找5张脸
  7. # 返回:
  8. # faces: 抓取人脸(矩形区域)列表 [(l,t,w,h),(),()..]
  9. faces = fd.detectMultiScale(frame, 1.3, 5)
  10. face = faces[0] # 第一张脸
  11. # 绘制椭圆
  12. cv.ellipse(
  13. frame, # 图像
  14. (l + a, t + b), # 椭圆心
  15. (a, b), # 半径
  16. 0, # 椭圆旋转角度
  17. 0, 360, # 起始角, 终止角
  18. (255, 0, 255), # 颜色
  19. 2 # 线宽
  20. )

案例:

  1. import cv2 as cv
  2. # 哈尔级联人脸定位器
  3. fd = cv.CascadeClassifier('../../data/haar/face.xml')
  4. ed = cv.CascadeClassifier('../../data/haar/eye.xml')
  5. nd = cv.CascadeClassifier('../../data/haar/nose.xml')
  6. vc = cv.VideoCapture(0)
  7. while True:
  8. frame = vc.read()[1]
  9. faces = fd.detectMultiScale(frame, 1.3, 5)
  10. for l, t, w, h in faces:
  11. a, b = int(w / 2), int(h / 2)
  12. cv.ellipse(frame, (l + a, t + b), (a, b), 0, 0, 360, (255, 0, 255), 2)
  13. face = frame[t:t + h, l:l + w]
  14. eyes = ed.detectMultiScale(face, 1.3, 5)
  15. for l, t, w, h in eyes:
  16. a, b = int(w / 2), int(h / 2)
  17. cv.ellipse(face, (l + a, t + b), (a, b), 0, 0, 360, (0, 255, 0), 2)
  18. noses = nd.detectMultiScale(face, 1.3, 5)
  19. for l, t, w, h in noses:
  20. a, b = int(w / 2), int(h / 2)
  21. cv.ellipse(face, (l + a, t + b), (a, b), 0, 0, 360, (0, 255, 255), 2)
  22. cv.imshow('VideoCapture', frame)
  23. if cv.waitKey(33) == 27:
  24. break
  25. vc.release()
  26. cv.destroyAllWindows()

人脸识别

简单人脸识别:OpenCV的LBPH(局部二值模式直方图)

  1. 读取样本图片数据,整理图片的路径列表
  2. 读取每张图片,基于haar裁剪每张人脸,把人脸数据放入train_x,作为训练数据。在整理train_y时,由于Bob、Sala、Roy是字符串,需要把字符串做一个标签编码 LabelEncoder
  3. 遍历训练集,把训练集交给LBPH人脸识别模型进行训练。
  4. 读取测试集数据,整理图片的路径列表
  5. 遍历每张图片,把图片中的人脸使用相同的方式裁剪,把人脸数据交给LBPH模型进行类别预测,得到预测结果。
  6. 以图像的方式输出结果。
  1. # -*- coding: utf-8 -*-
  2. import os
  3. import numpy as np
  4. import cv2 as cv
  5. import sklearn.preprocessing as sp
  6.  
  7. fd = cv.CascadeClassifier('../machine_learning_date/haar/face.xml')
  8.  
  9. def search_faces(directory):
  10. directory = os.path.normpath(directory)
  11.  
  12. faces = {}
  13. for curdir, subdirs, files in os.walk(directory):
  14. for jpeg in (file for file in files
  15. if file.endswith('.jpg')):
  16. path = os.path.join(curdir, jpeg)
  17. label = path.split(os.path.sep)[-2]
  18. if label not in faces:
  19. faces[label] = []
  20. faces[label].append(path)
  21. return faces
  22.  
  23. train_faces = search_faces('../machine_learning_date/faces/training')
  24. codec = sp.LabelEncoder()
  25. codec.fit(list(train_faces.keys()))
  26.  
  27. train_x, train_y = [], []
  28. for label, filenames in train_faces.items():
  29. for filename in filenames:
  30. image = cv.imread(filename)
  31. gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)
  32. faces = fd.detectMultiScale(gray, 1.1, 2, minSize=(100, 100))
  33. for l, t, w, h in faces:
  34. train_x.append(gray[t:t + h, l:l + w])
  35. train_y.append(codec.transform([label])[0])
  36. train_y = np.array(train_y)
  37. '''
  38. 训练集结构:
  39. train_x train_y
  40. -------------------
  41. | face | 0 |
  42. -------------------
  43. | face | 1 |
  44. -------------------
  45. | face | 2 |
  46. -------------------
  47. | face | 1 |
  48. -------------------
  49. '''
  50. # 局部二值模式直方图人脸识别分类器
  51. model = cv.face.LBPHFaceRecognizer_create()
  52. model.train(train_x, train_y)
  53.  
  54. # 测试
  55. test_faces = search_faces(
  56. '../ml_data/faces/testing')
  57. test_x, test_y, test_z = [], [], []
  58. for label, filenames in test_faces.items():
  59. for filename in filenames:
  60. image = cv.imread(filename)
  61. gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)
  62. faces = fd.detectMultiScale(gray, 1.1, 2, minSize=(100, 100))
  63. for l, t, w, h in faces:
  64. test_x.append(gray[t:t + h, l:l + w])
  65. test_y.append(codec.transform([label])[0])
  66. a, b = int(w / 2), int(h / 2)
  67. cv.ellipse(image, (l + a, t + b), (a, b), 0, 0, 360, (255, 0, 255), 2)
  68. test_z.append(image)
  69. test_y = np.array(test_y)
  70. pred_test_y = []
  71. for face in test_x:
  72. pred_code = model.predict(face)[0]
  73. pred_test_y.append(pred_code)
  74.  
  75. print(codec.inverse_transform(test_y))
  76. print(codec.inverse_transform(pred_test_y))
  77.  
  78. escape = False
  79. while not escape:
  80. for code, pred_code, image in zip(test_y, pred_test_y, test_z):
  81. label, pred_label = codec.inverse_transform([code, pred_code])
  82. text = '{} {} {}'.format(label, '==' if code == pred_code else '!=', pred_label)
  83. cv.putText(image, text, (10, 60), cv.FONT_HERSHEY_SIMPLEX, 2, (255, 255, 255), 6)
  84. cv.imshow('Recognizing...', image)
  85. if cv.waitKey(1000) == 27:
  86. escape = True
  87. break

OpenCV图像处理以及人脸识别的更多相关文章

  1. 【从零学习openCV】IOS7人脸识别实战

    前言 接着上篇<IOS7下的人脸检測>,我们顺藤摸瓜的学习怎样在IOS7下用openCV的进行人脸识别,实际上非常easy,因为人脸检測部分已经完毕,剩下的无非调用openCV的方法对採集 ...

  2. 基于Opencv快速实现人脸识别(完整版)

    无耻收藏网页链接: 基于OpenCV快速实现人脸识别:https://blog.csdn.net/beyond9305/article/details/92844258 基于Opencv快速实现人脸识 ...

  3. Opencv摄像头实时人脸识别

    Introduction 网上存在很多人脸识别的文章,这篇文章是我的一个作业,重在通过摄像头实时采集人脸信息,进行人脸检测和人脸识别,并将识别结果显示在左上角. 利用 OpenCV 实现一个实时的人脸 ...

  4. 手把手教你如何用 OpenCV + Python 实现人脸识别

    下午的时候,配好了OpenCV的Python环境,OpenCV的Python环境搭建.于是迫不及待的想体验一下opencv的人脸识别,如下文. 必备知识 Haar-like 通俗的来讲,就是作为人脸特 ...

  5. opencv 利用Haar 人脸识别

    #include <opencv2/opencv.hpp> #include <cstdio> #include <cstdlib> #include <io ...

  6. OpenCV学习(38) 人脸识别(3)

                前面我们学习了基于特征脸的人脸识别,现在我们学习一下基于Fisher脸的人脸识别,Fisher人脸识别基于LDA(线性判别算法)算法,算法的详细介绍可以参考下面两篇教程内容: ...

  7. OpenCV学习(37) 人脸识别(2)

          在前面一篇教程中,我们学习了OpenCV中基于特征脸的人脸识别的代码实现,我们通过代码 Ptr<FaceRecognizer> model = createEigenFaceR ...

  8. OpenCV学习(36) 人脸识别(1)

    本文主要参考OpenCV人脸识别教程:http://docs.opencv.org/modules/contrib/doc/facerec/facerec_tutorial.html 1.OpenCV ...

  9. AI人工智能之基于OpenCV+face_recognition实现人脸识别

    因近期公司项目需求,需要从监控视频里识别出人脸信息.OpenCV非常庞大,其中官方提供的人脸模型分类器也可以满足基本的人脸识别,当然我们也可以训练自己的人脸模型数据,但是从精确度和专业程度上讲Open ...

随机推荐

  1. 一个随意list引发的惨案(java到底是值传递还是引用 传递?)

    前两天写了一个递归,因为太年轻,把一个递归方法需要用到的list定义该递归方法外了,结果开始断点测试的时候有点小问题 ,然后上线之后因为数据量太多导致了一个java.util.ConcurrentMo ...

  2. 快学Scala 第十八课 (trait多继承)

    trait多继承: trait的继承并不像类拥有相同的含义!在下面这个例子中,如果还是运用类的继承的思想,那么运行结果将是什么也没有. trait Logged { def log(msg: Stri ...

  3. 【Elasticsearch 搜索之路】(一)什么是 Elasticsearch?

    本篇文章对 Elasticsearch 做了基本介绍,在后续将通过专栏的方式持续更新,本系列以 Elasticsearch7 作为主要的讲解版本,欢迎各位大佬指正,共同学习进步! 一般涉及大型数据库的 ...

  4. raspbian修改swap分区为硬盘上的分区

    一直以为raspbian的swap分区和平常装系统时候的swap分区是一样的,最近用u盘插在树莓派上运行后发现这个交换分区和我想象中不一样. 百度后发现它是一个文件挂上去的.直接搞把! pi@rasp ...

  5. (已解决)STM32L151使用串口发送数据第一字节为FE问题!

    最近学习到串口发送数据时遇到一个问题:第一个字节总是FE,后面才是对的数据. 最终解决的方法是: 讲GPIO复用的操作放到GPIO配置之前! 体现在代码中就是: //打开GPIO时钟 RCC_AHBP ...

  6. Ajax:后台jquery实现ajax无刷新删除数据及demo

    aaarticlea/png;base64,iVBORw0KGgoAAAANSUhEUgAAA8gAAAFSCAIAAAChUmFZAAAgAElEQVR4nO29z4scWZbn2/+Hb30zi8

  7. Javascript实现10种排序算法

    1.冒泡排序: 比较相邻的两个数,如果前一个数大于后一个数,就将这两个数换位置.每一次遍历都会将本次遍历最大的数冒泡到最后.为了将n个数排好序,需要n-1次遍历.如果某次遍历中,没有调整任何两个相邻的 ...

  8. Math中ceil中为什么会有负零

    double c=Math.ceil(-0.5); double d=Math.floor(0.5); System.out.println(c); System.out.println(d); Sy ...

  9. Ceph Paxos相关代码解析

    Leader选举 Ceph中的leader选举是一个Paxos Lease过程,与BasicPaxos的目的不同.后者用于解决数据一致性问题,而Paxos Lease是为了选举出一个leader承担m ...

  10. Python 3 既是激进的又是克制的,这些提议被否决了

    [译]PEP 3099--Python 3 中不会改变的事情 导语: Python 3.8 已经发布了,引进了不少变更点.关于 3.9 预计引入的修改,也披露了一些.我们之前还关注过 GIL 的移除计 ...