版权声明:本文为博主原创文章,转载请注明出处: http://www.cnblogs.com/newneul/p/8545450.html

6、在PnP优化中,将第一个相机的观测也考虑进来,程序应如何书写?最后结果会有何变化?
分析:实际上在PnP例子中,我们可以把第一帧作为世界坐标系,然后在优化过程中对于第一帧的RT我们不做优化,但是我们在添加节点时仍然要将第一帧在世界坐标系下的空间点加入到图中,并且与第一帧的位姿链接起来,然后将第一帧坐标系下的空间点与第二帧的位姿连接起来。
下面是我们修改的部分(节点和边的添加过程):

 //向优化器中添加节点和边
//添加节点 Vertex
//(1)添加位姿节点 第一帧作为世界坐标系(不优化) 同时也是相机坐标系
int poseVertexIndex = ; //位姿节点索引为0 总共两个位姿态节点 第一帧和第二帧
Eigen::Matrix3d R2Init;
R2Init <<
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ,
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ,
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ;
for( ; poseVertexIndex < PoseVertexNum ; poseVertexIndex++ ){
auto pose = new g2o::VertexSE3Expmap(); //相机位姿
pose->setId( poseVertexIndex ); //设置节点标号
pose->setFixed( poseVertexIndex == ); //如果是第一帧 则固定住 不优化
if( poseVertexIndex == ) //第二帧时让RT估计值为pnp得到的值 加快优化速度!
pose->setEstimate(
g2o::SE3Quat( R2Init,
Eigen::Vector3d( t.at<double> ( , ), t.at<double> ( , ), t.at<double> ( , ) )
)
); //两帧图像的位姿预设值都为 r=单位矩阵 t=0(当然这里可以填写自己设定的预设值 比如Pnp估计值)
else
pose->setEstimate( g2o::SE3Quat() );
optimizer.addVertex( pose ); //位姿节点加入优化器
}
//(2)添加路标节点
int landmarkVertexIndex = PoseVertexNum ;
for( int i = ; i < points1_3d.size() ; i ++ ){
auto point = new g2o::VertexSBAPointXYZ(); //路标点
point->setId( landmarkVertexIndex + i ); //设置路标点节点标号
point->setMarginalized( true ); //设置边缘化
point->setEstimate( Eigen::Vector3d( points1_3d[i].x, points1_3d[i].y, points1_3d[i].z ) ); //设置估计值 实际上就是第一帧坐标下的3d点坐标(也是世界坐标系下的坐标)
optimizer.addVertex( point ); //路标节点加入优化器
}
//加入相机参数(当然有另一种方式:查看笔记两种边的不同点)(最后一项为0 默认fx = fy 然后优化位姿 与g2o::EdegeSE3ProjectXYZ不同 笔记以记载 )
g2o::CameraParameters *camera = new g2o::CameraParameters(
K.at< double >(,), Eigen::Vector2d( K.at< double >(,), K.at< double >(,) ),
);
camera->setId( );
optimizer.addParameter( camera ); //加入边edge
//世界坐标下路标点连接到第一帧位姿节点(因为以第一帧坐标系当做世界坐标系 所以我们前面没有优化第一帧的RT 仅仅优化第一帧到第二帧的RT)
for(int i= ;i < points1_2d.size() ; i++ ){
auto edge = new g2o::EdgeProjectXYZ2UV(); //设置连接到第一帧的边
//二元边 连接节点
edge->setVertex( , dynamic_cast< g2o::VertexSBAPointXYZ * >( optimizer.vertex( landmarkVertexIndex + i ) ) ); //世界坐标系下的路标节点
edge->setVertex( , dynamic_cast< g2o::VertexSE3Expmap * >( optimizer.vertex() ) );
edge->setMeasurement( Eigen::Vector2d ( points1_2d[i].x, points1_2d[i].y ) ); //设置测量值为第一帧下的相机归一化平面坐标
edge->setParameterId(,); //最后一位设置使用的相机参数(因为上面仅仅输入了一个相机参数id=0, 对应上面camer->setId(0),第一个参数0不知道是什么,但是必须为0)
edge->setInformation ( Eigen::Matrix2d::Identity() ); //信息矩阵2x2的单位阵
optimizer.addEdge( edge );
}
//第一帧路标点链接到第二帧位姿节点
for( int i= ;i < points1_2d.size() ; i++){
auto edge = new g2o::EdgeProjectXYZ2UV(); //设置链接到第二帧的边
edge->setVertex( , dynamic_cast< g2o::VertexSBAPointXYZ * >( optimizer.vertex( landmarkVertexIndex + i) ) ); //第一帧坐标系下的路标点
edge->setVertex( , dynamic_cast< g2o::VertexSE3Expmap *> ( optimizer.vertex() ) ); //连接到第二个位姿节点
edge->setMeasurement( Eigen::Vector2d ( points2_2d[i].x, points2_2d[i].y ) ); //设置测量值为第二帧下的相机归一化平面坐标
edge->setInformation( Eigen::Matrix2d::Identity() ); //信息矩阵为2x2 实际上就是误差的加权为1:1的
edge->setParameterId(,);
optimizer.addEdge( edge );
}

需要注意的是代码本身集成了PnP 3d_2d那节例子和课后习题6题,可以自己通过下面的选择决定是否运行

#define  MyselfBAFunc  1        //1 课后习题6需要的BA优化函数(运行课后习题6对应的程序)
//0 例程用的(PNP3d_2d对应的程序)

完整代码如下:

 #include <iostream>
#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/calib3d/calib3d.hpp>
#include <Eigen/Core>
#include <Eigen/Geometry>
#include <g2o/core/base_vertex.h>
#include <g2o/core/base_unary_edge.h>
#include <g2o/core/block_solver.h>
#include <g2o/core/optimization_algorithm_levenberg.h>
#include <g2o/solvers/csparse/linear_solver_csparse.h>
#include <g2o/types/sba/types_six_dof_expmap.h>
#include <chrono>
using namespace std;
using namespace cv;
#define MyselfBAFunc 1 //1 课后习题6需要的BA优化函数
//0 例程用的
void find_feature_matches (
const Mat& img_1, const Mat& img_2,
std::vector<KeyPoint>& keypoints_1,
std::vector<KeyPoint>& keypoints_2,
std::vector< DMatch >& matches ); // 像素坐标转相机归一化坐标
Point2d pixel2cam ( const Point2d& p, const Mat& K );
#if MyselfBAFunc
void MyselfBAFun(
const vector< cv::Point3f> &points1_3d, //第一帧3d点(匹配好且有深度信息的点)
const vector< cv::Point2f> &points1_2d, //第一帧像素平面2d点(匹配好的点)
const vector< cv::Point2f> &points2_2d, //第二帧像素平面2d点(匹配好的点)
const Mat&K, //因为里面没有修改相应的值所以用const
const Mat&R,
const Mat&t
);
#else
void bundleAdjustment (
const vector<Point3f> &points_3d,
const vector<Point2f> &points_2d,
const Mat& K,
Mat& R, Mat& t
);
#endif
int main ( int argc, char** argv )
{
if ( argc != )
{
cout<<"usage: pose_estimation_3d2d img1 img2 depth1 depth2"<<endl;
return ;
}
//-- 读取图像
Mat img_1 = imread ( argv[], CV_LOAD_IMAGE_COLOR );
Mat img_2 = imread ( argv[], CV_LOAD_IMAGE_COLOR ); vector<KeyPoint> keypoints_1, keypoints_2;
vector<DMatch> matches;
find_feature_matches ( img_1, img_2, keypoints_1, keypoints_2, matches );
cout<<"一共找到了"<<matches.size() <<"组匹配点"<<endl; // 建立3D点
Mat d1 = imread ( argv[], CV_LOAD_IMAGE_UNCHANGED );// 深度图为16位无符号数,单通道图像 CV_LOAD_IMAGE_UNCHANGED表示读取原始图像
Mat K = ( Mat_<double> ( , ) << 520.9, , 325.1, , 521.0, 249.7, , , );
vector<Point3f> pts_3d;
vector<Point2f> pts_2d;
#if MyselfBAFunc
vector<Point2f> pts1_2d; //第一帧下的像素坐标
#endif
for ( DMatch m:matches )
{
//可以参考书上101页对应的程序,表示获取对应位置的深度图片的深度值
ushort d = d1.ptr<unsigned short> (int ( keypoints_1[m.queryIdx].pt.y )) [ int ( keypoints_1[m.queryIdx].pt.x ) ];
if ( d == ) // bad depth
continue;
float dd = d/5000.0;
Point2d p1 = pixel2cam ( keypoints_1[m.queryIdx].pt, K );
pts_3d.push_back ( Point3f ( p1.x*dd, p1.y*dd, dd ) );//表示的是 相机坐标系下的3D坐标 //这里是通过RGBD获取的深度信息,但是我们可以用三角测量获得第一帧下的3D坐标
pts_2d.push_back ( keypoints_2[m.trainIdx].pt ); //第二帧 匹配好的点 2D像素坐标
#if MyselfBAFunc
pts1_2d.push_back( keypoints_1[m.queryIdx].pt ); //第一帧 匹配好的点 2D像素坐标
#endif
}
//上面已经获得了第一帧坐标系的下的3d坐标 相当于世界坐标系下的坐标 (因为仅仅有两针图像帧 所以 以第一帧为世界坐标,也就是说 世界坐标到第一帧图像的R=I T=0 )
cout<<"3d-2d pairs: "<<pts_3d.size() <<endl;
Mat r, t; //定义旋转和平移变量
//参数信息: 第一帧3D 第二帧像素2D 内参矩阵k 无失真补偿 旋转向量r 平移向量t false表示输入的r t不作为初始化值 如果是true则此时会把t r作为初始值进行迭代
solvePnP ( pts_3d, pts_2d, K, Mat(), r, t, false,SOLVEPNP_EPNP ); // 调用OpenCV 的 PnP 求解,可选择EPNP,DLS等方法SOLVEPNP_EPNP
Mat R;
cv::Rodrigues ( r, R ); // r为旋转向量形式,用Rodrigues公式转换为矩阵 cout<<"R="<<endl<<R<<endl;
cout<<"t="<<endl<<t<<endl;
cout<<"calling bundle adjustment"<<endl;
#if MyselfBAFunc
MyselfBAFun( pts_3d, pts1_2d, pts_2d, K, R, t);
#else
bundleAdjustment ( pts_3d, pts_2d, K, R, t );
#endif } void find_feature_matches ( const Mat& img_1, const Mat& img_2,
std::vector<KeyPoint>& keypoints_1,
std::vector<KeyPoint>& keypoints_2,
std::vector< DMatch >& matches )
{
//-- 初始化
Mat descriptors_1, descriptors_2;
// used in OpenCV3
Ptr<FeatureDetector> detector = ORB::create();
Ptr<DescriptorExtractor> descriptor = ORB::create();
// use this if you are in OpenCV2
// Ptr<FeatureDetector> detector = FeatureDetector::create ( "ORB" );
// Ptr<DescriptorExtractor> descriptor = DescriptorExtractor::create ( "ORB" );
Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create ( "BruteForce-Hamming" );
//-- 第一步:检测 Oriented FAST 角点位置
detector->detect ( img_1,keypoints_1 );
detector->detect ( img_2,keypoints_2 ); //-- 第二步:根据角点位置计算 BRIEF 描述子
descriptor->compute ( img_1, keypoints_1, descriptors_1 );
descriptor->compute ( img_2, keypoints_2, descriptors_2 ); //-- 第三步:对两幅图像中的BRIEF描述子进行匹配,使用 Hamming 距离
vector<DMatch> match;
// BFMatcher matcher ( NORM_HAMMING );
matcher->match ( descriptors_1, descriptors_2, match ); //-- 第四步:匹配点对筛选
double min_dist=, max_dist=; //找出所有匹配之间的最小距离和最大距离, 即是最相似的和最不相似的两组点之间的距离
for ( int i = ; i < descriptors_1.rows; i++ )
{
double dist = match[i].distance;
if ( dist < min_dist ) min_dist = dist;
if ( dist > max_dist ) max_dist = dist;
} printf ( "-- Max dist : %f \n", max_dist );
printf ( "-- Min dist : %f \n", min_dist ); //当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
for ( int i = ; i < descriptors_1.rows; i++ )
{
if ( match[i].distance <= max ( *min_dist, 30.0 ) )
{
matches.push_back ( match[i] );
}
}
} Point2d pixel2cam ( const Point2d& p, const Mat& K )
{
return Point2d
(
( p.x - K.at<double> ( , ) ) / K.at<double> ( , ),
( p.y - K.at<double> ( , ) ) / K.at<double> ( , )
);
} #if MyselfBAFunc
void MyselfBAFun(
const vector< cv::Point3f> &points1_3d, //第一帧3d点(匹配好且有深度信息的点)
const vector< cv::Point2f> &points1_2d, //第一帧像素平面2d点(匹配好的点)
const vector< cv::Point2f> &points2_2d, //第二帧像素平面2d点(匹配好的点)
const Mat&K, //因为里面没有修改相应的值所以用const
const Mat&R,
const Mat&t
){
#define PoseVertexNum 2 //定义位姿节点个数 本试验仅仅有2帧图 //设置优化器
typedef g2o::BlockSolver< g2o::BlockSolverTraits<,> > Block; //优化位姿6维 优化路标点3维
std::unique_ptr<Block::LinearSolverType> linearSolver=g2o::make_unique < g2o::LinearSolverCSparse<Block::PoseMatrixType> >();//线性求解设为CSparse
std::unique_ptr<Block> solver_ptr (new Block(std::move(linearSolver) ) );
g2o::OptimizationAlgorithmLevenberg *solver = new g2o::OptimizationAlgorithmLevenberg( std::move(solver_ptr) ); /* Block::LinearSolverType *linearSolver = new g2o::LinearSolverCSparse<Block::PoseMatrixType>(); //设置线性求解器类型
Block *solver_ptr = new Block( std::unique_ptr<Block::LinearSolverType>(linearSolver) ); //矩阵块求解器
g2o::OptimizationAlgorithmLevenberg *solver = new g2o::OptimizationAlgorithmLevenberg( std::unique_ptr<g2o::Solver>(solver_ptr) ); //LM优化算法
*/
g2o::SparseOptimizer optimizer; //设置稀疏优化器
optimizer.setAlgorithm(solver); //设置优化算法 //向优化器中添加节点和边
//添加节点 Vertex
//(1)添加位姿节点 第一帧作为世界坐标系(不优化) 同时也是相机坐标系
int poseVertexIndex = ; //位姿节点索引为0 总共两个位姿态节点 第一帧和第二帧
Eigen::Matrix3d R2Init;
R2Init <<
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ,
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ,
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ) ;
for( ; poseVertexIndex < PoseVertexNum ; poseVertexIndex++ ){
auto pose = new g2o::VertexSE3Expmap(); //相机位姿
pose->setId( poseVertexIndex ); //设置节点标号
pose->setFixed( poseVertexIndex == ); //如果是第一帧 则固定住 不优化
if( poseVertexIndex == ) //第二帧时让RT估计值为pnp得到的值 加快优化速度!
pose->setEstimate(
g2o::SE3Quat( R2Init,
Eigen::Vector3d( t.at<double> ( , ), t.at<double> ( , ), t.at<double> ( , ) )
)
); //两帧图像的位姿预设值都为 r=单位矩阵 t=0(当然这里可以填写自己设定的预设值 比如Pnp估计值)
else
pose->setEstimate( g2o::SE3Quat() );
optimizer.addVertex( pose ); //位姿节点加入优化器
}
//(2)添加路标节点
int landmarkVertexIndex = PoseVertexNum ;
for( int i = ; i < points1_3d.size() ; i ++ ){
auto point = new g2o::VertexSBAPointXYZ(); //路标点
point->setId( landmarkVertexIndex + i ); //设置路标点节点标号
point->setMarginalized( true ); //设置边缘化
point->setEstimate( Eigen::Vector3d( points1_3d[i].x, points1_3d[i].y, points1_3d[i].z ) ); //设置估计值 实际上就是第一帧坐标下的3d点坐标(也是世界坐标系下的坐标)
optimizer.addVertex( point ); //路标节点加入优化器
}
//加入相机参数(当然有另一种方式:查看笔记两种边的不同点)(最后一项为0 默认fx = fy 然后优化位姿 与g2o::EdegeSE3ProjectXYZ不同 笔记以记载 )
g2o::CameraParameters *camera = new g2o::CameraParameters(
K.at< double >(,), Eigen::Vector2d( K.at< double >(,), K.at< double >(,) ),
);
camera->setId( );
optimizer.addParameter( camera ); //加入边edge
//世界坐标下路标点连接到第一帧位姿节点(因为以第一帧坐标系当做世界坐标系 所以我们前面没有优化第一帧的RT 仅仅优化第一帧到第二帧的RT)
for(int i= ;i < points1_2d.size() ; i++ ){
auto edge = new g2o::EdgeProjectXYZ2UV(); //设置连接到第一帧的边
//二元边 连接节点
edge->setVertex( , dynamic_cast< g2o::VertexSBAPointXYZ * >( optimizer.vertex( landmarkVertexIndex + i ) ) ); //世界坐标系下的路标节点
edge->setVertex( , dynamic_cast< g2o::VertexSE3Expmap * >( optimizer.vertex() ) );
edge->setMeasurement( Eigen::Vector2d ( points1_2d[i].x, points1_2d[i].y ) ); //设置测量值为第一帧下的相机归一化平面坐标
edge->setParameterId(,); //最后一位设置使用的相机参数(因为上面仅仅输入了一个相机参数id=0, 对应上面camer->setId(0),第一个参数0不知道是什么,但是必须为0)
edge->setInformation ( Eigen::Matrix2d::Identity() ); //信息矩阵2x2的单位阵
optimizer.addEdge( edge );
}
//第一帧路标点链接到第二帧位姿节点
for( int i= ;i < points1_2d.size() ; i++){
auto edge = new g2o::EdgeProjectXYZ2UV(); //设置链接到第二帧的边
edge->setVertex( , dynamic_cast< g2o::VertexSBAPointXYZ * >( optimizer.vertex( landmarkVertexIndex + i) ) ); //第一帧坐标系下的路标点
edge->setVertex( , dynamic_cast< g2o::VertexSE3Expmap *> ( optimizer.vertex() ) ); //连接到第二个位姿节点
edge->setMeasurement( Eigen::Vector2d ( points2_2d[i].x, points2_2d[i].y ) ); //设置测量值为第二帧下的相机归一化平面坐标
edge->setInformation( Eigen::Matrix2d::Identity() ); //信息矩阵为2x2 实际上就是误差的加权为1:1的
edge->setParameterId(,);
optimizer.addEdge( edge );
} //run 算法
cout<<"开始优化!"<<endl;
chrono::steady_clock::time_point t1 = chrono::steady_clock::now();
optimizer.setVerbose ( true ); //设置详细信息
optimizer.initializeOptimization( ); //优化器初始化
optimizer.optimize( ); //进行最多100次的优化
chrono::steady_clock::time_point t2 = chrono::steady_clock::now();
cout<<"优化结束!"<<endl;
chrono::duration< double > time_used = chrono::duration_cast< chrono::duration<double> >( t2 -t1 );
cout<<"optimization costs time: "<<time_used.count() << "seconds."<<endl;
cout<<endl<<"after optimization:"<<endl;
//输出优化节点的位姿 estimate()输出的是SE3类型 Eigen::Isometry3d 实际上就是4x4的一个矩阵表示变换矩阵 这个类初始化可以是李代数
//这里有一点不明白的是 Eigen::Isometry3d()为什么可以用estimate()返回的SE3Quat类型初始化???????
cout<<"T="<<endl<<Eigen::Isometry3d ( dynamic_cast<g2o::VertexSE3Expmap *>(optimizer.vertex())->estimate()).matrix() <<endl;
/* g2o::SE3Quat a();
Eigen::Isometry3d( a);*/
}
#else
void bundleAdjustment (
const vector< Point3f > &points_3d,
const vector< Point2f > &points_2d,//这里加不加引用 都是会报错
const Mat& K,
Mat& R, Mat& t )
{
// 初始化g2o
typedef g2o::BlockSolver< g2o::BlockSolverTraits<,> > Block; // pose 维度为 6, landmark 维度为 3
std::unique_ptr<Block::LinearSolverType> linearSolver( new g2o::LinearSolverCSparse<Block::PoseMatrixType>() );
std::unique_ptr<Block> solver_ptr ( new Block ( std::move(linearSolver) ) );
g2o::OptimizationAlgorithmLevenberg* solver = new g2o::OptimizationAlgorithmLevenberg ( std::move(solver_ptr) );
/* Block::LinearSolverType* linearSolver = new g2o::LinearSolverCSparse<Block::PoseMatrixType>(); // 线性方程求解器
Block* solver_ptr = new Block ( std::unique_ptr<Block::LinearSolverType>(linearSolver) ); // 矩阵块求解器
g2o::OptimizationAlgorithmLevenberg* solver = new g2o::OptimizationAlgorithmLevenberg ( std::unique_ptr<g2o::Solver>(solver_ptr) );*/
g2o::SparseOptimizer optimizer;
optimizer.setAlgorithm ( solver ); // vertex
g2o::VertexSE3Expmap* pose = new g2o::VertexSE3Expmap(); // camera pose
Eigen::Matrix3d R_mat;
R_mat <<
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ),
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , ),
R.at<double> ( , ), R.at<double> ( , ), R.at<double> ( , );
pose->setId ( );
//设置顶点估计值 然后才会用BA再次优化
pose->setEstimate ( g2o::SE3Quat (
R_mat,
Eigen::Vector3d ( t.at<double> ( , ), t.at<double> ( , ), t.at<double> ( , ) )
) );
optimizer.addVertex ( pose ); int index = ;
for ( const Point3f &p:points_3d ) // landmarks 在执行这里的时候,实际上是所有空间点(匹配好的)组成的顶点
{
g2o::VertexSBAPointXYZ* point = new g2o::VertexSBAPointXYZ();
point->setId ( index++ );
point->setEstimate ( Eigen::Vector3d ( p.x, p.y, p.z ) );
point->setMarginalized ( true ); // g2o 中必须设置 marg 参见第十讲内容 待注释??
optimizer.addVertex ( point );
} // parameter: camera intrinsics
g2o::CameraParameters* camera = new g2o::CameraParameters (
K.at<double> ( , ), Eigen::Vector2d ( K.at<double> ( , ), K.at<double> ( , ) ),
);
camera->setId ( );
optimizer.addParameter ( camera ); // edges
index = ;
for ( const Point2f &p:points_2d )//每个点都会与位姿节点链接 所以就有那么多的边
{
g2o::EdgeProjectXYZ2UV* edge = new g2o::EdgeProjectXYZ2UV();
edge->setId ( index );
//下行转化 要用动态类型转换
//将2元边连接上顶点
edge->setVertex ( , dynamic_cast<g2o::VertexSBAPointXYZ*> ( optimizer.vertex ( index ) ) );//空间点类型指针
edge->setVertex ( , pose ); //位姿类型指针
edge->setMeasurement ( Eigen::Vector2d ( p.x, p.y ) ); //设置测量值
edge->setParameterId ( , );
edge->setInformation ( Eigen::Matrix2d::Identity() ); //因为误差向量为2维,所以信息矩阵也是2维,这里设置加权为1 即单位阵
optimizer.addEdge ( edge );
index++;
} chrono::steady_clock::time_point t1 = chrono::steady_clock::now();
optimizer.setVerbose ( true );
optimizer.initializeOptimization();
optimizer.optimize ( );
chrono::steady_clock::time_point t2 = chrono::steady_clock::now();
chrono::duration<double> time_used = chrono::duration_cast<chrono::duration<double>> ( t2-t1 );
cout<<"optimization costs time: "<<time_used.count() <<" seconds."<<endl; cout<<endl<<"after optimization:"<<endl;
cout<<"T="<<endl<<Eigen::Isometry3d ( pose->estimate() ).matrix() <<endl;
}
#endif

参考资料:

视觉slam十四讲从理论到实践

欢迎大家关注我的微信公众号「佛系师兄」,里面有关于 Ceres 以及 OpenCV 等更多技术文章。

比如

反复研究好几遍,我才发现关于 CMake 变量还可以这样理解!

更多好的文章会优先在里面不定期分享!打开微信客户端,扫描下方二维码即可关注!

视觉slam十四讲第七章课后习题6的更多相关文章

  1. 视觉slam十四讲第七章课后习题7

    版权声明:本文为博主原创文章,转载请注明出处:http://www.cnblogs.com/newneul/p/8544369.html  7.题目要求:在ICP程序中,将空间点也作为优化变量考虑进来 ...

  2. 视觉slam十四讲第8章课后习题3+稀疏直接法程序注释

    版权声明:本文为博主原创文章,转载请注明出处: http://www.cnblogs.com/newneul/p/8571653.html 3.题目回顾:在稀疏直接法中,假设单个像素周围小块的光度也不 ...

  3. 浅读《视觉SLAM十四讲:从理论到实践》--操作1--初识SLAM

    下载<视觉SLAM十四讲:从理论到实践>源码:https://github.com/gaoxiang12/slambook 第二讲:初识SLAM 2.4.2 Hello SLAM(书本P2 ...

  4. 高博-《视觉SLAM十四讲》

    0 讲座 (1)SLAM定义 对比雷达传感器和视觉传感器的优缺点(主要介绍视觉SLAM) 单目:不知道尺度信息 双目:知道尺度信息,但测量范围根据预定的基线相关 RGBD:知道深度信息,但是深度信息对 ...

  5. 《视觉SLAM十四讲》第2讲

    目录 一 视觉SLAM中的传感器 二 经典视觉SLAM框架 三 SLAM问题的数学表述 注:原创不易,转载请务必注明原作者和出处,感谢支持! 本讲主要内容: (1) 视觉SLAM中的传感器 (2) 经 ...

  6. 《视觉SLAM十四讲》第1讲

    目录 一 视觉SLAM 注:原创不易,转载请务必注明原作者和出处,感谢支持! 一 视觉SLAM 什么是视觉SLAM? SLAM是Simultaneous Localization and Mappin ...

  7. 视觉SLAM十四讲:从理论到实践 两版 PDF和源码

    视觉SLAM十四讲:从理论到实践 第一版电子版PDF 链接:https://pan.baidu.com/s/1SuuSpavo_fj7xqTYtgHBfw提取码:lr4t 源码github链接:htt ...

  8. 高翔《视觉SLAM十四讲》从理论到实践

    目录 第1讲 前言:本书讲什么:如何使用本书: 第2讲 初始SLAM:引子-小萝卜的例子:经典视觉SLAM框架:SLAM问题的数学表述:实践-编程基础: 第3讲 三维空间刚体运动 旋转矩阵:实践-Ei ...

  9. 《视觉SLAM十四讲》学习日志(二)——初识SLAM

    小萝卜机器人的例子: 就像这种机器人,它的下面有一组轮子,脑袋上有相机(眼睛),为了让它能够探索一个房间,它需要知道: 1.我在哪——定位 2.周围环境怎么样——建图 定位和建图可以理解成感知的 &q ...

随机推荐

  1. 1086 就不告诉你 (15分)C语言

    做作业的时候,邻座的小盆友问你:"五乘以七等于多少?"你应该不失礼貌地微笑着告诉他:"五十三."本题就要求你,对任何一对给定的正整数,倒着输出它们的乘积. 输入 ...

  2. shell 概览

    shell能做什么: 1. 自动化批量系统初始化程序(update,软件安装,时区设置,安全策略...) 2. 自动化批量软件部署程序(LAMP,LNMP,Tomcat,LVS,Nginx) 3. 管 ...

  3. #ICCV2019论文阅读#Fully_convolutional_Features

    一 知识背景 3D scan&cloud points(点云)patch-based features,fully convolutional network, deep metric lea ...

  4. Snipaste - 可以提高你工作效率的截图软件

    使用Snipaste提高您的工作效率 Snipaste是一个简单但功能强大的剪切工具,还允许您将屏幕截图固定在屏幕上.下载并启动应用程序,按F1开始剪切,然后按F3将其粘贴为浮动窗口.而已! 您还可以 ...

  5. GitHub上的计算机视觉学习资料推荐

    9月份将要读研,导师是做cv的,最近学习时找到了不少的计算机视觉的资料,记录一下,同时也分享给需要的朋友 assmdx/ComputerVisionDoc AceCoooool/interview-c ...

  6. 记录这两年是如何一步一步转型到.net core+k8s

    2017年12月份,我离开北京,回到了武汉,开始在现在这家公司担任架构师工作.经过2年的时间,逐步完成以.net core+k8s为核心的技术架构.文末有彩蛋. 以下整理这两年的主要时间节点: 201 ...

  7. iOS多线程编程原理及实践

    摘要:iOS开发中,开发者不仅要做好iOS的内存管理,而且如果你的iOS涉及多线程,那你也必须了解iOS编程中对多线程的限制,iOS主线程的堆栈大小为1M,其它线程均为512KB,且这个限制开发者是无 ...

  8. 七牛云 融合CDN测试域名 -> 融合CDN加速域名

    七牛云 融合CDN测试域名 -> 融合CDN加速域名 本篇主要讲解 如何将七牛云融合CDN测试域名 切换到自定义的加速域名上去,为什么会写这篇是因为我收到了一封 [七牛云]测试域名回收通知的邮件 ...

  9. Mysql的binlog日志与mysqlbinlog命令

    binlog相关 MySQL 的二进制日志 binlog 可以说是 MySQL 最重要的日志,它记录了所有的 DDL 和 DML 语句(除了数据查询语句select.show等),以事件形式记录,还包 ...

  10. Xadmin的实现

    一.启动 1.前提 配置setting.py文件 INSTALLED_APPS 2.定位Xadmin,找到对应的类 'Xadmin.apps.XadminConfig', 3.根据admin源码,实现 ...