pointnet++之scannet/train.py】的更多相关文章

1.作者可能把scannet数据集分成了训练集和测试集并处理成了.pickle文件. 2.在代码运行过程中,作者从.pickle文件中读出训练集1201个场景的x.y.z坐标和测试集312个场景的x.y.z坐标. 3.考虑把点存到.txt文件中,用cloudcompare可视化一下. 2--地板 3--椅子 8--沙发 20--靠枕 单独存入训练数据到txt文件 : TRAIN_DATASET = scannet_dataset.ScannetDataset(root=DATA_PATH, np…
1.数据集加载 if FLAGS.normal: assert(NUM_POINT<=10000) DATA_PATH = os.path.join(ROOT_DIR, 'data/modelnet40_normal_resampled') TRAIN_DATASET = modelnet_dataset.ModelNetDataset(root=DATA_PATH, npoints=NUM_POINT, split='train', normal_channel=FLAGS.normal, b…
# train_net.py#!/usr/bin/env python # -------------------------------------------------------- # Fast R-CNN # Copyright (c) 2015 Microsoft # Licensed under The MIT License [see LICENSE for details] # Written by Ross Girshick # -----------------------…
论文看的云里雾里,希望通过阅读其代码来进一步了解. 参考:http://blog.csdn.net/sloanqin/article/details/51525692 首先是./tools/train_faster_rcnn_alt_opt.py,通过其main函数了解整个训练流程. if __name__ == '__main__': #建议读者调试这个函数,进去看看每个变量是怎么回事 args = parse_args() #解析系统传入的argv参数,解析完放到args中返回 print(…
1. tf.nn.moments(x, axes=[0, 1, 2])  # 对前三个维度求平均值和标准差,结果为最后一个维度,即对每个feature_map求平均值和标准差 参数说明:x为输入的feature_map, axes=[0, 1, 2] 对三个维度求平均,即每一个feature_map都获得一个平均值和标准差 2.with tf.control_dependencies([train_mean, train_var]): 即执行with里面的操作时,会先执行train_mean 和…
1.cv2.resize(image, (image_size, image_size), 0, 0, cv2.INTER_LINEAR) 参数说明:image表示输入图片,image_size表示变化后的图片大小,0, 0表示dx和dy, cv2.INTER_LINEAR表示插值的方式为线性插值 2.image.get_shape[1:4].num_elements() 获得最后三个维度的大小之和 参数说明:image表示输入的图片 3. saver.save(sess, path, glob…
这两天想搞清楚用tensorflow来实现rnn/lstm如何做,但是google了半天,发现tf在rnn方面的实现代码或者教程都太少了,仅有的几个教程讲的又过于简单.没办法,只能亲自动手一步步研究官方给出的代码了. 本文研究的代码主体来自官方源码ptb-word-lm.但是,如果你直接运行这个代码,可以看到warning: WARNING:tensorflow:: Using a concatenated state is slower and will soon be deprecated.…
1.修改download_semantic3d.sh文件 #!/bin/bash ans=`dpkg-query -W p7zip-full` if [ -z "$ans" ]; then echo "Please, install p7zip-full by running: sudo apt-get install p7zip-full" exit - fi for i in `cat semantic3D_files.csv` do output_file=`…
最近在看<机器学习实战>的时候萌生了一个想法,自己去网上爬一些数据按照书上的方法处理一下,不仅可以加深自己对书本的理解,顺便还可以在github拉拉人气.刚好在看决策树这一章,书里面的理论和例子让我觉得这个理论和选择对象简直不能再贴切,看完长相看学历,看完学历看收入.如果可以从婚恋网站上爬取女性的数据信息,手动给她们打标签,并根据这些数据构建决策树,不就可以找出自己的择偶模式了吗!github项目:huatian-funny,下面就详细的阐释一下. 数据爬取 之前在世纪佳缘上爬取过类似的数据,…
faster-rcnn在训练阶段,根据一个solver的prototxt文件创建相应的网络.仅凭一个prototxt就创建网络?其实还涉及到自定义的PythonLayer. 比如lib/rpn/anchor_target_layer.py,一开始感觉它只定义了一个AnchorTargetLayer类但是没有使用过(grep查找找不到),仔细分析源码执行过程才发现,是因为使用了Boost.Python混编相关的技术,是在trainval.prototxt中有定义'python'类的层,并且指定到A…