1. 循环list中的所有元素然后删除重复 public static List removeDuplicate(List list) { for ( int i = 0 ; i < list.size() - 1 ; i ++ ) { for ( int j = list.size() - 1 ; j > i; j -- ) { if (list.get(j).e
去掉list重复的数据,目前总结的以下三种方法,分别是采用set集合来做.两层循环不用任何方法来做,以及一层循环采用contains()方法来做,如下: 1.采用set结合来做: package test; import java.util.ArrayList;import java.util.HashSet;import java.util.List;import java.util.Set; public class Test1 { //采用set来做,因为set是不重复的 public s
import java.util.ArrayList; import java.util.List; import org.junit.Test; /** * 判断重复的数据 * @author YangKai * */ public class Demo { @Test public void a () { List<Integer> list = new ArrayList<Integer>(); List<Integer> list2 = new ArrayLis
java UUID的创建: 参考:http://blog.csdn.net/yaerfeng/article/details/7070369 可以研究一下最后的一段代码: http://spiritfrog.iteye.com/blog/604048 http://www.cnblogs.com/jdonson/archive/2009/07/22/1528466.html package com.stono.test; import java.util.UUID; public class T
前天因为工作需要,开始着手对数据库中两千多万的数据中其中一个字段重复的数据进行去重. 原本使用一些测试的数据测试后,前天写的那个方法是可行的,但是当面对这个两千万的真实数据时,我却发现这方法有些不顶用了,最终只好又经过若干次的尝试,总算成功去重. 最终总结一下整个过程: 1.这个方法就是上一篇所讲的,利用mongodb的游标dbcursor和while循环的方式. var res=db.test.find(); while(res.hasNext()){ var res1=db.test.fin