HashSet.add() 返回 false 表明元素已存在,借此可高效识别重复项;需重写 equals() 和 hashCode(),允许一个 null;Stream 中用 !seen.add(e) 配合 distinct() 可一行筛出重复元素。

为什么 HashSet.add() 能揪出重复元素
因为 HashSet.add() 返回 false 当且仅当元素已存在——它不抛异常、不吞静默,就靠这个布尔值做开关。很多人误以为得先遍历一遍再查 contains(),其实多了一轮查找,白费一次哈希计算。
适用场景:只需要知道“哪些元素重复了”,不关心重复几次、也不需要保留原始顺序(或可配合 LinkedHashSet 补救)。
-
add()是 O(1) 平均时间复杂度;用contains()+add()就是两次哈希操作 - 注意:元素必须正确重写
equals()和hashCode(),否则add()判重失效 - 原始
List里有null?HashSet允许一个null,但多次add(null)后续都返回false,能正常捕获
一行代码筛出所有重复项(带去重)
用 Stream + filter() + Set::add 是最简路径,但要注意副作用和线程安全——这是纯单线程工具技,别往并行流里塞。
List<String> list = Arrays.asList("a", "b", "a", "c", "b");
Set<String> seen = new HashSet<>();
List<String> duplicates = list.stream()
.filter(e -> !seen.add(e))
.distinct()
.collect(Collectors.toList()); // ["a", "b"]
-
!seen.add(e)是关键:添加失败 → 已存在 → 是重复项 - 必须用
.distinct(),否则同一个重复元素(如 "a")出现三次,会输出两个 "a" - 别用
ConcurrentHashMap.newKeySet()替换HashSet——add()在并发容器里不保证返回值语义一致
要保留首次重复出现的位置?改用 Map 记频次
如果需求变成“找出第二次及以后出现的元素,并按它们在原列表中第二次出现的顺序排列”,HashSet 就不够用了——它没计数能力。这时候得升维用 HashMap。
立即学习“Java免费学习笔记(深入)”;
Map<String, Integer> counts = new HashMap<>();
List<String> duplicatesInOrder = list.stream()
.filter(e -> {
int c = counts.merge(e, 1, Integer::sum);
return c > 1; // 第二次起才放行
})
.collect(Collectors.toList());
-
merge()原子更新计数,比先get()再put()更安全 - 返回的是“每次触发重复时的元素”,所以 "a,b,a,c,b" 会输出 ["a","b"],顺序由第二次出现位置决定
- 如果还要去重(只留一个副本),后面接
.distinct()即可
性能差三倍?小心 ArrayList 的 stream() 开销
对小列表(ArrayList,stream() 的对象创建和函数式调用开销会明显高于传统 for-loop。
- 等价 for-loop 写法更可控:
Set<String> seen = new HashSet<>(); Set<String> duplicates = new HashSet<>(); for (String e : list) { if (!seen.add(e)) duplicates.add(e); } -
ArrayList的stream()底层仍要构造Spliterator,而 for-loop 直接走数组索引 - 如果 list 实际是
LinkedList,那 stream 和 for-each 性能差距更大——避免用get(i)随机访问
HashSet.add() 配合 filter;要频次、要顺序、要位置信息,就得切到 Map;量大且敏感,老老实实 for-loop。没有银弹,只有哪块逻辑卡住了,才换哪把刀。










