stream.distinct()去重依赖equals()和hashcode(),对string、integer等天然支持类型最直接;自定义对象必须重写这两方法,否则去重失效;大数据量时内存占用上升,且并行流下性能可能下降。

用 Stream.distinct() 去重合并 List,前提是元素可比较
如果两个 List 里是 String、Integer 这类天然支持 equals() 和 hashCode() 的类型,Stream.distinct() 最直接。它依赖对象的 equals() 判断重复,不是靠内存地址。
常见错误现象:distinct() 对自定义对象没效果,结果里仍有“看起来一样”的对象 —— 那是因为你没重写 equals() 和 hashCode()。
- 使用场景:合并日志 ID 列表、用户手机号列表等简单值类型
- 代码示例:
List<String> list1 = Arrays.asList("a", "b"); List<String> list2 = Arrays.asList("b", "c"); List<String> merged = Stream.concat(list1.stream(), list2.stream()) .distinct() .collect(Collectors.toList()); // ["a", "b", "c"] - 注意:
distinct()是有状态操作,内部用LinkedHashSet缓存已见元素,数据量大时内存占用会上升
用 Set 合并再转回 List,控制去重逻辑更灵活
不依赖 Stream,直接用 HashSet 或 TreeSet 接收所有元素,本质是利用集合天然去重的特性。适合需要干预比较逻辑(比如忽略大小写)、或已有现成 Comparator 的情况。
常见错误现象:用 HashSet 合并后顺序乱了,但你以为“合并”就该保持原始顺序 —— 实际上 HashSet 不保证顺序,得换 LinkedHashSet。
立即学习“Java免费学习笔记(深入)”;
- 使用场景:合并用户实体列表,但只按
userId去重;或需按某字段排序后去重 -
LinkedHashSet保序:Set<String> set = new LinkedHashSet<>(list1); set.addAll(list2); List<String> merged = new ArrayList<>(set);
- 自定义去重(如忽略大小写):
Set<String> set = new TreeSet<>(String.CASE_INSENSITIVE_ORDER); set.addAll(list1); set.addAll(list2);
对自定义对象去重,绕不开 equals() 和 hashCode()
无论用 Stream.distinct() 还是 Set,只要对象没正确实现 equals() 和 hashCode(),去重就不可靠。Java 不会自动根据字段内容判断“相等”,它只认这两个方法的返回值。
常见错误现象:两个字段完全相同的 User 对象被当成不同元素加进 Set,打印出来看着一样,但 size 却是 2。
- 必须重写这两个方法:IDE 可以自动生成,但要注意只包含参与“业务去重”的字段(比如只用
id,别把createTime也塞进去) - 如果不能改源码(比如第三方类),可用
Stream.collect()配合toMap()投影关键字段:Map<Long, User> map = Stream.concat(list1.stream(), list2.stream()) .collect(Collectors.toMap(User::getId, u -> u, (u1, u2) -> u1)); List<User> merged = new ArrayList<>(map.values()); - 性能影响:重写不当(比如
hashCode()总返回 1)会让HashSet退化成链表,查找变慢
合并大量数据时,Stream vs Set 的实际开销差异
小数据量(几千以内)两者差别几乎感知不到;但到几万、几十万级,选择就影响明显了。核心区别在于:前者是函数式流水线,后者是显式集合操作。
容易踩的坑:以为 Stream.distinct() 是懒求值就安全 —— 其实 distinct() 必须缓存所有见过的元素才能判断是否重复,和 collect() 一样要全量加载到内存。
-
Set方案更透明:你能明确看到用了什么集合、是否扩容、是否有序 -
Stream方案在并行流下可能出错:多个线程往同一个LinkedHashSet写会破坏顺序,而distinct()并行时内部用的是线程安全但更重的机制,性能反而下降 - 如果原始
List已排序且重复集中在相邻位置,自己写个循环 + 上次值比对,内存和时间都最优 —— 但这是特例,别为了省一点去硬套
真正复杂的地方不在语法,而在你到底想按什么“算重复”:是对象身份、字段组合、还是某种业务规则。这个判断错了,后面所有代码都白搭。










