原创

还在用 list.contain 做去重?该换换了!

温馨提示:
本文最后更新于 2023年06月25日,已超过 162 天没有更新。若文章内的图片失效(无法正常加载),请留言反馈或直接联系我

最近又是一轮代码review , 发现了一些实现去重的代码,在使用 list.contain ......


我沉思,是不是其实很多初学者也存在这种去重使用问题?

所以我选择把这个事情整出来,分享一下。

正文

首先是造出一个 List<String> 模拟数据,一共2W条,里面有一半数据1W条是重复的:


先看看我们用 contain 去重的代码:


我们调用一下看看耗时:



评价:list.contain 的效率,我的建议是,知道就行,别用。


众所周知 Set 不存在重复数据, 所以我们来看看使用 HashSet 去重的性能:

ps:这里是采取使用 set 的 add 方法做去重


我们调用一下看看耗时:




评价:HashSet 的效率,我的建议是推荐。

正文到此结束
本文目录