博客
关于我
非空子集《算法很美》
阅读量:545 次
发布时间:2019-03-08

本文共 1399 字,大约阅读时间需要 4 分钟。

非空子集

思路: 其实主要理解HashSet即可,利用HashSet集合的不重复原则。

利用HashSet嵌套

public Set
> getSubsets2(int[] A, int n) { Set
> res = new HashSet<>(); Set
res_new = new HashSet<>(); res_new.add(1); res_new.add(1); res_new.add(2); res_new.add(3); res.add(res_new);//初始化为空集 return res;}结果为:[[1, 2, 3]]

具体思路:

创建一个大集合res,里面嵌套着一个小集合,然后遍历,每次遍历要把原本的子集和放到大集合里面,然后再遍历,将之前的元素拷贝到当前元素中。

结果:[[], [1], [2], [1, 2], [3], [1, 3], [2, 3], [1, 2, 3]]

例如:

[1,2]是将[1]拷贝到[2]中,形成[1,2]。[1, 3], [2, 3], [1, 2, 3]是将[1],[2],[1,2]分别拷贝到[3]中形成的。
public class 非空子集 {       public static void main(String[] args){           int[] A = {   1, 2, 3};        Set
> subsets2 = new 非空子集().getSubsets2(A, A.length); System.out.println(subsets2); } /*逐步生成迭代大法*/ public Set
> getSubsets2(int[] A, int n) { Set
> res = new HashSet<>(); res.add(new HashSet<>());//初始化为空集 //从第一个元素开始处理 for (int i = 0; i < n; i++) { Set
> res_new = new HashSet<>();//新建一个大集合 res_new.addAll(res);//把原来集合中的每个子集都加入到新集合中 //遍历之前的集合,全部克隆一遍 for (Set e : res) { Set clone = (Set) ((HashSet) e).clone(); clone.add(A[i]);//把当前元素加进去 res_new.add(clone);//把克隆的子集加到大集合中 } res = res_new; } return res; }}结果:[[], [1], [2], [1, 2], [3], [1, 3], [2, 3], [1, 2, 3]]

知识点: clone() 方法。

clone() 方法用于复制一份 hashMap,属于浅拷贝。

转载地址:http://cwanz.baihongyu.com/

你可能感兴趣的文章
Nginx:NginxConfig可视化配置工具安装
查看>>
Nginx:现代Web服务器的瑞士军刀 | 文章末尾送典藏书籍
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>