博客
关于我
【luogu P6033】合并果子 加强版
阅读量:325 次
发布时间:2019-03-04

本文共 2648 字,大约阅读时间需要 8 分钟。

合并果子 加强版

题目链接:

题目大意

有一堆东西,每次你可以选两个东西,用它们大小的和的代价,把它们合并,得到一个它们大小和的东西。然后把它们合并成一个东西所要的最小的代价。

跟普通的一样,但是数据变大,O(nlogn) 无法通过。

思路

这里假设已经会普通的。

首先,我们看到数据很大,要用 O(n) 的算法。

然后我们考虑不用堆,而是用一些别的方法改进。

贪心还是用之前的贪心。

那问你就变成了如何一直维护一堆数中最小的两个数。

然后我们考虑先用一个方法把原序列排序,这里数据可以用桶排,如果数据大了也可以用基数排序。

然后我们再弄一个队列,记录新生成的数。

那很明显,新生成的数一定是从小到大的。
那我们就每次再两个队列的分别前两个数中(也就是那四个数中)选小的两个,然后弹出,在队列中插入新的值,记录花费。

然后这样做就可以了。

要开 long long,这很显然。

要开快读,这很显然。(然后我错了半天就是因为没开,搞得我还弄了个自带队列版)

代码

手动队列版

#include
#include
#define ll long longusing namespace std;int n;ll ans, x, y, xx, yy, box[100001];ll q[10000001], p[10000001], t, tt;int read() { int re = 0; char c = getchar(); while (c < '0' || c > '9') c = getchar(); while (c >= '0' && c <= '9') { re = re * 10 + c - '0'; c = getchar(); } return re;}int main() { n = read(); for (int i = 1; i <= n; i++) { x = 1ll * read(); box[x]++; } for (int i = 1; i <= 100000; i++) for (int j = 1; j <= box[i]; j++) { q[++q[0]] = i; } while (p[0] + q[0] - t - tt > 1) { x = q[t + 1]; xx = q[t + 2]; y = p[tt + 1]; yy = p[tt + 2]; if (xx < y && t + 2 <= q[0] || (tt + 1 > p[0])) y = xx, t += 2; else if (yy < x && tt + 2 <= p[0] || (t + 1 > q[0])) x = yy, tt += 2; else t++, tt++; ans += x + y; p[++p[0]] = x + y; if (p[0] + q[0] - t - tt <= 1) { break; } } printf("%lld", ans); return 0;}

自带队列版

#include
#include
#define ll long longusing namespace std;int n;ll ans, x, y, xx, yy, box[200001];queue
q, p;int read() { int re = 0; char c = getchar(); while (c < '0' || c > '9') c = getchar(); while (c >= '0' && c <= '9') { re = re * 10 + c - '0'; c = getchar(); } return re;}int main() { n = read(); for (int i = 1; i <= n; i++) { x = 1ll * read(); box[x]++; } for (int i = 1; i <= 200000; i++) for (int j = 1; j <= box[i]; j++) { q.push(i); } while (1) { x = 0; y = 0; if (q.empty() && p.empty()) break; if (!q.empty()) xx = q.front(); else { x = p.front(); p.pop(); if (!p.empty()) { y = p.front(); p.pop(); } else break; } if (!y) { if (!p.empty()) yy = p.front(); else { x = q.front(); q.pop(); if (!q.empty()) { y = q.front(); q.pop(); } else break; } } if (!y) { if (xx < yy) x = xx, q.pop(); else x = yy, p.pop(); if (q.empty() && p.empty()) break; if (q.empty()) y = p.front(), p.pop(); else if (p.empty()) y = q.front(), q.pop(); else { xx = p.front(); yy = q.front(); if (xx < yy) y = xx, p.pop(); else y = yy, q.pop(); } } ans += x + y; p.push(x + y); } printf("%lld", ans); return 0;}

转载地址:http://ehvh.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>