PostgreSQL 9.3.1 中文手册 | ||||
---|---|---|---|---|
上一页 | 上一级 | 章 14. 性能提升技巧 | 下一页 |
第一次填充数据库时可能需要做大量的表插入。下面是一些建议,可以尽可能高效地处理这些事情。
当使用多条INSERT时,关闭自动提交,并且只在结束的时候做一次提交。 (在纯SQL里,这就意味着在开始的时候发出BEGIN并且在结束的时候执行COMMIT。 有些客户端的库可能背着你干这些事情, 这种情况下你必须确信只有在你确实要那些库干这些事情的时候它才做。) 如果你允许每个插入都独立地提交,那么PostgreSQL会为所增加的每行记录做大量的处理。 在一个事务里完成所有插入的动作的最大的好处就是,如果有一条记录插入失败, 那么,到该点为止的所有已插入记录都将被回滚, 这样你就不会很难受地面对一个只加载了一部分数据的表。
使用COPY在一条命令里加载所有记录, 而不是一连串的INSERT命令。COPY命令是为加载数量巨大的数据行优化过的; 它没INSERT那么灵活,但是在大量加载数据的情况下,导致的开销也少很多。 因为COPY是单条命令,因此填充表的时候就没有必要关闭自动提交了。
如果你不能使用COPY,那么使用PREPARE来创建一个预备INSERT, 然后使用EXECUTE多次效率更高。这样就避免了重复分析和规划INSERT的开销。 不同的接口以方式的不同提供这种功能;请查看接口文档的"预备语句"。
请注意,在加载大量数据行的时候,COPY几乎总是比INSERT快, 即使使用了PREPARE并且把多个INSERT命令绑在一个事务中也是这样。
当在相同事务中跟随着较早的CREATE TABLE或者TRUNCATE命令使用的时候, COPY是最快的。在这种情况下,不需要写入WAL ,因为在错误情况下,这些包含新加载数据的文件将被删除。 然而,这种考虑只适用于wal_level是minimal的情况,否则所有命令都必须写WAL。
如果你正在加载一个新创建的表,最快的方法是创建表, 用COPY批量加载,然后创建表需要的任何索引。 在已存在数据的表上创建索引要比递增地更新所加载的每一行记录要快。
如果你对现有表增加大量的数据,可能先删除索引,加载表, 然后重新创建索引更快些。当然,在缺少索引的期间,其它数据库用户的数据库性能将有负面的影响。 并且我们在删除唯一索引之前还需要仔细考虑清楚,因为唯一约束提供的错误检查在缺少索引的时候会消失。
和索引一样,"批量地"检查外键约束比一行行检查更高效。因此,也许我们先删除外键约束, 加载数据,然后重建约束会更高效。同样,加载数据和缺少约束而失去错误检查之间也有一个平衡。
更重要的是,当你将数据加载到已有外键约束的表中的时候, 每个新行需要一个服务器上的待处理触发器事件列表中的项目(因为正是触发器的触发在进行行的外键约束检查)。 加载数以百万计的行可能引起触发器事件队列超出可用内存,导致无法忍受的页交换, 甚至命令的彻底失败。因此,当加载大量数据的时候,删除并且重新申请外键约束可能是必需的,而不只是理想的。如果临时删除约束是不能接受的, 唯一可以求助的可能是将加载操作分散到多个更小的事务中。
在加载大量的数据的时候,临时增大maintenance_work_mem配置变量可以改进性能。 这个参数也可以帮助加速 CREATE INDEX和ALTER TABLE ADD FOREIGN KEY命令。 它不会对COPY本身有多大作用,所以这个建议只有在你使用了上面的两个技巧中的一个或全部时才有效。
临时增大checkpoint_segments配置变量也可以让大量数据加载得更快。 这是因为向PostgreSQL里面加载大量的数据可能导致检查点产生的比正常的频率 (由配置变量checkpoint_timeout指定) 更加频繁。在产生一个检查点的时候,所有脏数据都必须刷新到磁盘上。 通过在大量数据加载的时候临时增加checkpoint_segments, 可以减少所需要的检查点的数目。
当加载大量数据到使用WAL归档或流复制的安装时, 加载完成之后采取新的基础备份比处理大量增量WAL数据可能会更快。 为了阻止加载时增量的WAL日志,可以通过设置 wal_level为minimal,archive_mode为off, max_wal_senders为零关闭归档和流复制。 但是请注意,更改这些设置需要重新启动服务器。
除了避免归档器或WAL发送器处理WAL数据的时间,
这样做实际上将使某些命令更快,因为在wal_level
是minimal的时候,它们被设计为不写WAL(它们可以通过在最后做一个fsync
来保证崩溃安全,这比通过写WAL代价更小)。
这适用于以下命令:
CREATE TABLE AS SELECT
CREATE INDEX (正如 ALTER TABLE ADD PRIMARY KEY)
ALTER TABLE SET TABLESPACE
CLUSTER
COPY FROM,当目标表在同一事务之前已经被创建或截断。
不管什么时候,如果你在更新了表中的大量数据之后,运行ANALYZE都是个好习惯。 这包括批量加载大量数据到表。运行ANALYZE (或者VACUUM ANALYZE) 可以保证规划器有表数据的最新统计。 如果没有统计数据或者统计数据太陈旧,那么规划器可能选择很差劲的查询规划, 导致统计信息不准确或者不存在的表的性能很差。 请注意如果启动autovacuum守护进程,可能自动运行ANALYZE;获取详情请 参阅第 23.1.3 节和第 23.1.6 节。
pg_dump生成的转储脚本自动使用上面的若干个技巧,但不是全部。 要尽可能快地加载pg_dump转储,我们需要手工做几个事情。 (请注意,这些要点适用于恢复一个转储,而不是创建一个转储的时候。 同样的要点也适用于使用psql加载一个文本转储或者使用pg_restore从pg_dump 归档文件加载的情况。)
缺省的时候,pg_dump使用COPY,并且在它生成一个完整的包含模式和数据的转储的时候, 它会很小心地先加载数据,然后创建索引和外键。因此,在这个情况下,头几条技巧是自动处理的。 剩余的是你要做的:
设置比正常状况大的maintenance_work_mem和checkpoint_segments值。
如果使用WAL归档或流复制,可以考虑在恢复过程中禁用他们。要做到这一点,在加载前设置archive_mode为off, wal_level为minimal,并且设置 max_wal_senders为零。随后,把它们设置回正确的值,并采取新的基础备份。
尝试使用pg_dump和pg_restore的并行转储和恢复模式,并找到最佳的作业数。 通过-j选项设置的转储和恢复的并行模式应该会给你一个比串行模式更高的性能。
考虑整个转储是否应作为单个事务进行恢复。要做到这一点,传入-1或者 -single-transaction命令行选项给psql或者pg_restore。 当使用此模式时,即使是最小的误差将回滚整个恢复,可能丢弃几个小时的处理。 取决于数据是如何相互关联的,可能最好是手动清理也可能不是。如果你使用单一事务并且WAL归档关闭,则COPY命令将运行速度最快。
如果在数据库服务器中有多个CPU,可以考虑使用pg_restore的-jobs 选项。 这允许并发的数据加载和索引创建。
之后运行ANALYZE。
只保存数据的转储仍然会使用COPY,但是它不会删除或者重建索引, 并且它不会自动修改外键。 [1] 因此当加载只有数据的转储时候,如果你想使用这些技术,删除以及重建索引和外键完全取决于你。 当加载数据时,增大checkpoint_segments仍然是有用的, 但是增大maintenance_work_mem就没什么必要了; 相反,你只是应该在事后手工创建索引和外键, 最后结束时不要忘记ANALYZE命令。参阅第 23.1.3 节 和第 23.1.6 节获取更多详情。
[1] | 你可以通过使用-disable-triggers选项获得关闭外键的效果。 不过要意识到这么做是消除,而不是推迟外键验证, 因此如果你使用这个选项,将有可能插入坏数据。 |