В базе данных есть две большие таблицы num
,pre
:
\d num
Table "public.num"
Column | Type | Collation | Nullable | Default
----------+-------------------------+-----------+----------+---------------------------------
id | integer | | not null | nextval('num_id_seq'::regclass)
adsh | character varying(20) | | |
tag | character varying(256) | | |
version | character varying(20) | | |
coreg | character varying(256) | | |
ddate | date | | |
qtrs | numeric(8,0) | | |
uom | character varying(20) | | |
value | numeric(28,4) | | |
footnote | character varying(1024) | | |
\d pre
Table "public.pre"
Column | Type | Collation | Nullable | Default
----------+------------------------+-----------+----------+---------------------------------
id | integer | | not null | nextval('pre_id_seq'::regclass)
adsh | character varying(20) | | |
report | numeric(6,0) | | |
line | numeric(6,0) | | |
stmt | character varying(2) | | |
inpth | boolean | | |
rfile | character(1) | | |
tag | character varying(256) | | |
version | character varying(20) | | |
plabel | character varying(512) | | |
negating | boolean | | |
Проверяем, сколько записей в таблицах:
select count(*) from num;
count
----------
83862587
(1 row)
Time: 204945.436 ms (03:24.945)
select count(*) from pre;
count
----------
36738034
(1 row)
Time: 100604.085 ms (01:40.604)
Выполните длинный запрос:
explain analyze select tag,uom,qtrs,value,ddate from num
where adsh='0000320193-22-000108' and tag in
(select tag from pre where stmt='IS' and
adsh='0000320193-22-000108') and ddate='2022-09-30';
Это стоило почти 7 минут 30 секунд.
QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------------------
Nested Loop Semi Join (cost=2000.00..2909871.29 rows=2 width=59) (actual time=357717.922..450523.035 rows=45 loops=1)
Join Filter: ((num.tag)::text = (pre.tag)::text)
Rows Removed by Join Filter: 61320
-> Gather (cost=1000.00..1984125.01 rows=32 width=59) (actual time=190.355..92987.731 rows=678 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Parallel Seq Scan on num (cost=0.00..1983121.81 rows=13 width=59) (actual time=348.753..331304.671 rows=226 loops=3)
Filter: (((adsh)::text = '0000320193-22-000108'::text) AND (ddate = '2022-09-30'::date))
Rows Removed by Filter: 27953970
-> Materialize (cost=1000.00..925725.74 rows=43 width=33) (actual time=0.097..527.331 rows=91 loops=678)
-> Gather (cost=1000.00..925725.53 rows=43 width=33) (actual time=65.880..357527.133 rows=96 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Parallel Seq Scan on pre (cost=0.00..924721.22 rows=18 width=33) (actual time=201.713..357490.037 rows=32 loops=3)
Filter: (((adsh)::text = '0000320193-22-000108'::text) AND ((stmt)::text = 'IS'::text))
Rows Removed by Filter: 12245979
Planning Time: 0.632 ms
JIT:
Functions: 27
Options: Inlining true, Optimization true, Expressions true, Deforming true
Timing: Generation 5.870 ms, Inlining 272.489 ms, Optimization 367.828 ms, Emission 213.288 ms, Total 859.474 ms
Execution Time: 450524.974 ms
(22 rows)
Time: 450526.084 ms (07:30.526)
Как оптимизировать базу данных, чтобы сократить время на запрос? Добавить индекс и что-то закрыть (база данных работает на моем локальном компьютере без каких-либо других пользователей)?
Подвыборка в предложении where должна быть переписана в соединение с таблицей, что будет намного быстрее. Возможно, DISTINCT не нужен, но я не знаю количество ваших данных, поэтому я включил его.
select DISTINCT
num.tag
, num.uom
, num.qtrs
, num.value
, num.ddate
from num
inner join pre
on num.adsh = pre.adsh
and num.adsh = 'xxxx'
and pre.stmt = 'yy'
and num.ddate = '2022-09-30'
Ничего не получите с вашим запросом.
Он выполняет полное сканирование таблицы по этим столбцам, как вы видите из анализа, который говорит «Parallel Seq Scan» (т.е. последовательное сканирование) для num и pre.
это означает, что он просматривает каждую строку, чтобы проверить, следует ли ее использовать.
Чтобы значительно ускорить его, вам нужно создать индекс для столбцов, используемых в предложениях where (pre.stmt, pre.adsh, num.adsh и num.ddate). Затем запрос будет использовать индекс, чтобы решить, какие строки включить, а поскольку индексы специально организованы для этой задачи, производительность возрастет.
Отлично! Время: 6607,677 мс (00:06,608), всего 6 секунд после добавления всех индексов.
добавление CTE значительно улучшит ваш запрос:
WITH t AS (
SELECT tag FROM tag WHERE stmt= 'yy' AND adsh = 'xxxx'
)
select tag,uom,qtrs,value,ddate
from num n
JOIN t ON t.tag = q.tag
where adsh='xxxx' and ddate='2022-09-30';
Также вы можете специализировать один из используемых столбцов, если наиболее часто используемые запросы очень известны:
CREATE INDEX idx_num_adshxxxx ON num(adsh) WHERE adsh='xxxx';
Это создаст очень быстрый индекс только для небольшой части таблицы. Важно отметить, что индексы имеют очень ограниченное использование для незапланированных выборок, для больших таблиц часто лучше создать выборку сканирования индекса и повторно запросить результаты из CTE, чем загружать всю таблицу, например, это очень распространенный предикат ежедневного использования БД и его проблемы:
WHERE LOWER(adsh) = 'xxxx' ;
Теперь обратите внимание, насколько важно, чтобы ваши запросы соответствовали правильной индексации.
Это означает, что если вы измените исследуемый столбец, ваши индексы должны совпадать, иначе они не будут использоваться, то же самое для integercolumn::text = 'x' или date::text = '2019-10-01' после добавления правильного индекса это решается:
по мере того, как таблицы начинают увеличиваться, можно разрешить меньше случайных фильтров, сканирование таблицы переключит кеш памяти SO, чем позже те же данные будут удвоены в кеше postgresql и только позже стабилизируются. Нестабильные кэшированные запросы postgresql будут снижать скорость ранее кэшированных запросов всякий раз, когда выполняется новый случайный запрос, если кэшированная память сервера уже на пределе.
Ну да, обязательно добавить соответствующие индексы?