К сожалению, это немного не то. Мне надо перелить большую таблицу из хайва. Я запускаю копирование на множестве воркеров. Часть воркеров помирает и перезапускается кластером заново. Проблема в том, что до того, как погибнуть, воркеры успели что-то залить в клик. А клик не транзакционный, поэтому данные остаются. И когда воркер перезапускается и начинает лить заново, данные дублируются. Как раз этого я хочу избежать.
костыльно, но ты можешь заливать и периодически делать optimize table, чтобы схлопнуть дублирующиеся ключи.
Либо предоставить это самому движку - он будет этим заниматься в фоне, а дубликаты убирать на уровне запроса (вьюха какая-нибудь).
Но может это все неправильно - я всего месяц кликхаус мучаю. Возможно это антипаттерн :)