При обработке массивов данных ты, как правило, можешь получить какие-то промежуточные данные, из которых уже побырому собрать что-то готовое, например, просуммировав результаты, вычислив среднее арифметическое или что-то такое.
И вот если параллелить самую сложную часть и сохранить где-нибудь промежуточные данные, ты можешь распараллелить что-то сложное и ускорить эту часть в N раз, где N это количество распараллеленных мест.
Просто если ты хочешь ускорять — тебе придётся это делать, распараллеливаемость это слишком большой профит в скорости. В противном случае твой кампуцер нагружен только на 1/N (в твоём случае, на четверть из возможного). Ускорение в два-три-четыре раза это МНОГО, особенно при обработке чего-то средне-крупного.
в принципе с приложением и контурами я все уже сделал по максимуму... в том языке. и меня устраивает. лаг сейчас в том, что я имею задержку в дельфине при чтении файла, пока он доберется до нужной строки проходит 18 секунд.