Vadzim _B
да, про PGstrom я читал. Также вроде какие-то решения есть под sqlite. Да мне просто интересно, во сколько раз скорость увеличится, когда все вычисления перенести на видеокарту
Зависит от запросов, насколько они могут быть расспаралелены.
GPU же даст профит только там где нужна серъезная молотилка данных в памяти, типо каких-то пространственных расчетов (или просчета какого то FANN) , неэвристического характера, где нужно там с каким то условным набором в 10к строк произвести триллионы операций.
Во всех остальных случаях умрет раньше IO. Или попросту ничего не будет параллелиться, такое тоже возможно.