у меня есть парсер на нейросетях, который умеет анализировать любую страницу любого сайта и выдергивает оттуда полезный контент. Для Украины собираю несколько тысяч сайтов почти в реальном времени. Все новости прогоняются через различные языковые модели. Украинские тексты переводятся в русские, потом все это обрабатывается, накладывается алгоритм кластеризации новостей по группам, определения их тематики
Какие вычислительные мощности используются, и есть ли какие-то сбои, если не секрет?