Size: a a a

2020 April 02

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Rubikoid
А, если в этом плане, то да. Как бы ожидаемо выносить вычисления в сишные модули. Я больше о либах в целом

Ну, тот же веб в приличном объеме чисто на питоне тормозит работает.
Ну я про это и говорю)
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Впрочем, вот мне до сих пор непонятна ситуация с нлп
источник

R

Rubikoid in #ctfchat
4n9k3y5h1k [AnyKeyShik]
Впрочем, вот мне до сих пор непонятна ситуация с нлп
Нлп? О_о
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Nl processing
источник

IN

Ivan Novikov in #ctfchat
Ivan Novikov
Не помню , но да, для маленьких чисел там квадрат
#define KARATSUBA_CUTOFF 70
#define KARATSUBA_SQUARE_CUTOFF (2 * KARATSUBA_CUTOFF)

> 70 цифр нужно для карацубы в обоих операндах
https://hg.python.org/cpython/file/b514339e41ef/Objects/longobject.c#l2570
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Обработка естественного языка она же
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Я ей в последнее время занимаюсь и так и не понял, то ли лучше питухон юзать, то ли на плюсы переписывать. А задача специфичная, под неё либ почти нет
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
А те, что есть написаны так, что без слёз не взглянешь
источник

R

Rubikoid in #ctfchat
4n9k3y5h1k [AnyKeyShik]
Я ей в последнее время занимаюсь и так и не понял, то ли лучше питухон юзать, то ли на плюсы переписывать. А задача специфичная, под неё либ почти нет
Не шарю

А просто нейронку натравить?
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Оверхед
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Там таска из некоторого текста выкусывать определённые куски, которые уже потом уходят на обработку нейронке
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
И для этого нейронку юзать ну так себе
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Чукча не архитектор, придумывал это не я. По-хорошему, там нейронку, которая занимается обработкой всего этого можно было б под это настроить. Но чего нет, того нет
источник

A

Alexander in #ctfchat
4n9k3y5h1k [AnyKeyShik]
Я ей в последнее время занимаюсь и так и не понял, то ли лучше питухон юзать, то ли на плюсы переписывать. А задача специфичная, под неё либ почти нет
Не будешь же ты BERTы на плюсы переписывать) все равно в проде tensorrt/onnx и от языка особо ничего не поменяется
источник

A

Alexander in #ctfchat
Или прямо узкая тема и сделать надо один раз?
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Ну таки да, но некоторые тормоза убрать позволит. Наверное. Поэтому и не знаю, стоит ли игра свеч
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Сделать надо так, чтобы потом эта штука стояла и работала без вмешательства
источник

A

Alexander in #ctfchat
4n9k3y5h1k [AnyKeyShik]
Сделать надо так, чтобы потом эта штука стояла и работала без вмешательства
Пишешь на питоне и tensorflow, тестируешь там же, перед раскаткой в прод конвертишь в tensorrt и понали. Если вюдюхи нет или она не очень новая, то просто tf-модель в прод, все равно она компилится в бинарь и на проде код от плюсового не отличим. Можно в связке с tensorflow-serving. Если же хочешь ускорять обучение и чувствуешь, что сможешь это сделать, то pytorch в виде пинонячьей части + ATEN в качестве плюсовой только на уровне вычислений (можно и кастомное cuda-kernel сюда прикрутить, в принципе).   Если пишешь на pytorch, то torch.jit.trace и тоже норм, но можно и гнать в tensorrt.
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
О. Спасибо
источник

4[

4n9k3y5h1k [AnyKeyShik] in #ctfchat
Попробую так сделать
источник