Size: a a a

2020 February 26

G

German in Science FYI
ммм а если взять общий change point detection in time series?
источник

SK

Sergey Kolchenko in Science FYI
Была бы разметка я бы понятно сделат RNN или тупо 1d свертку :((
источник

G

German in Science FYI
Sergey Kolchenko
Была бы разметка я бы понятно сделат RNN или тупо 1d свертку :((
источник

BK

Bogdan Kirillov in Science FYI
Sergey Kolchenko
Нет, не называется. У меня нет разметки
Она тебе и не нужна.
источник

SK

Sergey Kolchenko in Science FYI
Bogdan Kirillov
Она тебе и не нужна.
Уже научились тренить сетки без разметки? Значит я что то пропустил. Как ты это видишь?
источник

BK

Bogdan Kirillov in Science FYI
Sergey Kolchenko
Уже научились тренить сетки без разметки? Значит я что то пропустил. Как ты это видишь?
Ты можешь, например, обучать предсказывать следующий элемент в последовательности.
источник

SK

Sergey Kolchenko in Science FYI
во, звучит сочно, гляну
источник

G

German in Science FYI
Sergey Kolchenko
во, звучит сочно, гляну
ну HMM там один из методов в целом
источник

G

German in Science FYI
а ты модель хорошо преставляешь под каждым состоянием? её можно описать и лайклихуд наблюдения найти?
источник

SK

Sergey Kolchenko in Science FYI
Bogdan Kirillov
Ты можешь, например, обучать предсказывать следующий элемент в последовательности.
ау, мне нужно обучать предсказывать тогда hidden state, который на то и хидден, что у меня его нет
источник

G

German in Science FYI
если зависимости попарные я бы просто в HMM между каждым наблюдением x_i, x_i+1 воткнул бы совместный лайклихуд минус парный лайклихуд
источник

G

German in Science FYI
источник

BK

Bogdan Kirillov in Science FYI
Sergey Kolchenko
ау, мне нужно обучать предсказывать тогда hidden state, который на то и хидден, что у меня его нет
Учишь сетку предсказывать следующий элемент (или что-то похожее), там тебе будут считаться какие-то хидден стейтс. Затем эти хидден стейтс как-то дополнительно анализируешь.
источник

G

German in Science FYI
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3582268/ - у тебя очень даже sparse
источник

SK

Sergey Kolchenko in Science FYI
"A HMM with auto-correlated observations is developed." Звучит как то что надо
источник

G

German in Science FYI
внимание чат - вы только что посмотрели на разницу в подходах между machine learning и statistical learning
источник

BK

Bogdan Kirillov in Science FYI
German
внимание чат - вы только что посмотрели на разницу в подходах между machine learning и statistical learning
источник

SK

Sergey Kolchenko in Science FYI
Bogdan Kirillov
Учишь сетку предсказывать следующий элемент (или что-то похожее), там тебе будут считаться какие-то хидден стейтс. Затем эти хидден стейтс как-то дополнительно анализируешь.
Хм, если учить предсказывать слеюущий observed state... Может это и сработает, но звучит немного фантастично
источник

G

German in Science FYI
и еще - в 2007м одна девушка опубликовала Mixed Hidden Markov Models, мб туда посмотри, там 192 цитаты, не может быть что неюзабельный алгоритм
источник

G

German in Science FYI
только пакета для R с этими моделями я не вижу, что уже падазрительна
источник