Size: a a a

2019 March 11

g

grygoriy in Science FYI
Nikolai
норм тема, тоже хочу на что-то связанное с психофармой в Чехии, правда, на PhD
у них в тимах врачи, биохимики, молеклярщики и проч. очень интердисциплинарные.
источник

N

Nikolai in Science FYI
а это место чекну, выглядит многообещающе
источник

g

grygoriy in Science FYI
Nikolai
ага, ну я про обсуждение выше тоже, там про бак/магу говорили
не понял тогда. на бак/магу больше не уверен, что есть так специализированные
источник

N

Nikolai in Science FYI
grygoriy
не понял тогда. на бак/магу больше не уверен, что есть так специализированные
не, именно мне нужно пхд
источник

N

Nikolai in Science FYI
а человеку выше бак/мага
источник

g

grygoriy in Science FYI
Nikolai
а это место чекну, выглядит многообещающе
на одной из лекций Горачек (главный по кетамину в чехии) рассказывал, что «мы всегда должны понять, как чувствует себя пациент с шизофренией. Итак, у нас было 5 дипломированных психиатров, конференс зал и запас кетамина...»
источник

RB

Roman Bekker in Science FYI
grygoriy
на одной из лекций Горачек (главный по кетамину в чехии) рассказывал, что «мы всегда должны понять, как чувствует себя пациент с шизофренией. Итак, у нас было 5 дипломированных психиатров, конференс зал и запас кетамина...»
источник

НТ

Не Бэд Трип in Science FYI
grygoriy
в NUDZ сейчас конкретно изучают кетамин, экстази, ЛСД и псилоцибин
Ого, что это за универ? Или что это?
источник

НТ

Не Бэд Трип in Science FYI
А
источник

g

grygoriy in Science FYI
гт
Моя сестра закончила мед в Праге. В карлов университете. Брат жив, зависимость страшная, довольна/10, только чехи ее бесили
чехи ужасны. а где она работает теперь ? германия ?
источник

НТ

Не Бэд Трип in Science FYI
grygoriy
чехи ужасны. а где она работает теперь ? германия ?
А что не так с чехами?
источник

g

grygoriy in Science FYI
на таких программах хотят сетки ? или достаточно все что кроме?
источник

г

гт in Science FYI
grygoriy
чехи ужасны. а где она работает теперь ? германия ?
В Чехии проработала в кардиоцентре полтора года, теперь на границе Германии и Швейцарии
источник

г

гт in Science FYI
Не Бэд Трип
А что не так с чехами?
Свои комплексы малого народа вытесняют на русских, виноватых во всех смертных грехах из-за 68 года
источник

НТ

Не Бэд Трип in Science FYI
гт
Свои комплексы малого народа вытесняют на русских, виноватых во всех смертных грехах из-за 68 года
Ну тогда действительно некрасиво вышло, ы
источник

НТ

Не Бэд Трип in Science FYI
Первый раз просто такое слышу
источник

НТ

Не Бэд Трип in Science FYI
Что мол они как-то иначе к русскоговорящим относятся
источник

НТ

Не Бэд Трип in Science FYI
Обычно слышу обратное - хорошее отношение, все на одном уровне и т.д
источник

BB

Boris A. Burkov in Science FYI
Товарищи, мне вот интересно, как вы относитесь к таким творческим статьям? Типа, дожидаемся победителя очередного ImageNet, прикручиваем его к биологии, получаем новый state of art? Чисто инженерная работа для посредственного ВМКшника, но формально ведь должно засчитываться?
источник

BB

Boris A. Burkov in Science FYI
BioBERT: a pre-trained biomedical language representation model for biomedical text mining
Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang

Статья: https://arxiv.org/abs/1901.08746
BioBERT pre-trained weights: https://github.com/naver/biobert-pretrained
Код для fine-tuning на NER/RE/QA: https://github.com/dmis-lab/biobert

Работа из серии “давайте прикрутим BERT ещё к какой-нибудь задаче и сделаем новый state-of-the-art”. Прикрутили BERT для анализа биомедицинских текстов.

Причём прикрутили не просто BERT, а дообученный на биомед текстах (BioBERT).

BioBERT = 1) BERT (претренированный на general domain типа En-Wikipedia, BookCorpus) + 2) претренировка на биомед текстах (PubMed abstracts, PMC full texts) + 3) fine-tuning на конкретную задачу.

Проверяли на задачах: Named Entity Extraction, Relation Extraction, Question Answering.

Что интересно, некоторые из задач с крайне маленькими датасетами (QA дообучался на 327, 486 или 618 примерах; NER и RE максимум на нескольких десятках тысяч, 30681 -- самый крупный датасет).

В общем, как полагается, хорошо побили предыдущие результаты.

Поразительно, как хорошо работает на мелких датасетах в QA.

В итоге новый кубик в копилку тех, кто работает с биомед текстами.

Использовали свою платформу NSML (NAVER Smart Machine Learning, подробнее тут: https://arxiv.org/abs/1712.05902, NSML: A Machine Learning Platform That Enables You to Focus on Your Models).
источник