Size: a a a

2019 March 12

AP

Alexander Predeus in Science FYI
в любом случае в аспер надо стремиться в самое пафосное заведение, на которое позволяет претендовать наглость, я считаю
источник

BK

Bogdan Kirillov in Science FYI
Boris A. Burkov
BioBERT: a pre-trained biomedical language representation model for biomedical text mining
Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang

Статья: https://arxiv.org/abs/1901.08746
BioBERT pre-trained weights: https://github.com/naver/biobert-pretrained
Код для fine-tuning на NER/RE/QA: https://github.com/dmis-lab/biobert

Работа из серии “давайте прикрутим BERT ещё к какой-нибудь задаче и сделаем новый state-of-the-art”. Прикрутили BERT для анализа биомедицинских текстов.

Причём прикрутили не просто BERT, а дообученный на биомед текстах (BioBERT).

BioBERT = 1) BERT (претренированный на general domain типа En-Wikipedia, BookCorpus) + 2) претренировка на биомед текстах (PubMed abstracts, PMC full texts) + 3) fine-tuning на конкретную задачу.

Проверяли на задачах: Named Entity Extraction, Relation Extraction, Question Answering.

Что интересно, некоторые из задач с крайне маленькими датасетами (QA дообучался на 327, 486 или 618 примерах; NER и RE максимум на нескольких десятках тысяч, 30681 -- самый крупный датасет).

В общем, как полагается, хорошо побили предыдущие результаты.

Поразительно, как хорошо работает на мелких датасетах в QA.

В итоге новый кубик в копилку тех, кто работает с биомед текстами.

Использовали свою платформу NSML (NAVER Smart Machine Learning, подробнее тут: https://arxiv.org/abs/1712.05902, NSML: A Machine Learning Platform That Enables You to Focus on Your Models).
Такое себе творчество. Вот если бы он Берт на днке сделал
источник

BK

Bogdan Kirillov in Science FYI
Но ето я делаю, не лезтб
источник

BB

Boris A. Burkov in Science FYI
Bogdan Kirillov
Но ето я делаю, не лезтб
=)
источник

SK

Sergey Kolchenko in Science FYI
Boris A. Burkov
BioBERT: a pre-trained biomedical language representation model for biomedical text mining
Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang

Статья: https://arxiv.org/abs/1901.08746
BioBERT pre-trained weights: https://github.com/naver/biobert-pretrained
Код для fine-tuning на NER/RE/QA: https://github.com/dmis-lab/biobert

Работа из серии “давайте прикрутим BERT ещё к какой-нибудь задаче и сделаем новый state-of-the-art”. Прикрутили BERT для анализа биомедицинских текстов.

Причём прикрутили не просто BERT, а дообученный на биомед текстах (BioBERT).

BioBERT = 1) BERT (претренированный на general domain типа En-Wikipedia, BookCorpus) + 2) претренировка на биомед текстах (PubMed abstracts, PMC full texts) + 3) fine-tuning на конкретную задачу.

Проверяли на задачах: Named Entity Extraction, Relation Extraction, Question Answering.

Что интересно, некоторые из задач с крайне маленькими датасетами (QA дообучался на 327, 486 или 618 примерах; NER и RE максимум на нескольких десятках тысяч, 30681 -- самый крупный датасет).

В общем, как полагается, хорошо побили предыдущие результаты.

Поразительно, как хорошо работает на мелких датасетах в QA.

В итоге новый кубик в копилку тех, кто работает с биомед текстами.

Использовали свою платформу NSML (NAVER Smart Machine Learning, подробнее тут: https://arxiv.org/abs/1712.05902, NSML: A Machine Learning Platform That Enables You to Focus on Your Models).
Лол,  офигенно же
источник

L

Liza in Science FYI
В штаты/Оксфорд/ETH конечно стоит пробовать,  но конкуренция там нереальная. Поэтому вполне нормально, что люди выбирают менее пафосные места для науки, в которые есть реальные шансы попасть. В том числе Центральную Европу (где зачастую не так уж и плохо всё с наукой)
Ну это моё мнение 🙂
источник

VK

Valeriia Kuzyk in Science FYI
Alexander Predeus
в любом случае в аспер надо стремиться в самое пафосное заведение, на которое позволяет претендовать наглость, я считаю
ну Саш. а если я глупенькая, но в науку хочется?
источник

AP

Alexander Predeus in Science FYI
Liza
В штаты/Оксфорд/ETH конечно стоит пробовать,  но конкуренция там нереальная. Поэтому вполне нормально, что люди выбирают менее пафосные места для науки, в которые есть реальные шансы попасть. В том числе Центральную Европу (где зачастую не так уж и плохо всё с наукой)
Ну это моё мнение 🙂
конкуренция везде в приличных местах сейчас не очень маленькая. Надо просто статью сделать до аспера - если надо, взять для этого год паузы. и баззвордов добавить - типа прошел курсы по мышиному обучению на курсере етс етс

довольно много очень толковых людей поступает левой ногой. если человек толковый и планомерно работает в сторону поступления, шансы его высоки
источник

AP

Alexander Predeus in Science FYI
Valeriia Kuzyk
ну Саш. а если я глупенькая, но в науку хочется?
глупенькие мы все, это норма, как Малышева говорила
источник

VK

Valeriia Kuzyk in Science FYI
Alexander Predeus
глупенькие мы все, это норма, как Малышева говорила
давай только не будем ее дальше цитировать прилюдно?)
источник

AP

Alexander Predeus in Science FYI
смысл именно в том, что ты (как неравнодушный человек - большинство иностранцев в аспирантуре старается) подтянешься до среднего уровня, как я писал выше. ну мое такое имхо. а если он высокий, то это очень круто
источник

VK

Valeriia Kuzyk in Science FYI
И я пожалуй не буду так категорична про оксфорд. Аспиранты, которых там встречала, не очень веселы и оптимистичны. Плюс, нет требования по публикациям.
источник

AP

Alexander Predeus in Science FYI
я если чо сам поступил в свое время в Michigan State, совсем не гарвард
источник

AP

Alexander Predeus in Science FYI
но тем, кто учился с асперами MIT, я завидовал потом. они заметно прогрессировали. а я вполне неплохо регрессировал, понтуясь тем, что знал больше всего остального класса
источник

BB

Boris A. Burkov in Science FYI
Alexander Predeus
но тем, кто учился с асперами MIT, я завидовал потом. они заметно прогрессировали. а я вполне неплохо регрессировал, понтуясь тем, что знал больше всего остального класса
Ага, "не будь самым умным в комнате", как говорил Уотсон.

У человека есть 2 разные мотивации. Есть мотивация в социальном статусе - никому не подчиняться (а то и подчинять себе), и есть мотивация "do what matters" - делать то, что считаешь важным. За вторым идут в НИИ/R&D к людям умнее себя, жертвуя статусом - но зато делать то, что считаешь важным. Есть, правда, еще третья мотивация - просто-напросто в безопасности. Наверное, мы ищем баланс этих 3 вещей.
источник

VK

Valeriia Kuzyk in Science FYI
В плане итоговых достижений есть еще такой момент. Если ты все же немножко глупенький, а не сильно, то есть резон и в среднячковые места идти. Потому, что при достаточном уровне внутренней мотивации можно сильно подняться над фоном. А значит, тебя будут везде посылать и показывать. Заметят в хорошем месте - позовут туда. В случае же мощного стартового места можно недотянуть и затеряться.
источник

O

Orodret in Science FYI
Alexander Predeus
но тем, кто учился с асперами MIT, я завидовал потом. они заметно прогрессировали. а я вполне неплохо регрессировал, понтуясь тем, что знал больше всего остального класса
Вроде n дней назад уже было тут обсуждение, надо ли убиваться в аспе за показатели или важен комфорт))
источник

VK

Valeriia Kuzyk in Science FYI
Orodret
Вроде n дней назад уже было тут обсуждение, надо ли убиваться в аспе за показатели или важен комфорт))
Что решили?
источник

L

Liza in Science FYI
Вечная тема:)
источник

O

Orodret in Science FYI
Valeriia Kuzyk
Что решили?
Как обычно, каждый вроде при своем остался))
источник