Size: a a a

Natural Language Processing

2020 October 23

YB

Yuri Baburov in Natural Language Processing
https://github.com/buriy/spacy-ru/releases/tag/v2.3_beta
Ну что, попробуйте эти модели. У каждой модели свои особенности: одна модель подходит для коммерческого применения, только две модели содержат NER, одна модель более медленная и более точная.
Цифры пока внутренние, во внешние цифры я ещё пересчитаю потом, так как общих тестов качества пока нет, а в тех тестах, которые есть, модели grameval побивают все другие модели (т.к. присутствует некоторый оверфит на датасет).
Ну и качество NER можно ещё чуть-чуть дожать, но там тоже непонятно, насколько это будет оверфит.
источник

YS

Yaroslav Seliverstov in Natural Language Processing
Спасибо👍, отпишусь как протестирую!
источник

d

dimakarp1996 in Natural Language Processing
При отладке кода на tensorflow, какие инструменты могут максимально наглядно показать, что в графе жрет (при прогоне) сколько видеопамяти? Чтобы, например, сравнить один код с другим
источник

И

Игорь in Natural Language Processing
Всем привет. Ищу разработчика NLP, который имеет опыт преподавания

С 7 по 13 ноября провести 2 занятия со учениками онлайн.

Формат занятий: лабораторная работа — ученики вместе с преподавателем работают с данными. необходимо будет решить несколько задач:

1. speech-to-text
2. text summarization
3. named entity recognition

Срочно, наш тиммейт ушел на повышение и нам нужно закрыть блок в образовательном модуле)

Работа оплачиваемая, пишите в личку, пожалуйста
источник

SP

Sebastian Pereira in Natural Language Processing
Yuri Baburov
https://github.com/buriy/spacy-ru/releases/tag/v2.3_beta
Ну что, попробуйте эти модели. У каждой модели свои особенности: одна модель подходит для коммерческого применения, только две модели содержат NER, одна модель более медленная и более точная.
Цифры пока внутренние, во внешние цифры я ещё пересчитаю потом, так как общих тестов качества пока нет, а в тех тестах, которые есть, модели grameval побивают все другие модели (т.к. присутствует некоторый оверфит на датасет).
Ну и качество NER можно ещё чуть-чуть дожать, но там тоже непонятно, насколько это будет оверфит.
Воу, Юрий здорово!
источник

AC

Alexander C in Natural Language Processing
Переслано от Alexander C
источник

AC

Alexander C in Natural Language Processing
Переслано от Alexander C
источник

AC

Alexander C in Natural Language Processing
Переслано от Alexander C
источник

AC

Alexander C in Natural Language Processing
Запись семинара про сетку для предсказания лигандов к белкам https://youtu.be/YwPozzToEl8
источник

AC

Alexander C in Natural Language Processing
Применение АльБерта в биоинформатика
источник

AC

Alexander C in Natural Language Processing
Цитата:

Модель: ALBERT с надстройками

Что предсказывали?
Связывание для пар белок-лиганд.

Что на входе?
Сначала при помощи ALBERT выучили эмбеддинги для всех последовательностей из Pfam. ALBERT учили предсказывать замаскированные триграммы аминокислот по окружающим триграммам. При этом брались только консервативные позиции белка, определяемые по выравниваниям Pfam.

На второй стадии по полученному эмбеддингу белка и стандартному фингерпринту лиганда учились предсказывать связывание между ними.

Как делили данные на обучение и тест?
Несколькими способами. Как полностью случайно, так и с учетом гомологов.

Что получилось?
Если в тесте есть гомологи того, что было в обучении, то эта модель предсказывает известные взаимодействия хуже, чем ее конкуренты. Но она работает лучше других, когда тест состоит из непохожих последовательностей. Важные для предсказания аминокислоты (оценены SHAP) в одном показанном примере оказываются в лиганд-связывающем кармане - что разумно. А главный практический результат в следующем: для нескольких рецепторов с неизвестной специфичностью авторы предсказали наиболее вероятные лиганды.
источник

SZ

Sasha Zhu in Natural Language Processing
Коллеги, а подскажите библиотеку для русского языка, которая с пунктуацией работает?
источник

SZ

Sasha Zhu in Natural Language Processing
Правит, добавляет пропущенные знаки препинания
источник

SZ

Sasha Zhu in Natural Language Processing
Такое же было, вроде?
источник

AK

Alex Konst in Natural Language Processing
Sasha Zhu
Правит, добавляет пропущенные знаки препинания
Кажется, такого нет. Но не сложно запилить свое решение, обучив на новостях, например.
источник

SZ

Sasha Zhu in Natural Language Processing
Alex Konst
Кажется, такого нет. Но не сложно запилить свое решение, обучив на новостях, например.
Это да, вопрос в том, есть ли уже готовое, или надо своё делать
источник

SZ

Sasha Zhu in Natural Language Processing
Почему-то казалось, что было
источник

SZ

Sasha Zhu in Natural Language Processing
Спасибо!
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
Sasha Zhu
Правит, добавляет пропущенные знаки препинания
источник

SZ

Sasha Zhu in Natural Language Processing
Спасибо!
источник