Size: a a a

Natural Language Processing

2021 July 22

М

Марк in Natural Language Processing
Да, в контексте той книги это ожидаемо.
Там же только простые примеры с верхнеуровневым описанием
источник

A

Andrey in Natural Language Processing
вы так говорите, как-будто это что-то плохое)
источник

SancheZz Мов in Natural Language Processing
Не, хорошая книга чтобы вкатиться
источник

SancheZz Мов in Natural Language Processing
Сам читал ее
источник

SancheZz Мов in Natural Language Processing
И индуса какого-то
источник

SancheZz Мов in Natural Language Processing
С гугла
источник

A

Andrey in Natural Language Processing
Нишант Шукла?
источник

A

Andrey in Natural Language Processing
а, нет. в них легко запутаться
источник

SancheZz Мов in Natural Language Processing
Ага
источник

SancheZz Мов in Natural Language Processing
Суджит Палл
источник

SancheZz Мов in Natural Language Processing
И Антонио Джулли
источник

SancheZz Мов in Natural Language Processing
Тут из них ток Энтони был в гугл
источник

М

Марк in Natural Language Processing
Нет конечно.
Книга отличная, когда то очень мне помагала.
источник

SancheZz Мов in Natural Language Processing
https://uk.linkedin.com › searchguy
Web results
Antonio Gulli - Engineer Director, Office of CTO - Google | LinkedIn
источник

А

Арсений in Natural Language Processing
Здравствуйте!
Возможно вопрос немного не по адресу, но все же спрошу

Можете ли пожалуйста, порекомендовать какую-нибудь альтернативу для извлечения текста из изображений, которая работает лучше tesseract (также бесплатную)?
источник

EI

Evgeniy Ivanov in Natural Language Processing
PaddleOCR
источник

SS

Sergey Shulga in Natural Language Processing
Easyocr
источник

SS

Sergey Shulga in Natural Language Processing
На русском работает плохо из коробки, надо переучивать, так как цифирки и знаки пунктуации не учитывались.
источник

SS

Sergey Shulga in Natural Language Processing
Вторая версия labse ещё лучше первой по первому впечатлению
источник
2021 July 23

AP

Arsen Plus in Natural Language Processing
Всем привет! Продолжая тему эмбеддингов:

1) как можно использовать sentence-level эмбеддинги для вложения текстов, которые чуть длиннее, чем 2-3 предложения? Пока в голову пришло только разбивать на предложения и усреднять эмбеддинги предложений - а есть ли какие-то более продвинутые хаки?
2) Если дообучать BERT на своих данных, то достаточно ли для получения хороших вложений будет использовать только Masked Language Modelling, или можно прикрутить еще какой-то лосс? Допустим, все данные моноязычные и без меток. Если покидаете ссылок на архив, буду оч благодарен :)
источник