Size: a a a

Natural Language Processing

2021 September 03

ck

cnstntn kndrtv in Natural Language Processing
👋 встречали ли исследования интерпретации эмоджи?
Вот например 😀-эмоция на какой-нибудь шкале эмоций, 👋-приветствие и прощание в зависимости от контекста, 🍑- попа?
источник

VL

Vlad Lialin in Natural Language Processing
На датафесте 2019 кажется было что-то такое
источник

T

Trеmor in Natural Language Processing
Вроде дамы из питерской вышки такое делали
https://youtu.be/SOEPNYu6Yzc?t=17586
источник

VL

Vlad Lialin in Natural Language Processing
да, всё так
источник

DD

David Dale in Natural Language Processing
Мне тоже очень любопытно ^^
источник

ck

cnstntn kndrtv in Natural Language Processing
Спрошу иначе. Если бы вы изобретали новый способ анализа значения эмоджи, что бы вы придумали?
источник
2021 September 04

🐙

🐙 in Natural Language Processing
Я не знаю насчёт новизны, но, думаю, имеет смысл выгрузить чатов и на таком корпусе для каждого эмоджи построить тематическую модель.
источник

VG

Vladimir Grigoryev in Natural Language Processing
Хотел бы присоединиться, и сказать большое спасибо!
источник

ck

cnstntn kndrtv in Natural Language Processing
Это, конечно, такой себе вопрос в пятницу вечером. Скорее разминка для развития креативности, а не проверка знаний инженеров. Решение изобретательских задач) Интересно, как ещё можно взглянуть на задачу определения значения символа (эмоджи - это символ же, или даже идеограмма, с непонятным количеством неизвестных значений).
источник

A

Andrey in Natural Language Processing
коротко, есть набор справочников, и запросы вида "по тому-то", где "то-то" - спраовчное значение, еще или запросы вида "по 'названию справочника' значению". справочники динамические, и некоторые из них содержат сотни тысяч значений.

через rubert-tiny векторизуются быстро, около минуты, ну а дальше косинусное сходство.

например, один из справочниов регионы, и запросы вида "по региону Лениград", или "по московской обл".
источник

A

Andrey in Natural Language Processing
не, openai не открыл. вообще там есть уже в репах предобученные варианты. в целом пока так себе, но я там не все еще смотрел.

так или иначе clip с базой картинок тоже неплохо. но я за реализацию идеи если и взялся бы, то при наличии времени, а его нет ближайшие полгода
источник

N

Nikolay in Natural Language Processing
Всех приветствую. Может быть мне кто-то подскажет, как вообще у наташи происходит самоообучение моделей?

Например, я начал выделять из овер-количества текстов, сущности. Естественно есть те, которые не очень хорошо парсяться. Как мне сущности которые не спарсились засунуть в модель, чтобы потом уже такого не было?

Заранее, спасибо.
источник

AS

Artem Sergeev in Natural Language Processing
Спасибо, интересно, надо попробовать
источник

AS

Artem Sergeev in Natural Language Processing
Я вот что и удивился. Простым смертным DALLE недоступна. А реализации энтузиастов интересные, конечно, но маленькие. Там видно прямо "биение мысли", и как детали словесного описания влияют на результат. Но для них проблемы даже просто человека не "в стиле Пикассо" изобразить, как у всех маленьких сетей, собственно.

https://huggingface.co/spaces/flax-community/dalle-mini
источник

A

Andrey in Natural Language Processing
спасибо за наводку, про dalle mini не знал! я пихал всякие vqgan из taming-transformers. ну так, совсем не очень.
источник

AS

Artem Sergeev in Natural Language Processing
Бывает прямо неплохо, но в целом надо обладать большим воображением, чтобы разглядеть в результатах искомое, и много пытаться :)
источник

A

Andrey in Natural Language Processing
astronauts in water. вообще есть clip, и конечно же да, cherry picking
источник

A

Andrey in Natural Language Processing
но в целом диковато. для обыденных текстов не подойдёт, только для художественных пока
источник

ЛВ

Леха Великолепный... in Natural Language Processing
Доброго времени суток, подскажите есть ли решения для аннотирования текстов ключевыми словами?
источник

YB

Yuri Baburov in Natural Language Processing
источник