Привет! Немного странный вопрос: мы когда эмбеддинги для слов получаем из BERT-like моделей, у нас в них при инференсе контекст текущего текста учитывается или это больше lookup по смыслу?
На этапе обучения берты как раз учатся делать контекстуальные эмбединги. Поэтому в разных контекстах подразумевается что одно и тоже слово будет иметь разный эмбеддинг