Size: a a a

Natural Language Processing

2021 June 30

AW

Alex Wortega in Natural Language Processing
У open ai есть прикольный инструмент  - microscope
источник

EE

E E in Natural Language Processing
Т.е. ситуации симметричны - про мозг неизвестна математика, но известно что он знает. Про Трансформеры - наоборот.
источник

A

Andrey in Natural Language Processing
о мире примерно, а о языке - все видно в метриках
источник

EE

E E in Natural Language Processing
В каких метриках?
источник

EE

E E in Natural Language Processing
Какие метрики говорят, насколько хорошо оно выучило, что определение согласуется с определяемым словом по роду-числу-падежу?
источник

EE

E E in Natural Language Processing
На каждое такое свойство каждого языка нужен отдельный датасет и метрики:(
источник

EE

E E in Natural Language Processing
Поэтому "все видно в метриках" - это конечно так, только эти метрики мы можем посчитать для очень ограниченного класса свойств языка, на которые уже кто-то потрудился разметить данные.
источник

A

Andrey in Natural Language Processing
не, ну тут конечно не поспорить...

я имел ввиду что-то попроще. то есть предсказано наиболее вероятное слово - предсказано наиболее вероятная ситуация
источник

EE

E E in Natural Language Processing
Ну, это совсем технический подход. Это совсем ничего нам не говорит о том, какие конкретно знания о языке выучила модель.
источник

EE

E E in Natural Language Processing
Еще никогда в истории computer science ученые не были так далеки от искуственного интереллекта, при этом самоуверенно утверждая обратное😂
источник

A

Andrey in Natural Language Processing
это все равно больше чем ограниченный набор фактов. сетки могут в предикт.

с правилами еще Хомский вроде провалился.

то как сетки предсказывают, нам интуиции не хватит - но работает индукция: предсказали с каким-то качеством k слов, с k+1 тоже качество возможно.
источник

AW

Alex Wortega in Natural Language Processing
Кажется transformer based подходы все же самые близкие к исскувенному интеллекту
источник

EE

E E in Natural Language Processing
"сетки могут в предикт" в предикт мог еще наивный байес и count-based LMs
источник

EE

E E in Natural Language Processing
только в предикт чего? следующего слова?
источник

EE

E E in Natural Language Processing
не слишком ли мало для понимания языка или мира?
источник

EE

E E in Natural Language Processing
да, если ИИ - это штука, которая хорошо предсказывает следующее слово
источник

AW

Alex Wortega in Natural Language Processing
В сложный предикт, например у меня есть conditional gpt, в ней есть много жанров текста, но не было жанра фэнтези но были производные от него. В общем она смогла более менее похоже написать фэнтези
источник

AW

Alex Wortega in Natural Language Processing
Ну камон, все что угодно можно представить в виде задачи seq2seq
источник

AW

Alex Wortega in Natural Language Processing
С картинками это конечно извращенство, но например taming transformer очень хорошие резы показывает
источник

EE

E E in Natural Language Processing
ну, некоторые попугаи тоже хорошо подражают речи своих хозяев. но при чем тут интеллект?
источник