Size: a a a

RL reading group

2017 November 23

AF

Alexander Fritzler in RL reading group
Будет летом или осенью blizzcon
источник

AF

Alexander Fritzler in RL reading group
В рамках него люди и соревнуются
источник

AP

Anton Pechenko in RL reading group
так там играют обычные игроки, или будут и ИИ?
источник

AP

Anton Pechenko in RL reading group
я думал речь шла именно о соревновании ИИ
источник

AF

Alexander Fritzler in RL reading group
Обычные точно есть. Я не уверен, но там, вроде, и с участием ИИ есть какие-то матчи
источник

AF

Alexander Fritzler in RL reading group
Но ИИ пока не тащит
источник

KO

Konstantin Ostrovsky in RL reading group
Китайцы хотели исследовать коммуникацию в мультиагентном RLе. И подвернулся под руку старкрафт комбат таск. Так уж вышло.  А для игры в старкрафт в целом, полагаю, обойдутся без multiagent. Но скорее всего будут отдельные сетки для добычи ресурсов, строительства, собственно микроконтроля в бою.
источник

АК

Андрей Квасов... in RL reading group
А почему китайцы хотели исследовать ?
источник

KO

Konstantin Ostrovsky in RL reading group
По поводу рекуррентных сетей в этом подходе. Внутренний слой у актора и у критика выглядит как развернутая двухнаправленная rnn. Т.е. как сеть рекуррентная по агентам. А по времени здесь рекуррентности нет.
источник

KO

Konstantin Ostrovsky in RL reading group
Наверное посмотрели, что фейсбук в этом преуспел, и решили догонять :)
источник
2017 November 24

P

Pavel Shvechikov in RL reading group
Natural Value Approximators:
Learning when to Trust Past Estimates
http://papers.nips.cc/paper/6807-natural-value-approximators-learning-when-to-trust-past-estimates

Наконец-то! Я ждал подобной статьи уже давно. Обратили внимание на то, что функции ценности могут иметь резкие перепады при сколь угодно малом приращении.
источник

PR

Peter Romov in RL reading group
Ребят, а здесь есть тот кто сможет пропатчить обертку https://github.com/deepmind/pysc2 для работы в Agent-vs-Agent режиме? Оригинальное API поддерживает такой режим https://github.com/Blizzard/s2client-api
источник

AP

Anton Pechenko in RL reading group
что ты имеешь в виду под пропатчить?
источник

PR

Peter Romov in RL reading group
ээ
источник

PR

Peter Romov in RL reading group
написать патч?
источник

AP

Anton Pechenko in RL reading group
не то чтобы можно было взять и за 5 минут это сделать)
источник

PC

Pika Chu in RL reading group
@romovpa Кхм-кхм. Вообще-то тебе нужна не deepmind'овская поделка, а бесценный оригинал.
https://github.com/Blizzard/s2client-proto/blob/master/docs/protocol.md#play-two-bots-against-each-other
источник

PR

Peter Romov in RL reading group
Как вы наверное слышали, Blizzard с DeepMind сделали Learning Environment для StarCraft 2. Он работает на основе внешнего API игрового клиента — s2client-api, написанного на C++ близзами. Python-обертка для экспериментов от DM — pysc2, поддерживает только режим игры, когда агент играет с человеком, либо со стандартным внутриигровым ботом, при том что С++ интерфейс позволяет делать agent-vs-agent.
Задача в том, чтобы поправить библиотеку, так чтобы ее можно было использовать в agent-vs-agent режиме.
источник

PC

Pika Chu in RL reading group
Ничего патчить в общем-то и не надо. Просто поправь конфиг.
источник

PR

Peter Romov in RL reading group
Pika Chu
Ничего патчить в общем-то и не надо. Просто поправь конфиг.
Речь не про код близов, ребята из дипмайнда сказали что плюсовый код поддерживает. И задача в том, чтобы поправить обертку pysc2. https://github.com/deepmind/pysc2/issues/24
источник