@lightcaster обучаемый симулятор не пробовали? Для самоездящих машинок это конечно довольно сложно, но для ходящих роботов есть вот такая статья https://arxiv.org/abs/1901.08652 неплохая
обучаемый симулятор это что? дифференцируемая среда? это было бы круто, но я таких не видел для наших задач. если просто обучать RL'ем в симуляторе и переносить, да, это пробуем.
да, я понял. не очень понятно на сколько sim2real у них этот стабильный. все что я пробовал пока - плохо работает. может дело как раз в том, что в реальном мире персепшн сильно другой, чем в симуляции.
да, классический контрол и оптимизацию для таких штук сложно делать. boston dynamics пробует, но по-мне это тупиковый путь. попробую адаптировать то, что они делали. тем более с одним из авторов контакт есть :)
там показывает FPS >4000 на gpu, а сколько на одном cpu? может там не cost effective решение получается. Хотя конечно обучать в один поток удобнее, чем при распараллеливании.
да, классический контрол и оптимизацию для таких штук сложно делать. boston dynamics пробует, но по-мне это тупиковый путь. попробую адаптировать то, что они делали. тем более с одним из авторов контакт есть :)
Почему тупиковый?
Классический контрол - это то, что называется funnel control?
Порт Arcade Learning Environment на куду. Те, у кого нет кучи CPU чтоб гонять толпы агентов, могут делать это на одной GPU.
Идея великолепная (сам ее вынашиваю почти год), вот только в репозиторий процентов 90 кода не доложили. Не может полный эмулятор атари состоять из десяти кб исходников.
Идея великолепная (сам ее вынашиваю почти год), вот только в репозиторий процентов 90 кода не доложили. Не может полный эмулятор атари состоять из десяти кб исходников.