Size: a a a

Doorways / conference /

2019 July 15

CC

Chicago Chicago in Doorways / conference /
Парни, кто какие текста генерирует?
источник

N

Nilson in Doorways / conference /
Chicago Chicago
Парни, кто какие текста генерирует?
Интересные, что бы даже боты читали
источник

CC

Chicago Chicago in Doorways / conference /
Nilson
Интересные, что бы даже боты читали
Остроумно, а если серьёзно?
источник

N

Nilson in Doorways / conference /
Если ответите на вопрос Какую еду вы едите?
источник

N

Nilson in Doorways / conference /
Я скажу какие тексты.
источник

AT

Arlye The Husky in Doorways / conference /
Chicago Chicago
Парни, кто какие текста генерирует?
Я года три пытался обучить нормальную нейронную сеть, юзал фришный софт, на гитхабе такого добра очень много. Большая сложность качественно обучить . Арендовал серваки с видеокартами на Амазоне потом обучал алгоритмами char rnn , word rnn . Если дать мало текста , типа 1-3 мб то обучит быстро но будет писать водянистую воду, если ее разбавить составными предложениями , то получится норм качество под Гугл . Если взять текста 50-100мб будет обучать долго , минимум 4-6 недель и в деньгах это от 1000 Долл за сервер . Но качество улучшиться и текст будет разнообразный. Если больше 100мб текст и больше слоёв обучения, то обычные серваки не будут работать, будет ошибка нехватка памяти.
источник

CC

Chicago Chicago in Doorways / conference /
Arlye The Husky
Я года три пытался обучить нормальную нейронную сеть, юзал фришный софт, на гитхабе такого добра очень много. Большая сложность качественно обучить . Арендовал серваки с видеокартами на Амазоне потом обучал алгоритмами char rnn , word rnn . Если дать мало текста , типа 1-3 мб то обучит быстро но будет писать водянистую воду, если ее разбавить составными предложениями , то получится норм качество под Гугл . Если взять текста 50-100мб будет обучать долго , минимум 4-6 недель и в деньгах это от 1000 Долл за сервер . Но качество улучшиться и текст будет разнообразный. Если больше 100мб текст и больше слоёв обучения, то обычные серваки не будут работать, будет ошибка нехватка памяти.
Интересный подход. Такого ещё не встречал) Спасибо
источник

MS

Max Smek in Doorways / conference /
Arlye The Husky
Я года три пытался обучить нормальную нейронную сеть, юзал фришный софт, на гитхабе такого добра очень много. Большая сложность качественно обучить . Арендовал серваки с видеокартами на Амазоне потом обучал алгоритмами char rnn , word rnn . Если дать мало текста , типа 1-3 мб то обучит быстро но будет писать водянистую воду, если ее разбавить составными предложениями , то получится норм качество под Гугл . Если взять текста 50-100мб будет обучать долго , минимум 4-6 недель и в деньгах это от 1000 Долл за сервер . Но качество улучшиться и текст будет разнообразный. Если больше 100мб текст и больше слоёв обучения, то обычные серваки не будут работать, будет ошибка нехватка памяти.
https://www.hetzner.com/dedicated-rootserver/ex51-ssd-gpu/configurator у хетзнера сейчас GTX1080 карты сервы сетап бесплатный. , или слабо будет?  94 евро.
источник

AT

Arlye The Husky in Doorways / conference /
Max Smek
https://www.hetzner.com/dedicated-rootserver/ex51-ssd-gpu/configurator у хетзнера сейчас GTX1080 карты сервы сетап бесплатный. , или слабо будет?  94 евро.
Для 5-20 мб текста нормально будет, скажу сразу , будет сложно настроить софт, но ты можешь установить докер , но он может не юзать все ресурсы. Поэтому нужно самому настраивать , на убунту 18 получалось настроить весь софт, на других ОС очень геморойно . Не пытайся обучать на word rnn , слов очень много и не хватает обычно оперативки . Лучше обучать char rnn и текст привести к нижнему регистру, тогда будет маленький сет токенов и качество будет выше
источник

N

Nilson in Doorways / conference /
А проводил ли тесты кто-нибудь? Сравнивая обычный перемещенные сниппеты и спаршенную текстовку, с генерированными текстами.
источник

N

Nilson in Doorways / conference /
Была ли разница для ПС?
источник

AT

Arlye The Husky in Doorways / conference /
Max Smek
https://www.hetzner.com/dedicated-rootserver/ex51-ssd-gpu/configurator у хетзнера сейчас GTX1080 карты сервы сетап бесплатный. , или слабо будет?  94 евро.
Ещё там есть мануалы как не переобучить . Супер важно качественный входящий текст, если будет на входе мусор, то оно будет создавать такой же мусор. В ручную нужно проверять входящий текст
источник

AT

Arlye The Husky in Doorways / conference /
Nilson
Была ли разница для ПС?
Я проверяю так: делаю страницу на нетрастровом домене, на 7-10к символов , потом индексируешь в Гугле без внешних ссылок , потом вводишь уникальные фразы в Гугле  , много разных ,штук 5-7. И смотришь выдачу, если твоя страница в жопе , то текст плохой. На нейронаках + составные предложения текст обычно в топе
источник

I

Iosif in Doorways / conference /
профессор ! 👍
источник

V

Vladislav in Doorways / conference /
Ребят привет, сколько сейчас стоит сделать генереный (с уникальными текстами) сайт на тематику сми и кто может заняться?
источник

V

Vladislav in Doorways / conference /
есть кто?
источник

В

Виталий Николаевич... in Doorways / conference /
все есть я не делаю
источник

R#

Reset # Alexey S. in Doorways / conference /
ссылка нерабочая ))))
источник

N

Nilson in Doorways / conference /
А если мы увлекаемся, твоей мамкой))
источник

t

tfhx8 in Doorways / conference /
Arlye The Husky
Я года три пытался обучить нормальную нейронную сеть, юзал фришный софт, на гитхабе такого добра очень много. Большая сложность качественно обучить . Арендовал серваки с видеокартами на Амазоне потом обучал алгоритмами char rnn , word rnn . Если дать мало текста , типа 1-3 мб то обучит быстро но будет писать водянистую воду, если ее разбавить составными предложениями , то получится норм качество под Гугл . Если взять текста 50-100мб будет обучать долго , минимум 4-6 недель и в деньгах это от 1000 Долл за сервер . Но качество улучшиться и текст будет разнообразный. Если больше 100мб текст и больше слоёв обучения, то обычные серваки не будут работать, будет ошибка нехватка памяти.
а когда он обучится тексты можно удалять или они постоянно должны присутствовать?
источник