Size: a a a

2019 August 23

R

Ras in 日本語
кто нибудь знает какой-нибудь оффлайн плагин с видеоплеером с поддержкой субтитров в браузере?
источник

s

sinixy in 日本語
было бы полезно хд
источник

WD

Wisketchy Dobrov in 日本語
Ras
Переслано от ID:24125963
うーんなんだっけー農業高校のまんがー
https://t.me/NeuralShit/382

сгенерировал сидируя этим.

Имеет ли это какой-то смысл (ибо я сварщик ненастоящий)? Пробовал русский, там выходило ниоче, английский норм


うーんなんだっけー農業高校のまんがーけ。マジでローカルとかは京大だ、ということはずっと連れているというなら、こういう一事をいうのもうわけで、改めて良くても、もうーれか!大人ちゃんっょう!





普通について40時計画00〜38分。

がっと、少しハッピーで、「集まったはこちら」とかマジで頭を上げて男たちの為に「ありがとう!」とか、その人形についておきます。

実際の手紙はレッハングしても、昨年いたちの分野が表象している。キービィないと、マジでというございますね。

それぞれも、そのブログのブロッキングになっているから、約17時間が2年ってます。

推奨さんは、その時間の中でなんかキーサカか簡単に書いてあるもの。暮らしているので本当に気づかないように見えるものはだいぶんだけれど、気になっていた。

それ以上に今のところにより、

ほかやっていないのか全部ありのまま々、親いる時間の上に努力には消耗してみました。

消耗は外電部分ですね。しかし、ゴキブリが不可能になっていても、カニ殿らしき宿舎足なんですよね。これらもまだ、なって思い出してないから。

最初はメンバーはなんですか。

それまで人生も少し出来ないけど、たまにはどうせかかるんですけど、古代的にミュージックブレイクが「おもしろす!」とか思い出してないけど、結局成果がどうせまた人生を努めてしまう時間が待って、例えばあるときには自分の良い人でバンドしていたなんて思いつくまでなんだよね。

予告組に優勝してほしい人達は暮らしているような。

その人物があれば自分の良い残しいだろうな。

人をかけて自分となっているのかわからなくて、

ポーズになっても好きな自分だと思うんですよね。

なんか、初めてよく参加してくださったり。

あと卒業式メンバーの主役に初めて一開不明な自分もあって、
Telegram
Neural Shit
Как все и догадывались, успехи алгоритма генерации реалистичного текста GPT-2 (пока только на английском), который OpenAI не хотели публиковать из-за угрозы «Генерации фейковых новостей» частично повторили и выложили в открытый доступ:
https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc

Это стало возможным из-за того, что OpenAI все же сдался на днях и опубликовал свою «среднюю» модель, но не опубликовал «финальные» веса: https://openai.com/blog/gpt-2-6-month-follow-up/

На основе этих данных и смогли воспроизвести «финальные» веса.

Называется это все OpenGPT-2 – можно скачать как и веса, так и запустить алгоритм в Google Colab. Отдельно ребята отмечают, что если по их коду тренировать нейронку с нуля, то придется вложить 50k$ на облачные вычисления.

Пример работы – на вход OpenGPT-2 дали:

«Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!»

И нейронка сгенерировала длинную статью которая начинается :

«That´s because recycling is all about selling…
источник

K

Kae in 日本語
Wisketchy Dobrov
https://t.me/NeuralShit/382

сгенерировал сидируя этим.

Имеет ли это какой-то смысл (ибо я сварщик ненастоящий)? Пробовал русский, там выходило ниоче, английский норм


うーんなんだっけー農業高校のまんがーけ。マジでローカルとかは京大だ、ということはずっと連れているというなら、こういう一事をいうのもうわけで、改めて良くても、もうーれか!大人ちゃんっょう!





普通について40時計画00〜38分。

がっと、少しハッピーで、「集まったはこちら」とかマジで頭を上げて男たちの為に「ありがとう!」とか、その人形についておきます。

実際の手紙はレッハングしても、昨年いたちの分野が表象している。キービィないと、マジでというございますね。

それぞれも、そのブログのブロッキングになっているから、約17時間が2年ってます。

推奨さんは、その時間の中でなんかキーサカか簡単に書いてあるもの。暮らしているので本当に気づかないように見えるものはだいぶんだけれど、気になっていた。

それ以上に今のところにより、

ほかやっていないのか全部ありのまま々、親いる時間の上に努力には消耗してみました。

消耗は外電部分ですね。しかし、ゴキブリが不可能になっていても、カニ殿らしき宿舎足なんですよね。これらもまだ、なって思い出してないから。

最初はメンバーはなんですか。

それまで人生も少し出来ないけど、たまにはどうせかかるんですけど、古代的にミュージックブレイクが「おもしろす!」とか思い出してないけど、結局成果がどうせまた人生を努めてしまう時間が待って、例えばあるときには自分の良い人でバンドしていたなんて思いつくまでなんだよね。

予告組に優勝してほしい人達は暮らしているような。

その人物があれば自分の良い残しいだろうな。

人をかけて自分となっているのかわからなくて、

ポーズになっても好きな自分だと思うんですよね。

なんか、初めてよく参加してくださったり。

あと卒業式メンバーの主役に初めて一開不明な自分もあって、
Telegram
Neural Shit
Как все и догадывались, успехи алгоритма генерации реалистичного текста GPT-2 (пока только на английском), который OpenAI не хотели публиковать из-за угрозы «Генерации фейковых новостей» частично повторили и выложили в открытый доступ:
https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc

Это стало возможным из-за того, что OpenAI все же сдался на днях и опубликовал свою «среднюю» модель, но не опубликовал «финальные» веса: https://openai.com/blog/gpt-2-6-month-follow-up/

На основе этих данных и смогли воспроизвести «финальные» веса.

Называется это все OpenGPT-2 – можно скачать как и веса, так и запустить алгоритм в Google Colab. Отдельно ребята отмечают, что если по их коду тренировать нейронку с нуля, то придется вложить 50k$ на облачные вычисления.

Пример работы – на вход OpenGPT-2 дали:

«Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!»

И нейронка сгенерировала длинную статью которая начинается :

«That´s because recycling is all about selling…
これはひどい
источник

WD

Wisketchy Dobrov in 日本語
Атож
источник

K

Kae in 日本語
ATO>K
источник

R

Ras in 日本語
Wisketchy Dobrov
https://t.me/NeuralShit/382

сгенерировал сидируя этим.

Имеет ли это какой-то смысл (ибо я сварщик ненастоящий)? Пробовал русский, там выходило ниоче, английский норм


うーんなんだっけー農業高校のまんがーけ。マジでローカルとかは京大だ、ということはずっと連れているというなら、こういう一事をいうのもうわけで、改めて良くても、もうーれか!大人ちゃんっょう!





普通について40時計画00〜38分。

がっと、少しハッピーで、「集まったはこちら」とかマジで頭を上げて男たちの為に「ありがとう!」とか、その人形についておきます。

実際の手紙はレッハングしても、昨年いたちの分野が表象している。キービィないと、マジでというございますね。

それぞれも、そのブログのブロッキングになっているから、約17時間が2年ってます。

推奨さんは、その時間の中でなんかキーサカか簡単に書いてあるもの。暮らしているので本当に気づかないように見えるものはだいぶんだけれど、気になっていた。

それ以上に今のところにより、

ほかやっていないのか全部ありのまま々、親いる時間の上に努力には消耗してみました。

消耗は外電部分ですね。しかし、ゴキブリが不可能になっていても、カニ殿らしき宿舎足なんですよね。これらもまだ、なって思い出してないから。

最初はメンバーはなんですか。

それまで人生も少し出来ないけど、たまにはどうせかかるんですけど、古代的にミュージックブレイクが「おもしろす!」とか思い出してないけど、結局成果がどうせまた人生を努めてしまう時間が待って、例えばあるときには自分の良い人でバンドしていたなんて思いつくまでなんだよね。

予告組に優勝してほしい人達は暮らしているような。

その人物があれば自分の良い残しいだろうな。

人をかけて自分となっているのかわからなくて、

ポーズになっても好きな自分だと思うんですよね。

なんか、初めてよく参加してくださったり。

あと卒業式メンバーの主役に初めて一開不明な自分もあって、
Telegram
Neural Shit
Как все и догадывались, успехи алгоритма генерации реалистичного текста GPT-2 (пока только на английском), который OpenAI не хотели публиковать из-за угрозы «Генерации фейковых новостей» частично повторили и выложили в открытый доступ:
https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc

Это стало возможным из-за того, что OpenAI все же сдался на днях и опубликовал свою «среднюю» модель, но не опубликовал «финальные» веса: https://openai.com/blog/gpt-2-6-month-follow-up/

На основе этих данных и смогли воспроизвести «финальные» веса.

Называется это все OpenGPT-2 – можно скачать как и веса, так и запустить алгоритм в Google Colab. Отдельно ребята отмечают, что если по их коду тренировать нейронку с нуля, то придется вложить 50k$ на облачные вычисления.

Пример работы – на вход OpenGPT-2 дали:

«Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!»

И нейронка сгенерировала длинную статью которая начинается :

«That´s because recycling is all about selling…
шо это
источник

K

Kae in 日本語
Собаки, исполненные кошачьих очей.
источник
2019 August 24

S

Silver Dragon in 日本語
алсо, вот вам морская тварь с забавным именем https://ja.wikipedia.org/wiki/%E3%83%81%E3%83%B3%E3%82%A2%E3%83%8A%E3%82%B4
источник

WD

Wisketchy Dobrov in 日本語
https://youtu.be/1Ntemtw8El0

ассоциация первого уровня
источник

R

Ras in 日本語
хорошая превьюшка, посмотрю
источник

R

Ras in 日本語
источник

WD

Wisketchy Dobrov in 日本語
Ras
хорошая превьюшка, посмотрю
ассей нанте буттобашите!
источник

R

Ras in 日本語
(イシイ)なるほどケッテンクラートか…どれ…
ん~これなら直せるかな
えっ
ホント!?(イシイ)たぶんね
よかったねちーちゃんツイてたね~

что за ツイてた、не подскажите?
источник

K

Kae in 日本語
Везло.
источник

R

Ras in 日本語
Kae
Везло.
а от какого слово оно происходит? つい
источник

K

Kae in 日本語
Цуку
источник

K

Kae in 日本語
Липнет удача, наверно?
источник

R

Ras in 日本語
つく запомню, спасибо
источник

РК

Рензо Кукин... in 日本語
Я дико извиняюсь. Могу ли я попросить об одолжении кого-нибудь? У меня есть скрин с названием книги на японском, книга куплена на амазоне. Кто нибудь сможет вбить название книги в амазоне и кинуть мне ссылку? Или как вариант тупо написать название здесь и я сам копипастну.
источник