Size: a a a

2021 April 06

BK

Blini Kot in haskell_blah
>училась на отлично

первая строчка и уже сразу повод для звонка в suicide watch
источник

A

Andrey in haskell_blah
а почему у самой девочки не было страницы в соцсети? недоработка....
источник

A

Andrey in haskell_blah
если это так
источник

LO

Leonid 🦇 Onokhov in haskell_blah
девочке было 10 лет
источник

A

Andrey in haskell_blah
тогда да, норм
источник

LO

Leonid 🦇 Onokhov in haskell_blah
походу стреляли из мелкашки. наверняка какой-то эджлорд лет 16
источник

A

Andrey in haskell_blah
хотя я не знаю, когда норм или не норм. знаю, что некоторые своим 3 летним детям заводят страницы
источник

LO

Leonid 🦇 Onokhov in haskell_blah
или дед
источник

LO

Leonid 🦇 Onokhov in haskell_blah
потому что тупые мудаки
источник

LO

Leonid 🦇 Onokhov in haskell_blah
ну или просто мудаки, но это реже
источник

LO

Leonid 🦇 Onokhov in haskell_blah
Что делают лево-либералы? Они приходят к монолитному консервативному, но инертному обществу, и ищут в нем меньшинства, дают им поддержку, и начинают это общество дробить, натравливая их на инертное большинство. Меньшинства побеждают потому что они имеют революционный заряд, в отличие от инертного большинства.
источник

LO

Leonid 🦇 Onokhov in haskell_blah
Что будет когда такой монстр, как российское федеральное правительство попадет в руки леваков - останется только догадываться, хотя зачем, достаточно посмотреть на Канаду
источник

LO

Leonid 🦇 Onokhov in haskell_blah
ну и ещё для веселья
источник

LO

Leonid 🦇 Onokhov in haskell_blah
Владимиру Путину пересмотрят приговор за оскорбление евреев и ОМОНа
источник

[

[BRM]White Rabbit in haskell_blah
лево-либералы это кто такие?
источник

[

[BRM]White Rabbit in haskell_blah
СЖВ правее руки, которой дрочат
источник

LO

Leonid 🦇 Onokhov in haskell_blah
> Тренировка GPT-3 требует 190МВтч: ~ 200 транзакций биткойна. Её нужно дообучать, так что это не единовременная трата. Это одна модель среди сотен.

@A64m_qb0 всю природу засрали
источник

AA

A64m AL256m qn<co... in haskell_blah
это не одна модель среди сотен, это одна из самых больших моделей какие вообще есть
источник

AA

A64m AL256m qn<co... in haskell_blah
дообучение не требует столько энергии сколько обучение, так что это разовая трата
источник

AA

A64m AL256m qn<co... in haskell_blah
да и дообучать большой гпт3 не надо
источник