Size: a a a

2020 April 10

MB

Mikail Bagishov in pro.algorithms
Поэтому в вершине фенвика хранится и такая, "взвешенная" сумма, и обычная.
Этого достаточно для пересчета
источник

MB

Mikail Bagishov in pro.algorithms
evaN
так это не сума(р)-сума(л-1)?
Нет, потому что мы храним частичные разности, а не исходный массив.
То есть штуки вида a[i] - a[i-1]
источник

e

evaN in pro.algorithms
а, дошло
источник
2020 April 11

BM

Bob Marley in pro.algorithms
Igor Kravchenko
спасибо
Мне там не помогли)
источник

i

igor in pro.algorithms
Друзья какова вероятность что случайная машина тьюринга остановится на случайном выводе?
источник

i

igor in pro.algorithms
Это связано как то с числом шайтина?
источник

OO

Oleksandr Olgashko in pro.algorithms
igor
Это связано как то с числом шайтина?
источник

OO

Oleksandr Olgashko in pro.algorithms
хотя я сам о таком впервые слышу и не могу найти другие источники, хех
источник

OO

Oleksandr Olgashko in pro.algorithms
источник

i

igor in pro.algorithms
Спасибо
источник

AT

Anatoly Tomilov in pro.algorithms
Дан файл с текстом. Просто поэмы, рассказы, романы на английском языке. Охота посчитать частоту слов самым топорным способом, как эквивалент вот этого:
LC_ALL="C" awk -F '[^A-Za-z]+' '{ for(i = 1; i <= NF; ++i) if ($i) ++w[tolower($i)] } END { for(i in w) print w[i], i }' $1 | sort -k1gr,2
(т.е. всё, кроме a-zA-Z — это пробелы, остальное — формирует слова; выводятся две колонки: сколько раз встретилось слово в убывающем порядке и само слово в нижнем регистре)
Какие есть способы, быстрее, чем counting trie? Пусть максимум встречаются "слова" длиной 70 символов, но таких единицы. Топ выглядит вот так:
3343241 the
1852717 and
1715705 of
1560152 to
1324244 a
956926 in
933954 i
781286 he
713514 that
690876 was
665710 it
...

но нужны не только из топа, а вообще все. Полная информация
источник

AT

Anatoly Tomilov in pro.algorithms
вот такое распределение по длинам
источник

AT

Anatoly Tomilov in pro.algorithms
такую пока нашёл штуку http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.96.2143
источник
2020 April 12

l

lbh in pro.algorithms
Anatoly Tomilov
Дан файл с текстом. Просто поэмы, рассказы, романы на английском языке. Охота посчитать частоту слов самым топорным способом, как эквивалент вот этого:
LC_ALL="C" awk -F '[^A-Za-z]+' '{ for(i = 1; i <= NF; ++i) if ($i) ++w[tolower($i)] } END { for(i in w) print w[i], i }' $1 | sort -k1gr,2
(т.е. всё, кроме a-zA-Z — это пробелы, остальное — формирует слова; выводятся две колонки: сколько раз встретилось слово в убывающем порядке и само слово в нижнем регистре)
Какие есть способы, быстрее, чем counting trie? Пусть максимум встречаются "слова" длиной 70 символов, но таких единицы. Топ выглядит вот так:
3343241 the
1852717 and
1715705 of
1560152 to
1324244 a
956926 in
933954 i
781286 he
713514 that
690876 was
665710 it
...

но нужны не только из топа, а вообще все. Полная информация
uniq -c  ?
источник

AT

Anatoly Tomilov in pro.algorithms
lbh
uniq -c  ?
многозначительно. Что ты хотел этим сказать?
источник

l

lbh in pro.algorithms
то что оно тебе все посчитает. тебе результат нужен или сам процесс?
источник

l

lbh in pro.algorithms
в линуксе кроме sort есть uniq. man uniq
источник

AT

Anatoly Tomilov in pro.algorithms
мне нужен алгоритм
источник

AT

Anatoly Tomilov in pro.algorithms
я всякую хрень, типа uniq -c в случае, если не знаю (в данном случае знаю — прочти внимательно вопрос), то догадываюсь что такая существует и гуглить умею.
источник

AT

Anatoly Tomilov in pro.algorithms
lbh
то что оно тебе все посчитает. тебе результат нужен или сам процесс?
что за вопрос в чате с таким названием?
источник