Size: a a a

2020 September 05

😈

😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈ... in 2ch /pr/
в понемании даунов ето математека
источник

😈

😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈ... in 2ch /pr/
или они так говорят чтоб вайтишников не било зачем ето говорить не ясно
источник

D

Dezmunt in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
в понемании даунов ето математека
Чувак, машин лёрнинг без математики нельзя, и не просто математики, а высшей математики. Так что если тупенький, можешь забыть
источник

😈

😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈ... in 2ch /pr/
Dezmunt
Чувак, машин лёрнинг без математики нельзя, и не просто математики, а высшей математики. Так что если тупенький, можешь забыть
источник

😈

😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈ... in 2ch /pr/
Dezmunt
Чувак, машин лёрнинг без математики нельзя, и не просто математики, а высшей математики. Так что если тупенький, можешь забыть
ок что там кроме умнаженея матрец друг на друга есть?
источник

P

PRISE in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
всем превет можно стать mashine learning инженером без математики!??
Ты тот аушник?
источник

D

Dezmunt in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
ок что там кроме умнаженея матрец друг на друга есть?
Линейная алгебра:

Векторное пространство.

Линейная независимость.

Норма и скалярное произведение векторов.

Определение матрицы. Операции над матрицами.

Ранг и определитель матрицы.

Системы линейных уравнений.

Типы матриц.

Собственные вектора и собственные значения.

Математический анализ:

Функции и их свойства.

Предел функции (основные представления).

Производная функции (+ её геометрический и механический смысл).

Производная сложной функции.

Экстремумы функции. Выпуклость функции.

Частные производные и градиент.

Градиент в задачах оптимизации.

Производная по направлению.

Касательная плоскость и линейное приближение.

Методы оптимизации:

Оптимизация негладких функций (+ проблема локальных минимумов).

Метод имитации отжига.

Генетические алгоритмы. Алгоритм дифференциальной эволюции.

Метод Нелдера-Мида.

Математическая статистика и теория вероятности:

Определение вероятности. Свойства вероятности.

Условные вероятности. Формула полной вероятности. Формулы Байеса.

Дискретные случайные величины.

Непрерывные случайные величины.

Оценка распределения по выборке. Статистики.

Характеристики распределений.

Важные статистики (выборочные среднее, медиана, мода, дисперсия, интерквартильный размах).

Центральная предельная теорема.

Доверительные интервалы.
источник

M

Meduza#40 in 2ch /pr/
Dezmunt
Линейная алгебра:

Векторное пространство.

Линейная независимость.

Норма и скалярное произведение векторов.

Определение матрицы. Операции над матрицами.

Ранг и определитель матрицы.

Системы линейных уравнений.

Типы матриц.

Собственные вектора и собственные значения.

Математический анализ:

Функции и их свойства.

Предел функции (основные представления).

Производная функции (+ её геометрический и механический смысл).

Производная сложной функции.

Экстремумы функции. Выпуклость функции.

Частные производные и градиент.

Градиент в задачах оптимизации.

Производная по направлению.

Касательная плоскость и линейное приближение.

Методы оптимизации:

Оптимизация негладких функций (+ проблема локальных минимумов).

Метод имитации отжига.

Генетические алгоритмы. Алгоритм дифференциальной эволюции.

Метод Нелдера-Мида.

Математическая статистика и теория вероятности:

Определение вероятности. Свойства вероятности.

Условные вероятности. Формула полной вероятности. Формулы Байеса.

Дискретные случайные величины.

Непрерывные случайные величины.

Оценка распределения по выборке. Статистики.

Характеристики распределений.

Важные статистики (выборочные среднее, медиана, мода, дисперсия, интерквартильный размах).

Центральная предельная теорема.

Доверительные интервалы.
Да хуйня все это, хауди хо вон говорит что в 10 классе 2к долларов без всего этого зарабатывал
источник

N

Nebulous in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
всем превет можно стать mashine learning инженером без математики!??
источник

😈

😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈ... in 2ch /pr/
Dezmunt
Линейная алгебра:

Векторное пространство.

Линейная независимость.

Норма и скалярное произведение векторов.

Определение матрицы. Операции над матрицами.

Ранг и определитель матрицы.

Системы линейных уравнений.

Типы матриц.

Собственные вектора и собственные значения.

Математический анализ:

Функции и их свойства.

Предел функции (основные представления).

Производная функции (+ её геометрический и механический смысл).

Производная сложной функции.

Экстремумы функции. Выпуклость функции.

Частные производные и градиент.

Градиент в задачах оптимизации.

Производная по направлению.

Касательная плоскость и линейное приближение.

Методы оптимизации:

Оптимизация негладких функций (+ проблема локальных минимумов).

Метод имитации отжига.

Генетические алгоритмы. Алгоритм дифференциальной эволюции.

Метод Нелдера-Мида.

Математическая статистика и теория вероятности:

Определение вероятности. Свойства вероятности.

Условные вероятности. Формула полной вероятности. Формулы Байеса.

Дискретные случайные величины.

Непрерывные случайные величины.

Оценка распределения по выборке. Статистики.

Характеристики распределений.

Важные статистики (выборочные среднее, медиана, мода, дисперсия, интерквартильный размах).

Центральная предельная теорема.

Доверительные интервалы.
а готовые библиотеки без этого дерьма нне не слышал
источник

N

Nebulous in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
ок что там кроме умнаженея матрец друг на друга есть?
Там есть все , самообучающаяся программа - это один из видов математической модели представления нейросистемы
источник

🤮А

🤮 Алексей in 2ch /pr/
Dezmunt
Линейная алгебра:

Векторное пространство.

Линейная независимость.

Норма и скалярное произведение векторов.

Определение матрицы. Операции над матрицами.

Ранг и определитель матрицы.

Системы линейных уравнений.

Типы матриц.

Собственные вектора и собственные значения.

Математический анализ:

Функции и их свойства.

Предел функции (основные представления).

Производная функции (+ её геометрический и механический смысл).

Производная сложной функции.

Экстремумы функции. Выпуклость функции.

Частные производные и градиент.

Градиент в задачах оптимизации.

Производная по направлению.

Касательная плоскость и линейное приближение.

Методы оптимизации:

Оптимизация негладких функций (+ проблема локальных минимумов).

Метод имитации отжига.

Генетические алгоритмы. Алгоритм дифференциальной эволюции.

Метод Нелдера-Мида.

Математическая статистика и теория вероятности:

Определение вероятности. Свойства вероятности.

Условные вероятности. Формула полной вероятности. Формулы Байеса.

Дискретные случайные величины.

Непрерывные случайные величины.

Оценка распределения по выборке. Статистики.

Характеристики распределений.

Важные статистики (выборочные среднее, медиана, мода, дисперсия, интерквартильный размах).

Центральная предельная теорема.

Доверительные интервалы.
Матлогтсты тут?
источник

🤮А

🤮 Алексей in 2ch /pr/
источник

N

Nebulous in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
а готовые библиотеки без этого дерьма нне не слышал
А узел ты как напишешь ?
источник

🤮А

🤮 Алексей in 2ch /pr/
Nebulous
А узел ты как напишешь ?
Буквами
источник

🤮А

🤮 Алексей in 2ch /pr/
Ты еблан что-ли?
источник

🤮А

🤮 Алексей in 2ch /pr/
Узел
источник

N

Nebulous in 2ch /pr/
🤮 Алексей
Буквами
Символами , в компе букв нет быдло
источник

🤮А

🤮 Алексей in 2ch /pr/
Nebulous
Символами , в компе букв нет быдло
Я на бумаге пишу
источник

N

Nebulous in 2ch /pr/
😈 ✵ GeŇŇa∂iℽ ḴȐȺŠȂṼḈĤỈḰ ✵ 😈
а готовые библиотеки без этого дерьма нне не слышал
Не еби себе мозг , без хороших знаний математики и программирования ты не напишешь нс
источник