1 Схемы различных алгоритмов
2 Супервайзированное обучение, непосредственное обучение, полусупервайзированное обучение, слабосупервайзированное обучение
3 Шаги супервайзированного обучения
4 Множественное обучение
5 Различия между классификационными сетями и регрессией
6 Что такое нейронная сеть
7 Преимущества и недостатки часто используемых классификационных алгоритмов8 Может ли точность хорошо оценивать классификационные алгоритмы?
9 Методы оценки классификационных алгоритмов
10 Какой классификатор является лучшим
11 Связь больших данных и глубокого обучения
12 Понимание локального и глобального оптимума
13 Понимание логистической регрессии
14 Различия между логистической регрессией и наивным Байесом
15 Почему требуется функция стоимости
16 Принцип действия функции стоимости
17 Почему функция стоимости должна быть неотрицательной
18 Обычные функции стоимости
19 Почему используется кросс-энтропия вместо квадратичной функции стоимости
20 Что такое функция потерь
21 Обычные функции потерь
22 Почему логистическая регрессия использует логарифмическую функцию потерь
23 Почему в машинном обучении требуется градиентный спуск
24 Недостатки градиентного спуска
25 Понимание градиентного спуска
24 Описание алгоритма градиентного спуска
25 Как оптимизировать градиентный спуск
26 Сравнение производительности различных методов градиентного спуска
27 Графическое объяснение вычисления производной графа
28 Суммарное понимание линейного дискриминантного анализа (LDA)
29 Графическое объяснение основной идеи LDA
30 Принципы двузначного LDA алгоритма
30 Суммарное описание процесса LDA алгоритма
31 Различия между LDA и PCA32 Преимущества и недостатки LDA
33 Сводка основных идей метода главных компонент (PCA) 42
34 Иллюстрация основных идей PCA 42
35 Рассуждение о PCA-алгоритме 43
36 Сводка алгоритма PCA 44
37 Основные преимущества и недостатки PCA 45
38 Необходимость и цели уменьшения размерности 45
39 Каковы различия между KPCA и PCA? 46
40 Оценка модели 47
41 Деревья решений 64
41 Поддержка векторных машин 67
42 Байесовская классификация 74
43 Алгоритм EM для решения задач и реализации процесса 7628 Почему возникает проблема "проклятия размерности"? 78
29 Как избежать проблемы "проклятия размерности"? 82
30 Что такое кластеризация и уменьшение размерности? Каковы их различия и связи?
31 Какие различия между GBDT и случайным лесом?
32 Сравнение четырех методов кластеризации## Глава 3. Основы глубокого обучения
3.1 Основные концепции
3.1.1 Какие составляющие нейронной сети?
3.1.2 Какие часто используемые модели структуры нейронной сети?
3.1.3 Как выбрать платформу для разработки глубокого обучения?
3.1.4 Почему используются глубокие представления?
3.1.5 Почему глубокие нейронные сети трудно обучать?
3.1.6 Каковы различия между глубоким обучением и машинным обучением?
3.2 Операции и вычисления сети
3.2.1 Что такое прямое распространение и обратное распространение?
3.2.2 Как вычисляется выход нейронной сети?
3.2.3 Как вычисляется выходное значение сверточной нейронной сети?
3.2.4 Как вычисляется выходное значение слоя пулинга?
3.2.5 Примерное понимание обратного распространения
3.3 Сверхпараметры
3.3.1 Что такое сверхпараметры?
3.3.2 Как найти оптимальное значение сверхпараметров?
3.3.3 Общий процесс поиска сверхпараметров?
3.4 Активационные функции
3.4.1 Почему нужны нелинейные активационные функции?
3.4.2 Какие часто используемые активационные функции и их графики?
3.4.3 Как вычисляются производные от активационных функций?
3.4.4 Какие свойства имеют активационные функции?
3.4.5 Как выбрать активационную функцию?
3.4.6 Каковы преимущества использования активационной функции ReLU?
3.4.7 Когда можно использовать линейную активационную функцию?
3.4.8 Как понять, что ReLU (при x < 0) является нелинейной активационной функцией?
5 Размер батча
6 Нормализация
7 Предварительное обучение и мелкое настраивание (fine tuning)
8 Инициализация весов и смещений 122
9 Softmax 126
10 Понимание принципа и функции One Hot Encoding 126
11 Какие оптимизаторы обычно используются 127
12 Серия вопросов о Dropout 128
27 Серия вопросов о Padding 128
8.1 Недостатки традиционных методов разделения на основе CNN 269
8.1 FCN 269
8.1.1 Что изменилось в FCN 269
8.1.2 Структура сети FCN 270
8.1.3 Примеры полносвязных сетей 271
8.1.4 Почему CNN имеет трудности с классификацией на уровне пикселей 271
8.1.5 Как полносвязные и сверточные слои могут быть взаимно преобразованы 272
8.1.6 Почему входные изображения FCN могут быть любого размера 272
8.1.7 Какие преимущества имеют преобразованные веса полносвязных слоев в фильтры сверточных слоев 273
8.1.8 Понимание деконволюции 275
8.1.9 Скок-структура 276
8.1.10 Обучение модели 277
8.1.11 Недостатки FCN 280
8.2 U-Net 280
8.3 SegNet 282
8.4 Пустотные свертки (Dilated Convolutions) 283
8.4 RefineNet 285
8.5 PSPNet 286
8.6 Серия DeepLab 288
8.6.1 DeepLabv1 288
8.6.2 DeepLabv2 289
8.6.3 DeepLabv3 289
8.6.4 DeepLabv3+ 290
8.7 Mask-R-CNN 293
8.7.1 Схема сети Mask-RCNN 293
8.7.2 Структура RCNN для обнаружения людей 293
8.7.3 Технические особенности Mask-RCNN 294
8.8 Применение CNN в слабо-надзорном обучении для разделения изображений 295
8.1 Пометка схемой 295
8.2 Метка уровня изображения 297
8.3 DeepLab+bounding box+image-level labels 298
8.4 Объединенная структура 299
9.1 Основные характеристики усилителя обучения? 301
9.2 Примеры применения усилителя обучения 302
9.3 Отличия усилителя обучения от надзора и без надзора обучения 303
9.4 Основные алгоритмы усилителя обучения? 305
5.1 Глубокая миграционная усилительная модель обучения алгоритм 305
5.2 Слоистая глубокая усилительная модель обучения алгоритм 306
5.3 Глубокая модель обучения с памятью алгоритм 306
5.4 Многоагентная глубокая усилительная модель обучения алгоритм 307
5.5 Заключение по глубокой усилительной модели обучения 307## Глава 10 Миграционное обучение
10.1 Что такое миграционное обучение? 309
10.2 Что такое многозадачное обучение? 309
10.3 Значение многозадачного обучения 309
10.4 Что такое конечное-конечное глубокое обучение? 311
10.5 Примеры конечного-конечного глубокого обучения 311
10.6 Вызовы конечного-конечного глубокого обучения 311
10.7 Преимущества и недостатки конечного-конечного глубокого обучения 312## Глава 13 Оптимизационные алгоритмы
13.1 Какова разница между CPU и GPU? 314
13.2 Как решить проблему малого количества обучающих образцов? 315
13.3 Какие наборы образцов не подходят для глубокого обучения? 315
13.4 Могут ли быть найдены алгоритмы лучше известных? 316
13.5 Что такое сопряженность и как она связана с переобучением? 316
13.6 Как применяются обобщенные линейные модели в глубоком обучении? 316
13.7 Причины исчезновения градиента 317
13.8 Методы инициализации весов 317
13.9 Как избежать локальных оптимумов в гибридных оптимизационных алгоритмах? 318
13.10 Как улучшить метод градиентного спуска в задачах выпуклого программирования для предотвращения попадания в локальные оптимумы? 319
13.11 Обычные функции потерь? 319
13.14 Как проводится выбор признаков (feature selection)? 321
13.14.1 Как учитывать выбор признаков 321
13.14.2 Классификация методов выбора признаков 321
13.14.3 Цели выбора признаков 322
13.15 Причины исчезновения/взрывания градиента и способы их решения 322
13.15.1 Почему используется правило обновления градиента? 322
13.15.2 Причины исчезновения/взрывания градиента? 323
13.15.3 Способы решения проблемы исчезновения/взрывания градиента 324
13.16 Почему глубокое обучение не использует второго порядка оптимизации? 325
13.17 Как оптимизировать вашу систему глубокого обучения? 326
13.18 Почему следует установить единственный численный показатель качества? 326
13.19 Удовлетворение и оптимизация метрик (Satisficing and optimizing metrics) 327
13.20 Как разделить обучающую/развивающую/тестовую выборки? 328
13.21 Как определить размер развивающей/тестовой выборки? 329
13.22 Когда следует изменить развивающую/тестовую выборку и метрики? 329
13.23 Значение установки метрик оценки 330
13.24 Что такое избежимая дисперсия? 331
13.25 Что такое ошибка TOP5? 331
13.26 Что такое ошибка на уровне человека? 332
13.27 Связь между избежимой дисперсией и основными ошибками 332
13.28 Как выбрать избежимую дисперсию и бейзисовскую ошибку? 332
13.29 Как уменьшить дисперсию? 333
13.30 Лучшее оценочное значение бейзисовской ошибки 333
13.31 Приведите несколько примеров, когда машинное обучение превосходит отдельного человека. 334
13.32 Как улучшить вашу модель? 334
13.33 Понимание анализа ошибок 335
13.34 Почему стоит потратить время на просмотр помеченных как ошибочных данных? 336
13.35 Значение быстрого создания начальной системы? 336
13.36 Почему следует обучать и тестировать на разных разбиениях? 337
13.37 Как решить проблему несоответствия данных? 338
13.38 Внимание при градиентном тестировании? 340
13.39 Что такое стохастический градиентный спуск? 341
13.40 Что такое батч-градиентный спуск? 341
13.41 Что такое мини-батч-градиентный спуск? 34142 Как настроить мини-батч-градиентный спуск? 342
13. 43 Проблема локального оптимума 343
13. 44 Какие подходы к улучшению производительности алгоритма? 346
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )