«Глубинное обучение» — это единственная всесторонняя книга в области глубинного обучения, полное название которой также звучит как «Библия глубинного обучения AI (Deep Learning)». Книгу составили три всемирно известных эксперта: Ian Goodfellow, Yoshua Bengio и Aaron Courville. В ней представлены базовые знания математики и связанных концепций, включая линейную алгебру, теорию вероятностей, информационную теорию, численную оптимизацию и связанные с машинным обучением темы. Также она охватывает технологии глубинного обучения, используемые практиками в промышленности, такие как глубинные свёрточные сети, регуляризация, методы оптимизации, свёрточные сети, моделирование последовательностей и практические подходы. Кроме того, исследуются применения в таких областях, как обработка естественного языка, распознавание речи, компьютерное зрение, системы рекомендаций онлайн, биоинформатика и видеоигры. Наконец, книга предлагает некоторые направления исследования, охватывающие теоретические темы, такие как линейные факторные модели, автоэнкодеры, представление данных, структурированные вероятностные модели, методы Монте-Карло, функции состояния, приближённое выводное моделирование и генеративные модели глубинного обучения. Она предназначена для студентов и аспирантов специальностей, связанных с этой областью.
Вы можете скачать русскую версию книги «Глубинное обучение» pdf и английскую версию pdf для чтения.
Для этого проекта вы можете прямо скачать Принципы и реализация кода глубинного обучения.pdf (книга будет постоянно обновляться).
При необходимости можно было бы уточнить язык исходного текста, но в данном случае все необходимые изменения уже выполнены.«Глубинное обучение» можно рассматривать как энциклопедию для начинающих в области глубинного обучения и искусственного интеллекта. Многие любители алгоритмов, курсы по машинному обучению и интернет-компании используют эту книгу как основной источник информации. Однако эта книга сложна для понимания, особенно без доступного кода, предоставленного официально. На нашем сайте мы переформулировали концепции из книги на основе математических выводов и принципов работы, и воспроизвели содержание книги с помощью Python (основываясь на библиотеке NumPy). Процесс вывода и реализация кода были помещены в PDF-файлы для скачивания, а важные части кода находятся в папке code. Однако, имея ограниченные знания, я искренне надеюсь, что эта работа поможет большему количеству людей изучить алгоритмы глубинного обучения. Я ценю ваши советы и помощь. Если вы заметили ошибки или непонятные места при чтении, пожалуйста, создайте issue с вашими предложениями. Если вы хотите внести свой вклад в этот проект или у вас есть другие вопросы, свяжитесь со мной по электронной почте: deityrayleigh@gmail.com. Если вы используете эту книгу в своем проекте или блоге, пожалуйста, укажите ссылку на источник. При создании работы были использованы материалы из множества онлайн-ресурсов, все ссылки на используемые источники сохранены в файле reference.txt
.# Примечание автора
За последнее время получил несколько писем от читателей с просьбой быстрее завершить работу. Большое спасибо за ваше доверие. Однако хочу объяснить, что каждый раздел требует времени на детализацию концепций, вывод теорий, создание графиков, реализацию кода и генерацию окончательного PDF файла. Все графики, которые вы видите в PDF файле, созданы мной лично. Если вы столкнулись со сложностями при чтении, пожалуйста, напишите мне об этом. Я буду продолжать работать над этим проектом до его завершения, и он будет закончен своевременно. В заключение, если вам понравилась эта работа, я очень ценю, если вы добавите её в избранное, отметите звездой и сделаете форк. Также я буду благодарен, если вы распространите информацию о ней через другие платформы. Благодарю вас за ваше внимание и помощь! — Р. Чжоу
2020/3/:```python
Здесь представлено корректное и полное соответствие правилам перевода, при этом сохранены все спецификации и структура исходного текста.---
### При написании работы использовались материалы из многих отличных онлайн-ресурсов; все ссылки на использованные источники сохранены в файле `reference.txt`.
#### # Авторское примечание
За последние месяцы получил множество электронных писем от читателей с просьбой быстрее завершить работу. Большое спасибо за ваше доверие. Однако хочу объяснить, что каждая глава требует времени на детализацию концепций, вывод теорий, создание графиков, реализацию кода и генерацию окончательного PDF файла. Все графики, которые вы видите в PDF файле, созданы мной лично. Если вы столкнулись со сложностями при чтении, пожалуйста, напишите мне об этом. Этот проект будет завершен своевременно. В заключение, если вам понравилась эта работа, я очень ценю, если вы добавите её в избранное, отметите звездой и сделаете форк. Также я буду благодарен, если вы распространите информацию о ней через другие платформы. Благодарю вас за ваше внимание и помощь! — Р. Чжоу
### # Обновление
2020/3/:```python
1. Изменена пятая глава, добавлены принципы алгоритмов ID3 и CART, основная реализация кода выполнена на основе CART.
2. Добавлена седьмая глава, которая включает вывод оптимальных решений для L1 и L2 регуляризации (то есть принцип L1-регуляризации).
3. Добавлена седьмая глава, которая включает вывод и реализацию методов ансамблевого обучения, таких как Bagging (случайный лес), Boosting (Adaboost, GBDT, XGBoost).
4. Добавлена восьмая глава, которая включает вывод методов Ньютона и псевдоньютоновых методов (DFP, BFGS, L-BFGS).
5. Добавлена одиннадцатая глава, которая включает вывод и реализацию методов байесовской линейной регрессии, регрессии Гаусса (GPR) и байесовского оптимизации.
```Следующие обновления будут содержаться в файле `update.txt`.
### Оглавление и загрузка файлов
Кроме концепций из книги "Глубокое обучение", **этот проект также включает дополнительные знания в каждой главе, такие как анализ и реализация случайного леса, Adaboost, GBDT, XGBoost в седьмой главе**, а также описание некоторых современных методов в двенадцатой главе. Полное оглавление и ссылки на скачивание PDF файлов можно найти ниже. Для получения более подробной информации о содержании каждого PDF файла обратитесь к файлу `contents.txt`. Вы можете скачать соответствующую главу по ссылкам ниже или загрузить все файлы сразу с помощью кнопки "Загрузить" на странице [релизов](https://github.com/MingchaoZhu/DeepLearning/releases).| Китайская глава | Английская глава | Скачать <br />(с выводами и реализацией кода) |
| ---------------- | ---------------- | ------------------------------------------- |
| Глава 1 Введение | Chapter 1 Introduction | |
| Глава 2 Линейная алгебра | Chapter 2 Linear Algebra | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/2%20%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0.pdf) |
| Глава 3 Теория вероятностей и информация | Chapter 3 Probability and Information Theory | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/3%20%E6%A6%82%E7%8E%87%E4%B8%8E%E4%BF%A1%E6%81%AF%E8%AE%BA.pdf) |
| Глава 4 Численное вычисление | Chapter 4 Numerical Computation | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/4%20%E6%95%B0%E5%80%BC%E8%AE%A1%E7%AE%97.pdf) |
| Глава 5 Основы машинного обучения | Chapter 5 Machine Learning Basics | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/5%20%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%9F%BA%E7%A1%80.pdf) |
| Глава 6 Глубокие перцептронные сети | Chapter 6 Deep Feedforward Networks | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/6%20%E6%B7%B1%E5%BA%A6%E5%89%8D%E9%A6%88%E7%BD%91%E7%BB%9C.pdf) |
| Глава 7 Регуляризация глубокого обучения | Chapter 7 Regularization for Deep Learning | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/7%20%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E6%AD%A3%E5%88%99%E5%8C%96.pdf) |
| Глава 8 Оптимизация обучения глубоких моделей | Chapter 8 Optimization for Training Deep Models | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/8%20%E6%B7%B1%E5%BA%A6%E6%A8%A1%E5%9E%8B%E4%B8%AD%E7%9A%84%E4%BC%98%E5%8C%96.pdf) |
| Глава 9 Конволюционные сети | Chapter 9 Convolutional Networks | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/9%20%E5%8D%B7%E7%A7%AF%E7%BD%91%E7%BB%9C.pdf) || Глава 10 Последовательное моделирование: рекуррентные и рекурсивные сети | Chapter 10 Sequence Modeling: Recurrent and Recursive Nets | |
| Глава 11 Практическая методология | Chapter 11 Practical Methodology | [pdf](https://github.com/MingchaoZhu/DeepLearning/raw/master/11%20Практическая%20методология.pdf) |
| Глава 12 Приложения | Chapter 12 Applications | |
| Глава 13 Линейные факторные модели | Chapter 13 Linear Factor Models | |
| Глава 14 Автоматические кодировщики | Chapter 14 Autoencoders | |
| Глава 15 Обучение представлений | Chapter 15 Representation Learning | |
| Глава 16 Структурированные вероятностные модели для глубокого обучения | Chapter 16 Structured Probabilistic Models for Deep Learning | |
| Глава 17 Методы Монте-Карло | Chapter 17 Monte Carlo Methods | |
| Глава 18 Встреча с функцией распределения | Chapter 18 Confronting the Partition Function | |
| Глава 19 Приближенное выводное заключение | Chapter 19 Approximate Inference | |
| Глава 20 Глубокие генеративные модели | Chapter 20 Deep Generative Models | |
Неопубликованные разделы будут выгружены последовательно.# Благодарность
Большое спасибо за признание и продвижение данного проекта.
Отдельное спасибо:
- Zhi-AI: https://mp.weixin.qq.com/s/iU61gnyf-iCKuo5Vn4SzSg
# Поддержка
Разработка данного проекта требует времени и усилий. Если данный проект был вам полезен, вы можете угостить автора мороженым:
<img src="./docs/pay.jpg" width="200" height="200" alt="Платеж" align=center>
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )