Это пробный урок. Оформите подписку, чтобы получить доступ ко всем материалам курса. Премиум

  1. Урок 1. 00:11:14
    1.1 Начало
  2. Урок 2. 00:11:18
    1.2 Структура и принцип работы полносвязных нейронных сетей
  3. Урок 3. 00:05:47
    1.3 Установка PyTorch совместно с CUDA
  4. Урок 4. 00:12:47
    1.4 Создание тензоров. Конвертирование в NumPy
  5. Урок 5. 00:17:46
    1.5 Тензоры. Автозаполнение, изменение формы
  6. Урок 6. 00:14:16
    1.6 Тензоры. Индексирование и срезы
  7. Урок 7. 00:09:43
    1.7 Тензоры. Базовые математические операции
  8. Урок 8. 00:11:20
    1.8 Тензоры. Тригонометрические и статистические функции
  9. Урок 9. 00:12:03
    1.9 Тензоры. Векторно-матричные операции
  10. Урок 10. 00:12:55
    1.10 Использование CPU и GPU на примере простой НС
  11. Урок 11. 00:17:55
    1.11 Персептрон - возможности классификации образов
  12. Урок 12. 00:12:07
    2.1.1 Идея обучения НС градиентным алгоритмом
  13. Урок 13. 00:06:33
    2.1.2 Идея обучения НС градиентным алгоритмом
  14. Урок 14. 00:14:00
    2.2 Алгоритм back propagation
  15. Урок 15. 00:10:28
    2.3.1 Функции активации и потерь в PyTorch
  16. Урок 16. 00:03:11
    2.3.2 Функции активации и потерь в PyTorch
  17. Урок 17. 00:05:56
    2.3.3 Функции активации и потерь в PyTorch
  18. Урок 18. 00:13:15
    2.4.1 Автоматическое дифференцирование
  19. Урок 19. 00:02:41
    2.4.2 Автоматическое дифференцирование
  20. Урок 20. 00:02:56
    2.4.3 Автоматическое дифференцирование
  21. Урок 21. 00:03:06
    2.4.4 Автоматическое дифференцирование
  22. Урок 22. 00:12:21
    2.5 Оптимизаторы. Реализация SGD на PyTorch
  23. Урок 23. 00:12:21
    2.5.1 Оптимизаторы. Реализация SGD на PyTorch
  24. Урок 24. 00:01:59
    2.5.2 Оптимизаторы. Реализация SGD на PyTorch
  25. Урок 25. 00:02:26
    2.5.3 Оптимизаторы. Реализация SGD на PyTorch
  26. Урок 26. 00:05:16
    2.5.4 Оптимизаторы. Реализация SGD на PyTorch
  27. Урок 27. 00:05:55
    2.5.5 Оптимизаторы. Реализация SGD на PyTorch
  28. Урок 28. 00:04:41
    2.5.6 Оптимизаторы. Реализация SGD на PyTorch
  29. Урок 29. 00:18:43
    2.6.1 Классы nn.Linear и nn.Module
  30. Урок 30. 00:03:05
    2.6.2 Классы nn.Linear и nn.Module
  31. Урок 31. 00:03:37
    2.6.3 Классы nn.Linear и nn.Module
  32. Урок 32. 00:03:22
    2.6.4 Классы nn.Linear и nn.Module
  33. Урок 33. 00:03:35
    2.6.5 Классы nn.Linear и nn.Module
  34. Урок 34. 00:06:41
    2.7 Форматы выборок. Сбалансированность и репрезентативность
  35. Урок 35. 00:09:09
    2.8.1 Классы Dataset и Dataloader
  36. Урок 36. 00:03:59
    2.8.2 Классы Dataset и Dataloader
  37. Урок 37. 00:04:48
    2.8.3 Классы Dataset и Dataloader
  38. Урок 38. 00:21:09
    2.9.1 Применение классов Dataset и Dataloader
  39. Урок 39. 00:04:55
    2.9.2 Применение классов Dataset и Dataloader
  40. Урок 40. 00:05:03
    2.9.3 Применение классов Dataset и Dataloader
  41. Урок 41. 00:04:48
    2.9.4 Применение классов Dataset и Dataloader
  42. Урок 42. 00:04:38
    2.9.5 Применение классов Dataset и Dataloader
  43. Урок 43. 00:04:11
    2.9.6 Применение классов Dataset и Dataloader
  44. Урок 44. 00:11:56
    2.10.1 Классификация изображений цифр БД MNIST
  45. Урок 45. 00:06:33
    2.10.2 Классификация изображений цифр БД MNIST
  46. Урок 46. 00:06:39
    2.10.3 Классификация изображений цифр БД MNIST
  47. Урок 47. 00:05:13
    2.10.4 Классификация изображений цифр БД MNIST
  48. Урок 48. 00:16:10
    2.11.1 Трансформации transform. Класс ImageFolder
  49. Урок 49. 00:01:32
    2.11.2 Трансформации transform. Класс ImageFolder
  50. Урок 50. 00:02:29
    2.11.3 Трансформации transform. Класс ImageFolder
  51. Урок 51. 00:02:02
    2.11.4 Трансформации transform. Класс ImageFolder
  52. Урок 52. 00:06:05
    2.11.5 Трансформации transform. Класс ImageFolder
  53. Урок 53. 00:02:56
    2.11.6 Трансформации transform. Класс ImageFolder
  54. Урок 54. 00:12:09
    2.12.1 Сохранение и загрузка моделей нейронных сетей
  55. Урок 55. 00:02:10
    2.12.2 Сохранение и загрузка моделей нейронных сетей
  56. Урок 56. 00:02:02
    2.12.3 Сохранение и загрузка моделей нейронных сетей
  57. Урок 57. 00:03:05
    2.12.4 Сохранение и загрузка моделей нейронных сетей
  58. Урок 58. 00:03:00
    2.12.5 Сохранение и загрузка моделей нейронных сетей
  59. Урок 59. 00:02:14
    2.12.6 Сохранение и загрузка моделей нейронных сетей
  60. Урок 60. 00:12:17
    2.13.1 Переобучение (overfitting). Критерии останова обучения
  61. Урок 61. 00:02:46
    2.13.2 Переобучение (overfitting). Критерии останова обучения
  62. Урок 62. 00:03:23
    2.13.3 Переобучение (overfitting). Критерии останова обучения
  63. Урок 63. 00:05:16
    2.13.4 Переобучение (overfitting). Критерии останова обучения
  64. Урок 64. 00:04:08
    2.13.5 Переобучение (overfitting). Критерии останова обучения
  65. Урок 65. 00:16:03
    2.14 L2-регуляризатор и Dropout
  66. Урок 66. 00:08:07
    2.15 Алгоритм Batch Normalization
  67. Урок 67. 00:13:45
    2.16 Классы Sequential, ModuleList и ModuleDict
  68. Урок 68. 00:12:44
    3.1 Введение в сверточные нейронные сети (CNN)
  69. Урок 69. 00:08:34
    3.2 Классы Conv2d и MaxPool2d
  70. Урок 70. 00:15:20
    3.3 Пример реализации сверточной нейронной сети
  71. Урок 71. 00:16:57
    3.4 Сверточные нейронные сети VGG-16 и VGG-19
  72. Урок 72. 00:08:10
    3.5 Теория стилизации изображений (Neural Style Transfer)
  73. Урок 73. 00:15:06
    3.6 Делаем стилизацию изображений на РyTorch
  74. Урок 74. 00:13:22
    3.7 Остаточные нейронные сети (residual networks - ResNet)
  75. Урок 75. 00:15:08
    3.8 Архитектуры ResNet-18 и ResNet-50
  76. Урок 76. 00:09:25
    3.9 Использование ResNet моделей. Их связь с Dropout и бустингом
  77. Урок 77. 00:10:51
    3.10 Transfer Learning (трансферное обучение)
  78. Урок 78. 00:12:00
    3.11 Архитектура сети U-Net. Семантическая сегментация изображений
  79. Урок 79. 00:20:16
    3.12 Реализация U-Net для семантической сегментации изображений
  80. Урок 80. 00:13:05
    4.1 Введение в рекуррентные нейронные сети
  81. Урок 81. 00:14:08
    4.2 Класс nn.RNN рекуррентного слоя
  82. Урок 82. 00:10:01
    4.3 Рекуррентная сеть для прогноза символов
  83. Урок 83. 00:10:18
    4.4 Понятие эмбеддинга. Embedding слов
  84. Урок 84. 00:12:55
    4.5 Прогноз слов рекуррентной нейронной сетью
  85. Урок 85. 00:09:32
    4.6 Функции активации в RNN. Двунаправленные RNN
  86. Урок 86. 00:17:56
    4.7 Двунаправленные RNN в РyTorch. Сентимент-анализ фраз
  87. Урок 87. 00:13:00
    4.8 LSTM - долгая краткосрочная память
  88. Урок 88. 00:09:13
    4.9 Рекуррентный блок GRU
  89. Урок 89. 00:15:12
    5.1 Введение в автоэнкодеры
  90. Урок 90. 00:13:37
    5.2 Вариационные автоэнкодеры (VAE)
  91. Урок 91. 00:12:06
    5.3 Реализация вариационного автоэнкодера (VAE)
  92. Урок 92. 00:11:09
    5.4 Генеративно-состязательные сети (GAN)
  93. Урок 93. 00:14:01
    5.5 Реализация GAN на PyTorch