从百草园到三味书屋

Recent content on 从百草园到三味书屋

马上订阅 从百草园到三味书屋 RSS 更新: https://youngforever.tech/index.xml

MIT 6.S91 Introduction Deep Learning Notes

2023年1月14日 00:59

1.Introduction to Deep learning #

  • 震撼,第一节课直接放大招,用自己拍摄的视频和奥巴马合成来介绍这门课程。
  • 不管老师在课程上讲什么,希望你们能真正的思考为什么这一步是重要而且必须的,正是这些思考才能做出真正令人惊讶的突破。

2.Deep Sequence Model #

Three way to solve gradient vanish

  • Gated Cells
    • LSTM
      • Forget
      • Store
      • Update
      • Output
  • Attention [[Transformer]]

3.Deep Computer Vision #

  • 介绍卷积操作,是一种提取特征的方法生成feature maps(还有其他的方法可以用吗?然后效果还不错);
    • 与全连接相比的优点;
  • Fast RCNN用于目标检测,怎么实现推荐特定区域图像?
  • 医学图片分割
  • 总结:
    • 原理
    • CNN架构
    • 应用

4.Deep Generative Models #

  • what 目标: 来自于一些分布中的训练样本,通过这些样本学习模型来表征这个分布;
  • how 密度估计;神经网络适合来进行高维度表征;
  • why
    • Debiasing: Capable of uncovering underlying features in a dataset
    • Outlier detection: how can we detect when we encounter something new or rare?
  • Latent variable representation:
    • 举例事物的投影,只能看见影子即表象,而被灯光照射的实物是看不见的即隐变量;要做的是通过观察到的投影来对实物进行建模
  • Autoencoder: reconstruction loss
    • 完全是确定性性
  • VAEs:normal prior + regularization
    • reconstruction loss + regularization term
    • encoder: $q_\phi(z|x)$
    • decoder: $p_\theta(x|z)$
    • KL-divergence: $D(q_\phi(z|x)||p(z))$

  • GANs
    • make a generative model by having two neural networks compete with each other
    • ⭐️CycleGAN: domain transformations 视频开头的视频就是用这个合成

5.Deep reinforcement learning #

  • Reward: $$R_t = r_t + \gamma r_{t+1} + \gamma^2 r_{t+2} + …$$
  • Q-function: expected total future reward $$Q(s_t, a_t) = E[R_t|s_t, a_t]$$
  • Policy: to infer the best action to take at its state, choose an action that maximizes future reward $$\pi^*(s)=\mathop{\arg\max}\limits_{s}Q(s, a)$$
  • Value Learning
    • find...

剩余内容已隐藏

查看完整文章以阅读更多