为了账号安全,请及时绑定邮箱和手机立即绑定

给人工智能爱好者的PyTorch入门课

TonyLiang 算法工程师
难度初级
时长 2小时 4分
学习人数
  • 神经网络中的损失函数

     最简单的损失函数:|真实值-预测值|

     mean absolute loss L1

     mean squared loss MSE

     cross entropy loss 交叉熵

     KL divegence ,KL散度

     损失函数的用途:用于计算梯度、反向传递、更新网络权重、

    判断模型是否训练好了,判断过度拟合、欠拟合

    查看全部
  • 神经网络的训练过程:

      定义神经网络

      迭代输入数据

      神经网络计算输出

      计算损失

      反向传递梯度回到网络的参数

      更新网络的权重

    查看全部
  • Autograd包是pytorch所有神经网络的核心

    为tensors上的所有操作提供了自动区分

    在autograd下,反向传递backprop代码自动定义

      requires_grad

        -在tensor上设定.requires_grad = true后,autograd会自动追踪与该tensor有关的所有运算

       backward()

         -所有运算完成后,执行 .backward(),autograd会自动计算梯度并执行反向传递

       .grad

           用来访问梯度

      with torch.no_grad()

           自动忽略梯度

    查看全部
  • BP:back propogate 误差反向传播

    使用梯度下降法向前传递误差,使用传递误差来更新权值

    查看全部
  • 每一个神经元包括:输入、输出、以及两个运算

    -x表示输入

    - w表示权值      -w与相对应的x相乘

    -  Sigma求和

    -  a是求和和的值

    -  f是激活函数,把a的值转换到一个固定范围内


    查看全部
  • 在 PyTorch中

         初始化 x,y,z 

                     x = torch.tensor(torch.rand(N,d),requires_grad = True)

                     y = torch.tensor(torch.rand(N,d),requires_grad = True)

                     z = torch.tensor(torch.rand(N,d),requires_grad = True)

        进行运算 

                     a = x*y

                     b = a+ z 

                      c = torch.sum(b)

    PyTorch和TensorFlow的区别

                                       PyTorch                 TensorFlow

        计算图分类             动态计算图                静态计算图

        计算图定义        计算图在运行时定义    计算图需要提前定义

       调试                 简单 ,可以使用任何py   复杂,只能用专为                                            thon开发工具               TensorFlow开发工具

                                                                     如 tfdbg

     可视化                支持Tensorboard          支持Tensorboard

     数据并行          简单,只需一行代码          复杂,需要手动配置

     支持硬件             CPU、GPU                    CPU、GPU

     支持语言           python、C ++                Python,C++

    开发公司                Facebook                   Google


    查看全部
  •          开启会话

                    with tf.Session() as sess:

             注入数据

                   value = {

                            x:  np.random.randn(N,D)

                            y: np.random.randn(N,D)

                            z: np.random.randn(N,d)

                            }           

             进行运算

                         out = sess.run([c,grad_x,grad_y,grad_z],feed_dict = values)  

                        c_value,grad_x_val,grad_y_val,grad_z_val = out


    查看全部
  • PyTorch与TensorFlow的区别:

    PyTorch更像python的原生代码,TensorFlow把计算和运算图分开处理,

    首先要画出运算图,然后才能进行计算。如:

    定义计算图

            定义占位符

                       x= tf.placeholder(tf.float23)

                       y = tf.placeholder(tf.float23)

                       z = tf.placeholder(tf.float23)

           定义运算

                       a = x*y

                        b = a+z

                         c = tf.redunce_sum(b)

              定义梯度(在返乡传递中用到)

                      grad_x,grad_y,grad_z = tf.gradients(c,[x,y,z])

        

    查看全部
  • PyTorch是一个python机器学习库,底层基于C++,最初由facebook开发

    还有 TensorFlow,Keras ,Caffe2,theano


    查看全部
  • storage and retrieval of PyTorch models

    查看全部
  • loss functions in neural networks

    查看全部
  • PyTorch vs TensorFlow

    查看全部
  • 机器学习中,根据神经网络计算出的结果及其误差不断地进行反向传递,得出每一项地最优权值。

    查看全部
  • 加载数据集应该保持文件结构

    查看全部
  • 公共数据集torchvison.dataser.数据集名称加载

    私人数据集torchvision.dataset.ImageFolder 和 torch.utils.data.DataLoader加载

    trochvision.transforms 数据归一化

    查看全部
首页上一页123下一页尾页

举报

0/150
提交
取消
¥36.00
立即购买
课程须知
本课程适合略有编程基础的同学,能灵活运用Python更佳!
老师告诉你能学到什么?
1、人工智能、神经网络基础知识 2、PyTorch与TensorFlow的区别 3、PyTorch零基础入门 4、卷积神经网络图像分类器的开发
加群二维码
  • 慕课前沿技术核心用户群
  • 群号:853923473
  • 付费用户专享
  • 技术学习型社群

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!