楼主: 9248_1572342225
452 0

[学习笔记] 【学习笔记】# 保存损失函数的值 train_loss_list = [] # 迭代items_num 1000 ... [推广有奖]

  • 0关注
  • 0粉丝

本科生

83%

还不是VIP/贵宾

-

威望
0
论坛币
40 个
通用积分
14.1000
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
510 点
帖子
91
精华
0
在线时间
0 小时
注册时间
2019-10-29
最后登录
2020-1-12

楼主
9248_1572342225 发表于 2020-1-8 09:25:22 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
# 保存损失函数的值
train_loss_list = []
# 迭代items_num 10000次
for i in range(items_num):
    # 从数据中抽取出100个数据
    batch_mask = np.random.choice(train_size, batch_size)
    x_batch = x_train[batch_mask]
    # 对应的把这100个样本的监督标签页提取出来
    y_batch = y_train[batch_mask]
    # 利用模型计算梯度
    # 梯度计算方法速度非常非常的慢
#     grad = neural_networks.numerical_gradient(x_batch , y_batch)
    # 反向传播: 相当于一个快速梯度计算方法
    grad = neural_networks.gradient(x_batch,y_batch)
    # 有了梯度矩阵, 根据梯度对所有的参数进行更新
    for key in [\'W1\',\'W2\',\'b1\',\'b2\']:
        neural_networks.params[key] -= learning_rate * grad[key]
    # 记录当前损失函数的值
    loss = neural_networks.loss(x_batch ,y_batch)
   
    # 在迭代的过程中,观察损失函数的变化
    train_loss_list.append(loss)
    # 每迭代100次,我们打印一次损失函数
    if i % 100 == 0 :
        print(\"当前损失函数的值为:\",loss)
   
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Train items loss rain 学习笔记

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-30 01:35