深度学习入门笔记(一)
单个神经元网络 简化表示 正向传播:W*X+B=y W,B为参数,X为样本值,y为预测值,Y为标签值 反向传播:根据差值标签值Y-预测值y,对W和B进行相应的调整。 循环往复进行 softmax分类算法 得出分别为y1,y2,y3的概率 tensorflow代码:tf.nn.softmax(logits,name=None) 损失函数(即标注中差值的计算) 均值平方差 适用范围:输入为实数,无界的值 tensorflow代码: MSE=tf.reduce_mean(tf.square(input_lables – output)) MSE=tf.reduce_mean(tf.pow(tf.su
下载地址
用户评论