資源簡介
搭建完整的神經(jīng)網(wǎng)絡(luò),利用L2正則化優(yōu)化,程序絕對可以完美運(yùn)行。
代碼片段和文件信息
#?-*-?coding:?utf-8?-*-
“““
Created?on?Wed?Sep??5?15:50:34?2018
@author:?lenovo
“““
import?tensorflow?as?tf
#獲取一層神經(jīng)網(wǎng)絡(luò)邊上的權(quán)重,并將這個權(quán)重的L2正則化損失加入名稱為‘losses‘的集合中
?
def?get_weight(shapelambda1):
????var?=?tf.Variable(tf.random_normal(shape)?dtype?=?tf.float32)
????#add_to_collection函數(shù)將這個新生成變量的L2正則化損失加入集合
????#這個函數(shù)的第一個參數(shù)‘losses‘是集合的名字,第二個參數(shù)是要加入這個集合的內(nèi)容
????tf.add_to_collection(
????????????‘losses‘?tf.contrib.layers.l2_regularizer(lambda1)(var))
????#返回生成的變量
????return?var
?
x?=?tf.placeholder(tf.float32?shape=(None?2))
y_?=?tf.placeholder(tf.float32?shape=(None?1))
batch_size=?8
#定義了每一層網(wǎng)絡(luò)中節(jié)點的個數(shù)。
layer_dimension?=?[2?10?10?10?1]
#神經(jīng)網(wǎng)絡(luò)的層數(shù)
n_layers?=?len(layer_dimension)
?
#這個變量維護(hù)前向傳播時最深層的節(jié)點,開始的時候就是輸入層
cur_layer?=?x
#當(dāng)前層的節(jié)點個數(shù)。
in_dimension?=?layer
- 上一篇:查找兩幅圖片中的不同
- 下一篇:python 滑雪小游戲
評論
共有 條評論