代码拉取完成,页面将自动刷新
from node import *
def neural_network(n, classes=2, hiddens=(12,), activation="ReLU"):
"""
构造一个多层全连接神经网络的计算图。
"""
# x 是一个 n 维向量变量,不初始化,不参与训练
x = Variable((n, 1), init=False, trainable=False)
# 构造全连接层
input_size = n
input_vector = x
for l, h_size in zip(np.arange(len(hiddens)), hiddens):
output = Add(
MatMul(
Variable((h_size, input_size), True),
input_vector
),
Variable((h_size, 1), True)
)
# 隐藏层的输出
if activation == "ReLU":
output = ReLU(output)
elif activation == "Logistic":
output = Logistic(output)
else:
output = output
input_size = h_size
input_vector = output
# 输出层的神经元
logits = Add(
MatMul(
Variable((classes, input_size), True),
input_vector
),
Variable((classes, 1), True)
)
# 返回输入和 logits
return x, logits
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。