代码拉取完成,页面将自动刷新
import tensorflow as tf
import numpy as np
data_x = np.random.normal(size=[1000, 1])
noise = np.random.normal(size=[1000, 1]) * 0.2
data_y = data_x * 3. + 2. + noise
class Model:
def __init__(self):
super(Model, self).__init__()
self.w = tf.Variable(0.1, dtype=tf.float32)
self.b = tf.Variable(0.1, dtype=tf.float32)
def call(self, x):
return self.w * x + self.b
model = Model()
var_list = [model.w, model.b]
opt = tf.optimizers.SGD(0.1)
for t in range(100):
with tf.GradientTape() as tape:
y_ = model.call(data_x)
loss = tf.reduce_mean(tf.square(data_y - y_))
grad = tape.gradient(loss, var_list)
opt.apply_gradients(zip(grad, var_list))
if t % 10 == 0:
print("loss={:.2f} | w={:.2f} | b={:.2f}".format(
loss, model.w.numpy(), model.b.numpy())
)
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。