在使用不同版本的TF训练模型时,需要针对不同版本使用对应的优化方法。以Adam为例,TF 1.x使用tf.train.AdamOptimizer,而TF 2.x使用tf.optimizers.Adam。可以编写一个通用的优化器选择函数,根据TF版本自动选择对应的优化方法。
import tensorflow as tf
def get_optimizer(learning_rate):
if tf.version.VERSION.startswith('1.'):
return tf.train.AdamOptimizer(learning_rate)
elif tf.version.VERSION.startswith('2.'):
return tf.optimizers.Adam(learning_rate)
else:
raise ValueError('Unsupported TF version')
optimizer = get_optimizer(0.001)
上一篇:不同版本的Swift给我带来错误
下一篇:不同版本的Tomcat的启动时间