1 Star 0 Fork 2

Lu/KBQA-BERT

forked from wuligg/KBQA-BERT 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
克隆/下载
args.py 785 Bytes
一键复制 编辑 原始数据 按行查看 历史
wenzhengxie 提交于 2019-04-19 15:39 . commit first version
import os
import tensorflow as tf
tf.logging.set_verbosity(tf.logging.INFO)
file_path = os.path.dirname(__file__)
model_dir = os.path.join(file_path, 'ModelParams/chinese_L-12_H-768_A-12/')
config_name = os.path.join(model_dir, 'bert_config.json')
ckpt_name = os.path.join(model_dir, 'bert_model.ckpt')
output_dir = os.path.join(file_path, 'Output/SIM/result/')
vocab_file = os.path.join(model_dir, 'vocab.txt')
data_dir = os.path.join(file_path, 'Data/Sim_Data/')
num_train_epochs = 2
batch_size = 128
learning_rate = 0.00005
# gpu使用率
gpu_memory_fraction = 0.8
# 默认取倒数第二层的输出值作为句向量
layer_indexes = [-2]
# 序列的最大程度,单文本建议把该值调小
max_seq_len = 32
# 预训练模型
train = True
# 测试模型
test = False
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/yiweilu/KBQA-BERT.git
git@gitee.com:yiweilu/KBQA-BERT.git
yiweilu
KBQA-BERT
KBQA-BERT
master

搜索帮助