
class TransformerConfig(object):
	filters = 128  # 内层一维卷积核的数量，外层卷积核的数量应该等于embeddingSize，因为要确保每个layer后的输出维度和输入维度是一致的。
	numHeads = 5  # Attention 的头数， if 命令行中传了值，则根据命令行中的值来覆盖，active_numHeads也是
	active_numHeads = 10	# active部分的注意力头
	numBlocks = 1  # 设置transformer block的数量
	epsilon = 1e-8  # LayerNorm 层中的最小除数
	attention_keepProb = 0.9  # multi head attention 中的dropout

	text_activation = None		# 文本网络输出部分的激活函数(融合之前接的那个dense)，接收命令行传入
	active_activation = None

	text_position_embedding = None
	active_position_embedding = None
	rnn_activation = 'tanh'
	freqs = None
	pcs_size = None
	product_size = None
	component_size=None

	has_BN = False

class Config(object):
	model = TransformerConfig()

