Text Generation
Transformers
PyTorch
baichuan
custom_code
text-generation-inference
Inference Endpoints
clouditera commited on
Commit
86f5e6e
1 Parent(s): de22c99

update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -1
README.md CHANGED
@@ -6,6 +6,8 @@ datasets:
6
  pipeline_tag: text-generation
7
  ---
8
 
 
 
9
  ## 使用
10
  商业模型对于网络安全领域问题大多会有道德限制,所以基于网络安全数据训练了一个模型,模型基于Baichuan 13B,模型参数大小130亿,至少需要30G显存运行,35G最佳。
11
  - transformers
@@ -58,4 +60,4 @@ inputs = inputs.cuda()
58
  generate = model.generate(input_ids=inputs, **generation_kwargs)
59
  output = tokenizer.decode(generate[0])
60
  print(output)
61
- ```
 
6
  pipeline_tag: text-generation
7
  ---
8
 
9
+ Github: https://github.com/Clouditera/secgpt
10
+
11
  ## 使用
12
  商业模型对于网络安全领域问题大多会有道德限制,所以基于网络安全数据训练了一个模型,模型基于Baichuan 13B,模型参数大小130亿,至少需要30G显存运行,35G最佳。
13
  - transformers
 
60
  generate = model.generate(input_ids=inputs, **generation_kwargs)
61
  output = tokenizer.decode(generate[0])
62
  print(output)
63
+ ```