omitakahiro commited on
Commit
fdff80b
1 Parent(s): 1853074

Upload inferentia2.ipynb

Browse files
Files changed (1) hide show
  1. notebooks/inferentia2.ipynb +138 -0
notebooks/inferentia2.ipynb ADDED
@@ -0,0 +1,138 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cells": [
3
+ {
4
+ "cell_type": "markdown",
5
+ "id": "74c647e6-d096-4e89-af82-a6ca26f80864",
6
+ "metadata": {},
7
+ "source": [
8
+ "# AWS Inferentia2を用いたstockmark/stockmark-13bの推論\n",
9
+ "\n",
10
+ "このノートブックでは、`AWS Inferentia2`上で`stockmark-13b`の推論を実行する方法について説明します。\n",
11
+ "\n",
12
+ "## Setup\n",
13
+ "\n",
14
+ "`AWS Inferentia2`を搭載した`AMAZON EC2 inf2`インスタンスを起動します。AMIは`Deep Learning AMI Neuron PyTorch 1.13`の最新版を、インスタンスタイプは`inf2.8xlarge`を選びます。より高い推論パフォーマンスを得るために、`inf2.24xlarge`や`inf2.48xlarge`などの大きなインスタンスタイプを用いることもできます。\n",
15
+ "\n",
16
+ "参考:[Get Started with Latest Release of PyTorch Neuron (torch-neuronx)](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/setup/neuron-setup/pytorch/neuronx/ubuntu/torch-neuronx-ubuntu20-pytorch-dlami.html#setup-torch-neuronx-ubuntu20-dlami-pytorch)\n",
17
+ "\n",
18
+ "インスタンスの起動後にインスタンスに接続し、まず仮想環境を作成します。\n",
19
+ "\n",
20
+ "`source /opt/aws_neuron_venv_pytorch/bin/activate`\n",
21
+ "\n",
22
+ "その後に、`transformers-neuronx`のライブラリをインストールします。\n",
23
+ "\n",
24
+ "`pip install transformers-neuronx --extra-index-url=https://pip.repos.neuron.amazonaws.com`\n",
25
+ "\n",
26
+ "参考:[Transformers NeuronX (transformers-neuronx)](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/libraries/transformers-neuronx/index.html)\n",
27
+ "\n",
28
+ "## Quickstart\n",
29
+ "\n",
30
+ "以下では、`AWS Inferentia2`上で`stockmark-13b`の推論(テキスト生成)を行うコードを紹介します。このノートブックは以下のチュートリアルをもとに作成しました。詳しくはこちらもご覧ください。\n",
31
+ "\n",
32
+ "参考:[Run Hugging Face meta-llama/Llama-2-13b autoregressive sampling on Inf2 & Trn1](https://github.com/aws-neuron/aws-neuron-samples/blob/master/torch-neuronx/transformers-neuronx/inference/meta-llama-2-13b-sampling.ipynb)\n",
33
+ "\n",
34
+ "`transformers-neuronx`を用いて推論を行うためには、事前にモデルファイルをライブラリに対応した形式に変換しておく必要があります。以下のコードは、`stockmark-13b`のモデルをHuggingface Hubからダウンロードし、`./stockmark-13b-split`というディレクトリに保存します。"
35
+ ]
36
+ },
37
+ {
38
+ "cell_type": "code",
39
+ "execution_count": null,
40
+ "id": "0475c514-6eb6-4457-aa34-62e1d42517a2",
41
+ "metadata": {},
42
+ "outputs": [],
43
+ "source": [
44
+ "import torch\n",
45
+ "from transformers_neuronx.module import save_pretrained_split\n",
46
+ "from transformers import LlamaForCausalLM\n",
47
+ "\n",
48
+ "model = LlamaForCausalLM.from_pretrained('stockmark/stockmark-13b', torch_dtype=torch.bfloat16)\n",
49
+ "save_pretrained_split(model, './stockmark-13b-split')"
50
+ ]
51
+ },
52
+ {
53
+ "cell_type": "markdown",
54
+ "id": "2a85d74d-757e-4d4c-b81a-9a5b5286207a",
55
+ "metadata": {},
56
+ "source": [
57
+ "コードが終了したらJupyterLabのカーネルを再起動してください。\n",
58
+ "\n",
59
+ "次のコードで、`stockmark-13b`の推論を実行することができます。\n",
60
+ "\n",
61
+ "PyTorchでの推論と異なり、AWS Inferentia2で推論を行うために、計算グラフをコンパイルする必要があり、それに数分程度の時間がかかります。次回以降は、キャッシュされた結果が用いられます。"
62
+ ]
63
+ },
64
+ {
65
+ "cell_type": "code",
66
+ "execution_count": null,
67
+ "id": "ef9a9a2d-43a7-4611-8708-e2dea60454c5",
68
+ "metadata": {},
69
+ "outputs": [],
70
+ "source": [
71
+ "import os\n",
72
+ "\n",
73
+ "import torch\n",
74
+ "from transformers import AutoTokenizer\n",
75
+ "from transformers_neuronx.llama.model import LlamaForSampling\n",
76
+ "\n",
77
+ "os.environ['NEURON_CC_FLAGS'] = '-O1'\n",
78
+ "\n",
79
+ "## load tokenizer\n",
80
+ "tokenizer = AutoTokenizer.from_pretrained('stockmark/stockmark-13b')\n",
81
+ "\n",
82
+ "## load model\n",
83
+ "model = LlamaForSampling.from_pretrained(\"./stockmark-13b-split\", batch_size=1, tp_degree=2, amp='f16')\n",
84
+ "model.to_neuron() # compile\n",
85
+ "\n",
86
+ "## inference\n",
87
+ "prompt = \"自然言語処理とは?\"\n",
88
+ "inputs = tokenizer(prompt, return_tensors=\"pt\")\n",
89
+ "\n",
90
+ "with torch.inference_mode():\n",
91
+ " tokens = model.sample(inputs.input_ids, temperature = 1.0, sequence_length = 256)\n",
92
+ " \n",
93
+ "generated_text = tokenizer.decode(tokens[0], skip_special_tokens=True)\n",
94
+ "\n",
95
+ "print(generated_text)"
96
+ ]
97
+ },
98
+ {
99
+ "cell_type": "markdown",
100
+ "id": "e19998fa-2db4-4bf2-b914-10d0885f5388",
101
+ "metadata": {},
102
+ "source": [
103
+ "## Tensor parallelism\n",
104
+ "\n",
105
+ "`transformers-neuronx`のライブラリではテンソル並列化をサポートされています。これにより、モデルを複数のNeuronCoreに配置し、計算を並列に行うことで、推論のパフォーマンスを高めることができます。並列数(いくつのNeuronCoreを用いるか)は、モデルのロードを行う関数`LlamaForSampling.from_pretrained`の引数`tp_degree`から指定することができます。上の例では、`tp_degree=2`を指定しています。\n",
106
+ "\n",
107
+ "指定可能な`tp_degree`の値は、インスタンスタイプに依存します。大きなインスタンスを用いて、`tp_degree`の値を大きくすることで、latencyを小さくすることができます。\n",
108
+ "\n",
109
+ "| インスタンスタイプ | 指定可能なtp_degreeの最大数 |\n",
110
+ "|:---:|:---:|\n",
111
+ "|inf2.8xlarge|2|\n",
112
+ "|inf2.24xlarge|12|\n",
113
+ "|inf2.48xlarge|24|"
114
+ ]
115
+ }
116
+ ],
117
+ "metadata": {
118
+ "kernelspec": {
119
+ "display_name": "Python 3 (ipykernel)",
120
+ "language": "python",
121
+ "name": "python3"
122
+ },
123
+ "language_info": {
124
+ "codemirror_mode": {
125
+ "name": "ipython",
126
+ "version": 3
127
+ },
128
+ "file_extension": ".py",
129
+ "mimetype": "text/x-python",
130
+ "name": "python",
131
+ "nbconvert_exporter": "python",
132
+ "pygments_lexer": "ipython3",
133
+ "version": "3.8.10"
134
+ }
135
+ },
136
+ "nbformat": 4,
137
+ "nbformat_minor": 5
138
+ }