File size: 2,491 Bytes
9563bee
 
 
 
 
 
26e55de
9563bee
 
 
 
 
 
 
 
 
4868131
9563bee
 
 
 
 
 
1bfafea
 
9563bee
 
 
 
1bfafea
 
 
9563bee
1bfafea
9563bee
1bfafea
9563bee
1bfafea
9563bee
1bfafea
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
# Guide d'installation locale de l'application

## Installer l'application

1. Créez un nouveau projet dans PyCharm (ou l'IDE de votre choix).

2. Après vous être assuré de la présence d'un environnement virtuel, tapez ```git lfs install``` dans le terminal de PyCharm.

3. Téléchargez le dépôt de l'application en tapant ```git clone https://huggingface.co/spaces/a-menu/arches_demo``` dans le terminal.

4. Déplacez-vous à la racine de l'application avec ```cd arches_demo```, puis tapez ```pip install -r requirements.txt```.

## Lancer l'application

- Chaque fois que vous désirez lancer l'application, ouvrez le projet dans PyCharm et tapez dans le terminal ```streamlit run app.py``` (sans réitérer les étapes précédentes de l'installation).

- Pour fermer l'application, faites ```ctrl + c``` dans le terminal de PyCharm.

- Pour forcer l'application à se fermer, vous pouvez fermer le terminal.


## Relier l'application à sa carte graphique

*Ce guide est à destination des cartes graphiques **NVIDIA**.*

L'application utilise le CPU par défaut. Pour accélérer l'application du modèle, nous vous conseillons d'utiliser votre GPU.

Pour ce faire, réalisez (une fois) les actions suivantes dans le terminal de votre IDE, application fermée :

1. Installez si nécessaire le CUDA Toolkit à partir du site de NVIDIA : https://developer.nvidia.com/cuda-toolkit-archive .

2. Vérifiez votre version de CUDA en tapant ```nvcc --version``` dans le terminal (regarder la ligne "CUDA compilation tools, release [numéro de version]").

3. Pour les versions de CUDA 11.2 à 11.8, tapez ensuite ```pip install cupy-cuda11x```. Pour les versions de CUDA 12.x, tapez ```pip install cupy-cuda12x```.

4. Installez ensuite PyTorch en suivant les instructions trouvables à l'adresse suivante : https://pytorch.org/get-started/locally/ (pensez à bien spécifier votre version de CUDA). Par exemple, pour la version 12.1 de CUDA, tapez ```pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121```.

5. Installez enfin la version appropriée de spacy cuda avec la commande ```pip install 'spacy[cudaYYx]'```, en remplaçant YY par votre version de CUDA. Par exemple, pour la version 12.1 de CUDA, tapez ```pip install 'spacy[cuda12x]'```.

6. Vous pouvez désormais lancer normalement l'application avec ```streamlit run app.py``` ; un voyant vert attestant de la reconnaissance de votre GPU devrait s'afficher au sommet de la page.