{ "### Model comparison\n> You can get model ID (long) from `View model information` below.\n\nCalculate a similarity between two models.": "### Model comparison\n> You can get model ID (long) from `View model information` below.\n\nCalculate a similarity between two models.", "### Model extraction\n> Enter the path of the large file model under the 'logs' folder.\n\nThis is useful if you want to stop training halfway and manually extract and save a small model file, or if you want to test an intermediate model.": "### Estrazione del modello\n> Inserire il percorso del modello di file di grandi dimensioni nella cartella \"logs\".", "### Model fusion\nCan be used to test timbre fusion.": "### Model fusion\nPuò essere utilizzato per testare la fusione timbrica.", "### Modify model information\n> Only supported for small model files extracted from the 'weights' folder.": "### Modifica le informazioni sul modello\n> Supportato solo per i file di modello di piccole dimensioni estratti dalla cartella 'weights'.", "### Step 1. Fill in the experimental configuration.\nExperimental data is stored in the 'logs' folder, with each experiment having a separate folder. Manually enter the experiment name path, which contains the experimental configuration, logs, and trained model files.": "### Step 1. Fill in the experimental configuration.\nExperimental data is stored in the 'logs' folder, with each experiment having a separate folder. Manually enter the experiment name path, which contains the experimental configuration, logs, and trained model files.", "### Step 2. Audio processing. \n#### 1. Slicing.\nAutomatically traverse all files in the training folder that can be decoded into audio and perform slice normalization. Generates 2 wav folders in the experiment directory. Currently, only single-singer/speaker training is supported.": "### Step 2. Audio processing. \n#### 1. Slicing.\nAutomatically traverse all files in the training folder that can be decoded into audio and perform slice normalization. Generates 2 wav folders in the experiment directory. Currently, only single-singer/speaker training is supported.", "### Step 3. Start training.\nFill in the training settings and start training the model and index.": "### Step 3. Start training.\nFill in the training settings and start training the model and index.", "### View model information\n> Only supported for small model files extracted from the 'weights' folder.": "### Visualizza le informazioni sul modello\n> Supportato solo per file di modello piccoli estratti dalla cartella 'weights'.", "#### 2. Feature extraction.\nUse CPU to extract pitch (if the model has pitch), use GPU to extract features (select GPU index).": "#### 2. Feature extraction.\nUse CPU to extract pitch (if the model has pitch), use GPU to extract features (select GPU index).", "Actually calculated": "Actually calculated", "Adjust the volume envelope scaling. Closer to 0, the more it mimicks the volume of the original vocals. Can help mask noise and make volume sound more natural when set relatively low. Closer to 1 will be more of a consistently loud volume": "Regola il ridimensionamento dell'inviluppo del volume. ", "Algorithmic delays (ms)": "Algorithmic delays (ms)", "All processes have been completed!": "Tutti i processi sono stati completati!", "Audio device": "Dispositivo audio", "Auto-detect index path and select from the dropdown": "Rileva automaticamente il percorso dell'indice e seleziona dal menu a tendina:", "Batch conversion. Enter the folder containing the audio files to be converted or upload multiple audio files. The converted audio will be output in the specified folder (default: 'opt').": "Conversione massiva. Inserisci il percorso della cartella che contiene i file da convertire o carica più file audio. I file convertiti finiranno nella cartella specificata. (default: opt) ", "Batch inference": "Batch inference", "Batch processing for vocal accompaniment separation using the UVR5 model.
Example of a valid folder path format: D:\\path\\to\\input\\folder (copy it from the file manager address bar).
The model is divided into three categories:
1. Preserve vocals: Choose this option for audio without harmonies. It preserves vocals better than HP5. It includes two built-in models: HP2 and HP3. HP3 may slightly leak accompaniment but preserves vocals slightly better than HP2.
2. Preserve main vocals only: Choose this option for audio with harmonies. It may weaken the main vocals. It includes one built-in model: HP5.
3. De-reverb and de-delay models (by FoxJoy):
  (1) MDX-Net: The best choice for stereo reverb removal but cannot remove mono reverb;
 (234) DeEcho: Removes delay effects. Aggressive mode removes more thoroughly than Normal mode. DeReverb additionally removes reverb and can remove mono reverb, but not very effectively for heavily reverberated high-frequency content.
De-reverb/de-delay notes:
1. The processing time for the DeEcho-DeReverb model is approximately twice as long as the other two DeEcho models.
2. The MDX-Net-Dereverb model is quite slow.
3. The recommended cleanest configuration is to apply MDX-Net first and then DeEcho-Aggressive.": "Elaborazione batch per la separazione dell'accompagnamento vocale utilizzando il modello UVR5.
Esempio di un formato di percorso di cartella valido: D:\\path\\to\\input\\folder (copialo dalla barra degli indirizzi del file manager).
Il modello è suddiviso in tre categorie:
1. Conserva la voce: scegli questa opzione per l'audio senza armonie.
2. Mantieni solo la voce principale: scegli questa opzione per l'audio con armonie.
3. Modelli di de-riverbero e de-delay (di FoxJoy):
  (1) MDX-Net: la scelta migliore per la rimozione del riverbero stereo ma non può rimuovere il riverbero mono;

Note di de-riverbero/de-delay:
1. Il tempo di elaborazione per il modello DeEcho-DeReverb è circa il doppio rispetto agli altri due modelli DeEcho.
2. Il modello MDX-Net-Dereverb è piuttosto lento.
3. La configurazione più pulita consigliata consiste nell'applicare prima MDX-Net e poi DeEcho-Aggressive.", "Batch size per GPU": "Dimensione batch per GPU:", "Cache all training sets to GPU memory. Caching small datasets (less than 10 minutes) can speed up training, but caching large datasets will consume a lot of GPU memory and may not provide much speed improvement": "Memorizza nella cache tutti i set di addestramento nella memoria della GPU. ", "Calculate": "Calculate", "Choose sample rate of the device": "Choose sample rate of the device", "Choose sample rate of the model": "Choose sample rate of the model", "Convert": "Convertire", "Device type": "Device type", "Enable phase vocoder": "Enable phase vocoder", "Enter the GPU index(es) separated by '-', e.g., 0-0-1 to use 2 processes in GPU0 and 1 process in GPU1": "Enter the GPU index(es) separated by '-', e.g., 0-0-1 to use 2 processes in GPU0 and 1 process in GPU1", "Enter the GPU index(es) separated by '-', e.g., 0-1-2 to use GPU 0, 1, and 2": "Inserisci gli indici GPU separati da '-', ad esempio 0-1-2 per utilizzare GPU 0, 1 e 2:", "Enter the experiment name": "Inserisci il nome dell'esperimento:", "Enter the path of the audio folder to be processed": "Immettere il percorso della cartella audio da elaborare:", "Enter the path of the audio folder to be processed (copy it from the address bar of the file manager)": "Immettere il percorso della cartella audio da elaborare (copiarlo dalla barra degli indirizzi del file manager):", "Enter the path of the training folder": "Inserisci il percorso della cartella di addestramento:", "Exist": "Exist", "Export Onnx": "Esporta Onnx", "Export Onnx Model": "Esporta modello Onnx", "Export audio (click on the three dots in the lower right corner to download)": "Esporta audio (clicca sui tre puntini in basso a destra per scaricarlo)", "Export file format": "Formato file di esportazione", "Extra inference time": "Tempo di inferenza extra", "Extract": "Estrai", "F0 curve file (optional). One pitch per line. Replaces the default F0 and pitch modulation": "File curva F0 (opzionale). ", "FAQ (Frequently Asked Questions)": "FAQ (Domande frequenti)", "Fade length": "Lunghezza dissolvenza", "Fail": "失败", "Feature extraction": "Estrazione delle caratteristiche", "Feature searching ratio": "Rapporto funzionalità di ricerca (controlla la forza dell'accento, troppo alto ha artefatti):", "Formant offset": "Formant offset", "Fusion": "Fusione", "GPU Information": "Informazioni GPU", "General settings": "Impostazioni generali", "Hidden": "Hidden", "ID of model A (long)": "ID of model A (long)", "ID of model B (long)": "ID of model B (long)", "ID(long)": "ID (long)", "ID(short)": "ID (short)", "If >=3: apply median filtering to the harvested pitch results. The value represents the filter radius and can reduce breathiness.": "Se >=3: applica il filtro mediano ai risultati del pitch raccolto. ", "Inference time (ms)": "Tempo di inferenza (ms)", "Inferencing voice": "Voce di inferenza:", "Information": "Information", "Input device": "Dispositivo di input", "Input noise reduction": "Riduzione del rumore in ingresso", "Input voice monitor": "Input voice monitor", "Link index to outside folder": "Link index to outside folder", "Load model": "Carica modello", "Load pre-trained base model D path": "Carica il percorso D del modello base pre-addestrato:", "Load pre-trained base model G path": "Carica il percorso G del modello base pre-addestrato:", "Loudness factor": "fattore di sonorità", "Model": "Modello", "Model Author": "Model Author", "Model Author (Nullable)": "Model Author (Nullable)", "Model Inference": "Inferenza del modello", "Model architecture version": "Versione dell'architettura del modello:", "Model info": "Model info", "Model information to be modified": "Informazioni sul modello da modificare:", "Model information to be placed": "Informazioni sul modello da posizionare:", "Model name": "Model name", "Modify": "Modificare", "Multiple audio files can also be imported. If a folder path exists, this input is ignored.": "Multiple audio files can also be imported. If a folder path exists, this input is ignored.", "No": "NO", "None": "None", "Not exist": "Not exist", "Number of CPU processes used for harvest pitch algorithm": "Number of CPU processes used for harvest pitch algorithm", "Number of CPU processes used for pitch extraction and data processing": "Numero di processi CPU utilizzati per l'estrazione del tono e l'elaborazione dei dati:", "One-click training": "Addestramento con un clic", "Onnx Export Path": "Percorso di esportazione Onnx:", "Output converted voice": "Output converted voice", "Output device": "Dispositivo di uscita", "Output information": "Informazioni sull'uscita", "Output noise reduction": "Riduzione del rumore in uscita", "Path to Model": "Percorso al modello:", "Path to Model A": "Percorso per il modello A:", "Path to Model B": "Percorso per il modello B:", "Path to the feature index file. Leave blank to use the selected result from the dropdown": "Percorso del file di indice delle caratteristiche. ", "Performance settings": "Impostazioni delle prestazioni", "Pitch detection algorithm": "Pitch detection algorithm", "Pitch guidance (f0)": "Pitch guidance (f0)", "Pitch settings": "Impostazioni del tono", "Please choose the .index file": "Please choose the .index file", "Please choose the .pth file": "Please choose the .pth file", "Please specify the speaker/singer ID": "Si prega di specificare l'ID del locutore/cantante:", "Process data": "Processa dati", "Protect voiceless consonants and breath sounds to prevent artifacts such as tearing in electronic music. Set to 0.5 to disable. Decrease the value to increase protection, but it may reduce indexing accuracy": "Proteggi le consonanti senza voce e i suoni del respiro per evitare artefatti come il tearing nella musica elettronica. ", "RVC Model Path": "Percorso modello RVC:", "Read from model": "Read from model", "Refresh voice list and index path": "Aggiorna l'elenco delle voci e il percorso dell'indice", "Reload device list": "Ricaricare l'elenco dei dispositivi", "Resample the output audio in post-processing to the final sample rate. Set to 0 for no resampling": "Ricampiona l'audio di output in post-elaborazione alla frequenza di campionamento finale. ", "Response threshold": "Soglia di risposta", "Sample length": "Lunghezza del campione", "Sampling rate": "Sampling rate", "Save a small final model to the 'weights' folder at each save point": "Salva un piccolo modello finale nella cartella \"weights\" in ogni punto di salvataggio:", "Save file name (default: same as the source file)": "Salva il nome del file (predefinito: uguale al file di origine):", "Save frequency (save_every_epoch)": "Frequenza di salvataggio (save_every_epoch):", "Save name": "Salva nome:", "Save only the latest '.ckpt' file to save disk space": "Salva solo l'ultimo file '.ckpt' per risparmiare spazio su disco:", "Saved model name (without extension)": "Nome del modello salvato (senza estensione):", "Sealing date": "封装时间", "Select Speaker/Singer ID": "Seleziona ID locutore/cantante:", "Select the .index file": "Seleziona il file .index", "Select the .pth file": "Seleziona il file .pth", "Select the pitch extraction algorithm ('pm': faster extraction but lower-quality speech; 'harvest': better bass but extremely slow; 'crepe': better quality but GPU intensive), 'rmvpe': best quality, and little GPU requirement": "Seleziona l'algoritmo di estrazione del tono (\"pm\": estrazione più veloce ma risultato di qualità inferiore; \"harvest\": bassi migliori ma estremamente lenti; \"crepe\": qualità migliore ma utilizzo intensivo della GPU):", "Select the pitch extraction algorithm: when extracting singing, you can use 'pm' to speed up. For high-quality speech with fast performance, but worse CPU usage, you can use 'dio'. 'harvest' results in better quality but is slower. 'rmvpe' has the best results and consumes less CPU/GPU": "Select the pitch extraction algorithm: when extracting singing, you can use 'pm' to speed up. For high-quality speech with fast performance, but worse CPU usage, you can use 'dio'. 'harvest' results in better quality but is slower. 'rmvpe' has the best results and consumes less CPU/GPU", "Similarity": "Similarity", "Similarity (from 0 to 1)": "Similarity (from 0 to 1)", "Single inference": "Single inference", "Specify output folder": "Specifica la cartella di output:", "Specify the output folder for accompaniment": "Specificare la cartella di output per l'accompagnamento:", "Specify the output folder for vocals": "Specifica la cartella di output per le voci:", "Start audio conversion": "Avvia la conversione audio", "Step 1: Processing data": "Passaggio 1: elaborazione dei dati", "Step 3a: Model training started": "Passaggio 3a: è iniziato l'addestramento del modello", "Stop audio conversion": "Arresta la conversione audio", "Successfully built index into": "Successfully built index into", "Takeover WASAPI device": "Takeover WASAPI device", "Target sample rate": "Frequenza di campionamento target:", "The audio file to be processed": "The audio file to be processed", "This software is open source under the MIT license. The author does not have any control over the software. Users who use the software and distribute the sounds exported by the software are solely responsible.
If you do not agree with this clause, you cannot use or reference any codes and files within the software package. See the root directory Agreement-LICENSE.txt for details.": "Questo software è open source con licenza MIT.
Se non si accetta questa clausola, non è possibile utilizzare o fare riferimento a codici e file all'interno del pacchetto software. Contratto-LICENZA.txt per dettagli.", "Total training epochs (total_epoch)": "Epoch totali di addestramento (total_epoch):", "Train": "Addestramento", "Train feature index": "Addestra indice delle caratteristiche", "Train model": "Addestra modello", "Training complete. You can check the training logs in the console or the 'train.log' file under the experiment folder.": "Addestramento completato. ", "Transpose (integer, number of semitones, raise by an octave: 12, lower by an octave: -12)": "Trasposizione (numero intero, numero di semitoni, alza di un'ottava: 12, abbassa di un'ottava: -12):", "Unfortunately, there is no compatible GPU available to support your training.": "Sfortunatamente, non è disponibile alcuna GPU compatibile per supportare l'addestramento.", "Unknown": "Unknown", "Unload model to save GPU memory": "Scarica la voce per risparmiare memoria della GPU:", "Version": "Versione", "View": "Visualizzazione", "Vocals/Accompaniment Separation & Reverberation Removal": "Separazione voce/accompagnamento", "Weight (w) for Model A": "Peso (w) per il modello A:", "Whether the model has pitch guidance": "Se il modello ha una guida del tono:", "Whether the model has pitch guidance (1: yes, 0: no)": "Se il modello ha una guida del tono (1: sì, 0: no):", "Whether the model has pitch guidance (required for singing, optional for speech)": "Se il modello ha una guida del tono (necessario per il canto, facoltativo per il parlato):", "Yes": "SÌ", "ckpt Processing": "Elaborazione ckpt", "index path cannot contain unicode characters": "index path cannot contain unicode characters", "pth path cannot contain unicode characters": "pth è un'app per il futuro", "step2:Pitch extraction & feature extraction": "step2:Pitch extraction & feature extraction" }