Spaces:
Running
on
A10G
Running
on
A10G
File size: 9,614 Bytes
b2eb230 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 |
{
"16-mixed is recommended for 10+ series GPU": "10シリーズ以降のGPUには16-mixedをお勧めします",
"5 to 10 seconds of reference audio, useful for specifying speaker.": "話者を指定するのに役立つ、5~10秒のリファレンスオーディオ。",
"A text-to-speech model based on VQ-GAN and Llama developed by [Fish Audio](https://fish.audio).": "[Fish Audio](https://fish.audio)が開発したVQ-GANとLlamaに基づくテキスト音声合成モデル。",
"Accumulate Gradient Batches": "勾配バッチの累積",
"Add to Processing Area": "処理エリアに追加",
"Added path successfully!": "パスの追加に成功しました!",
"Advanced Config": "詳細設定",
"Base LLAMA Model": "基本LLAMAモデル",
"Batch Inference": "バッチ推論",
"Batch Size": "バッチサイズ",
"Changing with the Model Path": "モデルのパスに伴って変化する",
"Chinese": "中国語",
"Compile Model": "モデルのコンパイル",
"Compile the model can significantly reduce the inference time, but will increase cold start time": "モデルをコンパイルすると推論時間を大幅に短縮できますが、コールドスタート時間が長くなります",
"Copy": "コピー",
"Data Preprocessing": "データ前処理",
"Data Preprocessing Path": "データ前処理パス",
"Data Source": "データソース",
"Decoder Model Config": "デコーダーモデルの構成",
"Decoder Model Path": "デコーダーモデルのパス",
"Disabled": "無効",
"Enable Reference Audio": "リファレンスオーディオを有効にする",
"English": "英語",
"Error Message": "エラーメッセージ",
"File Preprocessing": "文書前处理",
"Generate": "生成",
"Generated Audio": "生成されたオーディオ",
"If there is no corresponding text for the audio, apply ASR for assistance, support .txt or .lab format": "音声に対応するテキストがない場合は、ASRを適用してサポートします。.txtまたは.lab形式をサポートしています",
"Infer interface is closed": "推論インターフェースが閉じられています",
"Inference Configuration": "推論設定",
"Inference Server Configuration": "推論サーバー設定",
"Inference Server Error": "推論サーバーエラー",
"Inferring interface is launched at {}": "推論インターフェースが{}で起動しました",
"Initial Learning Rate": "初期学習率",
"Input Audio & Source Path for Transcription": "入力オーディオと文字起こしのソースパス",
"Input Text": "入力テキスト",
"Invalid path: {}": "無効なパス: {}",
"It is recommended to use CUDA, if you have low configuration, use CPU": "CUDAの使用をお勧めします。低い構成の場合はCPUを使用してください",
"Iterative Prompt Length, 0 means off": "反復プロンプト長。0はオフを意味します",
"Japanese": "日本語",
"LLAMA Configuration": "LLAMA設定",
"LLAMA Model Config": "LLAMAモデル設定",
"LLAMA Model Path": "LLAMAモデルパス",
"Labeling Device": "ラベリングデバイス",
"LoRA Model to be merged": "マージするLoRAモデル",
"Maximum Audio Duration": "最大オーディオの長さ",
"Maximum Length per Sample": "サンプルあたりの最大長",
"Maximum Training Steps": "最大トレーニングステップ数",
"Maximum tokens per batch, 0 means no limit": "バッチあたりの最大トークン数。0は制限なしを意味します",
"Merge": "マージ",
"Merge LoRA": "LoRAのマージ",
"Merge successfully": "マージに成功しました",
"Minimum Audio Duration": "最小オーディオの長さ",
"Model Output Path": "モデル出力パス",
"Model Size": "モデルサイズ",
"Move": "移動",
"Move files successfully": "ファイルの移動に成功しました",
"No audio generated, please check the input text.": "オーディオが生成されていません。入力テキストを確認してください。",
"No selected options": "選択されたオプションはありません",
"Number of Workers": "ワーカー数",
"Open Inference Server": "推論サーバーを開く",
"Open Labeler WebUI": "ラベラーWebUIを開く",
"Open Tensorboard": "Tensorboardを開く",
"Opened labeler in browser": "ブラウザでラベラーを開きました",
"Optional Label Language": "オプションのラベル言語",
"Optional online ver": "オプションのオンラインバージョン",
"Output Path": "出力パス",
"Path error, please check the model file exists in the corresponding path": "パスエラー。対応するパスにモデルファイルが存在するか確認してください",
"Precision": "精度",
"Probability of applying Speaker Condition": "話者条件を適用する確率",
"Put your text here.": "ここにテキストを入力してください。",
"Reference Audio": "リファレンスオーディオ",
"Reference Text": "リファレンステキスト",
"Related code and weights are released under CC BY-NC-SA 4.0 License.": "関連コードと重みはCC BY-NC-SA 4.0ライセンスの下でリリースされます。",
"Remove Selected Data": "選択したデータを削除",
"Removed path successfully!": "パスの削除に成功しました!",
"Repetition Penalty": "反復ペナルティ",
"Save model every n steps": "nステップごとにモデルを保存",
"Select LLAMA ckpt": " LLAMA チェックポイントを選択",
"Select VITS ckpt": "VITS チェックポイントを選択",
"Select VQGAN ckpt": "VQGAN チェックポイントを選択",
"Select source file processing method": "ソースファイルの処理方法を選択",
"Select the model to be trained (Depending on the Tab page you are on)": "タブページに応じてトレーニングするモデルを選択してください",
"Selected: {}": "選択済み: {}",
"Speaker": "話者",
"Speaker is identified by the folder name": "話者はフォルダ名で識別されます",
"Start Training": "トレーニング開始",
"Streaming Audio": "ストリーミングオーディオ",
"Streaming Generate": "ストリーミング合成",
"Tensorboard Host": "Tensorboardホスト",
"Tensorboard Log Path": "Tensorboardログパス",
"Tensorboard Port": "Tensorboardポート",
"Tensorboard interface is closed": "Tensorboardインターフェースが閉じられています",
"Tensorboard interface is launched at {}": "Tensorboardインターフェースが{}で起動されました",
"Text is too long, please keep it under {} characters.": "テキストが長すぎます。{}文字以内に抑えてください。",
"The path of the input folder on the left or the filelist. Whether checked or not, it will be used for subsequent training in this list.": "左側の入力フォルダまたはファイルリストのパス。チェックの有無にかかわらず、このリストの後続のトレーニングに使用されます。",
"Training Configuration": "トレーニング設定",
"Training Error": "トレーニングエラー",
"Training stopped": "トレーニングが停止しました",
"Type name of the speaker": "話者の名前を入力",
"Type the path or select from the dropdown": "パスを入力するか、ドロップダウンから選択してください",
"Use LoRA": "LoRAを使用",
"Use LoRA can save GPU memory, but may reduce the quality of the model": "LoRAを使用するとGPUメモリを節約できますが、モデルの品質が低下する可能性があります",
"Use filelist": "ファイルリストを使用",
"Use large for 10G+ GPU, medium for 5G, small for 2G": "10G以上のGPUには大、5Gには中、2Gには小を使用してください",
"VITS Configuration": "VITS の構成",
"VQGAN Configuration": "VQGAN の構成",
"Validation Batch Size": "検証バッチサイズ",
"View the status of the preprocessing folder (use the slider to control the depth of the tree)": "前処理フォルダの状態を表示(スライダーを使用してツリーの深さを制御)",
"We are not responsible for any misuse of the model, please consider your local laws and regulations before using it.": "モデルの誤用については一切責任を負いません。使用する前に、現地の法律と規制を考慮してください。",
"WebUI Host": "WebUIホスト",
"WebUI Port": "WebUIポート",
"Whisper Model": "Whisperモデル",
"You can find the source code [here](https://github.com/fishaudio/fish-speech) and models [here](https://huggingface.co/fishaudio/fish-speech-1).": "ソースコードは[こちら](https://github.com/fishaudio/fish-speech)、モデルは[こちら](https://huggingface.co/fishaudio/fish-speech-1)にあります。",
"bf16-true is recommended for 30+ series GPU, 16-mixed is recommended for 10+ series GPU": "30シリーズ以降のGPUにはbf16-trueを、10シリーズ以降のGPUには16-mixedをお勧めします",
"latest": "最新",
"new": "新規",
"Realtime Transform Text": "リアルタイム変換テキスト",
"Normalization Result Preview (Currently Only Chinese)": "正規化結果プレビュー(現在は中国語のみ)",
"Text Normalization": "テキスト正規化",
"Select Example Audio": "サンプル音声を選択"
}
|