From 6dfac082db91870824b9f52eafa853c6d54c917c Mon Sep 17 00:00:00 2001 From: Mike Date: Tue, 14 Jan 2025 01:32:31 +0000 Subject: [PATCH] Update JP translation Signed-off-by: Mike --- gpt4all-chat/translations/gpt4all_jp_JP.ts | 367 +++++++++++---------- 1 file changed, 187 insertions(+), 180 deletions(-) diff --git a/gpt4all-chat/translations/gpt4all_jp_JP.ts b/gpt4all-chat/translations/gpt4all_jp_JP.ts index 31da30df..a443c37d 100644 --- a/gpt4all-chat/translations/gpt4all_jp_JP.ts +++ b/gpt4all-chat/translations/gpt4all_jp_JP.ts @@ -548,243 +548,243 @@ Application - + 応用 Network dialog - + ネットワークダイアログ opt-in to share feedback/conversations - + オプトインしてフィードバック/会話を共有する Error dialog - + エラーダイアログ Application Settings - + アプリケーション設定 General - + 一般的な Theme - + テーマ The application color scheme. - + アプリケーションのカラースキーム。 Dark - + 暗い Light - + 明るい ERROR: Update system could not find the MaintenanceTool used to check for updates!<br/><br/>Did you install this application using the online installer? If so, the MaintenanceTool executable should be located one directory above where this application resides on your filesystem.<br/><br/>If you can't start it manually, then I'm afraid you'll have to reinstall. - + エラー: 更新システムは、更新の確認に使用される MaintenanceTool を見つけることができませんでした。<br/><br/>このアプリケーションはオンライン インストーラーを使用してインストールしましたか? その場合、MaintenanceTool 実行可能ファイルは、ファイル システム上でこのアプリケーションが存在するディレクトリの 1 つ上のディレクトリにあるはずです。<br/><br/>手動で起動できない場合は、再インストールする必要があります。 LegacyDark - + LegacyDark Font Size - + フォントサイズ The size of text in the application. - + アプリケーション内のテキストのサイズ。 Small - + 小さい Medium - + 中くらい Large - + 大きい Language and Locale - + 言語とロケール The language and locale you wish to use. - + 使用したい言語とロケール。 System Locale - + システムロケール Device - + デバイス The compute device used for text generation. - + テキスト生成に使用される計算デバイス。 Application default - + 応用のデフォルト Default Model - + デフォルトのモデル The preferred model for new chats. Also used as the local server fallback. - + 新しいチャットに推奨されるモデル。ローカル サーバーのフォールバックとしても使用されます。 Suggestion Mode - + 提案モード Generate suggested follow-up questions at the end of responses. - + 提案されたフォローアップの質問 ATT と応答の猶予を生成します。 When chatting with LocalDocs - + LocalDocs とチャットするとき Whenever possible - + 可能な限り Never - + 一度もない Download Path - + ダウンロードパス Where to store local models and the LocalDocs database. - + ローカル モデルと LocalDocs データベースを保存する場所。 Browse - + 閲覧する Choose where to save model files - + モデルファイルを保存する場所を選択する Enable Datalake - + データレイクを有効にする Send chats and feedback to the GPT4All Open-Source Datalake. - + チャットとフィードバックを GPT4All オープンソース データレイクに送信します。 Advanced - + 高度な CPU Threads - + CPU スレッド The number of CPU threads used for inference and embedding. - + 推論とembeddingに使用される CPU スレッドの数。 Enable System Tray - + システムトレイを有効にする The application will minimize to the system tray when the window is closed. - + ウィンドウを閉じると、アプリケーションはシステム トレイに最小化されます。 Enable Local API Server - + ローカルAPIサーバーを有効にする Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - + OpenAI 互換サーバーを localhost に公開します。警告: リソース使用量が増加します。 API Server Port - + API サーバー ポート The port to use for the local server. Requires restart. - + ローカル サーバーに使用するポート。再起動が必要です。 Check For Updates - + 更新を確認する Manually check for an update to GPT4All. - + GPT4All のアップデートを手動で確認します。 Updates - + 更新情報 @@ -1076,7 +1076,7 @@ The entire chat will be erased. - + @@ -1091,7 +1091,7 @@ Reload the currently loaded model - + 現在ロードされているモデルを再ロードします @@ -1101,22 +1101,22 @@ No model installed. - + モデルがインストールされていません。 Model loading error. - + モデルの読み込みエラー。 Waiting for model... - + モデルを待っています... Switching context... - + コンテキストを切り替えています... @@ -1126,17 +1126,17 @@ Not found: %1 - + 見つかりません: %1 The top item is the current model - + 一番上のアイテムは現在のモデルです LocalDocs - + LocalDocs @@ -1151,33 +1151,33 @@ Load the default model - + デフォルトモデルをロードする Loads the default model which can be changed in settings - + 設定で変更できるデフォルトのモデルをロードします No Model Installed - + モデルがインストールされていません GPT4All requires that you install at least one model to get started - + GPT4Allを開始するには、少なくとも1つのモデルをインストールする必要があります Install a Model - + モデルをインストールする Shows the add model view - + モデル追加ビューを表示します @@ -1187,27 +1187,27 @@ model to get started prompt / response pairs from the conversation - + 会話からのプロンプト/応答のペア Legacy prompt template needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. - + レガシー プロンプト テンプレートは、[設定] で <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">更新</a> する必要があります。 No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. - + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> が設定されていません。 The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. - + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> は空白にできません。 Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. - + Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. @@ -1243,12 +1243,12 @@ model to get started Stop generating - + 生成を停止 Stop the current response generation - + 現在の応答生成を停止する @@ -1258,17 +1258,17 @@ model to get started Single File - + 単一ファイル Reloads the model - + モデルを再読み込みします <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>モデルの読み込み中にエラーが発生しました:</h3><br><i>"%1"</i><br><br>モデルの読み込みに失敗する理由はさまざまですが、最も一般的な原因としては、ファイル形式が正しくない、ダウンロードが不完全または破損している、ファイルの種類が間違っている、システム RAM が不足している、モデルの種類に互換性がない、などが挙げられます。この問題を解決するための提案をいくつかご紹介します。<br><ul><li>モデル ファイルの形式と種類に互換性があることを確認します。<li>ダウンロード フォルダー内のモデル ファイルが完全であることを確認します。<li>ダウンロード フォルダーは設定ダイアログにあります。<li>モデルをサイドロードした場合は、md5sum をチェックしてファイルが破損していないことを確認します。<li>サポートされているモデルの詳細については、GUI の <a href="https://docs.gpt4all.io/">ドキュメント</a> をご覧ください。<li>ヘルプについては、<a href="https://discord.gg/4M2QFmTt2k">discord チャンネル</a> をご覧ください。 + <h3>モデルの読み込み中にエラーが発生しました:</h3><br><i>"%1"</i><br><br>モデルの読み込みに失敗する理由はさまざまですが、最も一般的な原因としては、ファイル形式が正しくない、ダウンロードが不完全または破損している、ファイルの種類が間違っている、システム RAM が不足している、モデルの種類に互換性がない、などが挙げられます。この問題を解決するための提案をいくつかご紹介します。<br><ul><li>モデル ファイルの形式と種類に互換性があることを確認します。<li>ダウンロード フォルダー内のモデル ファイルが完全であることを確認します。<li>ダウンロード フォルダーは設定ダイアログにあります。<li>モデルをサイドロードした場合は、md5sum をチェックしてファイルが破損していないことを確認します。<li>サポートされているモデルの詳細については、GUI の <a href="https://docs.gpt4all.io/">ドキュメント</a> をご覧ください。<li>ヘルプについては、<a href="https://discord.gg/4M2QFmTt2k">discord チャンネル</a> をご覧ください @@ -1285,32 +1285,32 @@ model to get started Reload · %1 - + 再読み込み · %1 Loading · %1 - + 読み込み中 · %1 Load · %1 (default) → - + 読み込み中·%1 (デフォルト) → Send a message... - + メッセージを送信... Load a model to continue... - + 続行するにはモデルをロードしてください... Send messages/prompts to the model - + モデルにメッセージ/プロンプトを送信する @@ -1320,22 +1320,22 @@ model to get started Paste - + ペースト Select All - + すべて選択 Send message - + メッセージを送信 Sends the message/prompt contained in textfield to the model - + テキストフィールドに含まれるメッセージ/プロンプトをモデルに送信します @@ -1873,287 +1873,294 @@ model to get started Model - + モデル %1 system message? - + %1 システムメッセージ? Clear - + クリア Reset - + 初期化 The system message will be %1. - + システム メッセージは %1 になります。 removed - + 削除された reset to the default - + デフォルトにリセットする %1 chat template? - + %1 チャット テンプレートですか? The chat template will be %1. - + チャットテンプレートは %1 になります。 erased - + 消去された Model Settings - + モデル設定 Clone - + クローン Remove - + 取り除く Name - + 名前 Model File - + モデルファイル System Message - + システムメッセージ A message to set the context or guide the behavior of the model. Leave blank for none. NOTE: Since GPT4All 3.5, this should not contain control tokens. - + コンテキストを設定したり、モデルの動作をガイドするためのメッセージ。何もない場合は空白のままにします。注: GPT4All 3.5 以降、これには制御トークンを含めないでください。 System message is not <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">plain text</a>. - + システム メッセージは <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">プレーン テキスト</a> ではありません。 Chat Template - + チャットテンプレート This Jinja template turns the chat into input for the model. - + この Jinja テンプレートは、チャットをモデルの入力に変換します。 No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. - + この Jinja テンプレートは、チャットをモデルの入力に変換します。 The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. - + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> は空白にできません。 <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Syntax error</a>: %1 - + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">構文エラー</a>: %1 Chat template is not in <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja format</a>. - + チャット テンプレートは <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja 形式</a>ではありません。 Chat Name Prompt - + チャット名プロンプト Prompt used to automatically generate chat names. - + チャット名を自動的に生成するために使用されるプロンプト。 Suggested FollowUp Prompt - + 推奨されるフォローアッププロンプト Prompt used to generate suggested follow-up questions. - + 提案されるフォローアップの質問を生成するために使用されるプロンプト。 Context Length - + コンテキストの長さ Number of input and output tokens the model sees. - + モデルが認識する入力トークンと出力トークンの数。 Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - + 情報が失われるまでの最大の組み合わせプロンプト/応答トークン数。 +モデルがトレーニングされたコンテキストよりも多くのコンテキストを使用すると、結果が悪くなります。 +注: モデルを再読み込みするまで有効になりません。 Temperature - + 温度 Randomness of model output. Higher -> more variation. - + モデル出力のランダム性。高いほど、バリエーションが多くなります。 Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. - + 温度によって、可能性の低いトークンを選択する可能性が高まります。 +注: 温度が高いほど、出力はより創造的になりますが、予測可能性は低くなります。 Top-P - + トップP Nucleus Sampling factor. Lower -> more predictable. - + Nucleus サンプリング係数。低いほど予測しやすくなります。 Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. - + 合計確率が top_p までの最も可能性の高いトークンのみを選択できます。 +注: 可能性が非常に低いトークンが選択されないようにします。 Min-P - + 最小P Minimum token probability. Higher -> more predictable. - + 最小トークン確率。高いほど予測しやすくなります。 Sets the minimum relative probability for a token to be considered. - + 考慮されるトークンの最小相対確率を設定します。 Top-K - + トップK Size of selection pool for tokens. - + トークンの選択プールのサイズ。 Only the top K most likely tokens will be chosen from. - + 最も可能性の高い上位 K 個のトークンのみが選択されます。 Max Length - + 最大長 Maximum response length, in tokens. - + 応答の最大長(トークン単位)。 Prompt Batch Size - + プロンプトバッチサイズ The batch size used for prompt processing. - + プロンプト処理に使用されるバッチ サイズ。 Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. - + 一度に処理するプロンプト トークンの数。 +注: 値を大きくするとプロンプトの読み取り速度が上がりますが、RAM の使用量も増えます。 Repeat Penalty - + 繰り返しペナルティ Repetition penalty factor. Set to 1 to disable. - + 繰り返しペナルティ係数。無効にするには 1 に設定します。 Repeat Penalty Tokens - + 繰り返しペナルティトークン Number of previous tokens used for penalty. - + ペナルティに使用された以前のトークンの数。 GPU Layers - + GPU レイヤー Number of model layers to load into VRAM. - + VRAM にロードするモデル レイヤーの数。 How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. - + VRAM にロードするモデル レイヤーの数。このモデルのロード中に GPT4All の VRAM が不足する場合は、この値を減らします。 +値が小さいほど、CPU 負荷と RAM 使用量が増加し、推論が遅くなります。 +注: モデルを再ロードするまで有効になりません。 @@ -2161,169 +2168,169 @@ NOTE: Does not take effect until you reload the model. No Models Installed - + モデルがインストールされていません Install a model to get started using GPT4All - + GPT4Allを使い始めるにはモデルをインストールしてください + Add Model - + + モデルを追加 Shows the add model view - + モデル追加ビューを表示します Installed Models - + インストール済みモデル Locally installed chat models - + ローカルにインストールされたチャットモデル Model file - + モデルファイル Model file to be downloaded - + ダウンロードするモデルファイル Description - + 説明 File description - + ファイルの説明 Cancel - + 中止 Resume - + 再開する Stop/restart/start the download - + ダウンロードを停止/再開/開始する Remove - + 取り除く Remove model from filesystem - + ファイルシステムからモデルを削除する Install - + インストール Install online model - + オンラインモデルをインストールする <strong><font size="1"><a href="#error">Error</a></strong></font> - + <strong><font size="1"><a href="#error">エラー</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - + <strong><font size="2">警告: お使いのハードウェアには推奨されません。モデルには、システムで使用可能なメモリ (%2) よりも多くのメモリ (%1 GB) が必要です。</strong></font> ERROR: $API_KEY is empty. - + エラー: $API_KEY が空です。 ERROR: $BASE_URL is empty. - + エラー: $BASE_URL が空です。 enter $BASE_URL - + $BASE_URLを入力 ERROR: $MODEL_NAME is empty. - + エラー: $MODEL_NAME が空です。 enter $MODEL_NAME - + $MODEL_NAMEを入力 %1 GB - + %1 GB ? - + ? Describes an error that occurred when downloading - + ダウンロード中に発生したエラーについて説明します Error for incompatible hardware - + 互換性のないハードウェアのエラー Download progressBar - + progressBar をダウンロード Shows the progress made in the download - + ダウンロードの進行状況を表示します Download speed - + ダウンロード速度 Download speed in bytes/kilobytes/megabytes per second - + ダウンロード速度 (バイト/キロバイト/メガバイト/秒) Calculating... - + 計算中... @@ -2331,47 +2338,47 @@ NOTE: Does not take effect until you reload the model. Whether the file hash is being calculated - + ファイルハッシュが計算されているかどうか Busy indicator - + ビジーインジケーター Displayed when the file hash is being calculated - + ファイルハッシュが計算されているときに表示されます enter $API_KEY - + $API_KEYを入力 File size - + ファイルサイズ RAM required - + 必要なRAM Parameters - + Parameters Quant - + Quant Type - + 種類