diff --git a/gpt4all-chat/translations/gpt4all_de_DE.ts b/gpt4all-chat/translations/gpt4all_de_DE.ts index 3b0e0ba5..adfa27d7 100644 --- a/gpt4all-chat/translations/gpt4all_de_DE.ts +++ b/gpt4all-chat/translations/gpt4all_de_DE.ts @@ -4,66 +4,57 @@ AddCollectionView - + ← Existing Collections ← Aktuelle Sammlungen - + Add Document Collection Dokumentsammlung hinzufügen - Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. - Fügen Sie einen Ordner hinzu, der reine Textdateien, PDFs oder Markdown enthält. Konfigurieren Sie zusätzliche Erweiterungen in den Einstellungen. - - - + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. Fügen Sie einen Ordner hinzu, der reine Textdateien, PDFs oder Markdown enthält. Konfigurieren Sie zusätzliche Erweiterungen in den Einstellungen. - - Please choose a directory - Wählen Sie einen Ordner - - - + Name Name - + Collection name... Name diese Sammlung - + Name of the collection to add (Required) Name der hinzuzufügenden Sammlung (erforderlich) - + Folder Ordner - + Folder path... Ordnerpfad - + Folder path to documents (Required) Ordnerpfad zu Dokumenten (erforderlich) - + Browse Durchsuchen - + Create Collection Diese Sammlung erstellen @@ -71,296 +62,288 @@ AddModelView - + ← Existing Models ← Aktuelle Modelle - + Explore Models Modelle erkunden - + Discover and download models by keyword search... Entdecken und laden Sie Modelle per Stichwortsuche herunter... - + Text field for discovering and filtering downloadable models Textfeld zum Entdecken und Filtern herunterladbarer Modelle - + Initiate model discovery and filtering Modellerkennung und -filterung starten - + Triggers discovery and filtering of models Löst die Erkennung und Filterung von Modellen aus - + Default Standard - + Likes Likes - + Downloads Downloads - + Recent Jüngste - + Asc Aufsteigend (A->Z) - + Desc Absteigend (Z->A) - + None Keiner - + Searching · %1 Suche · %1 - + Sort by: %1 Sortieren nach:: %1 - + Sort dir: %1 Sortierrichtung: %1 - + Limit: %1 Límit: %1 - + Network error: could not retrieve %1 Netzwerkfehler: konnte nicht %1 abgerufen - - + + Busy indicator "Besetzt"-Anzeige - + Displayed when the models request is ongoing Angezeigt, wenn die Modellanfrage noch läuft - + Model file Modelldatei - + Model file to be downloaded Modelldatei zum Herunterladen - + Description Beschreibung - + File description Dateibeschreibung - + Cancel Abbrechen - + Resume Weitermachen - + Download Download - + Stop/restart/start the download Download stoppen/starten/neu starten - + Remove Entfernen - + Remove model from filesystem Modell aus dem Dateisystem entfernen - - + + Install Installieren - + Install online model Online-Modell installieren - + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#Fehler">Fehler</a></strong></font> - + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ACHTUNG: Nicht empfohlen für Ihre Hardware. Das Modell benötigt mehr Speicher (%1 GB), als Ihr System zur Verfügung hat (%2).</strong></font> - <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ACHTUNG: Nicht empfohlen für Ihre Hardware. Das Modell benötigt mehr Speicher (%1 GB), als Ihr System zur Verfügung hat (%2).</strong></font> - - - + %1 GB %1 GB - - + + ? ? - + Describes an error that occurred when downloading Beschreibt einen Fehler, der beim Herunterladen aufgetreten ist - <strong><font size="1"><a href="#error">Error</a></strong></font> - <strong><font size="1"><a href="#Fehler">Fehler</a></strong></font> - - - + Error for incompatible hardware Fehler: inkompatible Hardware - + Download progressBar Herunterladen-progressBar - + Shows the progress made in the download Zeigt den Fortschritt des Downloads an - + Download speed Downloadgeschwindigkeit - + Download speed in bytes/kilobytes/megabytes per second Downloadgeschwindigkeit in Bytes/Kilobytes/Megabytes pro Sekunde - + Calculating... Berechnung… - - - - + + + + Whether the file hash is being calculated Ob der Datei-Hash berechnet wird - + Displayed when the file hash is being calculated Angezeigt, wenn der Datei-Hash berechnet wird - + ERROR: $API_KEY is empty. FEHLER: $API_KEY ist leer. - + enter $API_KEY geben Sie den $API_KEY ein - + ERROR: $BASE_URL is empty. FEHLER: $BASE_URL ist leer. - + enter $BASE_URL geben Sie den $BASE_URL ein - + ERROR: $MODEL_NAME is empty. FEHLER: $MODEL_NAME ist leer. - + enter $MODEL_NAME geben Sie den $MODEL_NAME ein - + File size Dateigröße - + RAM required benötigter RAM - + Parameters Parameter - + Quant Quant - + Type Typ @@ -368,272 +351,243 @@ ApplicationSettings - + Application Programm - + Network dialog Netzwerkdialog - + opt-in to share feedback/conversations Opt-in zum Teilen von Feedback/Gesprächen - ERROR: Update system could not find the MaintenanceTool used<br> - to check for updates!<br><br> - Did you install this application using the online installer? If so,<br> - the MaintenanceTool executable should be located one directory<br> - above where this application resides on your filesystem.<br><br> - If you can't start it manually, then I'm afraid you'll have - to<br> - reinstall. - FEHLER: Das Aktualisierungssystem konnte das zur Suche nach Aktualisierungen verwendete MaintenanceTool nicht finden!<br><br>Haben Sie diese Anwendung mithilfe des Online-Installationsprogramms installiert?<br><br>Wenn ja, sollte sich die ausführbare Datei des MaintenanceTools ein Verzeichnis<br><br>über dem Verzeichnis befinden, in dem sich diese Anwendung auf Ihrem Dateisystem befindet.<br><br>Wenn Sie es nicht manuell starten können, müssen Sie es leider erneut installieren. - - - + Error dialog Fehlerdialog - + Application Settings Programmeinstellungen - + General Allgemein - + Theme Thema - + The application color scheme. Farbschema des Programms. - + Dark Dunkel - + Light Helles - + + ERROR: Update system could not find the MaintenanceTool used to check for updates!<br/><br/>Did you install this application using the online installer? If so, the MaintenanceTool executable should be located one directory above where this application resides on your filesystem.<br/><br/>If you can't start it manually, then I'm afraid you'll have to reinstall. + + + + LegacyDark Alte Dunkel - + Font Size Schriftgröße - + The size of text in the application. Die Textgröße im Programm. - + Device Gerät/Device - The compute device used for text generation. "Auto" uses Vulkan or Metal. - Das zur Textgenerierung verwendete Rechengerät. "Auto" verwendet Vulkan oder Metal. - - - - ERROR: Update system could not find the MaintenanceTool used<br> - to check for updates!<br><br> - Did you install this application using the online installer? If so,<br> - the MaintenanceTool executable should be located one directory<br> - above where this application resides on your filesystem.<br><br> - If you can't start it manually, then I'm afraid you'll have to<br> - reinstall. - FEHLER: Das Aktualisierungssystem konnte das zur Suche nach Aktualisierungen verwendete MaintenanceTool nicht finden!<br><br>Haben Sie diese Anwendung mithilfe des Online-Installationsprogramms installiert?<br><br>Wenn ja, sollte sich die ausführbare Datei des MaintenanceTools ein Verzeichnis<br><br>über dem Verzeichnis befinden, in dem sich diese Anwendung auf Ihrem Dateisystem befindet.<br><br>Wenn Sie es nicht manuell starten können, müssen Sie es leider erneut installieren. - - - + Small Klein - + Medium Mittelgroß - + Large Groß - + Language and Locale Sprache und Gebietsschema - + The language and locale you wish to use. Sprache und Gebietsschema, die Sie verwenden möchten. - + System Locale Systemgebietsschema - + The compute device used for text generation. Das zur Textgenerierung verwendete Gerät. - - + + Application default Programmstandardeinstellung - + Default Model Standard-Modell - + The preferred model for new chats. Also used as the local server fallback. Das bevorzugte Modell für neue Chats. Wird auch als Fallback für den lokalen Server verwendet. - + Suggestion Mode Vorschlagsmodus - + Generate suggested follow-up questions at the end of responses. am Ende der Antworten, Vorschläge für Folgefragen generieren. - + When chatting with LocalDocs beim Chatten mit LocalDocs - + Whenever possible wann immer möglich - + Never niemals - + Download Path Download-Pfad - + Where to store local models and the LocalDocs database. Wo lokale Modelle und die LocalDocs-Datenbank gespeichert werden sollen. - + Browse Durchsuchen - + Choose where to save model files Wählen Sie, wo die Modelldateien gespeichert werden sollen - + Enable Datalake DataLake aktivieren - + Send chats and feedback to the GPT4All Open-Source Datalake. Senden Sie Chats und Feedback an den GPT4All Open-Source DataLake. - + Advanced Erweiterte - + CPU Threads CPU-Threads - + The number of CPU threads used for inference and embedding. Die Anzahl der für Inferenz und Embedding verwendeten CPU-Threads. - - Save Chat Context - Chat-Kontext speichern + + Enable System Tray + - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - Status des Chat-Modells auf der Festplatte speichern, um das Laden zu beschleunigen. ACHTUNG: Verwendet ~2 GB pro Chat. + + The application will minimize to the system tray when the window is closed. + - + Enable Local API Server Lokalen API-Server aktivieren - + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Einen OpenAI-kompatiblen Server dem lokalen Host zur Verfügung stellen. WARNUNG: Führt zu erhöhtem Ressourcenverbrauch. - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - Status des Chat-Modells auf der Festplatte speichern, um das Laden zu beschleunigen. ACHTUNG: Verwendet ~2 GB pro Chat. - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - Einen OpenAI-kompatiblen Server dem lokalen Host zur Verfügung stellen. WARNUNG: Führt zu erhöhtem Ressourcenverbrauch. - - - + API Server Port Port des API-Servers - + The port to use for the local server. Requires restart. Der für den lokalen Server zu verwendende Port. Neustart erforderlich. - + Check For Updates Nach Updates suchen - + Manually check for an update to GPT4All. Nach einem Update für GPT4All, manuell suchen. - + Updates Aktualisierungen/Updates @@ -641,13 +595,13 @@ Chat - - + + New Chat Neuer Chat - + Server Chat Server-Chat @@ -655,12 +609,12 @@ ChatAPIWorker - + ERROR: Network error occurred while connecting to the API server FEHLER: Netzwerkfehler aufgetreten, beim Verbinden mit dem API-Server - + ChatAPIWorker::handleFinished got HTTP Error %1 %2 ChatAPIWorker::handleFinished - Fehler: HTTP Error %1 %2 @@ -668,95 +622,241 @@ ChatDrawer - + Drawer Schublade - + Main navigation drawer Schublade der Hauptnavigation - + + New Chat + Neuer Chat - + Create a new chat Neuen Chat erstellen - + Select the current chat or edit the chat when in edit mode Wählen Sie den aktuellen Chat aus, oder bearbeiten Sie den Chat im Bearbeitungsmodus - + Edit chat name Chatnamen bearbeiten - + Save chat name Chatnamen speichern - + Delete chat Chat löschen - + Confirm chat deletion Chat-Löschung bestätigen - + Cancel chat deletion Chat-Löschung abbrechen - + List of chats Liste der Chats - + List of chats in the drawer dialog Liste der Chats im Schubladendialog + + ChatItemView + + + GPT4All + GPT4All + + + + You + Du + + + + response stopped ... + Antwort gestoppt ... + + + + retrieving localdocs: %1 ... + von LocalDocs abrufen: %1 ... + + + + searching localdocs: %1 ... + in LocalDocs suchen: %1 ... + + + + processing ... + wird bearbeitet ... + + + + generating response ... + Antwort wird generiert... + + + + generating questions ... + Fragen werden generiert... + + + + + Copy + Kopieren + + + + Copy Message + Nachricht kopieren + + + + Disable markdown + Markdown deaktivieren + + + + Enable markdown + Markdown aktivieren + + + + %n Source(s) + + %n Quelle + %n Quellen + + + + + LocalDocs + LocalDocs + + + + Edit this message? + + + + + + All following messages will be permanently erased. + + + + + Redo this response? + + + + + Cannot edit chat without a loaded model. + + + + + Cannot edit chat while the model is generating. + + + + + Edit + + + + + Cannot redo response without a loaded model. + + + + + Cannot redo response while the model is generating. + + + + + Redo + + + + + Like response + + + + + Dislike response + + + + + Suggested follow-ups + Empfohlene Folgemaßnahmen + + + + ChatLLM + + + Your message was too long and could not be processed (%1 > %2). Please try again with something shorter. + + + ChatListModel - + TODAY HEUTE - + THIS WEEK DIESE WOCHE - + THIS MONTH DIESEN MONAT - + LAST SIX MONTHS LETZTE SECHS MONATE - + THIS YEAR DIESES JAHR - + LAST YEAR LETZTES JAHR @@ -764,353 +864,275 @@ ChatView - + <h3>Warning</h3><p>%1</p> <h3>Warnung</h3><p>%1</p> - - Switch model dialog - Dialog: Modell Wechseln - - - - Warn the user if they switch models, then context will be erased - Warnen Sie den Benutzer, wenn er das Modell wechselt. Dann wird der Kontext gelöscht. - - - + Conversation copied to clipboard. Konversation in die Clipboard kopiert. - + Code copied to clipboard. Code in die Clipboard kopiert. - + + The entire chat will be erased. + + + + Chat panel Chat-Bereich - + Chat panel with options Chat-Panel mit Optionen - + Reload the currently loaded model Das aktuell geladene Modell neu laden - + Eject the currently loaded model Das aktuell geladene Modell aus werfen - + No model installed. Kein Modell installiert. - + Model loading error. Fehler beim Laden des Modells. - + Waiting for model... Auf Modell warten... - + Switching context... Kontext wechseln... - + Choose a model... Wählen Sie ein Modell... - + Not found: %1 Nicht gefunden: %1 - + The top item is the current model Oberste Artikel ist das aktuelle Modell - - + LocalDocs LocalDocs - + Add documents Dokumente hinzufügen - + add collections of documents to the chat Dokumentensammlungen zum Chat hinzufügen - + Load the default model Standardmodell laden - + Loads the default model which can be changed in settings Standardmodell lädt, das in Einstellungen geändert werden kann - + No Model Installed Kein Modell installiert - GPT4All requires that you install at least one model to get started - GPT4All erfordert, dass Sie mindestens ein Modell installieren, um beginnen zu können. + + Legacy prompt template needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. + - + + No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. + + + + + The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. + + + + + Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. + + + + + Add media + + + + + Adds media to the prompt + + + + + Attach + + + + + Single File + + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help <h3>Beim Laden des Modells ist ein Fehler aufgetreten:</h3><br><i>"%1"</i><br><br>Fehler beim Laden des Modells können verschiedene Gründe haben. Zu den häufigsten Ursachen zählen jedoch ein falsches Dateiformat, ein unvollständiger oder beschädigter Download, der falsche Dateityp, nicht genügend System-RAM oder ein inkompatibler Modelltyp. Hier sind einige Vorschläge zur Lösung des Problems:<br><ul><li>Stellen Sie sicher, dass die Modelldatei ein kompatibles Format und einen kompatiblen Typ hat.<li>Überprüfen Sie, ob die Modelldatei im Download-Ordner vollständig ist.<li>Sie finden den Download-Ordner im Einstellungsdialogfeld.<li>Wenn Sie das Modell seitlich geladen haben, stellen Sie sicher, dass die Datei nicht beschädigt ist, indem Sie md5sum überprüfen.<li>Lesen Sie in unserer <a href="https://docs.gpt4all.io/">Dokumentation</a> für die GUI mehr darüber, welche Modelle unterstützt werden.<li>Besuchen Sie unseren <a href="https://discord.gg/4M2QFmTt2k">Discord-Kanal</a>, um Hilfe zu erhalten. - - GPT4All requires that you install at least one model to get started - GPT4All erfordert, dass Sie mindestens ein Modell installieren, um beginnen zu können. + + + Erase conversation? + - + + Changing the model will erase the current conversation. + + + + + GPT4All requires that you install at least one +model to get started + + + + Install a Model Installieren Sie ein Modell - + Shows the add model view Zeigt die Ansicht "Modell Hinzufügen" an - + Conversation with the model Gespräch mit dem Modell - + prompt / response pairs from the conversation Prompt-/Antwort-Paare aus dem Gespräch - - GPT4All - GPT4All - - - - You - Du - - - recalculating context ... - Kontext neu berechnen ... - - - - response stopped ... - Antwort gestoppt ... - - - - processing ... - wird bearbeitet ... - - - - generating response ... - Antwort wird generiert... - - - - generating questions ... - Fragen werden generiert... - - - - + Copy Kopieren - - Copy Message - Nachricht kopieren - - - - Disable markdown - Markdown deaktivieren - - - - Enable markdown - Markdown aktivieren - - - - Thumbs up - Gut gemacht! - - - - Gives a thumbs up to the response - Gibt der Antwort ein "Gut gemacht!" - - - - Thumbs down - Schlecht gemacht! - - - - Opens thumbs down dialog - Öffnet den Dialog „Schlecht gemacht“ - - - - Suggested follow-ups - Empfohlene Folgemaßnahmen - - - + Erase and reset chat session Chatsitzung löschen und zurücksetzen - + Copy chat session to clipboard Chat-Sitzung in die Clipboard kopieren - - Redo last chat response - Letzte Chat-Antwort wiederholen. - - - + Stop generating Generierung beenden - + Stop the current response generation Aktuelle Antwortgenerierung stoppen - + Reloads the model Lädt das Modell neu - <h3>Encountered an error loading - model:</h3><br><i>"%1"</i><br><br>Model - loading failures can happen for a variety of reasons, but the most common causes - include a bad file format, an incomplete or corrupted download, the wrong file type, - not enough system RAM or an incompatible model type. Here are some suggestions for - resolving the problem:<br><ul><li>Ensure the model file has a - compatible format and type<li>Check the model file is complete in the download - folder<li>You can find the download folder in the settings dialog<li>If - you've sideloaded the model ensure the file is not corrupt by checking - md5sum<li>Read more about what models are supported in our <a - href="https://docs.gpt4all.io/">documentation</a> for the - gui<li>Check out our <a - href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>Beim Laden des Modells ist ein Fehler aufgetreten:</h3><br><i>"%1"</i><br><br>Fehler beim Laden des Modells können verschiedene Gründe haben. Zu den häufigsten Ursachen zählen jedoch ein falsches Dateiformat, ein unvollständiger oder beschädigter Download, der falsche Dateityp, nicht genügend System-RAM oder ein inkompatibler Modelltyp. Hier sind einige Vorschläge zur Lösung des Problems:<br><ul><li>Stellen Sie sicher, dass die Modelldatei ein kompatibles Format und einen kompatiblen Typ hat.<li>Überprüfen Sie, ob die Modelldatei im Download-Ordner vollständig ist.<li>Sie finden den Download-Ordner im Einstellungsdialogfeld.<li>Wenn Sie das Modell seitlich geladen haben, stellen Sie sicher, dass die Datei nicht beschädigt ist, indem Sie md5sum überprüfen.<li>Lesen Sie in unserer <a href="https://docs.gpt4all.io/">Dokumentation</a> für die GUI mehr darüber, welche Modelle unterstützt werden.<li>Besuchen Sie unseren <a href="https://discord.gg/4M2QFmTt2k">Discord-Kanal</a>, um Hilfe zu erhalten. - - - - + + Reload · %1 Neu laden · %1 - + Loading · %1 Wird geladen: · %1 - + Load · %1 (default) → Jetzt laden · %1 (implicit) → - - restoring from text ... - aus Text Wiederherstellen ... - - - - retrieving localdocs: %1 ... - von LocalDocs abrufen: %1 ... - - - - searching localdocs: %1 ... - in LocalDocs suchen: %1 ... - - - - %n Source(s) - - %n Quelle - %n Quellen - %n Quellen - - - - + Send a message... Senden Sie eine Nachricht... - + Load a model to continue... Laden Sie ein Modell, um fortzufahren … - + Send messages/prompts to the model Senden Sie Nachrichten/Eingabeaufforderungen an das Modell - + Cut Schneiden (Cut) - + Paste Verbinden (Paste) - + Select All Alles auswählen - + Send message Nachricht senden - + Sends the message/prompt contained in textfield to the model Sendet die im Textfeld enthaltene Nachricht/Eingabeaufforderung an das Modell @@ -1118,78 +1140,89 @@ CollectionsDrawer - + Warning: searching collections while indexing can return incomplete results Achtung: Durchsuchen in Sammlungen während der Indizierung kann unvollständige Ergebnisse zurückgeben. - + %n file(s) %n Datei %n Dateien - %n Dateien - + %n word(s) %n Wort %n Wörter - %n Wörter - + Updating Aktualisierung - + + Add Docs + Dokumente hinzufügen - + Select a collection to make it available to the chat model. Wählen Sie eine Sammlung aus, um sie dem Chat-Modell verfügbar zu machen. + + ConfirmationDialog + + + OK + + + + + Cancel + Abbrechen + + Download - + Model "%1" is installed successfully. Modell "%1" wurde erfolgreich installiert. - + ERROR: $MODEL_NAME is empty. FEHLER: $MODEL_NAME ist leer. - + ERROR: $API_KEY is empty. FEHLER: $API_KEY ist leer. - + ERROR: $BASE_URL is invalid. FEHLER: $BASE_URL ist ungültig. - + ERROR: Model "%1 (%2)" is conflict. FEHLER: Modell "%1 (%2)" weist einen Konflikt auf. - + Model "%1 (%2)" is installed successfully. Modell "%1 (%2)" wurde erfolgreich installiert. - + Model "%1" is removed. Modell "%1" wurde entfernt. @@ -1197,96 +1230,92 @@ HomeView - + Welcome to GPT4All Willkommen bei GPT4All - + The privacy-first LLM chat application Die datenschutzorientierte LLM-Chat-Programm - + Start chatting Jetzt chatten - + Start Chatting Jetzt chatten - + Chat with any LLM Chatten Sie mit jedem LLM - + LocalDocs LocalDocs - + Chat with your local files Chatten Sie mit Ihren lokalen Dateien - + Find Models Modelle finden - + Explore and download models Modelle erkunden und herunterladen - + Latest news Neueste Nachrichten - + Latest news from GPT4All Neueste Nachrichte von GPT4All - + Release Notes Versionshinweise - + Documentation Dokumentation - + Discord Discord - + X (Twitter) X (Twitter) - + Github GitHub - + nomic.ai nomic.ai - GitHub - GitHub - - - + Subscribe to Newsletter Zum Newsletter anmelden @@ -1294,302 +1323,271 @@ LocalDocsSettings - + LocalDocs LocalDocs - + LocalDocs Settings LocalDocs-Einstellungen - + Indexing Indizierung - + Allowed File Extensions Erlaubte Dateierweiterungen - Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Durch-Kommas getrennte Liste. LocalDocs versucht nur, Dateien mit diesen Erweiterungen zu verarbeiten. - - - - Embedding - Embedding - - - - Use Nomic Embed API - Nomic Embed API verwenden - - - Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Embedding von Dokumente mithilfe der schnellen Nomic-API, statt mithilfe eines privaten lokalen Modells. Neustart erforderlich. - - - - Nomic API Key - Nomic API-Schlüssel - - - API key to use for Nomic Embed. Get one from the Atlas <a - href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. - API-Schlüssel zur Verwendung für Nomic Embed. Holen Sie sich einen aus dem Atlas: <a href="https://atlas.nomic.ai/cli-login">API-Schlüsselseite</a> Erfordert Neustart. - - - - Embeddings Device - Embeddings-Gerät - - - - The compute device used for embeddings. Requires restart. - Das für Embeddings verwendete Rechengerät. Neustart erforderlich. - - - + Comma-separated list. LocalDocs will only attempt to process files with these extensions. Durch-Kommas getrennte Liste. LocalDocs versucht nur, Dateien mit diesen Erweiterungen zu verarbeiten. - + + Embedding + Embedding + + + + Use Nomic Embed API + Nomic Embed API verwenden + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. Embedding von Dokumente mithilfe der schnellen Nomic-API, statt mithilfe eines privaten lokalen Modells. Neustart erforderlich. - + + Nomic API Key + Nomic API-Schlüssel + + + + Embeddings Device + Embeddings-Gerät + + + + The compute device used for embeddings. Requires restart. + Das für Embeddings verwendete Rechengerät. Neustart erforderlich. + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. API-Schlüssel zur Verwendung für Nomic Embed. Holen Sie sich einen aus dem Atlas: <a href="https://atlas.nomic.ai/cli-login">API-Schlüsselseite</a> Erfordert Neustart. - + Application default Programmstandardeinstellung - + Display Anzeige - + Show Sources Quellen anzeigen - + Display the sources used for each response. Zeigt die für jede Antwort verwendeten Quellen an. - + Advanced Erweiterte - + Warning: Advanced usage only. Warnung: Nur für erweiterte Verwendung. - + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Zu große Werte können zu Fehlern bei LocalDocs, extrem langsamen Antworten oder gar keinen Antworten führen. Grob gesagt werden die {N Zeichen x N Snippets} zum Kontextfenster des Modells hinzugefügt. Mehr Infos: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">hier</a>. - + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Anzahl der Zeichen pro Dokumentausschnitt. Höhere Zahlen erhöhen die Wahrscheinlichkeit sachlicher Antworten, führen aber auch zu einer langsameren Generierung. - + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Maximal besten N Übereinstimmungen der abgerufenen Dokumentausschnitte, die dem Kontext für die Eingabeaufforderung hinzugefügt werden sollen. Größere Zahlen erhöhen die Wahrscheinlichkeit sachlicher Antworten, führen aber auch zu einer langsameren Generierung. - Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - Zu große Werte können zu Fehlern bei LocalDocs, extrem langsamen Antworten oder gar keinen Antworten führen. Grob gesagt werden die {N Zeichen x N Snippets} zum Kontextfenster des Modells hinzugefügt. Mehr Infos: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">hier</a>. - - - + Document snippet size (characters) Größe des Dokumentausschnitts (in Zeichen) - Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Anzahl der Zeichen pro Dokumentausschnitt. Höhere Zahlen erhöhen die Wahrscheinlichkeit sachlicher Antworten, führen aber auch zu einer langsameren Generierung. - - - + Max document snippets per prompt Maximale Anzahl an Dokumentausschnitten pro Eingabeaufforderung - - Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Maximal besten N Übereinstimmungen der abgerufenen Dokumentausschnitte, die dem Kontext für die Eingabeaufforderung hinzugefügt werden sollen. Größere Zahlen erhöhen die Wahrscheinlichkeit sachlicher Antworten, führen aber auch zu einer langsameren Generierung. - LocalDocsView - + LocalDocs LocalDocs - + Chat with your local files Chatten Sie mit Ihren lokalen Dateien - + + Add Collection + Sammlung hinzufügen - ERROR: The LocalDocs database is not valid. - FEHLER: Die LocalDocs-Datenbank ist ungültig. - - - + <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. FEHLER: Auf die LocalDocs-Datenbank kann nicht zugegriffen werden oder sie ist ungültig.</h3><br><i>Hinweis: Sie müssen einen Neustart durchführen, nachdem Sie eine der folgenden vorgeschlagenen Korrekturen ausprobiert haben.</i><br><ul><li>Stellen Sie sicher, dass der als <b>Download-Pfad</b> festgelegte Ordner im Dateisystem vorhanden ist.</li><li>Überprüfen Sie den Besitz sowie die Lese- und Schreibberechtigungen des <b>Download-Pfades</b>.</li><li>Wenn eine Datei <b>localdocs_v2.db</b> vorhanden ist, überprüfen Sie auch deren Eigentümerschaft und Lese-/Schreibberechtigungen.</li></ul><br>Wenn das Problem weiterhin besteht und noch 'localdocs_v*.db'-Dateien vorhanden sind, können Sie als letzten Ausweg versuchen, diese zu sichern und zu entfernen. Sie müssen Ihre Sammlungen jedoch neu erstellen. - + No Collections Installed Keine Sammlungen erstellt - + Install a collection of local documents to get started using this feature Erstellen Sie eine Sammlung lokaler Dokumente, um mit der Nutzung dieser Funktion zu beginnen - + + Add Doc Collection + Dokumentensammlung hinzufügen - + Shows the add model view Zeigt die Ansicht "Modell Hinzufügen" an - + Indexing progressBar Indizierungsfortschrittsleiste - + Shows the progress made in the indexing Zeigt den Fortschritt der Indizierung an - + ERROR FEHLER - + INDEXING ...Indizierung... - + EMBEDDING ...EMBEDDINGs... - + REQUIRES UPDATE ERFORDERT UPDATE - + READY BEREIT - + INSTALLING ...INSTALLIEREN... - + Indexing in progress ...Indizierung läuft... - + Embedding in progress ...Embedding läuft... - + This collection requires an update after version change Diese Sammlung erfordert nach Versionswechsel ein Update - + Automatically reindexes upon changes to the folder Automatische Neuindizierung bei Änderungen am Ordner - + Installation in progress ...Installation läuft... - + % % - + %n file(s) %n Datei %n Dateien - %n Dateien - + %n word(s) %n Wort %n Wörter - %n Wörter - + Remove Entfernen - + Rebuild Neuaufbau - + Reindex this folder from scratch. This is slow and usually not needed. Indizieren Sie diesen Ordner von Grund auf neu. Langsam und normalerweise nicht erforderlich. - + Update Update/Aktualisieren - + Update the collection to the new version. This is a slow operation. Sammlung aktualisieren, auf die neue Version. Dies ist ein langsamer Vorgang. @@ -1597,602 +1595,584 @@ ModelList - - <ul><li>Requires personal OpenAI API - key.</li><li>WARNING: Will send your chats to - OpenAI!</li><li>Your API key will be stored on - disk</li><li>Will only be used to communicate with - OpenAI</li><li>You can apply for an API key <a - href="https://platform.openai.com/account/api-keys">here.</a></li> - <ul><li>Erfordert persönlichen OpenAI API-Schlüssel.</li><li>WARNUNG: Ihre Chats werden an OpenAI gesendet!</li><li>Ihr API-Schlüssel wird auf der Festplatte gespeichert.</li><li>Wird nur zur Kommunikation mit OpenAI verwendet.</li><li>Sie können <a href="https://platform.openai.com/account/api-keys">hier</a></li> einen API-Schlüssel beantragen. - - - <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> - %1 - <strong>Modell ChatGPT GPT-3.5 Turbo von OpenAI</strong><br> %1 - - - - + + cannot open "%1": %2 kann nicht öffnen "%1": %2 - + cannot create "%1": %2 kann nicht erstellen: "%1": %2 - + %1 (%2) %1 (%2) - + <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> <strong>OpenAI-kompatibles API-Modell</strong><br><ul><li>API-Schlüssel: %1</li><li>Base URL: %2</li><li>Modellname: %3</li></ul> - + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>Erfordert einen persönlichen OpenAI API-Schlüssel. </li><li>WARNUNG: Ihre Chats werden an OpenAI gesendet!</li><li>Ihre API-Schlüssel wird auf der Festplatte gespeichert </li><li>Es wird nur zur Kommunikation mit OpenAI verwendet</li><li>Einen API-Schlüssel können Sie <a href="https://platform.openai.com/account/api-keys">hier beantragen.</a></li> - + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <strong>Modell OpenAI's ChatGPT GPT-3.5 Turbo</strong><br> %1 - + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* Auch wenn Sie OpenAI für ChatGPT-4 bezahlen, ist der Zugriff auf den API-Schlüssel nicht garantiert. Kontaktieren Sie OpenAI für weitere Informationen. - + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Modell ChatGPT GPT-4 des OpenAI</strong><br> %1 %2 - + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>Erfordert persönlichen Mistral-API-Schlüssel. </li><li>ACHTUNG: Ihre Chats werden an Mistral gesendet!</li><li>Ihre API-Schlüssel wird auf der Festplatte gespeichert</li><li>Es wird nur zur Kommunikation mit Mistral verwendet</li><li>Einen API-Schlüssel können Sie <a href="https://console.mistral.ai/user/api-keys">hier beantragen.</a>.</li> - + <strong>Mistral Tiny model</strong><br> %1 <strong>Modell Mistral Tiny</strong><br> %1 - + <strong>Mistral Small model</strong><br> %1 <strong>Modell Mistral Small</strong><br> %1 - + <strong>Mistral Medium model</strong><br> %1 <strong>Modell Mistral Medium</strong><br> %1 - + <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> <ul><li>Erfordert den persönlichen API-Schlüssel und die API Base URL.</li><li>WARNUNG: Sendet Ihre Chats an den von Ihnen angegebenen OpenAI-kompatiblen API-Server!</li><li>Ihre API-Schlüssel wird auf der Festplatte gespeichert</li><li>Es wird nur zur Kommunikation mit dem OpenAI-kompatiblen API-Server verwendet</li> - + <strong>Connect to OpenAI-compatible API server</strong><br> %1 <strong>Verbindung zum OpenAI-kompatiblen API-Server herstellen</strong><br> %1 - + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Erstellt von: %1.</strong><br><ul><li>Veröffentlicht am: %2.<li>Dieses Modell hat: %3 Likes.<li>Dieses Modell hat: %4 Downloads.<li>Weitere Infos finden Sie <a href="https://huggingface.co/%5">hier.</a></ul> - - <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. - <br><br><i>* Auch wenn Sie OpenAI für ChatGPT-4 bezahlen, ist der Zugriff auf den API-Schlüssel nicht garantiert. Kontaktieren Sie OpenAI für weitere Informationen. - - - - <ul><li>Requires personal Mistral API - key.</li><li>WARNING: Will send your chats to - Mistral!</li><li>Your API key will be stored on - disk</li><li>Will only be used to communicate with - Mistral</li><li>You can apply for an API key <a - href="https://console.mistral.ai/user/api-keys">here</a>.</li> - - <ul><li>Erfordert persönlichen Mistral API-Schlüssel. </li><li>ACHTUNG: Deine Chats werden an -Mistral gesendet!</li><li>Ihre API-Schlüssel wird auf der Festplatte gespeichert</li><li>Es wird nur zur Kommunikation mit -Mistral verwendet.</li><li>Einen API-Schlüssel können Sie <a href="https://console.mistral.ai/user/api-keys">hier beantragen</a>.</li> - - - <strong>Created by - %1.</strong><br><ul><li>Published on %2.<li>This model - has %3 likes.<li>This model has %4 downloads.<li>More info can be found - <a href="https://huggingface.co/%5">here.</a></ul> - <strong>Erstellt von: %1.</strong><br><ul><li>Veröffentlicht am: %2.<li>Dieses Modell hat: %3 Likes.<li>Dieses Modell hat: %4 Downloads.<li>Weitere Infos finden Sie <a href="https://huggingface.co/%5">hier.</a></ul> - ModelSettings - + Model Modell - + + %1 system message? + + + + + + Clear + + + + + + Reset + + + + + The system message will be %1. + + + + + removed + + + + + + reset to the default + + + + + %1 chat template? + + + + + The chat template will be %1. + + + + + erased + + + + Model Settings Modelleinstellungen - + Clone Klonen Sie es - + Remove Entfernen - + Name Name - + Model File Modelldatei - - System Prompt - System Prompt + + System Message + - Prefixed at the beginning of every conversation. Must contain the appropriate - framing tokens. - Wird jedem Gespräch vorangestellt. Muss die entsprechenden umschließenden Tokens enthalten. + + A message to set the context or guide the behavior of the model. Leave blank for none. NOTE: Since GPT4All 3.5, this should not contain control tokens. + - - Prompt Template - Prompt Template + + System message is not <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">plain text</a>. + - - The template that wraps every prompt. - Die Vorlage, die jede Eingabeaufforderung umschließt. + + Chat Template + - Must contain the string "%1" to be replaced with the user's - input. - Muss die Zeichenfolge "%1" enthalten, die durch die Eingabe des Benutzers ersetzt werden soll. + + This Jinja template turns the chat into input for the model. + - + + No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. + + + + + The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. + + + + + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Syntax error</a>: %1 + + + + + Chat template is not in <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja format</a>. + + + + Chat Name Prompt Eingabeaufforderung für Chat-Namen - + Prompt used to automatically generate chat names. Eingabeaufforderung zum automatischen Generieren von Chat-Namen. - + Suggested FollowUp Prompt Vorgeschlagene Folgeaufforderung - + Prompt used to generate suggested follow-up questions. Eingabeaufforderung zum Generieren von Vorschlägen für Folgefragen. - + Context Length Kontextlänge - + Number of input and output tokens the model sees. Anzahl der Eingabe- und Ausgabetoken, die das Modell sieht. - Maximum combined prompt/response tokens before information is lost. - Using more context than the model was trained on will yield poor results. - NOTE: Does not take effect until you reload the model. - Maximale Anzahl kombinierter Eingabeaufforderungs-/Antworttokens, bevor Informationen verloren gehen. Die Verwendung von mehr Kontext, als das Modell trainiert wurde, führt zu schlechten Ergebnissen. HINWEIS: Wird erst wirksam, wenn Sie das Modell neu laden. - - - + Temperature Temperatur - + Randomness of model output. Higher -> more variation. Zufälligkeit der Modellausgabe. Höher -> mehr Variation. - Temperature increases the chances of choosing less likely tokens. - NOTE: Higher temperature gives more creative but less predictable outputs. - Die Temperatur erhöht die Wahrscheinlichkeit, weniger wahrscheinliche Tokens auszuwählen. HINWEIS: Höhere Temperaturen führen zu kreativeren, aber weniger vorhersehbaren Ergebnissen. - - - + Top-P Top-P - + Nucleus Sampling factor. Lower -> more predictable. Nucleus-Sampling-Faktor. Niedriger -> vorhersehbarer. - Only the most likely tokens up to a total probability of top_p can be chosen. - NOTE: Prevents choosing highly unlikely tokens. - Es können nur die wahrscheinlichsten Tokens bis zu einer Gesamtwahrscheinlichkeit von top_p ausgewählt werden. HINWEIS: Verhindert die Auswahl sehr unwahrscheinlicher Token. - - - - Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. - Wird jedem Gespräch vorangestellt. Muss die entsprechenden umschließenden Tokens enthalten. - - - - Must contain the string "%1" to be replaced with the user's input. - Muss die Zeichenfolge "%1" enthalten, die durch die Eingabe des Benutzers ersetzt werden soll. - - - + Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. Maximale Anzahl kombinierter Eingabeaufforderungs-/Antworttoken, bevor Informationen verloren gehen. Die Verwendung von mehr Kontext, als das Modell trainiert wurde, führt zu schlechten Ergebnissen. HINWEIS: Wird erst wirksam, wenn Sie das Modell neu laden. - + Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. Die Temperatur erhöht die Wahrscheinlichkeit, weniger wahrscheinliche Token auszuwählen. HINWEIS: Höhere Temperaturen führen zu kreativeren, aber weniger vorhersehbaren Ergebnissen. - + Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Es können nur die wahrscheinlichsten Token bis zu einer Gesamtwahrscheinlichkeit von top_p ausgewählt werden. HINWEIS: Verhindert die Auswahl sehr unwahrscheinlicher Token. - + Min-P Min-P - + Minimum token probability. Higher -> more predictable. Minimale Token-Wahrscheinlichkeit. Höher -> vorhersehbarer. - + Sets the minimum relative probability for a token to be considered. Legt die minimale relative Wahrscheinlichkeit fest, mit der ein Token berücksichtigt wird. - + Top-K Top-K - + Size of selection pool for tokens. Größe des Auswahlpools für Token. - + Only the top K most likely tokens will be chosen from. Es werden nur die K wahrscheinlichsten Token ausgewählt. - + Max Length Maximale Länge - + Maximum response length, in tokens. Maximale Antwortlänge in Tokens. - + Prompt Batch Size Prompt Batch Size - + The batch size used for prompt processing. Die für die sofortige Verarbeitung verwendete Batchgröße. - + Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. Anzahl der gleichzeitig zu verarbeitenden Eingabeaufforderungstoken. HINWEIS: Höhere Werte können die Leseaufforderungen beschleunigen, verbrauchen jedoch mehr RAM. - + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. Wie viele Modellschichten in den VRAM geladen werden sollen. Verringern Sie diesen Wert, wenn GPT4All beim Laden dieses Modells nicht genügend VRAM hat. Niedrigere Werte erhöhen die CPU-Auslastung und den RAM-Verbrauch und verlangsamen die Inferenz. HINWEIS: Wird erst wirksam, wenn Sie das Modell neu laden. - Amount of prompt tokens to process at once. - NOTE: Higher values can speed up reading prompts but will use more RAM. - Anzahl der gleichzeitig zu verarbeitenden Eingabeaufforderungstoken. HINWEIS: Höhere Werte können die Leseaufforderungen beschleunigen, verbrauchen jedoch mehr RAM. - - - + Repeat Penalty Wiederholungs-Strafe - + Repetition penalty factor. Set to 1 to disable. Wiederholungsstraffaktor. Zum Deaktivieren, auf 1 setzen. - + Repeat Penalty Tokens Wiederholungs-Straf-Tokens - + Number of previous tokens used for penalty. Anzahl der zuvor für die Strafe verwendeten Token. - + GPU Layers GPU-Schichten - + Number of model layers to load into VRAM. Anzahl der in den VRAM zu ladenden Modelleschichten. - - How many model layers to load into VRAM. Decrease this if GPT4All runs out of - VRAM while loading this model. - Lower values increase CPU load and RAM usage, and make inference slower. - NOTE: Does not take effect until you reload the model. - Wie viele Modellshichten in den VRAM geladen werden sollen. Verringern Sie diesen Wert, wenn GPT4All beim Laden dieses Modells nicht genügend VRAM hat. Niedrigere Werte erhöhen die CPU-Auslastung und den RAM-Verbrauch und verlangsamen die Inferenz. HINWEIS: Wird erst wirksam, wenn Sie das Modell neu laden. - ModelsView - + No Models Installed Keine Modelle installiert - + Install a model to get started using GPT4All Installieren Sie ein Modell, um mit der Verwendung von GPT4All zu beginnen - - + + + Add Model + Modell hinzufügen - + Shows the add model view Zeigt die Ansicht "Modell Hinzufügen" an - + Installed Models Installierte Modelle - + Locally installed chat models Lokal installierte Chat-Modelle - + Model file Modelldatei - + Model file to be downloaded Fişierul modelului ce va fi descărcat - + Description Beschreibung - + File description Dateibeschreibung - + Cancel Abbrechen - + Resume Weitermachen - + Stop/restart/start the download Oprirea/Repornirea/Iniţierea descărcării - + Remove Şterg - + Remove model from filesystem Şterg modelul din sistemul de fişiere - - + + Install Installieren - + Install online model Online-Modell installieren - <strong><font size="1"><a - href="#error">Error</a></strong></font> - <strong><font size="1"><a href="#Fehler">Fehler</a></strong></font> - - - <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available(%2).</strong></font> - <strong><font size="2">ACHTUNG: Nicht empfohlen für Ihre Hardware. Das Modell benötigt mehr Speicher (%1 GB), als Ihr System zur Verfügung hat (%2).</strong></font> - - - + %1 GB %1 GB - + ? ? - + Describes an error that occurred when downloading Beschreibt einen Fehler, der beim Herunterladen aufgetreten ist - + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#eroare">Error</a></strong></font> - + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ACHTUNG: Nicht empfohlen für Ihre Hardware. Das Modell benötigt mehr Speicher (%1 GB), als Ihr System zur Verfügung hat (%2).</strong></font> - + Error for incompatible hardware Fehler: inkompatible Hardware - + Download progressBar Herunterladen-progressBar - + Shows the progress made in the download Zeigt den Fortschritt des Downloads an - + Download speed Downloadgeschwindigkeit - + Download speed in bytes/kilobytes/megabytes per second Downloadgeschwindigkeit in Bytes/Kilobytes/Megabytes pro Sekunde - + Calculating... Berechnung… - - - - + + + + Whether the file hash is being calculated Ob der Datei-Hash berechnet wird - + Busy indicator "Besetzt"-Anzeige - + Displayed when the file hash is being calculated Angezeigt, wenn der Datei-Hash berechnet wird - + ERROR: $API_KEY is empty. FEHLER: $API_KEY ist leer. - + enter $API_KEY geben Sie den $API_KEY ein - + ERROR: $BASE_URL is empty. FEHLER: $BASE_URL ist leer. - + enter $BASE_URL geben Sie den $BASE_URL ein - + ERROR: $MODEL_NAME is empty. FEHLER: $MODEL_NAME ist leer. - + enter $MODEL_NAME geben Sie den $MODEL_NAME ein - + File size Dateigröße - + RAM required benötigter RAM - + Parameters Parameter - + Quant Quant - + Type Typ @@ -2200,33 +2180,64 @@ NOTE: Does not take effect until you reload the model. MyFancyLink - + Fancy link Schicker Link - + A stylized link Stilisierter Link - MySettingsStack + MyFileDialog - + + Please choose a file + + + + + MyFolderDialog + + Please choose a directory - Wählen Sie einen Ordner + Wählen Sie einen Ordner + + + + MySettingsLabel + + + Clear + + + + + Reset + MySettingsTab - + + Restore defaults? + + + + + This page of settings will be reset to the defaults. + + + + Restore Defaults Standardeinstellungen Wiederherstellen - + Restores settings dialog to a default state Setzt die "Einstellungen" Dialog auf den Standardzustand zurück @@ -2234,45 +2245,12 @@ NOTE: Does not take effect until you reload the model. NetworkDialog - + Contribute data to the GPT4All Opensource Datalake. Tragen Sie Daten zum Open Source DataLake von GPT4All bei. - By enabling this feature, you will be able to participate in the democratic - process of training a large language model by contributing data for future model - improvements. - - When a GPT4All model responds to you and you have opted-in, your conversation will - be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its - response. If you dislike a response, you can suggest an alternative response. This - data will be collected and aggregated in the GPT4All Datalake. - - NOTE: By turning on this feature, you will be sending your data to the GPT4All Open - Source Datalake. You should have no expectation of chat privacy when this feature is - enabled. You should; however, have an expectation of an optional attribution if you - wish. Your chat data will be openly available for anyone to download and will be - used by Nomic AI to improve future GPT4All models. Nomic AI will retain all - attribution information attached to your data and you will be credited as a - contributor to any GPT4All model release that uses your data! - Dacă activezi această funcţionalitate, vei participa la procesul democratic - de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului. - - Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi - trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica, - Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ. - Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. - - NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta - DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi - această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti. - Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi - utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra - toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca - participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! - - - + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. @@ -2295,47 +2273,47 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! - + Terms for opt-in Bedingungen für Opt-in (Anmelden) - + Describes what will happen when you opt-in Beschreibt, was passiert, wenn Sie sich Anmelden - + Please provide a name for attribution (optional) Geben Sie einen Namen zur Erkennung ein (optional) - + Attribution (optional) Erkennung (optional) - + Provide attribution Geben Sie (An)Erkennung - + Enable Aktivieren - + Enable opt-in Opt-in aktivieren - + Cancel Abbrechen - + Cancel opt-in Opt-in abbrechen @@ -2343,17 +2321,17 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O NewVersionDialog - + New version is available Neue Version verfügbar! - + Update Update/Aktualisieren - + Update to new version Update auf die neue Version @@ -2361,17 +2339,17 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O PopupDialog - + Reveals a shortlived help balloon Zeigt einen kurzlebigen Hilfeballon - + Busy indicator "Besetzt"-Anzeige - + Displayed when the popup is showing busy Wird angezeigt, wenn ein Prozess ausgeführt wird. @@ -2379,28 +2357,28 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O SettingsView - - + + Settings Einstellungen - + Contains various application settings Enthält verschiedene Programmeinstellungen - + Application Programm - + Model Modell - + LocalDocs LocalDocs @@ -2408,85 +2386,22 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O StartupDialog - + Welcome! Willkommen! - ### Release notes - %1### Contributors - %2 - ### Versionshinweise - %1### Mitwirkende - %2 - - - + Release notes Versionshinweise - + Release notes for this version Versionshinweise zu diese Version - ### Opt-ins for anonymous usage analytics and datalake - By enabling these features, you will be able to participate in the democratic - process of training a - large language model by contributing data for future model improvements. - - When a GPT4All model responds to you and you have opted-in, your conversation will - be sent to the GPT4All - Open Source Datalake. Additionally, you can like/dislike its response. If you - dislike a response, you - can suggest an alternative response. This data will be collected and aggregated in - the GPT4All Datalake. - - NOTE: By turning on this feature, you will be sending your data to the GPT4All Open - Source Datalake. - You should have no expectation of chat privacy when this feature is enabled. You - should; however, have - an expectation of an optional attribution if you wish. Your chat data will be openly - available for anyone - to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI - will retain all - attribution information attached to your data and you will be credited as a - contributor to any GPT4All - model release that uses your data! - ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake - Activând aceste functionalităţi vei putea participa la procesul democratic - de instruire a unui - model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele. - Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este - trimisă la componenta - Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă - un răspuns Nu Îţi Place (e "Aiurea"). poţi - sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în - componenta DataLake a GPT4All. - - NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta - DataLake a GPT4All. - Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate. - Totuşi, te poţi aştepta la a beneficia de apreciere - - opţional, dacă doreşti. Datele din conversaţie vor fi disponibile - pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI - pentru a îmbunătăţi modele viitoare în GPT4All. - Nomic AI va păstra - toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca - participant contribuitor la orice lansare a unui model GPT4All - care foloseşte datele tale! - - - ### Release notes -%1### Contributors -%2 - ### Versionshinweise - %1### Mitwirkende - %2 - - - + ### Release Notes %1<br/> ### Contributors @@ -2497,7 +2412,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O %2 - + ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. @@ -2533,133 +2448,104 @@ participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! - + Terms for opt-in Bedingungen für Opt-in (Anmelden) - + Describes what will happen when you opt-in Beschreibt, was passiert, wenn Sie sich Anmelden - - + + Opt-in for anonymous usage statistics Sie Opt-in (Anmelden) für anonyme Nutzungsstatistiken - - + + Yes JA - + Allow opt-in for anonymous usage statistics Sie das Opt-in für anonyme Nutzungsstatistiken zulassen - - + + No NEIN - + Opt-out for anonymous usage statistics Opt-out (Ich melde mich ab) für anonyme Nutzungsstatistiken - + Allow opt-out for anonymous usage statistics Deaktivieren der anonymen Nutzungsstatistik zulassen - - + + Opt-in for network Ich stimme zu für Netzwerk - + Allow opt-in for network Opt-in für Netzwerk zulassen - + Allow opt-in anonymous sharing of chats to the GPT4All Datalake Erlauben Sie die anonyme Freigabe von Chats an den GPT4All-DataLake. - + Opt-out for network Ich melde mich ab für Netzwerk - + Allow opt-out anonymous sharing of chats to the GPT4All Datalake Erlauben Sie nicht die anonyme Freigabe von Chats an den GPT4All-DataLake. - - SwitchModelDialog - - <b>Warning:</b> changing the model will erase the current - conversation. Do you wish to continue? - <b>WARNUNG:</b> Durch Ändern des Modells wird die aktuelle Konversation gelöscht. Möchten Sie fortfahren? - - - - <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>WARNUNG:</b> Durch Ändern des Modells wird die aktuelle Konversation gelöscht. Möchten Sie fortfahren? - - - - Continue - Weiter - - - - Continue with model loading - Weiter mit dem Laden des Modells - - - - - Cancel - Abbrechen - - ThumbsDownDialog - + Please edit the text below to provide a better response. (optional) Bitte bearbeiten Sie den folgenden Text, um eine bessere Antwort zu geben. (optional) - + Please provide a better response... Bitte geben Sie eine bessere Antwort... - + Submit Senden Sie es - + Submits the user's response Übermittelt die Antwort des Benutzers - + Cancel Abbrechen - + Closes the response dialog Schließt den Antwortdialog @@ -2667,152 +2553,135 @@ care foloseşte datele tale! main - - <h3>Encountered an error starting - up:</h3><br><i>"Incompatible hardware - detected."</i><br><br>Unfortunately, your CPU does not meet - the minimal requirements to run this program. In particular, it does not support AVX - intrinsics which this program requires to successfully run a modern large language - model. The only soluţion at this time is to upgrade your hardware to a more modern - CPU.<br><br>See here for more information: <a - href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - - - + GPT4All v%1 GPT4All v%1 - <h3>Encountered an error starting - up:</h3><br><i>"Inability to access settings - file."</i><br><br>Unfortunately, something is preventing the - program from accessing the settings file. This could be caused by incorrect - permissions in the local app config directory where the settings file is located. - Check out our <a href="https://discord.gg/4M2QFmTt2k">discord - channel</a> for help. - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. + + Restore + - <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + Quit + - + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. - + Connection to datalake failed. Verbindung zum DataLake fehlgeschlagen. - + Saving chats. Chats speichern. - + Network dialog Netzwerkdialog - + opt-in to share feedback/conversations opt-in zum Teilen von Feedback/Gesprächen - + Home view Startseite - + Home view of application Startseite des Programms - + Home Startseite - + Chat view Chat-Ansicht - + Chat view to interact with models Chat-Ansicht zur Interaktion mit Modellen - + Chats Chats/Gespräche - - + + Models Modelle - + Models view for installed models Modellansicht für installierte Modelle - - + + LocalDocs LocalDocs - + LocalDocs view to configure and use local docs LocalDocs-Ansicht zum Konfigurieren und Verwenden lokaler Dokumente - - + + Settings Einstellungen - + Settings view for application configuration Einstellungsansicht für die Programmskonfiguration - + The datalake is enabled DataLake: AKTIVIERT - + Using a network model Netzwerkmodell verwenden - + Server mode is enabled Servermodus: AKTIVIERT - + Installed models Installierte Modelle - + View of installed models Ansicht der installierten Modelle