diff --git a/gpt4all-chat/CHANGELOG.md b/gpt4all-chat/CHANGELOG.md
index 969669b1..745d972a 100644
--- a/gpt4all-chat/CHANGELOG.md
+++ b/gpt4all-chat/CHANGELOG.md
@@ -9,6 +9,9 @@ The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/).
### Added
- Use greedy sampling when temperature is set to zero ([#2854](https://github.com/nomic-ai/gpt4all/pull/2854))
+### Fixed
+- Bring back "Auto" option for Embeddings Device as "Application default," which went missing in v3.1.0 ([#2873](https://github.com/nomic-ai/gpt4all/pull/2873))
+
## [3.2.1] - 2024-08-13
### Fixed
diff --git a/gpt4all-chat/qml/LocalDocsSettings.qml b/gpt4all-chat/qml/LocalDocsSettings.qml
index 47f44090..45df85e3 100644
--- a/gpt4all-chat/qml/LocalDocsSettings.qml
+++ b/gpt4all-chat/qml/LocalDocsSettings.qml
@@ -163,7 +163,7 @@ MySettingsTab {
MySettingsLabel {
id: deviceLabel
text: qsTr("Embeddings Device")
- helpText: qsTr('The compute device used for embeddings. "Auto" uses the CPU. Requires restart.')
+ helpText: qsTr('The compute device used for embeddings. Requires restart.')
}
MyComboBox {
id: deviceBox
@@ -172,11 +172,18 @@ MySettingsTab {
Layout.maximumWidth: 400
Layout.fillWidth: false
Layout.alignment: Qt.AlignRight
- model: MySettings.embeddingsDeviceList
+ model: ListModel {
+ ListElement { text: qsTr("Application default") }
+ Component.onCompleted: {
+ MySettings.embeddingsDeviceList.forEach(d => append({"text": d}));
+ }
+ }
Accessible.name: deviceLabel.text
Accessible.description: deviceLabel.helpText
function updateModel() {
- deviceBox.currentIndex = deviceBox.indexOfValue(MySettings.localDocsEmbedDevice);
+ var device = MySettings.localDocsEmbedDevice;
+ // This usage of 'Auto' should not be translated
+ deviceBox.currentIndex = device === "Auto" ? 0 : deviceBox.indexOfValue(device);
}
Component.onCompleted: {
deviceBox.updateModel();
@@ -188,7 +195,8 @@ MySettingsTab {
}
}
onActivated: {
- MySettings.localDocsEmbedDevice = deviceBox.currentText;
+ // This usage of 'Auto' should not be translated
+ MySettings.localDocsEmbedDevice = deviceBox.currentIndex === 0 ? "Auto" : deviceBox.currentText;
}
}
}
diff --git a/gpt4all-chat/translations/gpt4all_en_US.ts b/gpt4all-chat/translations/gpt4all_en_US.ts
index 0769d674..b8944c0c 100644
--- a/gpt4all-chat/translations/gpt4all_en_US.ts
+++ b/gpt4all-chat/translations/gpt4all_en_US.ts
@@ -115,44 +115,44 @@
-
-
+
+ Default
-
-
+
+ Likes
-
-
+
+ Downloads
-
-
+
+ Recent
-
-
+
+ Asc
-
-
+
+ Desc
-
-
+
+ None
@@ -163,266 +163,266 @@
-
-
+
+ Sort by: %1
-
-
+
+ Sort dir: %1
-
-
+
+ Limit: %1
-
-
+
+ Network error: could not retrieve %1
-
-
-
-
+
+
+
+ Busy indicator
-
-
+
+ Displayed when the models request is ongoing
-
-
+
+ Model file
-
-
+
+ Model file to be downloaded
-
-
+
+ Description
-
-
+
+ File description
-
-
+
+ Cancel
-
-
+
+ Resume
-
-
+
+ Download
-
-
+
+ Stop/restart/start the download
-
-
+
+ Remove
-
-
+
+ Remove model from filesystem
-
-
-
-
+
+
+
+ Install
-
-
-
- Install online model
-
-
-
-
-
- <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
-
-
-
-
-
- ERROR: $API_KEY is empty.
-
-
-
-
-
- ERROR: $BASE_URL is empty.
-
-
-
-
-
- enter $BASE_URL
-
-
-
-
-
- ERROR: $MODEL_NAME is empty.
-
-
-
-
-
- enter $MODEL_NAME
-
-
-
-
-
- %1 GB
-
-
-
-
-
-
-
- ?
-
-
+ Install online model
+
+
+
+
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
+
+
+
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+
+ ERROR: $BASE_URL is empty.
+
+
+
+
+
+ enter $BASE_URL
+
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+
+ enter $MODEL_NAME
+
+
+
+
+
+ %1 GB
+
+
+
+
+
+
+
+ ?
+
+
+
+
+ Describes an error that occurred when downloading
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font>
-
-
+
+ Error for incompatible hardware
-
-
+
+ Download progressBar
-
-
+
+ Shows the progress made in the download
-
-
+
+ Download speed
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second
-
-
+
+ Calculating...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated
-
-
+
+ Displayed when the file hash is being calculated
-
-
+
+ enter $API_KEY
-
-
+
+ File size
-
-
+
+ RAM required
-
-
+
+ Parameters
-
-
+
+ Quant
-
-
+
+ Type
@@ -490,238 +490,238 @@
-
-
+
+ Dark
-
-
+
+ Light
-
-
+
+ LegacyDark
-
-
+
+ Font Size
-
-
+
+ The size of text in the application.
-
-
+
+ Small
-
-
+
+ Medium
-
-
+
+ Large
-
-
+
+ Language and Locale
-
-
+
+ The language and locale you wish to use.
-
-
+
+ System Locale
-
-
+
+ Device
-
-
+
+ The compute device used for text generation.
-
-
-
-
+
+
+
+ Application default
-
-
+
+ Default Model
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.
-
-
+
+ Suggestion Mode
-
-
+
+ Generate suggested follow-up questions at the end of responses.
-
-
+
+ When chatting with LocalDocs
-
-
+
+ Whenever possible
-
-
+
+ Never
-
-
+
+ Download Path
-
-
+
+ Where to store local models and the LocalDocs database.
-
-
+
+ Browse
-
-
+
+ Choose where to save model files
-
-
+
+ Enable Datalake
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.
-
-
+
+ Advanced
-
-
+
+ CPU Threads
-
-
+
+ The number of CPU threads used for inference and embedding.
-
-
-
- Save Chat Context
-
-
-
-
-
- Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.
-
-
-
-
-
- Enable Local Server
-
-
- Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.
+ Save Chat Context
-
-
- API Server Port
+
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.
+ Enable Local Server
+
+
+
+
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.
+
+
+
+
+
+ API Server Port
+
+
+
+
+ The port to use for the local server. Requires restart.
-
-
+
+ Check For Updates
-
-
+
+ Manually check for an update to GPT4All.
-
-
+
+ Updates
@@ -1520,66 +1520,72 @@ model to get started
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
+ The compute device used for embeddings. Requires restart.
-
-
+
+
+ Application default
+
+
+
+
+ Display
-
-
+
+ Show Sources
-
-
+
+ Display the sources used for each response.
-
-
+
+ Advanced
-
-
+
+ Warning: Advanced usage only.
-
-
-
- Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
-
-
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
+
+
+
+
+ Document snippet size (characters)
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.
-
-
+
+ Max document snippets per prompt
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.
diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts
index a62f2d6d..433d514a 100644
--- a/gpt4all-chat/translations/gpt4all_es_MX.ts
+++ b/gpt4all-chat/translations/gpt4all_es_MX.ts
@@ -79,346 +79,350 @@
AddModelView
-
-
+
+ ← Existing Models← Modelos existentes
-
-
+
+ Explore ModelsExplorar modelos
-
-
+
+ Discover and download models by keyword search...Descubre y descarga modelos mediante búsqueda por palabras clave...
-
-
+
+ Text field for discovering and filtering downloadable modelsCampo de texto para descubrir y filtrar modelos descargables
-
-
+
+ Initiate model discovery and filteringIniciar descubrimiento y filtrado de modelos
-
-
+
+ Triggers discovery and filtering of modelsActiva el descubrimiento y filtrado de modelos
-
-
+
+ DefaultPredeterminado
-
-
+
+ LikesMe gusta
-
-
+
+ DownloadsDescargas
-
-
+
+ RecentReciente
-
-
+
+ AscAsc
-
-
+
+ DescDesc
-
-
+
+ NoneNinguno
-
-
+
+ Searching · %1Buscando · %1
-
-
+
+ Sort by: %1Ordenar por: %1
-
-
+
+ Sort dir: %1Dirección de ordenamiento: %1
-
-
+
+ Limit: %1Límite: %1
-
-
+
+ Network error: could not retrieve %1Error de red: no se pudo recuperar %1
-
-
-
-
+
+
+
+ Busy indicatorIndicador de ocupado
-
-
+
+ Displayed when the models request is ongoingSe muestra cuando la solicitud de modelos está en curso
-
-
+
+ Model fileArchivo del modelo
-
-
+
+ Model file to be downloadedArchivo del modelo a descargar
-
-
+
+ DescriptionDescripción
-
-
+
+ File descriptionDescripción del archivo
-
-
+
+ CancelCancelar
-
-
+
+ ResumeReanudar
-
-
+
+ DownloadDescargar
-
-
+
+ Stop/restart/start the downloadDetener/reiniciar/iniciar la descarga
-
-
+
+ RemoveEliminar
-
-
+
+ Remove model from filesystemEliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ InstallInstalar
-
-
+
+ Install online modelInstalar modelo en línea
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font>
-
-
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
-
-
+
+ Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descarga
-
-
+
+ Error for incompatible hardwareError por hardware incompatible
-
-
+
+ Download progressBarBarra de progreso de descarga
-
-
+
+ Shows the progress made in the downloadMuestra el progreso realizado en la descarga
-
-
+
+ Download speedVelocidad de descarga
-
-
+
+ Download speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculating...Calculando...
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculatedSi se está calculando el hash del archivo
-
-
+
+ Displayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivo
-
-
+
+ enter $API_KEYingrese $API_KEY
-
-
+
+ File sizeTamaño del archivo
-
-
+
+ RAM requiredRAM requerida
-
-
+
+ ParametersParámetros
-
-
+
+ QuantCuantificación
-
-
+
+ TypeTipo
-
-
+
+ ERROR: $API_KEY is empty.ERROR: $API_KEY está vacío.
-
-
+
+ ERROR: $BASE_URL is empty.ERROR: $BASE_URL está vacío.
-
-
+
+ enter $BASE_URLingrese $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.
-
-
+
+ enter $MODEL_NAMEingrese $MODEL_NAME
@@ -443,6 +447,18 @@
opt-in to share feedback/conversationsoptar por compartir comentarios/conversaciones
+
+
+
+ ERROR: Update system could not find the MaintenanceTool used<br>
+ to check for updates!<br><br>
+ Did you install this application using the online installer? If so,<br>
+ the MaintenanceTool executable should be located one directory<br>
+ above where this application resides on your filesystem.<br><br>
+ If you can't start it manually, then I'm afraid you'll have to<br>
+ reinstall.
+
+
@@ -474,256 +490,252 @@
El esquema de colores de la aplicación.
-
-
+
+ DarkOscuro
-
-
+
+ LightClaro
-
-
+
+ LegacyDarkOscuro legado
-
-
+
+ Font SizeTamaño de fuente
-
-
+
+ The size of text in the application.El tamaño del texto en la aplicación.
-
-
+
+ DeviceDispositivo
- The compute device used for text generation. "Auto" uses Vulkan or Metal.
- El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal.
+ El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal.
-
-
+
+ SmallPequeño
-
-
+
+ MediumMediano
-
-
+
+ LargeGrande
-
-
+
+ Language and LocaleIdioma y configuración regional
-
-
+
+ The language and locale you wish to use.El idioma y la configuración regional que deseas usar.
-
-
+
+ Default ModelModelo predeterminado
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local.
-
-
+
+ Suggestion ModeModo de sugerencia
-
-
+
+ Generate suggested follow-up questions at the end of responses.Generar preguntas de seguimiento sugeridas al final de las respuestas.
-
-
+
+ When chatting with LocalDocsAl chatear con LocalDocs
-
-
+
+ Whenever possibleSiempre que sea posible
-
-
+
+ NeverNunca
-
-
+
+ Download PathRuta de descarga
-
-
+
+ Where to store local models and the LocalDocs database.Dónde almacenar los modelos locales y la base de datos de LocalDocs.
-
-
+
+ BrowseExplorar
-
-
+
+ Choose where to save model filesElegir dónde guardar los archivos del modelo
-
-
+
+ Enable DatalakeHabilitar Datalake
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.Enviar chats y comentarios al Datalake de código abierto de GPT4All.
-
-
+
+ AdvancedAvanzado
-
-
+
+ CPU ThreadsHilos de CPU
-
-
+
+ The number of CPU threads used for inference and embedding.El número de hilos de CPU utilizados para inferencia e incrustación.
-
-
+
+ Save Chat ContextGuardar contexto del chat
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat.
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos.
-
-
+
+ Enable Local ServerHabilitar servidor local
- Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased
resource usage.
- Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta
+ Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta
en un mayor uso de recursos.
-
-
+
+ API Server PortPuerto del servidor API
-
-
+
+ The port to use for the local server. Requires restart.El puerto a utilizar para el servidor local. Requiere reinicio.
-
-
+
+ Check For UpdatesBuscar actualizaciones
-
-
+
+ Manually check for an update to GPT4All.Buscar manualmente una actualización para GPT4All.
-
-
+
+ UpdatesActualizaciones
-
-
+
+ System LocaleRegional del sistema
-
-
+
+ The compute device used for text generation.El dispositivo de cómputo utilizado para la generación de texto.
-
-
-
-
+
+
+
+ Application defaultPredeterminado de la aplicación
-
- ERROR: Update system could not find the MaintenanceTool used<br>
to check for updates!<br><br>
Did you install this application using the online installer? If so,<br>
@@ -731,7 +743,7 @@
above where this application resides on your filesystem.<br><br>
If you can't start it manually, then I'm afraid you'll have to<br>
reinstall.
- ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br>
+ ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br>
para buscar actualizaciones.<br><br>
¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br>
el ejecutable de la Herramienta de Mantenimiento debería estar ubicado un directorio<br>
@@ -754,6 +766,19 @@
Chat del servidor
+
+ ChatAPIWorker
+
+
+ ERROR: Network error occurred while connecting to the API server
+ ERROR: Ocurrió un error de red al conectar con el servidor API
+
+
+
+ ChatAPIWorker::handleFinished got HTTP Error %1 %2
+ ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2
+
+ChatDrawer
@@ -962,9 +987,9 @@
-
+
-
+ LocalDocsDocumentosLocales
@@ -981,20 +1006,20 @@
agregar colecciones de documentos al chat
-
-
+
+ Load the default modelCargar el modelo predeterminado
-
-
+
+ Loads the default model which can be changed in settingsCarga el modelo predeterminado que se puede cambiar en la configuración
-
-
+
+ No Model InstalledNo hay modelo instalado
@@ -1005,174 +1030,172 @@
<h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayuda
-
-
+
+ Install a ModelInstalar un modelo
-
-
+
+ Shows the add model viewMuestra la vista de agregar modelo
-
-
+
+ Conversation with the modelConversación con el modelo
-
-
+
+ prompt / response pairs from the conversationpares de pregunta / respuesta de la conversación
-
-
+
+ GPT4AllGPT4All
-
-
+
+ YouTú
-
- recalculating context ...
- recalculando contexto ...
+ recalculando contexto ...
-
-
+
+ response stopped ...respuesta detenida ...
-
-
+
+ processing ...procesando ...
-
-
+
+ generating response ...generando respuesta ...
-
-
+
+ generating questions ...generando preguntas ...
-
-
-
-
+
+
+
+ CopyCopiar
-
-
+
+ Copy MessageCopiar mensaje
-
-
+
+ Disable markdownDesactivar markdown
-
-
+
+ Enable markdownActivar markdown
-
-
+
+ Thumbs upMe gusta
-
-
+
+ Gives a thumbs up to the responseDa un me gusta a la respuesta
-
-
+
+ Thumbs downNo me gusta
-
-
+
+ Opens thumbs down dialogAbre el diálogo de no me gusta
-
-
+
+ %1 Sources%1 Fuentes
-
-
+
+ Suggested follow-upsSeguimientos sugeridos
-
-
+
+ Erase and reset chat sessionBorrar y reiniciar sesión de chat
-
-
+
+ Copy chat session to clipboardCopiar sesión de chat al portapapeles
-
-
+
+ Redo last chat responseRehacer última respuesta del chat
-
-
+
+ Stop generatingDetener generación
-
-
+
+ Stop the current response generationDetener la generación de la respuesta actual
-
-
+
+ Reloads the modelRecarga el modelo
-
+
-
+ Reload · %1Recargar · %1
@@ -1183,68 +1206,68 @@
Cargando · %1
-
-
+
+ Load · %1 (default) →Cargar · %1 (predeterminado) →
-
-
+
+ retrieving localdocs: %1 ...recuperando documentos locales: %1 ...
-
-
+
+ searching localdocs: %1 ...buscando en documentos locales: %1 ...
-
-
+
+ Send a message...Enviar un mensaje...
-
-
+
+ Load a model to continue...Carga un modelo para continuar...
-
-
+
+ Send messages/prompts to the modelEnviar mensajes/indicaciones al modelo
-
-
+
+ CutCortar
-
-
+
+ PastePegar
-
-
+
+ Select AllSeleccionar todo
-
-
+
+ Send messageEnviar mensaje
-
-
+
+ Sends the message/prompt contained in textfield to the modelEnvía el mensaje/indicación contenido en el campo de texto al modelo
@@ -1267,14 +1290,14 @@ modelo para comenzar
CollectionsDrawer
-
-
+
+ Warning: searching collections while indexing can return incomplete resultsAdvertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos
-
-
+
+ %n file(s)%n archivo
@@ -1282,8 +1305,8 @@ modelo para comenzar
-
-
+
+ %n word(s)%n palabra
@@ -1291,24 +1314,62 @@ modelo para comenzar
-
-
+
+ UpdatingActualizando
-
-
+
+ + Add Docs+ Agregar documentos
-
-
+
+ Select a collection to make it available to the chat model.Seleccione una colección para hacerla disponible al modelo de chat.
+
+ Download
+
+
+ Model "%1" is installed successfully.
+ El modelo "%1" se ha instalado correctamente.
+
+
+
+ ERROR: $MODEL_NAME is empty.
+ ERROR: $MODEL_NAME está vacío.
+
+
+
+ ERROR: $API_KEY is empty.
+ ERROR: $API_KEY está vacía.
+
+
+
+ ERROR: $BASE_URL is invalid.
+ ERROR: $BASE_URL no es válida.
+
+
+
+ ERROR: Model "%1 (%2)" is conflict.
+ ERROR: El modelo "%1 (%2)" está en conflicto.
+
+
+
+ Model "%1 (%2)" is installed successfully.
+ El modelo "%1 (%2)" se ha instalado correctamente.
+
+
+
+ Model "%1" is removed.
+ El modelo "%1" ha sido eliminado.
+
+HomeView
@@ -1449,7 +1510,7 @@ modelo para comenzar
Comma-separated list. LocalDocs will only attempt to process files with these
extensions.
- Lista separada por comas. DocumentosLocales solo intentará procesar
+ Lista separada por comas. DocumentosLocales solo intentará procesar
archivos con estas extensiones.
@@ -1467,7 +1528,7 @@ modelo para comenzar
Embed documents using the fast Nomic API instead of a private local model.
Requires restart.
- Incrustar documentos usando la rápida API de Nomic en lugar de un modelo
+ Incrustar documentos usando la rápida API de Nomic en lugar de un modelo
local privado. Requiere reinicio.
@@ -1477,6 +1538,8 @@ modelo para comenzar
Clave API de Nomic
+
+ API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart.Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio.
@@ -1487,10 +1550,10 @@ modelo para comenzar
Dispositivo de incrustaciones
- The compute device used for embeddings. "Auto" uses the CPU. Requires
- restart.
- El dispositivo de cómputo utilizado para las incrustaciones.
- "Auto" usa la CPU. Requiere reinicio.
+
+
+ The compute device used for embeddings. Requires restart.
+ El dispositivo de cómputo utilizado para las incrustaciones. Requiere reinicio.
@@ -1505,73 +1568,73 @@ modelo para comenzar
Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio.
-
-
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio.
+
+
+ Application default
+ Predeterminado de la aplicación
-
-
+
+ DisplayVisualización
-
-
+
+ Show SourcesMostrar fuentes
-
-
+
+ Display the sources used for each response.Mostrar las fuentes utilizadas para cada respuesta.
-
-
+
+ AdvancedAvanzado
-
-
+
+ Warning: Advanced usage only.Advertencia: Solo para uso avanzado.
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
- Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
+ Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
-
-
+
+ Document snippet size (characters)Tamaño del fragmento de documento (caracteres)
-
-
+
+ Max document snippets per promptMáximo de fragmentos de documento por indicación
@@ -1597,122 +1660,120 @@ modelo para comenzar
+ Agregar colección
-
- ERROR: The LocalDocs database is not valid.
- ERROR: La base de datos de DocumentosLocales no es válida.
+ ERROR: La base de datos de DocumentosLocales no es válida.
-
-
+
+ No Collections InstalledNo hay colecciones instaladas
-
-
+
+ Install a collection of local documents to get started using this featureInstala una colección de documentos locales para comenzar a usar esta función
-
-
+
+ + Add Doc Collection+ Agregar colección de documentos
-
-
+
+ Shows the add model viewMuestra la vista de agregar modelo
-
-
+
+ Indexing progressBarBarra de progreso de indexación
-
-
+
+ Shows the progress made in the indexingMuestra el progreso realizado en la indexación
-
-
+
+ ERRORERROR
-
-
+
+ INDEXINGINDEXANDO
-
-
+
+ EMBEDDINGINCRUSTANDO
-
-
+
+ REQUIRES UPDATEREQUIERE ACTUALIZACIÓN
-
-
+
+ READYLISTO
-
-
+
+ INSTALLINGINSTALANDO
-
-
+
+ Indexing in progressIndexación en progreso
-
-
+
+ Embedding in progressIncrustación en progreso
-
-
+
+ This collection requires an update after version changeEsta colección requiere una actualización después del cambio de versión
-
-
+
+ Automatically reindexes upon changes to the folderReindexación automática al cambiar la carpeta
-
-
+
+ Installation in progressInstalación en progreso
-
-
+
+ %%
-
-
+
+ %n file(s)%n archivo
@@ -1720,8 +1781,8 @@ modelo para comenzar
-
-
+
+ %n word(s)%n palabra
@@ -1729,32 +1790,32 @@ modelo para comenzar
-
-
+
+ RemoveEliminar
-
-
+
+ RebuildReconstruir
-
-
+
+ Reindex this folder from scratch. This is slow and usually not needed.Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario.
-
-
+
+ UpdateActualizar
-
-
+
+ Update the collection to the new version. This is a slow operation.Actualizar la colección a la nueva versión. Esta es una operación lenta.
@@ -1768,54 +1829,53 @@ modelo para comenzar
ModelList
-
+ <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li><ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li>
- <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br>
%1
- <strong>Modelo ChatGPT GPT-3.5 Turbo de
+ <strong>Modelo ChatGPT GPT-3.5 Turbo de
OpenAI</strong><br> %1
-
+ <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1<strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1
-
+ <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.<br><br><i>* Aunque pagues a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacta a OpenAI para más información.
-
+ <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2<strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2
-
+ <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li><ul><li>Requiere una clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará tus chats a Mistral!</li><li>Tu clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puedes solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li>
-
+ <strong>Mistral Tiny model</strong><br> %1<strong>Modelo Mistral Tiny</strong><br> %1
-
+ <strong>Mistral Small model</strong><br> %1<strong>Modelo Mistral Small</strong><br> %1
-
+ <strong>Mistral Medium model</strong><br> %1<strong>Modelo Mistral Medium</strong><br> %1
-
+ <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul><strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Más información puede encontrarse <a href="https://huggingface.co/%5">aquí.</a></ul>
@@ -1830,12 +1890,12 @@ modelo para comenzar
<strong>Modelo de API compatible con OpenAI</strong><br><ul><li>Clave API: %1</li><li>URL base: %2</li><li>Nombre del modelo: %3</li></ul>
-
+ <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li><ul><li>Requiere una clave API personal y la URL base de la API.</li><li>ADVERTENCIA: ¡Enviará sus chats al servidor de API compatible con OpenAI que especificó!</li><li>Su clave API se almacenará en el disco</li><li>Solo se utilizará para comunicarse con el servidor de API compatible con OpenAI</li>
-
+ <strong>Connect to OpenAI-compatible API server</strong><br> %1<strong>Conectar al servidor de API compatible con OpenAI</strong><br> %1
@@ -1885,7 +1945,8 @@ modelo para comenzar
Indicación del sistema
-
+
+ Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens.Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados.
@@ -1902,7 +1963,8 @@ modelo para comenzar
La plantilla que envuelve cada indicación.
-
+
+ Must contain the string "%1" to be replaced with the user's input.Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario.
@@ -1919,175 +1981,176 @@ modelo para comenzar
Indicación utilizada para generar automáticamente nombres de chat.
-
-
+
+ Suggested FollowUp PromptIndicación de seguimiento sugerida
-
-
+
+ Prompt used to generate suggested follow-up questions.Indicación utilizada para generar preguntas de seguimiento sugeridas.
-
-
+
+ Context LengthLongitud del contexto
-
-
+
+ Number of input and output tokens the model sees.Número de tokens de entrada y salida que el modelo ve.
- Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.
- Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres.
+ Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres.
NOTA: No tiene efecto hasta que recargues el modelo.
-
-
+
+ TemperatureTemperatura
-
-
+
+ Randomness of model output. Higher -> more variation.Aleatoriedad de la salida del modelo. Mayor -> más variación.
-
+
+ Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.La temperatura aumenta las probabilidades de elegir tokens menos probables.
NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles.
-
-
+
+ Top-PTop-P
-
-
+
+ Nucleus Sampling factor. Lower -> more predicatable.Factor de muestreo de núcleo. Menor -> más predecible.
-
+
+ Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p.
NOTA: Evita elegir tokens altamente improbables.
-
-
+
+ Min-PMin-P
-
-
+
+ Minimum token probability. Higher -> more predictable.Probabilidad mínima del token. Mayor -> más predecible.
-
-
+
+ Sets the minimum relative probability for a token to be considered.Establece la probabilidad relativa mínima para que un token sea considerado.
-
-
+
+ Top-KTop-K
-
-
+
+ Size of selection pool for tokens.Tamaño del grupo de selección para tokens.
-
-
+
+ Only the top K most likely tokens will be chosen from.Solo se elegirán los K tokens más probables.
-
-
+
+ Max LengthLongitud máxima
-
-
+
+ Maximum response length, in tokens.Longitud máxima de respuesta, en tokens.
-
-
+
+ Prompt Batch SizeTamaño del lote de indicaciones
-
-
+
+ The batch size used for prompt processing.El tamaño del lote utilizado para el procesamiento de indicaciones.
-
-
+
+ Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.Cantidad de tokens de prompt a procesar de una vez.
NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán más RAM.
-
-
+
+ Repeat PenaltyPenalización por repetición
-
-
+
+ Repetition penalty factor. Set to 1 to disable.Factor de penalización por repetición. Establecer a 1 para desactivar.
-
-
+
+ Repeat Penalty TokensTokens de penalización por repetición
-
-
+
+ Number of previous tokens used for penalty.Número de tokens anteriores utilizados para la penalización.
-
-
+
+ GPU LayersCapas de GPU
-
-
+
+ Number of model layers to load into VRAM.Número de capas del modelo a cargar en la VRAM.
@@ -2115,228 +2178,234 @@ NOTA: No surte efecto hasta que recargue el modelo.
ModelsView
-
-
+
+ No Models InstalledNo hay modelos instalados
-
-
+
+ Install a model to get started using GPT4AllInstala un modelo para empezar a usar GPT4All
-
-
-
-
+
+
+
+ + Add Model+ Agregar modelo
-
-
+
+ Shows the add model viewMuestra la vista de agregar modelo
-
-
+
+ Installed ModelsModelos instalados
-
-
+
+ Locally installed chat modelsModelos de chat instalados localmente
-
-
+
+ Model fileArchivo del modelo
-
-
+
+ Model file to be downloadedArchivo del modelo a descargar
-
-
+
+ DescriptionDescripción
-
-
+
+ File descriptionDescripción del archivo
-
-
+
+ CancelCancelar
-
-
+
+ ResumeReanudar
-
-
+
+ Stop/restart/start the downloadDetener/reiniciar/iniciar la descarga
-
-
+
+ RemoveEliminar
-
-
+
+ Remove model from filesystemEliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ InstallInstalar
-
-
+
+ Install online modelInstalar modelo en línea
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font>
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font>
-
-
+
+ %1 GB%1 GB
-
-
+
+ ??
-
-
+
+ Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descarga
-
-
+
+ Error for incompatible hardwareError por hardware incompatible
-
-
+
+ Download progressBarBarra de progreso de descarga
-
-
+
+ Shows the progress made in the downloadMuestra el progreso realizado en la descarga
-
-
+
+ Download speedVelocidad de descarga
-
-
+
+ Download speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculating...Calculando...
-
-
+
+
+
+
+
+ Whether the file hash is being calculatedSi se está calculando el hash del archivo
-
-
+
+ Busy indicatorIndicador de ocupado
-
-
+
+ Displayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivo
-
-
+
+ enter $API_KEYingrese $API_KEY
-
-
+
+ File sizeTamaño del archivo
-
-
+
+ RAM requiredRAM requerida
-
-
+
+ ParametersParámetros
-
-
+
+ QuantCuantificación
-
-
+
+ TypeTipo
@@ -2427,7 +2496,7 @@ response. If you dislike a response, you can suggest an alternative response. Th
data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!
- Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
+ Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos.
@@ -2545,9 +2614,8 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
QObject
- Default
- Predeterminado
+ Predeterminado
@@ -2606,26 +2674,22 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
Notas de la versión para esta versión
-
- ### Release notes
%1### Contributors
%2
- ### Notas de la versión
+ ### Notas de la versión
%1### Colaboradores
%2
-
- ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!
- ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
+ ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como colaborador en cualquier lanzamiento de modelo GPT4All que utilice tus datos.
@@ -2765,7 +2829,7 @@ lanzamiento de modelo GPT4All que utilice sus datos.<b>Warning:</b> changing the model will erase the current
conversation. Do you wish to continue?
- <b>Advertencia:</b> cambiar el modelo borrará la conversación
+ <b>Advertencia:</b> cambiar el modelo borrará la conversación
actual. ¿Desea continuar?
@@ -2989,55 +3053,4 @@ LocalesVista de modelos instalados
-
- ChatAPIWorker
-
-
- ERROR: Network error occurred while connecting to the API server
- ERROR: Ocurrió un error de red al conectar con el servidor API
-
-
-
- ChatAPIWorker::handleFinished got HTTP Error %1 %2
- ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2
-
-
-
- Download
-
-
- Model "%1" is installed successfully.
- El modelo "%1" se ha instalado correctamente.
-
-
-
- ERROR: $MODEL_NAME is empty.
- ERROR: $MODEL_NAME está vacío.
-
-
-
- ERROR: $API_KEY is empty.
- ERROR: $API_KEY está vacía.
-
-
-
- ERROR: $BASE_URL is invalid.
- ERROR: $BASE_URL no es válida.
-
-
-
- ERROR: Model "%1 (%2)" is conflict.
- ERROR: El modelo "%1 (%2)" está en conflicto.
-
-
-
- Model "%1 (%2)" is installed successfully.
- El modelo "%1 (%2)" se ha instalado correctamente.
-
-
-
- Model "%1" is removed.
- El modelo "%1" ha sido eliminado.
-
-
diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts
index e956c412..68cf05f9 100644
--- a/gpt4all-chat/translations/gpt4all_it_IT.ts
+++ b/gpt4all-chat/translations/gpt4all_it_IT.ts
@@ -115,44 +115,44 @@
Attiva la scoperta e il filtraggio dei modelli
-
-
+
+ DefaultPredefinito
-
-
+
+ LikesMi piace
-
-
+
+ DownloadsScaricamenti
-
-
+
+ RecentRecenti
-
-
+
+ AscAsc
-
-
+
+ DescDisc
-
-
+
+ NoneNiente
@@ -163,266 +163,266 @@
Ricerca · %1
-
-
+
+ Sort by: %1Ordina per: %1
-
-
+
+ Sort dir: %1Direzione ordinamento: %1
-
-
+
+ Limit: %1Limite: %1
-
-
+
+ Network error: could not retrieve %1Errore di rete: impossibile recuperare %1
-
-
-
-
+
+
+
+ Busy indicatorIndicatore di occupato
-
-
+
+ Displayed when the models request is ongoingVisualizzato quando la richiesta dei modelli è in corso
-
-
+
+ Model fileFile del modello
-
-
+
+ Model file to be downloadedFile del modello da scaricare
-
-
+
+ DescriptionDescrizione
-
-
+
+ File descriptionDescrizione del file
-
-
+
+ CancelAnnulla
-
-
+
+ ResumeRiprendi
-
-
+
+ DownloadScarica
-
-
+
+ Stop/restart/start the downloadArresta/riavvia/avvia il download
-
-
+
+ RemoveRimuovi
-
-
+
+ Remove model from filesystemRimuovi il modello dal sistema dei file
-
-
-
-
+
+
+
+ InstallInstalla
-
-
+
+ Install online modelInstalla il modello online
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
-
-
+
+ ERROR: $API_KEY is empty.ERRORE: $API_KEY è vuoto.
-
-
+
+ ERROR: $BASE_URL is empty.ERRORE: $BASE_URL non è valido.
-
-
+
+ enter $BASE_URLinserisci $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.ERRORE: $MODEL_NAME è vuoto.
-
-
+
+ enter $MODEL_NAMEinserisci $MODEL_NAME
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+ Describes an error that occurred when downloadingDescrive un errore che si è verificato durante lo scaricamento
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Errore</a></strong></font>
-
-
+
+ Error for incompatible hardwareErrore per hardware incompatibile
-
-
+
+ Download progressBarBarra di avanzamento dello scaricamento
-
-
+
+ Shows the progress made in the downloadMostra lo stato di avanzamento dello scaricamento
-
-
+
+ Download speedVelocità di scaricamento
-
-
+
+ Download speed in bytes/kilobytes/megabytes per secondVelocità di scaricamento in byte/kilobyte/megabyte al secondo
-
-
+
+ Calculating...Calcolo in corso...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculatedSe viene calcolato l'hash del file
-
-
+
+ Displayed when the file hash is being calculatedVisualizzato durante il calcolo dell'hash del file
-
-
+
+ enter $API_KEYInserire $API_KEY
-
-
+
+ File sizeDimensione del file
-
-
+
+ RAM requiredRAM richiesta
-
-
+
+ ParametersParametri
-
-
+
+ QuantQuant
-
-
+
+ TypeTipo
@@ -490,74 +490,74 @@
La combinazione di colori dell'applicazione.
-
-
+
+ DarkScuro
-
-
+
+ LightChiaro
-
-
+
+ LegacyDarkScuro Legacy
-
-
+
+ Font SizeDimensioni del Font
-
-
+
+ The size of text in the application.La dimensione del testo nell'applicazione.
-
-
+
+ SmallPiccolo
-
-
+
+ MediumMedio
-
-
+
+ LargeGrande
-
-
+
+ Language and LocaleLingua e settaggi locali
-
-
+
+ The language and locale you wish to use.La lingua e i settaggi locali che vuoi utilizzare.
-
-
+
+ System LocaleSettaggi locali del sistema
-
-
+
+ DeviceDispositivo
@@ -566,167 +566,167 @@
Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal.
-
-
+
+ The compute device used for text generation.Il dispositivo di calcolo utilizzato per la generazione del testo.
-
-
-
-
+
+
+
+ Application defaultApplicazione predefinita
-
-
+
+ Default ModelModello predefinito
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale.
-
-
+
+ Suggestion ModeModalità suggerimento
-
-
+
+ Generate suggested follow-up questions at the end of responses.Genera le domande di approfondimento suggerite alla fine delle risposte.
-
-
+
+ When chatting with LocalDocsQuando chatti con LocalDocs
-
-
+
+ Whenever possibleQuando possibile
-
-
+
+ NeverMai
-
-
+
+ Download PathPercorso di scarico
-
-
+
+ Where to store local models and the LocalDocs database.Dove archiviare i modelli locali e il database LocalDocs.
-
-
+
+ BrowseEsplora
-
-
+
+ Choose where to save model filesScegli dove salvare i file del modello
-
-
+
+ Enable DatalakeAbilita Datalake
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.Invia chat e commenti al Datalake Open Source GPT4All.
-
-
+
+ AdvancedAvanzate
-
-
+
+ CPU ThreadsThread della CPUTread CPU
-
-
+
+ The number of CPU threads used for inference and embedding.Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento.
-
-
+
+ Save Chat ContextSalva il contesto della chat
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat.
-
-
+
+ Enable Local ServerAbilita server locale
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse.
-
-
+
+ API Server PortPorta del server API
-
-
+
+ The port to use for the local server. Requires restart.La porta da utilizzare per il server locale. Richiede il riavvio.
-
-
+
+ Check For UpdatesControlla gli aggiornamenti
-
-
+
+ Manually check for an update to GPT4All.Verifica manualmente l'aggiornamento di GPT4All.
-
-
+
+ UpdatesAggiornamenti
@@ -1531,66 +1531,72 @@ modello per iniziare
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- Il dispositivo di calcolo utilizzato per gli incorporamenti. "Auto" utilizza la CPU. Richiede il riavvio.
+ The compute device used for embeddings. Requires restart.
+ Il dispositivo di calcolo utilizzato per gli incorporamenti. Richiede il riavvio.
-
-
+
+
+ Application default
+ Applicazione predefinita
+
+
+
+ DisplayMostra
-
-
+
+ Show SourcesMostra le fonti
-
-
+
+ Display the sources used for each response.Visualizza le fonti utilizzate per ciascuna risposta.
-
-
+
+ AdvancedAvanzate
-
-
+
+ Warning: Advanced usage only.Avvertenza: solo per uso avanzato.
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>.
-
-
+
+ Document snippet size (characters)Dimensioni del frammento di documento (caratteri)
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
-
-
+
+ Max document snippets per promptNumero massimo di frammenti di documento per prompt
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts
index 45d5e103..7697a400 100644
--- a/gpt4all-chat/translations/gpt4all_pt_BR.ts
+++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts
@@ -115,44 +115,44 @@
Aciona a descoberta e filtragem de modelos
-
-
+
+ DefaultPadrão
-
-
+
+ LikesCurtidas
-
-
+
+ DownloadsDownloads
-
-
+
+ RecentRecentes
-
-
+
+ AscAsc
-
-
+
+ DescDesc
-
-
+
+ NoneNenhum
@@ -163,266 +163,266 @@
Pesquisando · %1
-
-
+
+ Sort by: %1Ordenar por: %1
-
-
+
+ Sort dir: %1Ordenar diretório: %1
-
-
+
+ Limit: %1Limite: %1
-
-
+
+ Network error: could not retrieve %1Erro de rede: não foi possível obter %1
-
-
-
-
+
+
+
+ Busy indicatorIndicador de processamento
-
-
+
+ Displayed when the models request is ongoingxibido enquanto os modelos estão sendo carregados
-
-
+
+ Model fileArquivo do modelo
-
-
+
+ Model file to be downloadedArquivo do modelo a ser baixado
-
-
+
+ DescriptionDescrição
-
-
+
+ File descriptionDescrição do arquivo
-
-
+
+ CancelCancelar
-
-
+
+ ResumeRetomar
-
-
+
+ DownloadBaixar
-
-
+
+ Stop/restart/start the downloadParar/reiniciar/iniciar o download
-
-
+
+ RemoveRemover
-
-
+
+ Remove model from filesystemRemover modelo do sistema
-
-
-
-
+
+
+
+ InstallInstalar
-
-
+
+ Install online modelInstalar modelo online
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>
-
-
+
+ ERROR: $API_KEY is empty.ERRO: A $API_KEY está vazia.
-
-
+
+ ERROR: $BASE_URL is empty.ERRO: A $BASE_URL está vazia.
-
-
+
+ enter $BASE_URLinserir a $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.ERRO: O $MODEL_NAME está vazio.
-
-
+
+ enter $MODEL_NAMEinserir o $MODEL_NAME
-
-
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
-
-
+
+ Describes an error that occurred when downloadingMostra informações sobre o erro no download
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Erro</a></strong></font>
-
-
+
+ Error for incompatible hardwareAviso: Hardware não compatível
-
-
+
+ Download progressBarProgresso do download
-
-
+
+ Shows the progress made in the downloadMostra o progresso do download
-
-
+
+ Download speedVelocidade de download
-
-
+
+ Download speed in bytes/kilobytes/megabytes per secondVelocidade de download em bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculating...Calculando...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculatedQuando o hash do arquivo está sendo calculado
-
-
+
+ Displayed when the file hash is being calculatedExibido durante o cálculo do hash do arquivo
-
-
+
+ enter $API_KEYinserir $API_KEY
-
-
+
+ File sizeTamanho do arquivo
-
-
+
+ RAM requiredRAM necessária
-
-
+
+ ParametersParâmetros
-
-
+
+ QuantQuant
-
-
+
+ TypeTipo
@@ -496,240 +496,240 @@
Esquema de cores.
-
-
+
+ DarkModo Escuro
-
-
+
+ LightModo Claro
-
-
+
+ LegacyDarkModo escuro (legado)
-
-
+
+ Font SizeTamanho da Fonte
-
-
+
+ The size of text in the application.Tamanho do texto.
-
-
+
+ SmallPequeno
-
-
+
+ MediumMédio
-
-
+
+ LargeGrande
-
-
+
+ Language and LocaleIdioma e Região
-
-
+
+ The language and locale you wish to use.Selecione seu idioma e região.
-
-
+
+ System LocaleLocal do Sistema
-
-
+
+ DeviceProcessador
-
-
+
+ The compute device used for text generation.I chose to use "Processador" instead of "Dispositivo" (Device) or "Dispositivo de Computação" (Compute Device) to simplify the terminology and make it more straightforward and understandable. "Dispositivo" can be vague and could refer to various types of hardware, whereas "Processador" clearly and specifically indicates the component responsible for processing tasks. This improves usability by avoiding the ambiguity that might arise from using more generic terms like "Dispositivo."Processador usado para gerar texto.
-
-
-
-
+
+
+
+ Application defaultAplicativo padrão
-
-
+
+ Default ModelModelo Padrão
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.Modelo padrão para novos chats e em caso de falha do modelo principal.
-
-
+
+ Suggestion ModeModo de sugestões
-
-
+
+ Generate suggested follow-up questions at the end of responses.Sugerir perguntas após as respostas.
-
-
+
+ When chatting with LocalDocsAo conversar com o LocalDocs
-
-
+
+ Whenever possibleSempre que possível
-
-
+
+ NeverNunca
-
-
+
+ Download PathDiretório de Download
-
-
+
+ Where to store local models and the LocalDocs database.Pasta para modelos e banco de dados do LocalDocs.
-
-
+
+ BrowseProcurar
-
-
+
+ Choose where to save model filesLocal para armazenar os modelos
-
-
+
+ Enable DatalakeHabilitar Datalake
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.Contribua para o Datalake de código aberto do GPT4All.
-
-
+
+ AdvancedAvançado
-
-
+
+ CPU ThreadsThreads de CPU
-
-
+
+ The number of CPU threads used for inference and embedding.Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.
-
-
+
+ Save Chat ContextI used "Histórico do Chat" (Chat History) instead of "Contexto do Chat" (Chat Context) to clearly convey that it refers to saving past messages, making it more intuitive and avoiding potential confusion with abstract terms.Salvar Histórico do Chat
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).
-
-
+
+ Enable Local ServerAtivar Servidor Local
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.Ativar servidor local compatível com OpenAI (uso de recursos elevado).
-
-
+
+ API Server PortPorta da API
-
-
+
+ The port to use for the local server. Requires restart.Porta de acesso ao servidor local. (requer reinicialização).
-
-
+
+ Check For UpdatesProcurar por Atualizações
-
-
+
+ Manually check for an update to GPT4All.Verifica se há novas atualizações para o GPT4All.
-
-
+
+ UpdatesAtualizações
@@ -1533,67 +1533,73 @@ modelo instalado para funcionar
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização.
+ The compute device used for embeddings. Requires restart.
+ Dispositivo usado para processar as incorporações. Requer reinicialização.
-
-
+
+
+ Application default
+ Aplicativo padrão
+
+
+
+ DisplayExibir
-
-
+
+ Show SourcesMostrar Fontes
-
-
+
+ Display the sources used for each response.Mostra as fontes usadas para cada resposta.
-
-
+
+ AdvancedApenas para usuários avançados
-
-
+
+ Warning: Advanced usage only.Atenção: Apenas para usuários avançados.
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.Valores muito altos podem causar falhas no LocalDocs, respostas extremamente lentas ou até mesmo nenhuma resposta. De forma geral, o valor {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Clique <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aqui</a> para mais informações.
-
-
+
+ Document snippet size (characters)I translated "snippet" as "trecho" to make the term feel more natural and understandable in Portuguese. "Trecho" effectively conveys the idea of a portion or section of a document, fitting well within the context, whereas a more literal translation might sound less intuitive or awkward for users.Tamanho do trecho de documento (caracteres)
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
-
-
+
+ Max document snippets per promptMáximo de Trechos de Documento por Prompt
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
diff --git a/gpt4all-chat/translations/gpt4all_ro_RO.ts b/gpt4all-chat/translations/gpt4all_ro_RO.ts
index f8855d48..219dc777 100644
--- a/gpt4all-chat/translations/gpt4all_ro_RO.ts
+++ b/gpt4all-chat/translations/gpt4all_ro_RO.ts
@@ -7,30 +7,30 @@
← Existing Collections
- ← Colecţiile curente
+ ← Colecţiile curenteAdd Document Collection
- Adaugă o Colecţie de documente
+ Adaugă o Colecţie de documenteAdd a folder containing plain text files, PDFs, or Markdown. Configure
additional extensions in Settings.
- Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare.
+ Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare.Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings.
- Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare.
+ Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare.Please choose a directory
- Selectează un folder/director
+ Selectează un folder/director
@@ -42,13 +42,13 @@
Collection name...
- Denumirea Colecţiei...
+ Denumirea Colecţiei...Name of the collection to add (Required)
- Denumirea Colecţiei de adăugat (necesar)
+ Denumirea Colecţiei de adăugat (necesar)
@@ -72,13 +72,13 @@
Browse
- Căutare
+ CăutareCreate Collection
- Creează o Colecţie
+ Creează o Colecţie
@@ -93,71 +93,71 @@
Explore Models
- Caută modele
+ Caută modeleDiscover and download models by keyword search...
- Caută şi descarcă modele după un cuvânt-cheie...
+ Caută şi descarcă modele după un cuvânt-cheie...Text field for discovering and filtering downloadable models
- Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate
+ Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcateInitiate model discovery and filtering
- Iniţiază căutarea şi filtrarea modelelor
+ Iniţiază căutarea şi filtrarea modelelorTriggers discovery and filtering of models
- Activează căutarea şi filtrarea modelelor
+ Activează căutarea şi filtrarea modelelor
-
-
+
+ DefaultImplicit
-
-
+
+ LikesLikes
-
-
+
+ DownloadsDownload-uri
-
-
+
+ RecentRecent/e
-
-
+
+ AscAsc. (A->Z)
-
-
+
+ DescDesc. (Z->A)
-
-
+
+ NoneNiciunul
@@ -165,158 +165,158 @@
Searching · %1
- Căutare · %1
+ Căutare · %1
-
-
+
+ Sort by: %1
- Ordonare după: %1
+ Ordonare după: %1
-
-
+
+ Sort dir: %1
- Sensul ordonării: %1
+ Sensul ordonării: %1
-
-
+
+ Limit: %1
- Límită: %1
+ Límită: %1
-
-
+
+ Network error: could not retrieve %1
- Eroare de reţea: nu se poate prelua %1
+ Eroare de reţea: nu se poate prelua %1
-
-
-
-
+
+
+
+ Busy indicatorIndicator de activitate
-
-
+
+ Displayed when the models request is ongoing
- Afişat în timpul solicitării modelului
+ Afişat în timpul solicitării modelului
-
-
+
+ Model file
- Fişierul modelului
+ Fişierul modelului
-
-
+
+ Model file to be downloaded
- Fişierul modelului de descărcat
+ Fişierul modelului de descărcat
-
-
+
+ DescriptionDescriere
-
-
+
+ File description
- Descrierea fişierului
+ Descrierea fişierului
-
-
+
+ CancelAnulare
-
-
+
+ ResumeContinuare
-
-
+
+ DownloadDownload
-
-
+
+ Stop/restart/start the download
- Opreşte/Reporneşte/Începe descărcarea
+ Opreşte/Reporneşte/Începe descărcarea
-
-
+
+ Remove
- şterge
+ şterge
-
-
+
+ Remove model from filesystem
- şterge modelul din sistemul de fişiere
+ şterge modelul din sistemul de fişiere
-
-
-
-
+
+
+
+ InstallInstalare
-
-
+
+ Install online modelInstalez un model din online
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Eroare</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem
+ <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem
(%2).</strong></font><strong><font size="2">WARNING: Not recommended for your
hardware. Model requires more memory (%1 GB) than your system has available
(%2).</strong></font>
- <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font>
+ <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font>
-
-
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
-
-
+
+ Describes an error that occurred when downloading
- Descrie eroarea apărută în timpul descărcării
+ Descrie eroarea apărută în timpul descărcării<strong><font size="1"><a
@@ -324,122 +324,122 @@
<strong><font size="1"><a href="#eroare">Eroare</a></strong></font>
-
-
+
+ Error for incompatible hardwareEroare: hardware incompatibil
-
-
+
+ Download progressBar
- Progresia descărcării
+ Progresia descărcării
-
-
+
+ Shows the progress made in the download
- Afişează progresia descărcării
+ Afişează progresia descărcării
-
-
+
+ Download speedViteza de download
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second
- Viteza de download în bytes/kilobytes/megabytes pe secundă
+ Viteza de download în bytes/kilobytes/megabytes pe secundă
-
-
+
+ Calculating...Calculare...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated
- Dacă se calculează hash-ul fişierului
+ Dacă se calculează hash-ul fişierului
-
-
+
+ Displayed when the file hash is being calculated
- Se afişează când se calculează hash-ul fişierului
+ Se afişează când se calculează hash-ul fişierului
-
-
+
+ ERROR: $API_KEY is empty.
- EROARE: $API_KEY absentă
+ EROARE: $API_KEY absentă
-
-
+
+ enter $API_KEYintrodu cheia $API_KEY
-
-
+
+ ERROR: $BASE_URL is empty.
- EROARE: $BASE_URL absentă
+ EROARE: $BASE_URL absentă
-
-
+
+ enter $BASE_URLintrodu $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.EROARE: $MODEL_NAME absent
-
-
+
+ enter $MODEL_NAMEintrodu $MODEL_NAME
-
-
+
+ File size
- Dimensiunea fişierului
+ Dimensiunea fişierului
-
-
+
+ RAM required
- RAM necesară
+ RAM necesară
-
-
+
+ ParametersParametri
-
-
+
+ QuantQuant(ificare)
-
-
+
+ TypeTip
@@ -450,13 +450,13 @@
Application
- Aplicaţie/Program
+ Aplicaţie/ProgramNetwork dialog
- Reţea
+ Reţea
@@ -473,7 +473,7 @@
If you can't start it manually, then I'm afraid you'll have
to<br>
reinstall.
- EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
+ EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
@@ -497,7 +497,7 @@
Theme
- Tema pentru interfaţă
+ Tema pentru interfaţă
@@ -506,38 +506,38 @@
Schema de culori a programului.
-
-
+
+ Dark
- Întunecat
+ Întunecat
-
-
+
+ LightLuminos
-
-
+
+ LegacyDark
- Întunecat-vechi
+ Întunecat-vechi
-
-
+
+ Font SizeDimensiunea textului
-
-
+
+ The size of text in the application.
- Dimensiunea textului în program.
+ Dimensiunea textului în program.
-
-
+
+ DeviceDispozitiv/Device
@@ -545,7 +545,7 @@
The compute device used for text generation. "Auto" uses Vulkan or
Metal.Dispozitivul de calcul utilizat pentru generarea de text.
- "Auto" apelează la Vulkan sau la Metal.
+ "Auto" apelează la Vulkan sau la Metal.
@@ -557,217 +557,217 @@
above where this application resides on your filesystem.<br><br>
If you can't start it manually, then I'm afraid you'll have to<br>
reinstall.
- EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
+ EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
-
-
+
+ SmallMic
-
-
+
+ MediumMediu
-
-
+
+ LargeMare
-
-
+
+ Language and Locale
- Limbă şi Localizare
+ Limbă şi Localizare
-
-
+
+ The language and locale you wish to use.
- Limba şi Localizarea de utilizat
+ Limba şi Localizarea de utilizat
-
-
+
+ System LocaleLocalizare
-
-
+
+ The compute device used for text generation.Dispozitivul de calcul utilizat pentru generarea de text.
-
-
-
-
+
+
+
+ Application defaultImplicit
-
-
+
+ Default ModelModelul implicit
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.
- Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local.
+ Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local.
-
-
+
+ Suggestion ModeModul de sugerare
-
-
+
+ Generate suggested follow-up questions at the end of responses.
- Generarea de Întrebări pentru continuare, la finalul replicilor.
+ Generarea de Întrebări pentru continuare, la finalul replicilor.
-
-
+
+ When chatting with LocalDocs
- Când se discută cu LocalDocs
+ Când se discută cu LocalDocs
-
-
+
+ Whenever possible
- Oricând e posibil
+ Oricând e posibil
-
-
+
+ Never
- Niciodată
+ Niciodată
-
-
+
+ Download PathCalea pentru download
-
-
+
+ Where to store local models and the LocalDocs database.
- Unde să fie plasate modelele şi baza de date LocalDocs.
+ Unde să fie plasate modelele şi baza de date LocalDocs.
-
-
+
+ Browse
- Căutare
+ Căutare
-
-
+
+ Choose where to save model files
- Selectează locul unde vor fi plasate fişierele modelelor
+ Selectează locul unde vor fi plasate fişierele modelelor
-
-
+
+ Enable Datalake
- Activează DataLake
+ Activează DataLake
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.
- Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All.
+ Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All.
-
-
+
+ AdvancedAvansate
-
-
+
+ CPU ThreadsThread-uri CPU
-
-
+
+ The number of CPU threads used for inference and embedding.
- Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding.
-
-
-
-
- Save Chat Context
- Salvarea contextului conversaţiei
-
-
-
-
- Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.
- Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie.
+ Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding.
+ Save Chat Context
+ Salvarea contextului conversaţiei
+
+
+
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.
+ Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie.
+
+
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.
- Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse.
+ Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse.Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB
per chat.
- Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie.
-
-
-
-
- Enable Local Server
- Activează Serverul local
-
-
- Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased
- resource usage.
- Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse.
-
-
-
-
- API Server Port
- Portul Serverului API
+ Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie.
+ Enable Local Server
+ Activează Serverul local
+
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased
+ resource usage.
+ Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse.
+
+
+
+
+ API Server Port
+ Portul Serverului API
+
+
+
+ The port to use for the local server. Requires restart.
- Portul utilizat pentru Serverul local. Necesită repornirea programului.
+ Portul utilizat pentru Serverul local. Necesită repornirea programului.
-
-
+
+ Check For Updates
- Caută update-uri
+ Caută update-uri
-
-
+
+ Manually check for an update to GPT4All.
- Caută manual update-uri pentru GPT4All.
+ Caută manual update-uri pentru GPT4All.
-
-
+
+ Updates
- Update-uri/Actualizări
+ Update-uri/Actualizări
@@ -776,12 +776,12 @@
New Chat
- Chat/Conversaţie Nouă
+ Chat/Conversaţie NouăServer Chat
- Conversaţie cu Serverul
+ Conversaţie cu Serverul
@@ -789,7 +789,7 @@
ERROR: Network error occurred while connecting to the API server
- EROARE: Eroare de reţea - conectarea la serverul API
+ EROARE: Eroare de reţea - conectarea la serverul API
@@ -815,61 +815,61 @@
+ New Chat
- + Conversaţie nouă
+ + Conversaţie nouăCreate a new chat
- Creează o Conversaţie nouă
+ Creează o Conversaţie nouăSelect the current chat or edit the chat when in edit mode
- Selectează conversaţia curentă sau editeaz-o când eşti în modul editare
+ Selectează conversaţia curentă sau editeaz-o când eşti în modul editareEdit chat name
- Editează denumirea conversaţiei
+ Editează denumirea conversaţieiSave chat name
- Salveazăa denumirea conversaţiei
+ Salveazăa denumirea conversaţieiDelete chat
- şterge conversaţia
+ şterge conversaţiaConfirm chat deletion
- CONFIRMă ştergerea conversaţiei
+ CONFIRMă ştergerea conversaţieiCancel chat deletion
- ANULEAZă ştergerea conversaţiei
+ ANULEAZă ştergerea conversaţieiList of chats
- Lista conversaţiilor
+ Lista conversaţiilorList of chats in the drawer dialog
- Lista conversaţiilor în secţiunea-sertar
+ Lista conversaţiilor în secţiunea-sertar
@@ -877,12 +877,12 @@
TODAY
- ASTăZI
+ ASTăZITHIS WEEK
- SăPTăMâNA ACEASTA
+ SăPTăMâNA ACEASTA
@@ -892,7 +892,7 @@
LAST SIX MONTHS
- ULTIMELE şASE LUNI
+ ULTIMELE şASE LUNI
@@ -911,7 +911,7 @@
<h3>Warning</h3><p>%1</p>
- <h3>Atenţie</h3><p>%1</p>
+ <h3>Atenţie</h3><p>%1</p>
@@ -923,43 +923,43 @@
Warn the user if they switch models, then context will be erased
- Avertizează utilizatorul că la schimbarea modelului va fi şters contextul
+ Avertizează utilizatorul că la schimbarea modelului va fi şters contextulConversation copied to clipboard.
- Conversaţia a fost plasată în Clipboard.
+ Conversaţia a fost plasată în Clipboard.Code copied to clipboard.
- Codul a fost plasat în Clipboard.
+ Codul a fost plasat în Clipboard.Chat panel
- Secţiunea de chat
+ Secţiunea de chatChat panel with options
- Secţiunea de chat cu opţiuni
+ Secţiunea de chat cu opţiuniReload the currently loaded model
- ReÎncarcă modelul curent
+ ReÎncarcă modelul curentEject the currently loaded model
- Ejectează modelul curent
+ Ejectează modelul curent
@@ -971,25 +971,25 @@
Model loading error.
- Eroare la Încărcarea modelului.
+ Eroare la Încărcarea modelului.Waiting for model...
- Se aşteaptă modelul...
+ Se aşteaptă modelul...Switching context...
- Se schimbă contextul...
+ Se schimbă contextul...Choose a model...
- Selectează un model...
+ Selectează un model...
@@ -1021,19 +1021,19 @@
add collections of documents to the chat
- adaugă Colecţii de documente la conversaţie
+ adaugă Colecţii de documente la conversaţieLoad the default model
- Încarcă modelul implicit
+ Încarcă modelul implicitLoads the default model which can be changed in settings
- Încarcă modelul implicit care poate fi stabilit în Configurare
+ Încarcă modelul implicit care poate fi stabilit în Configurare
@@ -1044,60 +1044,60 @@
GPT4All requires that you install at least one
model to get started
- GPT4All necesită cel puţin un
+ GPT4All necesită cel puţin un
model pentru a putea porni<h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help
- <h3>EROARE la încărcarea
+ <h3>EROARE la încărcarea
modelului:</h3><br><i>"%1"</i><br><br>Astfel
- de erori pot apărea din mai multe cauze, dintre care cele mai comune
- includ un format inadecvat al fişierului, un download incomplet sau întrerupt,
- un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
- Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
- un format şi un tip compatibile; verifică dacă fişierul modelului este complet
- în folderul dedicat - acest folder este afişat în secţiunea Configurare;
- dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
- după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile
- în pagina unde am plasat <a
- href="https://docs.gpt4all.io/">documentaţia</a> pentru
- interfaţa gráfică<li>poţi găsi <a
+ de erori pot apărea din mai multe cauze, dintre care cele mai comune
+ includ un format inadecvat al fişierului, un download incomplet sau întrerupt,
+ un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
+ Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
+ un format şi un tip compatibile; verifică dacă fişierul modelului este complet
+ în folderul dedicat - acest folder este afişat în secţiunea Configurare;
+ dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
+ după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile
+ în pagina unde am plasat <a
+ href="https://docs.gpt4all.io/">documentaţia</a> pentru
+ interfaţa gráfică<li>poţi găsi <a
href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde
- se oferă ajutor
+ se oferă ajutorGPT4All requires that you install at least one
model to get started
- GPT4All necesită cel puţin un
+ GPT4All necesită cel puţin un
model pentru a putea rulaInstall a Model
- Instalează un model
+ Instalează un modelShows the add model view
- Afisează secţiunea de adăugare a unui model
+ Afisează secţiunea de adăugare a unui modelConversation with the model
- Conversaţie cu modelul
+ Conversaţie cu modelulprompt / response pairs from the conversation
- perechi prompt/replică din conversaţie
+ perechi prompt/replică din conversaţie
@@ -1113,13 +1113,13 @@ model to get started
recalculating context ...
- se recalculează contextul...
+ se recalculează contextul...response stopped ...
- replică Întreruptă...
+ replică Întreruptă...
@@ -1131,13 +1131,13 @@ model to get started
generating response ...
- se generează replica...
+ se generează replica...generating questions ...
- se generează Întrebări...
+ se generează Întrebări...
@@ -1175,7 +1175,7 @@ model to get started
Gives a thumbs up to the response
- Dă un Bravo acestei replici
+ Dă un Bravo acestei replici
@@ -1187,7 +1187,7 @@ model to get started
Opens thumbs down dialog
- Deschide reacţia Aiurea
+ Deschide reacţia Aiurea
@@ -1199,43 +1199,43 @@ model to get started
Suggested follow-ups
- Continuări sugerate
+ Continuări sugerateErase and reset chat session
- şterge şi resetează sesiunea de chat
+ şterge şi resetează sesiunea de chatCopy chat session to clipboard
- Copiez sesiunea de chat în Clipboard
+ Copiez sesiunea de chat în ClipboardRedo last chat response
- Reface ultima replică
+ Reface ultima replicăStop generating
- Opreşte generarea
+ Opreşte generareaStop the current response generation
- Opreşte generarea replicii curente
+ Opreşte generarea replicii curenteReloads the model
- ReÎncarc modelul
+ ReÎncarc modelul<h3>Encountered an error loading
@@ -1251,21 +1251,21 @@ model to get started
href="https://docs.gpt4all.io/">documentation</a> for the
gui<li>Check out our <a
href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help
- <h3>EROARE la Încărcarea
+ <h3>EROARE la Încărcarea
modelului:</h3><br><i>"%1"</i><br><br>Astfel
- de erori pot apărea din mai multe cauze, dintre care cele mai comune
- includ un format inadecvat al fişierului, un download incomplet sau Întrerupt,
- un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
- Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
- un format si un tip compatibile; verifică dacă fişierul modelului este complet
- în folderul dedicat - acest folder este afişat în secţiunea Configurare;
- dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
- după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile
- în pagina unde am plasat <a
- href="https://docs.gpt4all.io/">documentaţia</a> pentru
- interfaţa gráfică<li>poţi parcurge <a
+ de erori pot apărea din mai multe cauze, dintre care cele mai comune
+ includ un format inadecvat al fişierului, un download incomplet sau Întrerupt,
+ un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
+ Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
+ un format si un tip compatibile; verifică dacă fişierul modelului este complet
+ în folderul dedicat - acest folder este afişat în secţiunea Configurare;
+ dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
+ după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile
+ în pagina unde am plasat <a
+ href="https://docs.gpt4all.io/">documentaţia</a> pentru
+ interfaţa gráfică<li>poţi parcurge <a
href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde
- se oferă ajutor
+ se oferă ajutor
@@ -1273,19 +1273,19 @@ model to get started
Reload · %1
- Reîncărcare · %1
+ Reîncărcare · %1Loading · %1
- Încărcare · %1
+ Încărcare · %1Load · %1 (default) →
- Încarcă · %1 (implicit) →
+ Încarcă · %1 (implicit) →
@@ -1303,7 +1303,7 @@ model to get started
searching localdocs: %1 ...
- se caută în LocalDocs: %1 ...
+ se caută în LocalDocs: %1 ...
@@ -1315,13 +1315,13 @@ model to get started
Load a model to continue...
- Încarcă un model pentru a continua...
+ Încarcă un model pentru a continua...Send messages/prompts to the model
- Trimite mesaje/prompt-uri către model
+ Trimite mesaje/prompt-uri către model
@@ -1351,7 +1351,7 @@ model to get started
Sends the message/prompt contained in textfield to the model
- Trimite modelului mesajul/prompt-ul din câmpul-text
+ Trimite modelului mesajul/prompt-ul din câmpul-text
@@ -1360,16 +1360,16 @@ model to get started
Warning: searching collections while indexing can return incomplete results
- Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete
+ Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete%n file(s)
- %n fişier
- %n fişiere
- %n fişiere
+ %n fişier
+ %n fişiere
+ %n fişiere
@@ -1377,7 +1377,7 @@ model to get started
%n word(s)
- %n cuvânt
+ %n cuvânt%n cuvinte%n cuvinte
@@ -1398,7 +1398,7 @@ model to get started
Select a collection to make it available to the chat model.
- Selectează o Colecţie pentru ca modelul să o poată accesa.
+ Selectează o Colecţie pentru ca modelul să o poată accesa.
@@ -1416,7 +1416,7 @@ model to get started
ERROR: $API_KEY is empty.
- EROARE: $API_KEY absentă
+ EROARE: $API_KEY absentă
@@ -1436,7 +1436,7 @@ model to get started
Model "%1" is removed.
- Modelul "%1" - îndepărtat
+ Modelul "%1" - îndepărtat
@@ -1445,31 +1445,31 @@ model to get started
Welcome to GPT4All
- Bun venit în GPT4All
+ Bun venit în GPT4AllThe privacy-first LLM chat application
- Programul ce prioritizează confidenţialitatea (privacy)
+ Programul ce prioritizează confidenţialitatea (privacy)Start chatting
- Începe o conversaţie
+ Începe o conversaţieStart Chatting
- Începe o conversaţie
+ Începe o conversaţieChat with any LLM
- Dialoghează cu orice LLM
+ Dialoghează cu orice LLM
@@ -1481,43 +1481,43 @@ model to get started
Chat with your local files
- Dialoghează cu fişiere locale
+ Dialoghează cu fişiere localeFind Models
- Caută modele
+ Caută modeleExplore and download models
- Explorează şi descarcă modele
+ Explorează şi descarcă modeleLatest news
- Ultimele ştiri
+ Ultimele ştiriLatest news from GPT4All
- Ultimele ştiri de la GPT4All
+ Ultimele ştiri de la GPT4AllRelease Notes
- Despre această versiune
+ Despre această versiuneDocumentation
- Documentaţie
+ Documentaţie
@@ -1534,8 +1534,12 @@ model to get started
+ Github
+
+
+ GitHub
- GitHub
+ GitHub
@@ -1574,13 +1578,13 @@ model to get started
Allowed File Extensions
- Extensii compatibile de fişier
+ Extensii compatibile de fişierComma-separated list. LocalDocs will only attempt to process files with these
extensions.
- Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea
- numai a fişierelor cu aceste extensii.
+ Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea
+ numai a fişierelor cu aceste extensii.
@@ -1597,7 +1601,7 @@ model to get started
Embed documents using the fast Nomic API instead of a private local model.
Requires restart.
- Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
+ Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
@@ -1609,7 +1613,7 @@ model to get started
API key to use for Nomic Embed. Get one from the Atlas <a
href="https://atlas.nomic.ai/cli-login">API keys page</a>.
Requires restart.
- Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
+ Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
@@ -1618,81 +1622,82 @@ model to get started
Dispozitivul pentru Embeddings
- The compute device used for embeddings. "Auto" uses the CPU. Requires
- restart.
- Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire
+
+
+ The compute device used for embeddings. Requires restart.
+ Dispozitivul pentru Embeddings. Necesită repornire.Comma-separated list. LocalDocs will only attempt to process files with these extensions.
- Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii.
+ Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii.Embed documents using the fast Nomic API instead of a private local model. Requires restart.
- Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
+ Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart.
- Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
+ Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
-
-
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire.
+
+
+ Application default
+ Implicit
-
-
+
+ DisplayVizualizare
-
-
+
+ Show Sources
- Afişarea Surselor
+ Afişarea Surselor
-
-
+
+ Display the sources used for each response.
- Afişează Sursele utilizate pentru fiecare replică.
+ Afişează Sursele utilizate pentru fiecare replică.
-
-
+
+ AdvancedAvansate
-
-
+
+ Warning: Advanced usage only.
- Atenţie: Numai pentru utilizare avansată.
+ Atenţie: Numai pentru utilizare avansată.
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
- Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
+ Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.
- Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
+ Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.
- Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
+ Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
@@ -1701,30 +1706,30 @@ model to get started
the model's context window. More info <a
href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
- Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
+ Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
-
-
+
+ Document snippet size (characters)
- Lungimea (în caractere) a citatelor din documente
+ Lungimea (în caractere) a citatelor din documenteNumber of characters per document snippet. Larger numbers increase likelihood of
factual responses, but also result in slower generation.
- numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
+ numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
-
-
+
+ Max document snippets per prompt
- Numărul maxim de citate per prompt
+ Numărul maxim de citate per promptMax best N matches of retrieved document snippets to add to the context for
prompt. Larger numbers increase likelihood of factual responses, but also result in
slower generation.
- Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
+ Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
@@ -1739,59 +1744,59 @@ model to get started
Chat with your local files
- Dialoghează cu fişiere locale
+ Dialoghează cu fişiere locale+ Add Collection
- + Adaugă o Colecţie
+ + Adaugă o ColecţieERROR: The LocalDocs database is not valid.
- EROARE: Baza de date LocalDocs nu e validă.
+ EROARE: Baza de date LocalDocs nu e validă.<h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however.
- EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile.
+ EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile.No Collections Installed
- Nu există Colecţii instalate
+ Nu există Colecţii instalateInstall a collection of local documents to get started using this feature
- Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta
+ Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta+ Add Doc Collection
- + Adaugă o Colecţie de documente
+ + Adaugă o Colecţie de documenteShows the add model view
- Afişează secţiunea de adăugare a unui model
+ Afişează secţiunea de adăugare a unui modelIndexing progressBar
- Bara de progresie a Indexării
+ Bara de progresie a IndexăriiShows the progress made in the indexing
- Afişează progresia Indexării
+ Afişează progresia Indexării
@@ -1803,7 +1808,7 @@ model to get started
INDEXING
- ...SE INDEXEAZă...
+ ...SE INDEXEAZă...
@@ -1815,7 +1820,7 @@ model to get started
REQUIRES UPDATE
- NECESITă UPDATE
+ NECESITă UPDATE
@@ -1833,31 +1838,31 @@ model to get started
Indexing in progress
- Se Indexează...
+ Se Indexează...Embedding in progress
- ...Se calculează Embeddings...
+ ...Se calculează Embeddings...This collection requires an update after version change
- Această Colecţie necesită update după schimbarea versiunii
+ Această Colecţie necesită update după schimbarea versiuniiAutomatically reindexes upon changes to the folder
- Se reindexează automat după schimbări ale folderului
+ Se reindexează automat după schimbări ale folderuluiInstallation in progress
- ...Instalare în curs...
+ ...Instalare în curs...
@@ -1870,9 +1875,9 @@ model to get started
%n file(s)
- %n fişier
- %n fişiere
- %n fişiere
+ %n fişier
+ %n fişiere
+ %n fişiere
@@ -1880,7 +1885,7 @@ model to get started
%n word(s)
- %n cuvânt
+ %n cuvânt%n cuvinte%n cuvinte
@@ -1889,19 +1894,19 @@ model to get started
Remove
- Şterg
+ ŞtergRebuild
- Reconstrucţie
+ ReconstrucţieReindex this folder from scratch. This is slow and usually not needed.
- Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil.
+ Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil.
@@ -1913,7 +1918,7 @@ model to get started
Update the collection to the new version. This is a slow operation.
- Actualizează Colecţia la noua versiune. Această procedură e lentă.
+ Actualizează Colecţia la noua versiune. Această procedură e lentă.
@@ -1927,7 +1932,7 @@ model to get started
OpenAI</li><li>You can apply for an API key <a
href="https://platform.openai.com/account/api-keys">here.</a></li>
- <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
+ <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
<strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br>
@@ -1947,7 +1952,7 @@ model to get started<ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li>
- <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
+ <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
@@ -1957,7 +1962,7 @@ model to get started
<br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.
- <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
+ <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
@@ -1967,7 +1972,7 @@ model to get started
<ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li>
- <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
+ <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
@@ -1987,7 +1992,7 @@ model to get started
<ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li>
- <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li>
+ <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li>
@@ -1997,12 +2002,12 @@ model to get started
<strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul>
- <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
+ <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul><br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does
not guarantee API key access. Contact OpenAI for more info.
- <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
+ <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
@@ -2013,14 +2018,14 @@ model to get started
Mistral</li><li>You can apply for an API key <a
href="https://console.mistral.ai/user/api-keys">here</a>.</li>
- <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
+ <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
<strong>Created by
%1.</strong><br><ul><li>Published on %2.<li>This model
has %3 likes.<li>This model has %4 downloads.<li>More info can be found
<a href="https://huggingface.co/%5">here.</a></ul>
- <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
+ <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
@@ -2047,7 +2052,7 @@ model to get started
Remove
- Şterg
+ Şterg
@@ -2059,7 +2064,7 @@ model to get started
Model File
- Fişierul modelului
+ Fişierul modelului
@@ -2070,7 +2075,7 @@ model to get started
Prefixed at the beginning of every conversation. Must contain the appropriate
framing tokens.
- Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare.
+ Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare.
@@ -2082,24 +2087,24 @@ model to get started
The template that wraps every prompt.
- Standardul de formulare a fiecărui prompt.
+ Standardul de formulare a fiecărui prompt.Must contain the string "%1" to be replaced with the user's
input.
- Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul.
+ Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul.Chat Name Prompt
- Denumirea conversaţiei
+ Denumirea conversaţieiPrompt used to automatically generate chat names.
- Standardul de formulare a denumirii conversaţiilor.
+ Standardul de formulare a denumirii conversaţiilor.
@@ -2111,7 +2116,7 @@ model to get started
Prompt used to generate suggested follow-up questions.
- Prompt-ul folosit pentru generarea Întrebărilor de continuare.
+ Prompt-ul folosit pentru generarea Întrebărilor de continuare.
@@ -2123,13 +2128,13 @@ model to get started
Number of input and output tokens the model sees.
- Numărul token-urilor de input şi de output văzute de model.
+ Numărul token-urilor de input şi de output văzute de model.Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.
- Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului.
+ Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului.
@@ -2141,12 +2146,12 @@ model to get started
Randomness of model output. Higher -> more variation.
- Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate.
+ Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate.Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.
- Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile.
+ Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile.
@@ -2163,19 +2168,19 @@ model to get started
Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.
- Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile.
+ Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile.Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens.
- Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare.
+ Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare.Must contain the string "%1" to be replaced with the user's input.
- Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul.
+ Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul.
@@ -2183,21 +2188,21 @@ model to get started
Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.
- Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului.
+ Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului.Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.
- Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile.
+ Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile.Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.
- Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile.
+ Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile.
@@ -2209,13 +2214,13 @@ NOTE: Prevents choosing highly unlikely tokens.
Minimum token probability. Higher -> more predictable.
- Probabilitatea mínimă a unui token. Mai mare -> mai predictibil.
+ Probabilitatea mínimă a unui token. Mai mare -> mai predictibil.Sets the minimum relative probability for a token to be considered.
- Stabileşte probabilitatea minimă relativă a unui token de luat în considerare.
+ Stabileşte probabilitatea minimă relativă a unui token de luat în considerare.
@@ -2239,13 +2244,13 @@ NOTE: Prevents choosing highly unlikely tokens.
Max Length
- Lungimea maximă
+ Lungimea maximăMaximum response length, in tokens.
- Lungimea maximă - în token-uri - a replicii.
+ Lungimea maximă - în token-uri - a replicii.
@@ -2264,7 +2269,7 @@ NOTE: Prevents choosing highly unlikely tokens.
Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.
- Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
+ Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
@@ -2272,12 +2277,12 @@ NOTE: Higher values can speed up reading prompts but will use more RAM.
How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.
- Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului.
+ Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului.Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.
- numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
+ numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
@@ -2289,38 +2294,38 @@ NOTE: Does not take effect until you reload the model.
Repetition penalty factor. Set to 1 to disable.
- Factorul de penalizare a repetării ce se dezactivează cu valoarea 1.
+ Factorul de penalizare a repetării ce se dezactivează cu valoarea 1.Repeat Penalty Tokens
- Token-uri pentru penalzare a repetării
+ Token-uri pentru penalzare a repetăriiNumber of previous tokens used for penalty.
- Numărul token-urilor anterioare considerate pentru penalizare.
+ Numărul token-urilor anterioare considerate pentru penalizare.GPU Layers
- Layere în GPU
+ Layere în GPUNumber of model layers to load into VRAM.
- Numărul layerelor modelului ce vor fi Încărcate în VRAM.
+ Numărul layerelor modelului ce vor fi Încărcate în VRAM.How many model layers to load into VRAM. Decrease this if GPT4All runs out of
VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.
- Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului.
+ Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului.
@@ -2329,13 +2334,13 @@ NOTE: Does not take effect until you reload the model.
No Models Installed
- Nu există modele instalate
+ Nu există modele instalateInstall a model to get started using GPT4All
- Instalează un model pentru a Începe să foloseşti GPT4All
+ Instalează un model pentru a Începe să foloseşti GPT4All
@@ -2343,13 +2348,13 @@ NOTE: Does not take effect until you reload the model.
+ Add Model
- + Adaugă un model
+ + Adaugă un modelShows the add model view
- Afişează secţiunea de adăugare a unui model
+ Afişează secţiunea de adăugare a unui model
@@ -2361,19 +2366,19 @@ NOTE: Does not take effect until you reload the model.
Locally installed chat models
- Modele conversaţionale instalate local
+ Modele conversaţionale instalate localModel file
- Fişierul modelului
+ Fişierul modeluluiModel file to be downloaded
- Fişierul modelului ce va fi descărcat
+ Fişierul modelului ce va fi descărcat
@@ -2385,7 +2390,7 @@ NOTE: Does not take effect until you reload the model.
File description
- Descrierea fişierului
+ Descrierea fişierului
@@ -2403,19 +2408,19 @@ NOTE: Does not take effect until you reload the model.
Stop/restart/start the download
- Oprirea/Repornirea/Initierea descărcării
+ Oprirea/Repornirea/Initierea descărcăriiRemove
- Şterg
+ ŞtergRemove model from filesystem
- Şterg modelul din sistemul de fişiere
+ Şterg modelul din sistemul de fişiere
@@ -2423,7 +2428,7 @@ NOTE: Does not take effect until you reload the model.
Install
- Instalează
+ Instalează
@@ -2440,7 +2445,7 @@ NOTE: Does not take effect until you reload the model.
<strong><font size="2">WARNING: Not recommended for your
hardware. Model requires more memory (%1 GB) than your system has available
(%2).</strong></font>
- <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
+ <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
@@ -2458,7 +2463,7 @@ NOTE: Does not take effect until you reload the model.
Describes an error that occurred when downloading
- Descrie o eroare apărută la download
+ Descrie o eroare apărută la download
@@ -2470,7 +2475,7 @@ NOTE: Does not take effect until you reload the model.
<strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
+ <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
@@ -2482,13 +2487,13 @@ NOTE: Does not take effect until you reload the model.
Download progressBar
- Bara de progresie a descărcării
+ Bara de progresie a descărcăriiShows the progress made in the download
- Afişează progresia descărcării
+ Afişează progresia descărcării
@@ -2500,13 +2505,13 @@ NOTE: Does not take effect until you reload the model.
Download speed in bytes/kilobytes/megabytes per second
- Viteza de download în bytes/kilobytes/megabytes pe secundă
+ Viteza de download în bytes/kilobytes/megabytes pe secundăCalculating...
- ...Se calculează...
+ ...Se calculează...
@@ -2518,7 +2523,7 @@ NOTE: Does not take effect until you reload the model.
Whether the file hash is being calculated
- Dacă se va calcula hash-ul fişierului
+ Dacă se va calcula hash-ul fişierului
@@ -2530,13 +2535,13 @@ NOTE: Does not take effect until you reload the model.
Displayed when the file hash is being calculated
- Afişat când se calculează hash-ul unui fişier
+ Afişat când se calculează hash-ul unui fişierERROR: $API_KEY is empty.
- EROARE: $API_KEY absentă.
+ EROARE: $API_KEY absentă.
@@ -2548,7 +2553,7 @@ NOTE: Does not take effect until you reload the model.
ERROR: $BASE_URL is empty.
- EROARE: $BASE_URL absentă.
+ EROARE: $BASE_URL absentă.
@@ -2572,13 +2577,13 @@ NOTE: Does not take effect until you reload the model.
File size
- Dimensiunea fişierului
+ Dimensiunea fişieruluiRAM required
- RAM necesară
+ RAM necesară
@@ -2620,7 +2625,7 @@ NOTE: Does not take effect until you reload the model.
Please choose a directory
- Selectează un director (folder)
+ Selectează un director (folder)
@@ -2635,7 +2640,7 @@ NOTE: Does not take effect until you reload the model.
Restores settings dialog to a default state
- Restaurez secţiunea de configurare la starea sa implicită
+ Restaurez secţiunea de configurare la starea sa implicită
@@ -2644,7 +2649,7 @@ NOTE: Does not take effect until you reload the model.
Contribute data to the GPT4All Opensource Datalake.
- Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All.
+ Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All.By enabling this feature, you will be able to participate in the democratic
@@ -2663,21 +2668,21 @@ NOTE: Does not take effect until you reload the model.
used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a
contributor to any GPT4All model release that uses your data!
- Dacă activezi această funcţionalitate, vei participa la procesul democratic
- de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
+ Dacă activezi această funcţionalitate, vei participa la procesul democratic
+ de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
- Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
- trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
- Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
- Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
+ Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
+ trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
+ Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
+ Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
- NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
- DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
- această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
- Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
- utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
- participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
+ NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
+ această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
+ Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
+ utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
@@ -2687,21 +2692,21 @@ NOTE: Does not take effect until you reload the model.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!
- Dacă activezi această funcţionalitate, vei participa la procesul democratic
- de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
+ Dacă activezi această funcţionalitate, vei participa la procesul democratic
+ de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
- Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
- trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
- Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
- Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
+ Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
+ trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
+ Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
+ Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
- NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
- DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
- această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
- Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
- utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
- participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
+ NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
+ această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
+ Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
+ utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
@@ -2713,37 +2718,37 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Describes what will happen when you opt-in
- Descrie ce se Întâmplă când participi
+ Descrie ce se Întâmplă când participiPlease provide a name for attribution (optional)
- Specifică o denumire pentru această apreciere (optional)
+ Specifică o denumire pentru această apreciere (optional)Attribution (optional)
- Apreciere (opţional)
+ Apreciere (opţional)Provide attribution
- Apreciază
+ ApreciazăEnable
- Activează
+ ActiveazăEnable opt-in
- Activează participarea
+ Activează participarea
@@ -2755,7 +2760,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Cancel opt-in
- Anulează participarea
+ Anulează participarea
@@ -2764,7 +2769,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
New version is available
- O nouă versiune disponibilă!
+ O nouă versiune disponibilă!
@@ -2776,7 +2781,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Update to new version
- Actualizează la noua versiune
+ Actualizează la noua versiune
@@ -2785,7 +2790,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Reveals a shortlived help balloon
- Afisează un mesaj scurt de asistenţă
+ Afisează un mesaj scurt de asistenţă
@@ -2797,7 +2802,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Displayed when the popup is showing busy
- Se afişează când procedura este în desfăşurare
+ Se afişează când procedura este în desfăşurare
@@ -2814,7 +2819,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Contains various application settings
- Conţine setări ale programului
+ Conţine setări ale programului
@@ -2861,7 +2866,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Release notes for this version
- Despre această versiune
+ Despre această versiune### Opt-ins for anonymous usage analytics and datalake
@@ -2887,28 +2892,28 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
attribution information attached to your data and you will be credited as a
contributor to any GPT4All
model release that uses your data!
- ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake
- Activând aceste functionalităţi vei putea participa la procesul democratic
+ ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake
+ Activând aceste functionalităţi vei putea participa la procesul democratic
de instruire a unui
- model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
- Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este
- trimisă la componenta
- Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă
- un răspuns Nu Îţi Place. poţi
- sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În
+ model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
+ Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este
+ trimisă la componenta
+ Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă
+ un răspuns Nu Îţi Place. poţi
+ sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În
componenta DataLake a GPT4All.
- NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
DataLake a GPT4All.
- Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
- Totuşi, te poţi aştepta la a beneficia de apreciere -
- opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
- pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
- pentru a îmbunătăţi modele viitoare în GPT4All.
- Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
+ Totuşi, te poţi aştepta la a beneficia de apreciere -
+ opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
+ pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
+ pentru a îmbunătăţi modele viitoare în GPT4All.
+ Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
participant contribuitor la orice lansare a unui model GPT4All
- care foloseşte datele tale!
+ care foloseşte datele tale!
@@ -2937,25 +2942,25 @@ an expectation of an optional attribution if you wish. Your chat data will be op
to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a contributor to any GPT4All
model release that uses your data!
- ### Acordul pentru analizarea utilizării anonime şi pentru DataLake
- Activând aceste functionalităţi vei putea participa la procesul democratic de instruire
-a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
+ ### Acordul pentru analizarea utilizării anonime şi pentru DataLake
+ Activând aceste functionalităţi vei putea participa la procesul democratic de instruire
+a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
-Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este
-trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă
-un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în
+Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este
+trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă
+un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în
componenta DataLake a GPT4All.
-NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All.
-Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
-Totuşi, te poţi aştepta la a beneficia de apreciere -
-opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
-pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
-pentru a îmbunătăţi modele viitoare în GPT4All.
-Nomic AI va păstra
-toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All.
+Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
+Totuşi, te poţi aştepta la a beneficia de apreciere -
+opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
+pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
+pentru a îmbunătăţi modele viitoare în GPT4All.
+Nomic AI va păstra
+toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
participant contribuitor la orice lansare a unui model GPT4All
-care foloseşte datele tale!
+care foloseşte datele tale!
@@ -2967,7 +2972,7 @@ care foloseşte datele tale!
Describes what will happen when you opt-in
- Descrie ce se Întâmplă când participi
+ Descrie ce se Întâmplă când participi
@@ -2975,7 +2980,7 @@ care foloseşte datele tale!
Opt-in for anonymous usage statistics
- Acceptă colectarea de statistici despre utilizare anonmă
+ Acceptă colectarea de statistici despre utilizare anonmă
@@ -2989,7 +2994,7 @@ care foloseşte datele tale!
Allow opt-in for anonymous usage statistics
- Acceptă participarea la colectarea de statistici despre utilizare -anonimă-
+ Acceptă participarea la colectarea de statistici despre utilizare -anonimă-
@@ -3003,13 +3008,13 @@ care foloseşte datele tale!
Opt-out for anonymous usage statistics
- Anulează participarea la colectarea de statistici despre utilizare -anonimă-
+ Anulează participarea la colectarea de statistici despre utilizare -anonimă-Allow opt-out for anonymous usage statistics
- Permite anularea participării la colectarea de statistici despre utilizare -anonimă-
+ Permite anularea participării la colectarea de statistici despre utilizare -anonimă-
@@ -3017,31 +3022,31 @@ care foloseşte datele tale!
Opt-in for network
- Acceptă pentru reţea
+ Acceptă pentru reţeaAllow opt-in for network
- Permite participarea pentru reţea
+ Permite participarea pentru reţeaAllow opt-in anonymous sharing of chats to the GPT4All Datalake
- Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4All
+ Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4AllOpt-out for network
- Refuz participarea, pentru reţea
+ Refuz participarea, pentru reţeaAllow opt-out anonymous sharing of chats to the GPT4All Datalake
- Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All
+ Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All
@@ -3049,25 +3054,25 @@ care foloseşte datele tale!
<b>Warning:</b> changing the model will erase the current
conversation. Do you wish to continue?
- <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta?
+ <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta?<b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue?
- <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta?
+ <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta?Continue
- Continuă
+ ContinuăContinue with model loading
- Continuă cu Încărcarea modelului
+ Continuă cu Încărcarea modelului
@@ -3084,13 +3089,13 @@ care foloseşte datele tale!
Please edit the text below to provide a better response. (optional)
- Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional).
+ Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional).Please provide a better response...
- Te rog, oferă o replică mai bună...
+ Te rog, oferă o replică mai bună...
@@ -3102,7 +3107,7 @@ care foloseşte datele tale!
Submits the user's response
- Trimite răspunsul dat de utilizator
+ Trimite răspunsul dat de utilizator
@@ -3114,7 +3119,7 @@ care foloseşte datele tale!
Closes the response dialog
- Închide dialogul răspunsului
+ Închide dialogul răspunsului
@@ -3126,11 +3131,11 @@ care foloseşte datele tale!
detected."</i><br><br>Unfortunately, your CPU does not meet
the minimal requirements to run this program. In particular, it does not support AVX
intrinsics which this program requires to successfully run a modern large language
- model. The only soluţion at this time is to upgrade your hardware to a more modern
+ model. The only soluţion at this time is to upgrade your hardware to a more modern
CPU.<br><br>See here for more information: <a
href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
@@ -3146,79 +3151,83 @@ care foloseşte datele tale!
permissions in the local app config directory where the settings file is located.
Check out our <a href="https://discord.gg/4M2QFmTt2k">discord
channel</a> for help.
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+
+
+ <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+ <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+ <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.Connection to datalake failed.
- Conectarea la DataLake a eşuat.
+ Conectarea la DataLake a eşuat.Saving chats.
- Se salvează conversaţiile.
+ Se salvează conversaţiile.Network dialog
- Dialogul despre reţea
+ Dialogul despre reţeaopt-in to share feedback/conversations
- acceptă partajarea (share) de comentarii/conversaţii
+ acceptă partajarea (share) de comentarii/conversaţiiHome view
- Secţiunea de Început
+ Secţiunea de ÎnceputHome view of application
- Secţiunea de Început a programului
+ Secţiunea de Început a programuluiHome
- Prima<br>pagină
+ Prima<br>paginăChat view
- Secţiunea conversaţiilor
+ Secţiunea conversaţiilorChat view to interact with models
- Secţiunea de chat pentru interacţiune cu modele
+ Secţiunea de chat pentru interacţiune cu modeleChats
- Conversaţii
+ Conversaţii
@@ -3232,7 +3241,7 @@ care foloseşte datele tale!
Models view for installed models
- Secţiunea modelelor instalate
+ Secţiunea modelelor instalate
@@ -3246,7 +3255,7 @@ care foloseşte datele tale!
LocalDocs view to configure and use local docs
- Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale
+ Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale
@@ -3260,7 +3269,7 @@ care foloseşte datele tale!
Settings view for application configuration
- Secţiunea de configurare a programului
+ Secţiunea de configurare a programului
@@ -3272,7 +3281,7 @@ care foloseşte datele tale!
Using a network model
- Se foloseşte un model pe reţea
+ Se foloseşte un model pe reţea
@@ -3290,7 +3299,7 @@ care foloseşte datele tale!
View of installed models
- Secţiunea modelelor instalate
+ Secţiunea modelelor instalate
diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts
index c2f0cf88..422e7940 100644
--- a/gpt4all-chat/translations/gpt4all_zh_CN.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts
@@ -119,26 +119,26 @@
触发模型的发现和筛选
-
-
+
+ Default默认
-
-
+
+ Likes喜欢
-
-
+
+ Downloads下载
-
-
+
+ Recent近期
@@ -147,14 +147,14 @@
排序:
-
-
+
+ Asc升序
-
-
+
+ Desc倒序
@@ -163,8 +163,8 @@
排序目录:
-
-
+
+ None无
@@ -183,170 +183,170 @@
搜索中 · %1
-
-
+
+ Sort by: %1排序: %1
-
-
+
+ Sort dir: %1排序目录: %1
-
-
+
+ Limit: %1数量: %1
-
-
+
+ Network error: could not retrieve %1网络错误:无法检索 %1
-
-
-
-
+
+
+
+ Busy indicator繁忙程度
-
-
+
+ Displayed when the models request is ongoing在模型请求进行中时显示
-
-
+
+ Model file模型文件
-
-
+
+ Model file to be downloaded待下载模型
-
-
+
+ Description描述
-
-
+
+ File description文件描述
-
-
+
+ Cancel取消
-
-
+
+ Resume继续
-
-
+
+ Download下载
-
-
+
+ Stop/restart/start the download停止/重启/开始下载
-
-
+
+ Remove删除
-
-
+
+ Remove model from filesystem从系统中删除模型
-
-
-
-
+
+
+
+ Install安装
-
-
+
+ Install online model安装在线模型
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">错误</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">警告: 你的设备硬件不推荐 ,模型需要的内存 (%1 GB)比你的系统还要多 (%2).</strong></font>
-
-
+
+ ERROR: $API_KEY is empty.错误:$API_KEY 为空
-
-
+
+ ERROR: $BASE_URL is empty.错误:$BASE_URL 为空
-
-
+
+ enter $BASE_URL输入 $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.错误:$MODEL_NAME为空
-
-
+
+ enter $MODEL_NAME输入:$MODEL_NAME
-
-
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
@@ -355,8 +355,8 @@
<a href="#error">错误</a>
-
-
+
+ Describes an error that occurred when downloading描述下载过程中发生的错误
@@ -373,74 +373,74 @@
你的系统需要 (
-
-
+
+ Error for incompatible hardware硬件不兼容的错误
-
-
+
+ Download progressBar下载进度
-
-
+
+ Shows the progress made in the download显示下载进度
-
-
+
+ Download speed下载速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下载速度 b/kb/mb /s
-
-
+
+ Calculating...计算中
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated是否正在计算文件哈希
-
-
+
+ Displayed when the file hash is being calculated在计算文件哈希时显示
-
-
+
+ enter $API_KEY输入$API_KEY
-
-
+
+ File size文件大小
-
-
+
+ RAM requiredRAM 需要
@@ -449,20 +449,20 @@
GB
-
-
+
+ Parameters参数
-
-
+
+ Quant量化
-
-
+
+ Type类型
@@ -533,74 +533,74 @@
应用的主题颜色
-
-
+
+ Dark深色
-
-
+
+ Light亮色
-
-
+
+ LegacyDarkLegacyDark
-
-
+
+ Font Size字体大小
-
-
+
+ The size of text in the application.应用中的文本大小。
-
-
+
+ Small小
-
-
+
+ Medium中
-
-
+
+ Large大
-
-
+
+ Language and Locale语言和本地化
-
-
+
+ The language and locale you wish to use.你想使用的语言
-
-
+
+ System Locale系统语言
-
-
+
+ Device设备
@@ -609,166 +609,166 @@
用于文本生成的计算设备. "自动" 使用 Vulkan or Metal.
-
-
+
+ The compute device used for text generation.设备用于文本生成
-
-
-
-
+
+
+
+ Application default程序默认
-
-
+
+ Default Model默认模型
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.新聊天的首选模式。也用作本地服务器回退。
-
-
+
+ Suggestion Mode建议模式
-
-
+
+ Generate suggested follow-up questions at the end of responses.在答复结束时生成建议的后续问题。
-
-
+
+ When chatting with LocalDocs本地文档检索
-
-
+
+ Whenever possible只要有可能
-
-
+
+ Never从不
-
-
+
+ Download Path下载目录
-
-
+
+ Where to store local models and the LocalDocs database.本地模型和本地文档数据库存储目录
-
-
+
+ Browse查看
-
-
+
+ Choose where to save model files模型下载目录
-
-
+
+ Enable Datalake开启数据湖
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.发送对话和反馈给GPT4All 的开源数据湖。
-
-
+
+ Advanced高级
-
-
+
+ CPU ThreadsCPU线程
-
-
+
+ The number of CPU threads used for inference and embedding.用于推理和嵌入的CPU线程数
-
-
+
+ Save Chat Context保存对话上下文
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话.
-
-
+
+ Enable Local Server开启本地服务
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。
-
-
+
+ API Server PortAPI 服务端口
-
-
+
+ The port to use for the local server. Requires restart.使用本地服务的端口,需要重启
-
-
+
+ Check For Updates检查更新
-
-
+
+ Manually check for an update to GPT4All.手动检查更新
-
-
+
+ Updates更新
@@ -1621,66 +1621,72 @@ model to get started
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- 技术设备用于embeddings. "自动" 使用.需要重启.
+ The compute device used for embeddings. Requires restart.
+ 技术设备用于embeddings. 需要重启.
-
-
+
+
+ Application default
+ 程序默认
+
+
+
+ Display显示
-
-
+
+ Show Sources查看源码
-
-
+
+ Display the sources used for each response.显示每个响应所使用的源。
-
-
+
+ Advanced高级
-
-
+
+ Warning: Advanced usage only.提示: 仅限高级使用。
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.值过大可能会导致 localdocs 失败、响应速度极慢或根本无法响应。粗略地说,{N 个字符 x N 个片段} 被添加到模型的上下文窗口中。更多信息请见<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此处</a>。
-
-
+
+ Document snippet size (characters)文档粘贴大小 (字符)
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.每个文档片段的字符数。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
-
-
+
+ Max document snippets per prompt每个提示的最大文档片段数
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.检索到的文档片段最多添加到提示上下文中的前 N 个最佳匹配项。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
diff --git a/gpt4all-chat/translations/gpt4all_zh_TW.ts b/gpt4all-chat/translations/gpt4all_zh_TW.ts
index 19fbc6f5..144541fb 100644
--- a/gpt4all-chat/translations/gpt4all_zh_TW.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_TW.ts
@@ -121,309 +121,309 @@
觸發探索與過濾模型
-
-
+
+ Default預設
-
-
+
+ Likes讚
-
-
+
+ Downloads下載次數
-
-
+
+ Recent最新
-
-
+
+ Sort by: %1排序依據:%1
-
-
+
+ Asc升序
-
-
+
+ Desc降序
-
-
+
+ Sort dir: %1排序順序:%1
-
-
+
+ None無
-
-
+
+ Limit: %1上限:%1
-
-
+
+ Network error: could not retrieve %1網路錯誤:無法取得 %1
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">錯誤</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">警告:不推薦在您的硬體上運作。模型需要比較多的記憶體(%1 GB),但您的系統記憶體空間不足(%2)。</strong></font>
-
-
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
-
-
-
-
+
+
+
+ Busy indicator參考自 https://terms.naer.edu.tw忙線指示器
-
-
+
+ Displayed when the models request is ongoing當模型請求正在進行時顯示
-
-
+
+ Model file模型檔案
-
-
+
+ Model file to be downloaded即將下載的模型檔案
-
-
+
+ Description描述
-
-
+
+ File description檔案描述
-
-
+
+ Cancel取消
-
-
+
+ Resume恢復
-
-
+
+ Download下載
-
-
+
+ Stop/restart/start the download停止/重啟/開始下載
-
-
+
+ Remove移除
-
-
+
+ Remove model from filesystem從檔案系統移除模型
-
-
-
-
+
+
+
+ Install安裝
-
-
+
+ Install online model安裝線上模型
-
-
+
+ Describes an error that occurred when downloading解釋下載時發生的錯誤
-
-
+
+ Error for incompatible hardware錯誤,不相容的硬體
-
-
+
+ Download progressBar下載進度條
-
-
+
+ Shows the progress made in the download顯示下載進度
-
-
+
+ Download speed下載速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下載速度每秒 bytes/kilobytes/megabytes
-
-
+
+ Calculating...計算中......
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated是否正在計算檔案雜湊
-
-
+
+ Displayed when the file hash is being calculated計算檔案雜湊值時顯示
-
-
+
+ ERROR: $API_KEY is empty.錯誤:$API_KEY 未填寫。
-
-
+
+ enter $API_KEY請輸入 $API_KEY
-
-
+
+ ERROR: $BASE_URL is empty.錯誤:$BASE_URL 未填寫。
-
-
+
+ enter $BASE_URL請輸入 $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME is empty.錯誤:$MODEL_NAME 未填寫。
-
-
+
+ enter $MODEL_NAME請輸入 $MODEL_NAME
-
-
+
+ File size檔案大小
-
-
+
+ RAM required所需的記憶體
-
-
+
+ Parameters參數
-
-
+
+ Quant量化
-
-
+
+ Type類型
@@ -495,238 +495,238 @@
應用程式的配色方案。
-
-
+
+ Dark暗色
-
-
+
+ Light亮色
-
-
+
+ LegacyDark傳統暗色
-
-
+
+ Font Size字體大小
-
-
+
+ The size of text in the application.應用程式中的字體大小。
-
-
+
+ Small小
-
-
+
+ Medium中
-
-
+
+ Large大
-
-
+
+ Language and Locale語言與區域設定
-
-
+
+ The language and locale you wish to use.您希望使用的語言與區域設定。
-
-
+
+ System Locale系統語系
-
-
+
+ Device裝置
-
-
+
+ Default Model預設模型
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.用於新交談的預設模型。也用於作為本機伺服器後援使用。
-
-
+
+ Suggestion Mode建議模式
-
-
+
+ When chatting with LocalDocs當使用「我的文件」交談時
-
-
+
+ Whenever possible視情況允許
-
-
+
+ Never永不
-
-
+
+ Generate suggested follow-up questions at the end of responses.在回覆末尾生成後續建議的問題。
-
-
+
+ The compute device used for text generation.用於生成文字的計算設備。
-
-
-
-
+
+
+
+ Application default應用程式預設值
-
-
+
+ Download Path下載路徑
-
-
+
+ Where to store local models and the LocalDocs database.儲存本機模型與「我的文件」資料庫的位置。
-
-
+
+ Browse瀏覽
-
-
+
+ Choose where to save model files選擇儲存模型檔案的位置
-
-
+
+ Enable Datalake啟用資料湖泊
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.將交談與回饋傳送到 GPT4All 開放原始碼資料湖泊。
-
-
+
+ Advanced進階
-
-
+
+ CPU Threads中央處理器(CPU)線程
-
-
+
+ The number of CPU threads used for inference and embedding.用於推理與嵌入的中央處理器線程數。
-
-
+
+ Save Chat Context儲存交談語境
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.將交談模型的狀態儲存到磁碟以加快載入速度。警告:每次交談使用約 2GB。
-
-
+
+ Enable Local Server啟用本機伺服器
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.將 OpenAI 相容伺服器公開給本機。警告:導致資源使用增加。
-
-
+
+ API Server PortAPI 伺服器埠口
-
-
+
+ The port to use for the local server. Requires restart.用於本機伺服器的埠口。需要重新啟動。
-
-
+
+ Check For Updates檢查更新
-
-
+
+ Manually check for an update to GPT4All.手動檢查 GPT4All 的更新。
-
-
+
+ Updates更新
@@ -1524,66 +1524,72 @@ model to get started
- The compute device used for embeddings. "Auto" uses the CPU. Requires restart.
- 用於嵌入的計算裝置。「Auto」將自動使用中央處理器。需要重新啟動。
+ The compute device used for embeddings. Requires restart.
+ 用於嵌入的計算裝置。需要重新啟動。
-
-
+
+
+ Application default
+ 應用程式預設值
+
+
+
+ Display顯示
-
-
+
+ Show Sources查看來源
-
-
+
+ Display the sources used for each response.顯示每則回覆所使用的來源。
-
-
+
+ Advanced進階
-
-
+
+ Warning: Advanced usage only.警告:僅限進階使用。
-
-
+
+ Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.設定太大的數值可能會導致「我的文件」處理失敗、反應速度極慢或根本無法回覆。簡單地說,這會將 {N 個字元 x N 個片段} 被添加到模型的語境視窗中。更多資訊<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此處</a>。
-
-
+
+ Document snippet size (characters)文件片段大小(字元)
-
-
+
+ Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.每個文件片段的字元數。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。
-
-
+
+ Max document snippets per prompt每個提示詞的最大文件片段
-
-
+
+ Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.新增至提示詞語境中的檢索到的文件片段的最大 N 個符合的項目。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。