AddCollectionView← Existing Collections← Colecciones existentesAdd Document CollectionAgregar colección de documentosAdd a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings.Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. Configure extensiones adicionales en Configuración.Please choose a directoryPor favor, elija un directorioNameNombreCollection name...Nombre de la colección...Name of the collection to add (Required)Nombre de la colección a agregar (Requerido)FolderCarpetaFolder path...Ruta de la carpeta...Folder path to documents (Required)Ruta de la carpeta de documentos (Requerido)BrowseExplorarCreate CollectionCrear colecciónAddGPT4AllModelViewThese models have been specifically configured for use in GPT4All. The first few models on the list are known to work the best, but you should only attempt to use models that will fit in your available memory.Network error: could not retrieve %1Error de red: no se pudo recuperar %1Busy indicatorIndicador de ocupadoDisplayed when the models request is ongoingSe muestra cuando la solicitud de modelos está en cursoAllReasoningModel fileArchivo del modeloModel file to be downloadedArchivo del modelo a descargarDescriptionDescripciónFile descriptionDescripción del archivoCancelCancelarResumeReanudarDownloadDescargarStop/restart/start the downloadDetener/reiniciar/iniciar la descargaRemoveEliminarRemove model from filesystemEliminar modelo del sistema de archivosInstallInstalarInstall online modelInstalar modelo en línea<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font>Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descarga<strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>Error for incompatible hardwareError por hardware incompatibleDownload progressBarBarra de progreso de descargaShows the progress made in the downloadMuestra el progreso realizado en la descargaDownload speedVelocidad de descargaDownload speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedSi se está calculando el hash del archivoDisplayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivoERROR: $API_KEY is empty.enter $API_KEYingrese $API_KEYERROR: $BASE_URL is empty.enter $BASE_URLingrese $BASE_URLERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.enter $MODEL_NAMEingrese $MODEL_NAMEFile sizeTamaño del archivoRAM requiredRAM requerida%1 GB%1 GB??ParametersParámetrosQuantCuantificaciónTypeTipoAddHFModelViewUse the search to find and download models from HuggingFace. There is NO GUARANTEE that these will work. Many will require additional configuration before they can be used.Discover and download models by keyword search...Descubre y descarga modelos mediante búsqueda por palabras clave...Text field for discovering and filtering downloadable modelsCampo de texto para descubrir y filtrar modelos descargablesSearching · %1Buscando · %1Initiate model discovery and filteringIniciar descubrimiento y filtrado de modelosTriggers discovery and filtering of modelsActiva el descubrimiento y filtrado de modelosDefaultPredeterminadoLikesMe gustaDownloadsDescargasRecentRecienteSort by: %1Ordenar por: %1AscAscDescDescSort dir: %1Dirección de ordenamiento: %1NoneNingunoLimit: %1Límite: %1Model fileArchivo del modeloModel file to be downloadedArchivo del modelo a descargarDescriptionDescripciónFile descriptionDescripción del archivoCancelCancelarResumeReanudarDownloadDescargarStop/restart/start the downloadDetener/reiniciar/iniciar la descargaRemoveEliminarRemove model from filesystemEliminar modelo del sistema de archivosInstallInstalarInstall online modelInstalar modelo en línea<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font>Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descarga<strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>Error for incompatible hardwareError por hardware incompatibleDownload progressBarBarra de progreso de descargaShows the progress made in the downloadMuestra el progreso realizado en la descargaDownload speedVelocidad de descargaDownload speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedSi se está calculando el hash del archivoBusy indicatorIndicador de ocupadoDisplayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivoERROR: $API_KEY is empty.enter $API_KEYingrese $API_KEYERROR: $BASE_URL is empty.enter $BASE_URLingrese $BASE_URLERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.enter $MODEL_NAMEingrese $MODEL_NAMEFile sizeTamaño del archivoQuantCuantificaciónTypeTipoAddModelView← Existing Models← Modelos existentesExplore ModelsExplorar modelosGPT4AllGPT4AllHuggingFaceDiscover and download models by keyword search...Descubre y descarga modelos mediante búsqueda por palabras clave...Text field for discovering and filtering downloadable modelsCampo de texto para descubrir y filtrar modelos descargablesInitiate model discovery and filteringIniciar descubrimiento y filtrado de modelosTriggers discovery and filtering of modelsActiva el descubrimiento y filtrado de modelosDefaultPredeterminadoLikesMe gustaDownloadsDescargasRecentRecienteAscAscDescDescNoneNingunoSearching · %1Buscando · %1Sort by: %1Ordenar por: %1Sort dir: %1Dirección de ordenamiento: %1Limit: %1Límite: %1Network error: could not retrieve %1Error de red: no se pudo recuperar %1Busy indicatorIndicador de ocupadoDisplayed when the models request is ongoingSe muestra cuando la solicitud de modelos está en cursoModel fileArchivo del modeloModel file to be downloadedArchivo del modelo a descargarDescriptionDescripciónFile descriptionDescripción del archivoCancelCancelarResumeReanudarDownloadDescargarStop/restart/start the downloadDetener/reiniciar/iniciar la descargaRemoveEliminarRemove model from filesystemEliminar modelo del sistema de archivosInstallInstalarInstall online modelInstalar modelo en línea<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font>%1 GB%1 GB??Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descargaError for incompatible hardwareError por hardware incompatibleDownload progressBarBarra de progreso de descargaShows the progress made in the downloadMuestra el progreso realizado en la descargaDownload speedVelocidad de descargaDownload speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedSi se está calculando el hash del archivoDisplayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivoenter $API_KEYingrese $API_KEYFile sizeTamaño del archivoRAM requiredRAM requeridaParametersParámetrosQuantCuantificaciónTypeTipoERROR: $API_KEY is empty.ERROR: $API_KEY está vacío.ERROR: $BASE_URL is empty.ERROR: $BASE_URL está vacío.enter $BASE_URLingrese $BASE_URLERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.enter $MODEL_NAMEingrese $MODEL_NAMEApplicationSettingsApplicationAplicaciónNetwork dialogDiálogo de redopt-in to share feedback/conversationsoptar por compartir comentarios/conversacionesError dialogDiálogo de errorApplication SettingsConfiguración de la aplicaciónGeneralGeneralThemeTemaThe application color scheme.El esquema de colores de la aplicación.DarkOscuroLightClaroERROR: Update system could not find the MaintenanceTool used to check for updates!<br/><br/>Did you install this application using the online installer? If so, the MaintenanceTool executable should be located one directory above where this application resides on your filesystem.<br/><br/>If you can't start it manually, then I'm afraid you'll have to reinstall.ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada para buscar actualizaciones.<br><br>¿Instaló esta aplicación utilizando el instalador en línea? Si es así, el ejecutable de la Herramienta de Mantenimiento debería estar ubicado un directorio por encima de donde reside esta aplicación en su sistema de archivos.<br><br>Si no puede iniciarlo manualmente, me temo que tendrá que reinstalar la aplicación.LegacyDarkOscuro legadoFont SizeTamaño de fuenteThe size of text in the application.El tamaño del texto en la aplicación.DeviceDispositivoSmallPequeñoMediumMedianoLargeGrandeLanguage and LocaleIdioma y configuración regionalThe language and locale you wish to use.El idioma y la configuración regional que deseas usar.Default ModelModelo predeterminadoThe preferred model for new chats. Also used as the local server fallback.El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local.Suggestion ModeModo de sugerenciaGenerate suggested follow-up questions at the end of responses.Generar preguntas de seguimiento sugeridas al final de las respuestas.When chatting with LocalDocsAl chatear con LocalDocsWhenever possibleSiempre que sea posibleNeverNuncaDownload PathRuta de descargaWhere to store local models and the LocalDocs database.Dónde almacenar los modelos locales y la base de datos de LocalDocs.BrowseExplorarChoose where to save model filesElegir dónde guardar los archivos del modeloEnable DatalakeHabilitar DatalakeSend chats and feedback to the GPT4All Open-Source Datalake.Enviar chats y comentarios al Datalake de código abierto de GPT4All.AdvancedAvanzadoCPU ThreadsHilos de CPUThe number of CPU threads used for inference and embedding.El número de hilos de CPU utilizados para inferencia e incrustación.Enable System TrayThe application will minimize to the system tray when the window is closed.Save Chat ContextGuardar contexto del chatSave the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat.Enable Local API ServerHabilitar el servidor API localExpose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos.API Server PortPuerto del servidor APIThe port to use for the local server. Requires restart.El puerto a utilizar para el servidor local. Requiere reinicio.Check For UpdatesBuscar actualizacionesManually check for an update to GPT4All.Buscar manualmente una actualización para GPT4All.UpdatesActualizacionesSystem LocaleRegional del sistemaThe compute device used for text generation.El dispositivo de cómputo utilizado para la generación de texto.Application defaultPredeterminado de la aplicaciónChatNew ChatNuevo chatServer ChatChat del servidorChatAPIWorkerERROR: Network error occurred while connecting to the API serverERROR: Ocurrió un error de red al conectar con el servidor APIChatAPIWorker::handleFinished got HTTP Error %1 %2ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2ChatDrawerDrawerCajónMain navigation drawerCajón de navegación principal+ New Chat+ Nuevo chatCreate a new chatCrear un nuevo chatSelect the current chat or edit the chat when in edit modeSeleccionar el chat actual o editar el chat cuando esté en modo de ediciónEdit chat nameEditar nombre del chatSave chat nameGuardar nombre del chatDelete chatEliminar chatConfirm chat deletionConfirmar eliminación del chatCancel chat deletionCancelar eliminación del chatList of chatsLista de chatsList of chats in the drawer dialogLista de chats en el diálogo del cajónChatItemViewGPT4AllGPT4AllYouTúresponse stopped ...respuesta detenida ...retrieving localdocs: %1 ...recuperando documentos locales: %1 ...searching localdocs: %1 ...buscando en documentos locales: %1 ...processing ...procesando ...generating response ...generando respuesta ...generating questions ...generando preguntas ...generating toolcall ...CopyCopiarCopy MessageCopiar mensajeDisable markdownDesactivar markdownEnable markdownActivar markdown%n Source(s)%n Fuente%n FuentesLocalDocsEdit this message?All following messages will be permanently erased.Redo this response?Cannot edit chat without a loaded model.Cannot edit chat while the model is generating.EditCannot redo response without a loaded model.Cannot redo response while the model is generating.RedoLike responseDislike responseSuggested follow-upsSeguimientos sugeridosChatLLMYour message was too long and could not be processed (%1 > %2). Please try again with something shorter.ChatListModelTODAYHOYTHIS WEEKESTA SEMANATHIS MONTHESTE MESLAST SIX MONTHSÚLTIMOS SEIS MESESTHIS YEARESTE AÑOLAST YEARAÑO PASADOChatView<h3>Warning</h3><p>%1</p><h3>Advertencia</h3><p>%1</p>Switch model dialogDiálogo para cambiar de modeloWarn the user if they switch models, then context will be erasedAdvertir al usuario si cambia de modelo, entonces se borrará el contextoConversation copied to clipboard.Conversación copiada al portapapeles.Code copied to clipboard.Código copiado al portapapeles.The entire chat will be erased.Chat panelPanel de chatChat panel with optionsPanel de chat con opcionesReload the currently loaded modelRecargar el modelo actualmente cargadoEject the currently loaded modelExpulsar el modelo actualmente cargadoNo model installed.No hay modelo instalado.Model loading error.Error al cargar el modelo.Waiting for model...Esperando al modelo...Switching context...Cambiando contexto...Choose a model...Elige un modelo...Not found: %1No encontrado: %1The top item is the current modelEl elemento superior es el modelo actualLocalDocsDocumentosLocalesAdd documentsAgregar documentosadd collections of documents to the chatagregar colecciones de documentos al chatLoad the default modelCargar el modelo predeterminadoLoads the default model which can be changed in settingsCarga el modelo predeterminado que se puede cambiar en la configuraciónNo Model InstalledNo hay modelo instaladoLegacy prompt template needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings.No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured.The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank.Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings.<h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help<h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayudaErase conversation?Changing the model will erase the current conversation.Install a ModelInstalar un modeloShows the add model viewMuestra la vista de agregar modeloConversation with the modelConversación con el modeloprompt / response pairs from the conversationpares de pregunta / respuesta de la conversaciónGPT4AllGPT4AllYouTúresponse stopped ...respuesta detenida ...processing ...procesando ...generating response ...generando respuesta ...generating questions ...generando preguntas ...CopyCopiarCopy MessageCopiar mensajeDisable markdownDesactivar markdownEnable markdownActivar markdownThumbs upMe gustaGives a thumbs up to the responseDa un me gusta a la respuestaThumbs downNo me gustaOpens thumbs down dialogAbre el diálogo de no me gustaSuggested follow-upsSeguimientos sugeridosErase and reset chat sessionBorrar y reiniciar sesión de chatCopy chat session to clipboardCopiar sesión de chat al portapapelesRedo last chat responseRehacer última respuesta del chatAdd mediaAgregar mediosAdds media to the promptAgrega medios al mensajeStop generatingDetener generaciónStop the current response generationDetener la generación de la respuesta actualAttachAdjuntarSingle FileFila indiaReloads the modelRecarga el modeloReload · %1Recargar · %1Loading · %1Cargando · %1Load · %1 (default) →Cargar · %1 (predeterminado) →retrieving localdocs: %1 ...recuperando documentos locales: %1 ...searching localdocs: %1 ...buscando en documentos locales: %1 ...%n Source(s)%n Fuente%n FuentesSend a message...Enviar un mensaje...Load a model to continue...Carga un modelo para continuar...Send messages/prompts to the modelEnviar mensajes/indicaciones al modeloCutCortarPastePegarSelect AllSeleccionar todoSend messageEnviar mensajeSends the message/prompt contained in textfield to the modelEnvía el mensaje/indicación contenido en el campo de texto al modeloGPT4All requires that you install at least one
model to get startedGPT4All requiere que instale al menos un
modelo para comenzar
restoring from text ...restaurando desde texto ...CollectionsDrawerWarning: searching collections while indexing can return incomplete resultsAdvertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos%n file(s)%n archivo%n archivos%n word(s)%n palabra%n palabrasUpdatingActualizando+ Add Docs+ Agregar documentosSelect a collection to make it available to the chat model.Seleccione una colección para hacerla disponible al modelo de chat.ConfirmationDialogOKCancelCancelarDownloadModel "%1" is installed successfully.El modelo "%1" se ha instalado correctamente.ERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.ERROR: $API_KEY is empty.ERROR: $API_KEY está vacía.ERROR: $BASE_URL is invalid.ERROR: $BASE_URL no es válida.ERROR: Model "%1 (%2)" is conflict.ERROR: El modelo "%1 (%2)" está en conflicto.Model "%1 (%2)" is installed successfully.El modelo "%1 (%2)" se ha instalado correctamente.Model "%1" is removed.El modelo "%1" ha sido eliminado.HomeViewWelcome to GPT4AllBienvenido a GPT4AllThe privacy-first LLM chat applicationLa aplicación de chat LLM que prioriza la privacidadStart chattingComenzar a chatearStart ChattingIniciar chatChat with any LLMChatear con cualquier LLMLocalDocsDocumentosLocalesChat with your local filesChatear con tus archivos localesFind ModelsBuscar modelosExplore and download modelsExplorar y descargar modelosLatest newsÚltimas noticiasLatest news from GPT4AllÚltimas noticias de GPT4AllRelease NotesNotas de la versiónDocumentationDocumentaciónDiscordDiscordX (Twitter)X (Twitter)GithubGithubnomic.ainomic.aiSubscribe to NewsletterSuscribirse al boletínLocalDocsSettingsLocalDocsDocumentosLocalesLocalDocs SettingsConfiguración de DocumentosLocalesIndexingIndexaciónAllowed File ExtensionsExtensiones de archivo permitidasEmbeddingIncrustaciónUse Nomic Embed APIUsar API de incrustación NomicNomic API KeyClave API de NomicAPI key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart.Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio.Embeddings DeviceDispositivo de incrustacionesThe compute device used for embeddings. Requires restart.El dispositivo de cómputo utilizado para las incrustaciones. Requiere reinicio.Comma-separated list. LocalDocs will only attempt to process files with these extensions.Lista separada por comas. LocalDocs solo intentará procesar archivos con estas extensiones.Embed documents using the fast Nomic API instead of a private local model. Requires restart.Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio.Application defaultPredeterminado de la aplicaciónDisplayVisualizaciónShow SourcesMostrar fuentesDisplay the sources used for each response.Mostrar las fuentes utilizadas para cada respuesta.AdvancedAvanzadoWarning: Advanced usage only.Advertencia: Solo para uso avanzado.Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.Document snippet size (characters)Tamaño del fragmento de documento (caracteres)Max document snippets per promptMáximo de fragmentos de documento por indicaciónLocalDocsViewLocalDocsDocumentosLocalesChat with your local filesChatea con tus archivos locales+ Add Collection+ Agregar colecciónNo Collections InstalledNo hay colecciones instaladasInstall a collection of local documents to get started using this featureInstala una colección de documentos locales para comenzar a usar esta función+ Add Doc Collection+ Agregar colección de documentosShows the add model viewMuestra la vista de agregar modeloIndexing progressBarBarra de progreso de indexaciónShows the progress made in the indexingMuestra el progreso realizado en la indexaciónERRORERRORINDEXINGINDEXANDOEMBEDDINGINCRUSTANDOREQUIRES UPDATEREQUIERE ACTUALIZACIÓNREADYLISTOINSTALLINGINSTALANDOIndexing in progressIndexación en progresoEmbedding in progressIncrustación en progresoThis collection requires an update after version changeEsta colección requiere una actualización después del cambio de versiónAutomatically reindexes upon changes to the folderReindexación automática al cambiar la carpetaInstallation in progressInstalación en progreso%%%n file(s)%n archivo%n archivos%n word(s)%n palabra%n palabra(s)RemoveEliminarRebuildReconstruirReindex this folder from scratch. This is slow and usually not needed.Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario.UpdateActualizarUpdate the collection to the new version. This is a slow operation.Actualizar la colección a la nueva versión. Esta es una operación lenta.<h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however.<h3>ERROR: No se puede acceder a la base de datos LocalDocs o no es válida.</h3><br><i>Nota: Necesitará reiniciar después de intentar cualquiera de las siguientes soluciones sugeridas.</i><br><ul><li>Asegúrese de que la carpeta establecida como <b>Ruta de Descarga</b> exista en el sistema de archivos.</li><li>Verifique la propiedad y los permisos de lectura y escritura de la <b>Ruta de Descarga</b>.</li><li>Si hay un archivo <b>localdocs_v2.db</b>, verifique también su propiedad y permisos de lectura/escritura.</li></ul><br>Si el problema persiste y hay archivos 'localdocs_v*.db' presentes, como último recurso puede<br>intentar hacer una copia de seguridad y eliminarlos. Sin embargo, tendrá que recrear sus colecciones.ModelList<ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li><ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li><strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1<strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1<br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.<br><br><i>* Aunque pagues a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacta a OpenAI para más información.<strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2<strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2<ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li><ul><li>Requiere una clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará tus chats a Mistral!</li><li>Tu clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puedes solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li><strong>Mistral Tiny model</strong><br> %1<strong>Modelo Mistral Tiny</strong><br> %1<strong>Mistral Small model</strong><br> %1<strong>Modelo Mistral Small</strong><br> %1<strong>Mistral Medium model</strong><br> %1<strong>Modelo Mistral Medium</strong><br> %1<strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul><strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Más información puede encontrarse <a href="https://huggingface.co/%5">aquí.</a></ul>%1 (%2)%1 (%2)cannot open "%1": %2no se puede abrir "%1": %2cannot create "%1": %2no se puede crear "%1": %2<strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul><strong>Modelo de API compatible con OpenAI</strong><br><ul><li>Clave API: %1</li><li>URL base: %2</li><li>Nombre del modelo: %3</li></ul><ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li><ul><li>Requiere una clave API personal y la URL base de la API.</li><li>ADVERTENCIA: ¡Enviará sus chats al servidor de API compatible con OpenAI que especificó!</li><li>Su clave API se almacenará en el disco</li><li>Solo se utilizará para comunicarse con el servidor de API compatible con OpenAI</li><strong>Connect to OpenAI-compatible API server</strong><br> %1<strong>Conectar al servidor de API compatible con OpenAI</strong><br> %1ModelSettingsModelModelo%1 system message?ClearResetThe system message will be %1.removedreset to the default%1 chat template?The chat template will be %1.erasedModel SettingsConfiguración del modeloCloneClonarRemoveEliminarNameNombreModel FileArchivo del modeloSystem PromptIndicación del sistemaPrefixed at the beginning of every conversation. Must contain the appropriate framing tokens.Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados.Prompt TemplatePlantilla de indicaciónThe template that wraps every prompt.La plantilla que envuelve cada indicación.Must contain the string "%1" to be replaced with the user's input.Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario.Chat Name PromptIndicación para el nombre del chatPrompt used to automatically generate chat names.Indicación utilizada para generar automáticamente nombres de chat.Suggested FollowUp PromptIndicación de seguimiento sugeridaPrompt used to generate suggested follow-up questions.Indicación utilizada para generar preguntas de seguimiento sugeridas.Context LengthLongitud del contextoNumber of input and output tokens the model sees.Número de tokens de entrada y salida que el modelo ve.TemperatureTemperaturaRandomness of model output. Higher -> more variation.Aleatoriedad de la salida del modelo. Mayor -> más variación.Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.La temperatura aumenta las probabilidades de elegir tokens menos probables.
NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles.Top-PTop-PNucleus Sampling factor. Lower -> more predictable.Factor de muestreo de núcleo. Menor -> más predecible.Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p.
NOTA: Evita elegir tokens altamente improbables.Min-PMin-PMinimum token probability. Higher -> more predictable.Probabilidad mínima del token. Mayor -> más predecible.Sets the minimum relative probability for a token to be considered.Establece la probabilidad relativa mínima para que un token sea considerado.Top-KTop-KSize of selection pool for tokens.Tamaño del grupo de selección para tokens.Only the top K most likely tokens will be chosen from.Solo se elegirán los K tokens más probables.Max LengthLongitud máximaMaximum response length, in tokens.Longitud máxima de respuesta, en tokens.Prompt Batch SizeTamaño del lote de indicacionesThe batch size used for prompt processing.El tamaño del lote utilizado para el procesamiento de indicaciones.Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.Cantidad de tokens de prompt a procesar de una vez.
NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán más RAM.Repeat PenaltyPenalización por repeticiónRepetition penalty factor. Set to 1 to disable.Factor de penalización por repetición. Establecer a 1 para desactivar.Repeat Penalty TokensTokens de penalización por repeticiónNumber of previous tokens used for penalty.Número de tokens anteriores utilizados para la penalización.GPU LayersCapas de GPUNumber of model layers to load into VRAM.Número de capas del modelo a cargar en la VRAM.Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.Máximo de tokens combinados de pregunta/respuesta antes de que se pierda información.
Usar más contexto del que el modelo fue entrenado producirá resultados deficientes.
NOTA: No surtirá efecto hasta que recargue el modelo.System MessageA message to set the context or guide the behavior of the model. Leave blank for none. NOTE: Since GPT4All 3.5, this should not contain control tokens.System message is not <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">plain text</a>.Chat TemplateThis Jinja template turns the chat into input for the model.No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured.The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank.<a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Syntax error</a>: %1Chat template is not in <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja format</a>.How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.Cuántas capas del modelo cargar en la VRAM. Disminuya esto si GPT4All se queda sin VRAM al cargar este modelo.
Valores más bajos aumentan la carga de la CPU y el uso de RAM, y hacen que la inferencia sea más lenta.
NOTA: No surte efecto hasta que recargue el modelo.ModelsViewNo Models InstalledNo hay modelos instaladosInstall a model to get started using GPT4AllInstala un modelo para empezar a usar GPT4All+ Add Model+ Agregar modeloShows the add model viewMuestra la vista de agregar modeloInstalled ModelsModelos instaladosLocally installed chat modelsModelos de chat instalados localmenteModel fileArchivo del modeloModel file to be downloadedArchivo del modelo a descargarDescriptionDescripciónFile descriptionDescripción del archivoCancelCancelarResumeReanudarStop/restart/start the downloadDetener/reiniciar/iniciar la descargaRemoveEliminarRemove model from filesystemEliminar modelo del sistema de archivosInstallInstalarInstall online modelInstalar modelo en línea<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font>%1 GB%1 GB??Describes an error that occurred when downloadingDescribe un error que ocurrió durante la descargaError for incompatible hardwareError por hardware incompatibleDownload progressBarBarra de progreso de descargaShows the progress made in the downloadMuestra el progreso realizado en la descargaDownload speedVelocidad de descargaDownload speed in bytes/kilobytes/megabytes per secondVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedSi se está calculando el hash del archivoBusy indicatorIndicador de ocupadoDisplayed when the file hash is being calculatedSe muestra cuando se está calculando el hash del archivoenter $API_KEYingrese $API_KEYFile sizeTamaño del archivoRAM requiredRAM requeridaParametersParámetrosQuantCuantificaciónTypeTipoERROR: $API_KEY is empty.ERROR: $API_KEY está vacía.ERROR: $BASE_URL is empty.ERROR: $BASE_URL está vacía.enter $BASE_URLingrese $BASE_URLERROR: $MODEL_NAME is empty.ERROR: $MODEL_NAME está vacío.enter $MODEL_NAMEingrese $MODEL_NAMEMyFancyLinkFancy linkEnlace eleganteA stylized linkUn enlace estilizadoMyFileDialogPlease choose a filePor favor elige un archivoMyFolderDialogPlease choose a directoryPor favor, elija un directorioMySettingsLabelClearResetMySettingsStackPlease choose a directoryPor favor, elija un directorioMySettingsTabRestore defaults?This page of settings will be reset to the defaults.Restore DefaultsRestaurar valores predeterminadosRestores settings dialog to a default stateRestaura el diálogo de configuración a su estado predeterminadoNetworkDialogContribute data to the GPT4All Opensource Datalake.Contribuir datos al Datalake de código abierto de GPT4All.By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!Al habilitar esta función, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo.
Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice tus datos.Terms for opt-inTérminos para optar por participarDescribes what will happen when you opt-inDescribe lo que sucederá cuando opte por participarPlease provide a name for attribution (optional)Por favor, proporcione un nombre para la atribución (opcional)Attribution (optional)Atribución (opcional)Provide attributionProporcionar atribuciónEnableHabilitarEnable opt-inHabilitar participaciónCancelCancelarCancel opt-inCancelar participaciónNewVersionDialogNew version is availableNueva versión disponibleUpdateActualizarUpdate to new versionActualizar a nueva versiónPopupDialogReveals a shortlived help balloonMuestra un globo de ayuda de corta duraciónBusy indicatorIndicador de ocupadoDisplayed when the popup is showing busySe muestra cuando la ventana emergente está ocupadaSettingsViewSettingsConfiguraciónContains various application settingsContiene varias configuraciones de la aplicaciónApplicationAplicaciónModelModeloLocalDocsDocumentosLocalesStartupDialogWelcome!¡Bienvenido!### Release Notes
%1<br/>
### Contributors
%2### Notas de la versión
%1<br/>
### Colaboradores
%2Release notesNotas de la versiónRelease notes for this versionNotas de la versión para esta versiónTerms for opt-inTérminos para aceptarDescribes what will happen when you opt-inDescribe lo que sucederá cuando acepteOpt-in to anonymous usage analytics used to improve GPT4AllOpt-in for anonymous usage statisticsAceptar estadísticas de uso anónimasYesSíAllow opt-in for anonymous usage statisticsPermitir aceptación de estadísticas de uso anónimasNoNoOpt-out for anonymous usage statisticsRechazar estadísticas de uso anónimasAllow opt-out for anonymous usage statisticsPermitir rechazo de estadísticas de uso anónimasOpt-in to anonymous sharing of chats to the GPT4All DatalakeOpt-in for networkAceptar para la redAllow opt-in for networkPermitir aceptación para la redAllow opt-in anonymous sharing of chats to the GPT4All DatalakePermitir compartir anónimamente los chats con el Datalake de GPT4AllOpt-out for networkRechazar para la redAllow opt-out anonymous sharing of chats to the GPT4All DatalakePermitir rechazar el compartir anónimo de chats con el Datalake de GPT4All### Opt-ins for anonymous usage analytics and datalake
By enabling these features, you will be able to participate in the democratic process of training a
large language model by contributing data for future model improvements.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All
Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you
can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake.
You should have no expectation of chat privacy when this feature is enabled. You should; however, have
an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone
to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a contributor to any GPT4All
model release that uses your data!### Consentimiento para análisis de uso anónimo y lago de datos
Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar un
modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo.
Cuando un modelo GPT4All le responda y usted haya dado su consentimiento, su conversación se enviará al
Lago de Datos de Código Abierto de GPT4All. Además, puede indicar si le gusta o no su respuesta. Si no le gusta una respuesta,
puede sugerir una respuesta alternativa. Estos datos se recopilarán y agregarán en el Lago de Datos de GPT4All.
NOTA: Al activar esta función, estará enviando sus datos al Lago de Datos de Código Abierto de GPT4All.
No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede
esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera
los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda
la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier
lanzamiento de modelo GPT4All que utilice sus datos.SwitchModelDialog<b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue?<b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Deseas continuar?ContinueContinuarContinue with model loadingContinuar con la carga del modeloCancelCancelarThumbsDownDialogPlease edit the text below to provide a better response. (optional)Por favor, edite el texto a continuación para proporcionar una mejor
respuesta. (opcional)Please provide a better response...Por favor, proporcione una mejor respuesta...SubmitEnviarSubmits the user's responseEnvía la respuesta del usuarioCancelCancelarCloses the response dialogCierra el diálogo de respuestamainGPT4All v%1GPT4All v%1RestoreQuit<h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a><h3>Se encontró un error al iniciar:</h3><br><i>"Se detectó hardware incompatible."</i><br><br>Desafortunadamente, tu CPU no cumple con los requisitos mínimos para ejecutar este programa. En particular, no soporta instrucciones AVX, las cuales este programa requiere para ejecutar con éxito un modelo de lenguaje grande moderno. La única solución en este momento es actualizar tu hardware a una CPU más moderna.<br><br>Consulta aquí para más información: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a><h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.<h3>Se encontró un error al iniciar:</h3><br><i>"No se puede acceder al archivo de configuración."</i><br><br>Desafortunadamente, algo está impidiendo que el programa acceda al archivo de configuración. Esto podría ser causado por permisos incorrectos en el directorio de configuración local de la aplicación donde se encuentra el archivo de configuración. Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda.Connection to datalake failed.La conexión al datalake falló.Saving chats.Guardando chats.Network dialogDiálogo de redopt-in to share feedback/conversationsoptar por compartir comentarios/conversacionesHome viewVista de inicioHome view of applicationVista de inicio de la aplicaciónHomeInicioChat viewVista de chatChat view to interact with modelsVista de chat para interactuar con modelosChatsChatsModelsModelosModels view for installed modelsVista de modelos para modelos instaladosLocalDocsDocs
LocalesLocalDocs view to configure and use local docsVista de DocumentosLocales para configurar y usar documentos localesSettingsConfig.Settings view for application configurationVista de configuración para la configuración de la aplicaciónThe datalake is enabledEl datalake está habilitadoUsing a network modelUsando un modelo de redServer mode is enabledEl modo servidor está habilitadoInstalled modelsModelos instaladosView of installed modelsVista de modelos instalados