AddCollectionView← Existing Collections← Minhas coleçõesAdd Document CollectionAdicionar Coleção de DocumentosAdd a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings.Adicione uma pasta contendo arquivos de texto simples, PDFs ou Markdown. Configure extensões adicionais nas Configurações.Please choose a directoryEscolha um diretórioNameNomeCollection name...Nome da coleção...Name of the collection to add (Required)Nome da coleção (obrigatório)FolderPastaFolder path...Caminho da pasta...Folder path to documents (Required)Caminho da pasta com os documentos (obrigatório)BrowseProcurarCreate CollectionCriar ColeçãoAddModelView← Existing Models← Meus ModelosExplore ModelsDescobrir ModelosDiscover and download models by keyword search...Pesquisar modelos...Text field for discovering and filtering downloadable modelsCampo de texto para descobrir e filtrar modelos para downloadInitiate model discovery and filteringPesquisar e filtrar modelosTriggers discovery and filtering of modelsAciona a descoberta e filtragem de modelosDefaultPadrãoLikesCurtidasDownloadsDownloadsRecentRecentesAscAscDescDescNoneNenhumSearching · %1Pesquisando · %1Sort by: %1Ordenar por: %1Sort dir: %1Ordenar diretório: %1Limit: %1Limite: %1Network error: could not retrieve %1Erro de rede: não foi possível obter %1Busy indicatorIndicador de processamentoDisplayed when the models request is ongoingxibido enquanto os modelos estão sendo carregadosModel fileArquivo do modeloModel file to be downloadedArquivo do modelo a ser baixadoDescriptionDescriçãoFile descriptionDescrição do arquivoCancelCancelarResumeRetomarDownloadBaixarStop/restart/start the downloadParar/reiniciar/iniciar o downloadRemoveRemoverRemove model from filesystemRemover modelo do sistemaInstallInstalarInstall online modelInstalar modelo online<strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>ERROR: $API_KEY is empty.ERROR: $BASE_URL is empty.enter $BASE_URLERROR: $MODEL_NAME is empty.enter $MODEL_NAME%1 GB%1 GB??Describes an error that occurred when downloadingMostra informações sobre o erro no download<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Erro</a></strong></font>Error for incompatible hardwareAviso: Hardware não compatívelDownload progressBarProgresso do downloadShows the progress made in the downloadMostra o progresso do downloadDownload speedVelocidade de downloadDownload speed in bytes/kilobytes/megabytes per secondVelocidade de download em bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedQuando o hash do arquivo está sendo calculadoDisplayed when the file hash is being calculatedExibido durante o cálculo do hash do arquivoenter $API_KEYinserir $API_KEYFile sizeTamanho do arquivoRAM requiredRAM necessáriaParametersParâmetrosQuantQuantTypeTipoApplicationSettingsApplicationAplicativoNetwork dialogMensagens de redeopt-in to share feedback/conversationsCompartilhar feedback e conversasERROR: Update system could not find the MaintenanceTool used<br>
to check for updates!<br><br>
Did you install this application using the online installer? If so,<br>
the MaintenanceTool executable should be located one directory<br>
above where this application resides on your filesystem.<br><br>
If you can't start it manually, then I'm afraid you'll have to<br>
reinstall.ERRO: O sistema de atualização não encontrou a Ferramenta de Manutenção<br>
necessária para verificar atualizações!<br><br>
Você instalou este aplicativo usando o instalador online? Se sim,<br>
o executável da Ferramenta de Manutenção deve estar localizado um diretório<br>
acima de onde este aplicativo está instalado.<br><br>
Se você não conseguir iniciá-lo manualmente, será necessário<br>
reinstalar o aplicativo.Error dialogMensagens de erroApplication SettingsConfiguraçõesGeneralGeralThemeTemaThe application color scheme.Esquema de cores.DarkModo EscuroLightModo ClaroLegacyDarkModo escuro (legado)Font SizeTamanho da FonteThe size of text in the application.Tamanho do texto.SmallPequenaMediumMédioLargeGrandeLanguage and LocaleIdioma e RegiãoThe language and locale you wish to use.Selecione seu idioma e região.System LocaleDeviceProcessadorThe compute device used for text generation. "Auto" uses Vulkan or Metal.Processador usado para gerar texto. (Automático: Vulkan ou Metal).The compute device used for text generation.Application defaultDefault ModelModelo PadrãoThe preferred model for new chats. Also used as the local server fallback.Modelo padrão para novos chats e em caso de falha do modelo principal.Suggestion ModeModo de sugestõesGenerate suggested follow-up questions at the end of responses.Sugerir perguntas após as respostas.When chatting with LocalDocsAo conversar com o LocalDocsWhenever possibleSempre que possívelNeverNuncaDownload PathDiretório de DownloadWhere to store local models and the LocalDocs database.Pasta para modelos e banco de dados do LocalDocs.BrowseProcurarChoose where to save model filesLocal para armazenar os modelosEnable DatalakeHabilitar DatalakeSend chats and feedback to the GPT4All Open-Source Datalake.Contribua para o Datalake de código aberto do GPT4All.AdvancedAvançadoCPU ThreadsThreads de CPUThe number of CPU threads used for inference and embedding.Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.Save Chat ContextSalvar Histórico do ChatSave the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).Enable Local ServerAtivar Servidor LocalExpose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.Ativar servidor local compatível com OpenAI (uso de recursos elevado).API Server PortPorta da APIThe port to use for the local server. Requires restart.Porta de acesso ao servidor local. (requer reinicialização).Check For UpdatesProcurar por AtualizaçõesManually check for an update to GPT4All.Verifica se há novas atualizações para o GPT4All.UpdatesAtualizaçõesChatNew ChatNovo ChatServer ChatChat com o ServidorChatAPIWorkerERROR: Network error occurred while connecting to the API serverChatAPIWorker::handleFinished got HTTP Error %1 %2ChatDrawerDrawerMenu LateralMain navigation drawerMenu de navegação principal+ New Chat+ Novo ChatCreate a new chatCriar um novo chatSelect the current chat or edit the chat when in edit modeSelecione o chat atual ou edite o chat quando estiver no modo de ediçãoEdit chat nameEditar nome do chatSave chat nameSalvar nome do chatDelete chatExcluir chatConfirm chat deletionConfirmar exclusão do chatCancel chat deletionCancelar exclusão do chatList of chatsLista de chatsList of chats in the drawer dialogLista de chats na caixa de diálogo do menu lateralChatListModelTODAYHOJETHIS WEEKESTA SEMANATHIS MONTHESTE MÊSLAST SIX MONTHSÚLTIMOS SEIS MESESTHIS YEARESTE ANOLAST YEARANO PASSADOChatView<h3>Warning</h3><p>%1</p><h3>Aviso</h3><p>%1</p>Switch model dialogMensagem ao troca de modeloWarn the user if they switch models, then context will be erasedAo trocar de modelo, o contexto da conversa será apagadoConversation copied to clipboard.Conversa copiada.Code copied to clipboard.Código copiado.Chat panelPainel de chatChat panel with optionsPainel de chat com opçõesReload the currently loaded modelRecarregar modelo atualEject the currently loaded modelEjetar o modelo carregado atualmenteNo model installed.Nenhum modelo instalado.Model loading error.Erro ao carregar o modelo.Waiting for model...Aguardando modelo...Switching context...Mudando de contexto...Choose a model...Escolha um modelo...Not found: %1Não encontrado: %1The top item is the current modelO modelo atual é exibido no topoLocalDocsLocalDocsAdd documentsAdicionar documentosadd collections of documents to the chatAdicionar Coleção de DocumentosLoad the default modelCarregar o modelo padrãoLoads the default model which can be changed in settingsCarrega o modelo padrão (personalizável nas configurações)No Model InstalledNenhum Modelo InstaladoGPT4All requires that you install at least one
model to get startedO GPT4All precisa de pelo menos um modelo
modelo instalado para funcionarInstall a ModelInstalar um ModeloShows the add model viewMostra a visualização para adicionar modeloConversation with the modelConversa com o modeloprompt / response pairs from the conversationPares de pergunta/resposta da conversaGPT4AllGPT4AllYouVocêrecalculating context ...recalculando contexto...response stopped ...resposta interrompida...processing ...processando...generating response ...gerando resposta...generating questions ...gerando perguntas...CopyCopiarCopy MessageCopiar MensagemDisable markdownDesativar markdownEnable markdownAtivar markdownThumbs upResposta boaGives a thumbs up to the responseCurte a respostaThumbs downResposta ruimOpens thumbs down dialogAbrir diálogo de joinha para baixo%1 Sources%1 OrigensSuggested follow-upsPerguntas relacionadasErase and reset chat sessionApagar e redefinir sessão de chatCopy chat session to clipboardCopiar histórico da conversaRedo last chat responseRefazer última respostaStop generatingParar de gerarStop the current response generationParar a geração da resposta atualReloads the modelRecarrega modelo<h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help<h3>Ocorreu um erro ao carregar o modelo:</h3><br><i>"%1"</i><br><br>Falhas no carregamento do modelo podem acontecer por vários motivos, mas as causas mais comuns incluem um formato de arquivo incorreto, um download incompleto ou corrompido, o tipo de arquivo errado, memória RAM do sistema insuficiente ou um tipo de modelo incompatível. Aqui estão algumas sugestões para resolver o problema:<br><ul><li>Certifique-se de que o arquivo do modelo tenha um formato e tipo compatíveis<li>Verifique se o arquivo do modelo está completo na pasta de download<li>Você pode encontrar a pasta de download na caixa de diálogo de configurações<li>Se você carregou o modelo, certifique-se de que o arquivo não esteja corrompido verificando o md5sum<li>Leia mais sobre quais modelos são suportados em nossa <a href="https://docs.gpt4all.io/">documentação</a> para a interface gráfica<li>Confira nosso <a href="https://discord.gg/4M2QFmTt2k">canal do Discord</a> para obter ajudaReload · %1Recarregar · %1Loading · %1Carregando · %1Load · %1 (default) →Carregar · %1 (padrão) →retrieving localdocs: %1 ...Recuperando dados em LocalDocs: %1 ...searching localdocs: %1 ...Buscando em LocalDocs: %1 ...Send a message...Enviar uma mensagem...Load a model to continue...Carregue um modelo para continuar...Send messages/prompts to the modelEnviar mensagens/prompts para o modeloCutRecortarPasteColarSelect AllSelecionar tudoSend messageEnviar mensagemSends the message/prompt contained in textfield to the modelEnvia a mensagem/prompt contida no campo de texto para o modeloCollectionsDrawerWarning: searching collections while indexing can return incomplete resultsAviso: pesquisar coleções durante a indexação pode retornar resultados incompletos%n file(s)%n arquivo(s)%n arquivo(s)%n word(s)%n palavra(s)%n palavra(s)UpdatingAtualizando+ Add Docs+ Adicionar DocumentosSelect a collection to make it available to the chat model.Selecione uma coleção para disponibilizá-la ao modelo de chat.DownloadModel "%1" is installed successfully.ERROR: $MODEL_NAME is empty.ERROR: $API_KEY is empty.ERROR: $BASE_URL is invalid.ERROR: Model "%1 (%2)" is conflict.Model "%1 (%2)" is installed successfully.Model "%1" is removed.HomeViewWelcome to GPT4AllBem-vindo ao GPT4AllThe privacy-first LLM chat applicationO aplicativo de chat LLM que prioriza a privacidadeStart chattingIniciar chatStart ChattingIniciar ChatChat with any LLMConverse com qualquer LLMLocalDocsLocalDocsChat with your local filesConverse com seus arquivos locaisFind ModelsEncontrar ModelosExplore and download modelsDescubra e baixe modelosLatest newsÚltimas novidadesLatest news from GPT4AllÚltimas novidades do GPT4AllRelease NotesNotas de versãoDocumentationDocumentaçãoDiscordDiscordX (Twitter)X (Twitter)GithubGithubGPT4All.ioGPT4All.ioSubscribe to NewsletterAssine nossa NewsletterLocalDocsSettingsLocalDocsLocalDocsLocalDocs SettingsConfigurações do LocalDocsIndexingIndexaçãoAllowed File ExtensionsExtensões de Arquivo PermitidasComma-separated list. LocalDocs will only attempt to process files with these extensions.Lista separada por vírgulas. O LocalDocs tentará processar apenas arquivos com essas extensões.EmbeddingIncorporaçãoUse Nomic Embed APIUsar a API Nomic EmbedEmbed documents using the fast Nomic API instead of a private local model. Requires restart.Incorporar documentos usando a API Nomic rápida em vez de um modelo local privado. Requer reinicialização.Nomic API KeyChave da API NomicAPI key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart.Chave da API a ser usada para Nomic Embed. Obtenha uma na página de <a href="https://atlas.nomic.ai/cli-login">chaves de API do Atlas</a>. Requer reinicialização.Embeddings DeviceProcessamento de IncorporaçõesThe compute device used for embeddings. "Auto" uses the CPU. Requires restart.Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização.DisplayExibirShow SourcesMostrar FontesDisplay the sources used for each response.Mostra as fontes usadas para cada resposta.AdvancedApenas para usuários avançadosWarning: Advanced usage only.Atenção: Apenas para usuários avançados.Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.Valores muito grandes podem causar falhas no LocalDocs, respostas extremamente lentas ou nenhuma resposta. Em termos gerais, o {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Consulte <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a> para mais informações.Document snippet size (characters)Tamanho do trecho de documento (caracteres)Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.Max document snippets per promptMáximo de Trechos de Documento por PromptMax best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation.Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.LocalDocsViewLocalDocsLocalDocsChat with your local filesConverse com seus arquivos locais+ Add Collection+ Adicionar ColeçãoERROR: The LocalDocs database is not valid.ERRO: O banco de dados do LocalDocs não é válido.<h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however.No Collections InstalledNenhuma Coleção InstaladaInstall a collection of local documents to get started using this featureInstale uma coleção de documentos locais para começar a usar este recurso+ Add Doc Collection+ Adicionar Coleção de DocumentosShows the add model viewMostra a visualização para adicionar modeloIndexing progressBarBarra de progresso de indexaçãoShows the progress made in the indexingMostra o progresso da indexaçãoERRORERROINDEXINGINDEXANDOEMBEDDINGINCORPORANDOREQUIRES UPDATEREQUER ATUALIZAÇÃOREADYPRONTOINSTALLINGINSTALANDOIndexing in progressIndexação em andamentoEmbedding in progressIncorporação em andamentoThis collection requires an update after version changeEsta coleção requer uma atualização após a mudança de versãoAutomatically reindexes upon changes to the folderReindexa automaticamente após alterações na pastaInstallation in progressInstalação em andamento%%%n file(s)%n arquivo(s)%n arquivo(s)%n word(s)%n palavra(s)%n palavra(s)RemoveRemoverRebuildReconstruirReindex this folder from scratch. This is slow and usually not needed.Reindexar esta pasta do zero. Esta operação é muito lenta e geralmente não é necessária.UpdateAtualizarUpdate the collection to the new version. This is a slow operation.Atualizar a coleção para a nova versão. Esta operação pode demorar.ModelList<ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li><ul><li>É necessária uma chave de API da OpenAI.</li><li>AVISO: Seus chats serão enviados para a OpenAI!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a OpenAI</li><li>Você pode solicitar uma chave de API <a href="https://platform.openai.com/account/api-keys">aqui.</a></li><strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1<strong>Modelo ChatGPT GPT-3.5 Turbo da OpenAI</strong><br> %1<strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2<strong>Modelo ChatGPT GPT-4 da OpenAI</strong><br> %1 %2<strong>Mistral Tiny model</strong><br> %1<strong>Modelo Mistral Tiny</strong><br> %1<strong>Mistral Small model</strong><br> %1<strong>Modelo Mistral Small</strong><br> %1<strong>Mistral Medium model</strong><br> %1<strong>Modelo Mistral Medium</strong><br> %1<br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.<br><br><i>* Mesmo que você pague pelo ChatGPT-4 da OpenAI, isso não garante acesso à chave de API. Contate a OpenAI para mais informações.%1 (%2)<strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul><ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li><ul><li>É necessária uma chave de API da Mistral.</li><li>AVISO: Seus chats serão enviados para a Mistral!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a Mistral</li><li>Você pode solicitar uma chave de API <a href="https://console.mistral.ai/user/api-keys">aqui</a>.</li><ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li><strong>Connect to OpenAI-compatible API server</strong><br> %1<strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul><strong>Criado por %1.</strong><br><ul><li>Publicado em %2.<li>Este modelo tem %3 curtidas.<li>Este modelo tem %4 downloads.<li>Mais informações podem ser encontradas <a href="https://huggingface.co/%5">aqui.</a></ul>ModelSettingsModelModeloModel SettingsConfigurações do ModeloCloneClonarRemoveRemoverNameNomeModel FileArquivo do ModeloSystem PromptPrompt do SistemaPrefixed at the beginning of every conversation. Must contain the appropriate framing tokens.Prefixado no início de cada conversa. Deve conter os tokens de enquadramento apropriados.Prompt TemplateModelo de PromptThe template that wraps every prompt.Modelo para cada prompt.Must contain the string "%1" to be replaced with the user's input.Deve incluir "%1" para a entrada do usuário.Chat Name PromptPrompt para Nome do ChatPrompt used to automatically generate chat names.Prompt usado para gerar automaticamente nomes de chats.Suggested FollowUp PromptPrompt de Sugestão de AcompanhamentoPrompt used to generate suggested follow-up questions.Prompt usado para gerar sugestões de perguntas.Context LengthTamanho do ContextoNumber of input and output tokens the model sees.Tamanho da Janela de Contexto.Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.Máximo de tokens combinados (prompt + resposta) antes da perda de informações.
Usar mais contexto do que o modelo foi treinado pode gerar resultados ruins.
Obs.: Só entrará em vigor após recarregar o modelo.TemperatureTemperaturaRandomness of model output. Higher -> more variation.Aleatoriedade das respostas. Quanto maior, mais variadas.Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.Aumenta a chance de escolher tokens menos prováveis.
Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previsíveis.Top-PTop-PNucleus Sampling factor. Lower -> more predicatable.Amostragem por núcleo. Menor valor, respostas mais previsíveis.Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.Apenas tokens com probabilidade total até o valor de top_p serão escolhidos.
Obs.: Evita tokens muito improváveis.Min-PMin-PMinimum token probability. Higher -> more predictable.Probabilidade mínima do token. Quanto maior -> mais previsível.Sets the minimum relative probability for a token to be considered.Define a probabilidade relativa mínima para um token ser considerado.Top-KTop-KSize of selection pool for tokens.Número de tokens considerados na amostragem.Only the top K most likely tokens will be chosen from.Serão escolhidos apenas os K tokens mais prováveis.Max LengthComprimento MáximoMaximum response length, in tokens.Comprimento máximo da resposta, em tokens.Prompt Batch SizeTamanho do Lote de ProcessamentoThe batch size used for prompt processing.Tokens processados por lote.Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.Quantidade de tokens de prompt para processar de uma vez.
OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais RAM.Repeat PenaltyPenalidade de RepetiçãoRepetition penalty factor. Set to 1 to disable.Penalidade de Repetição (1 para desativar).Repeat Penalty TokensTokens para penalizar repetiçãoNumber of previous tokens used for penalty.Número de tokens anteriores usados para penalidade.GPU LayersCamadas na GPUNumber of model layers to load into VRAM.Camadas Carregadas na GPU.How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.Número de camadas do modelo carregadas na VRAM. Diminua se faltar VRAM ao carregar o modelo.
Valores menores aumentam o uso de CPU e RAM, e deixam a inferência mais lenta.
Obs.: Só entrará em vigor após recarregar o modelo.ModelsViewNo Models InstalledNenhum Modelo InstaladoInstall a model to get started using GPT4AllInstale um modelo para começar a usar o GPT4All+ Add Model+ Adicionar ModeloShows the add model viewMostra a visualização para adicionar modeloInstalled ModelsModelos InstaladosLocally installed chat modelsModelos de chat instalados localmenteModel fileArquivo do modeloModel file to be downloadedArquivo do modelo a ser baixadoDescriptionDescriçãoFile descriptionDescrição do arquivoCancelCancelarResumeRetomarStop/restart/start the downloadParar/reiniciar/iniciar o downloadRemoveRemoverRemove model from filesystemRemover modelo do sistema de arquivosInstallInstalarInstall online modelInstalar modelo online<strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Erro</a></strong></font><strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font>ERROR: $API_KEY is empty.ERROR: $BASE_URL is empty.enter $BASE_URLERROR: $MODEL_NAME is empty.enter $MODEL_NAME%1 GB%1 GB??Describes an error that occurred when downloadingDescreve um erro que ocorreu durante o downloadError for incompatible hardwareErro para hardware incompatívelDownload progressBarBarra de progresso do downloadShows the progress made in the downloadMostra o progresso do downloadDownload speedVelocidade de downloadDownload speed in bytes/kilobytes/megabytes per secondVelocidade de download em bytes/kilobytes/megabytes por segundoCalculating...Calculando...Whether the file hash is being calculatedSe o hash do arquivo está sendo calculadoBusy indicatorIndicador de ocupadoDisplayed when the file hash is being calculatedExibido quando o hash do arquivo está sendo calculadoenter $API_KEYinserir $API_KEYFile sizeTamanho do arquivoRAM requiredRAM necessáriaParametersParâmetrosQuantQuantTypeTipoMyFancyLinkFancy linkLink personalizadoA stylized linkUm link personalizadoMySettingsStackPlease choose a directoryEscolha um diretórioMySettingsTabRestore DefaultsRestaurar Configurações PadrãoRestores settings dialog to a default stateRestaura as configurações para o estado padrãoNetworkDialogContribute data to the GPT4All Opensource Datalake.Contribuir com dados para o Datalake de código aberto GPT4All.By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!Ao habilitar este recurso, você poderá participar do processo democrático de treinamento de um grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo.
Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All.
OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer versão do modelo GPT4All que utilize seus dados!Terms for opt-inTermos de participaçãoDescribes what will happen when you opt-inDescrição do que acontece ao participarPlease provide a name for attribution (optional)Forneça um nome para atribuição (opcional)Attribution (optional)Atribuição (opcional)Provide attributionFornecer atribuiçãoEnableHabilitarEnable opt-inAtivar participaçãoCancelCancelarCancel opt-inCancelar participaçãoNewVersionDialogNew version is availableAtualização disponívelUpdateAtualizar agoraUpdate to new versionBaixa e instala a última versão do GPT4AllPopupDialogReveals a shortlived help balloonExibe uma dica rápidaBusy indicatorIndicador de processamentoDisplayed when the popup is showing busyVisível durante o processamentoQObjectDefaultPadrãoSettingsViewSettingsConfiguraçõesContains various application settingsAcessar as configurações do aplicativoApplicationAplicativoModelModeloLocalDocsLocalDocsStartupDialogWelcome!Bem-vindo(a)!### Release notes
%1### Contributors
%2### Notas de lançamento
%1### Colaboradores
%2Release notesNotas de lançamentoRelease notes for this versionNotas de lançamento desta versão### Opt-ins for anonymous usage analytics and datalake
By enabling these features, you will be able to participate in the democratic process of training a
large language model by contributing data for future model improvements.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All
Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you
can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake.
You should have no expectation of chat privacy when this feature is enabled. You should; however, have
an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone
to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a contributor to any GPT4All
model release that uses your data!### Opções para análise de uso anônimo e banco de dados
Ao habilitar esses recursos, você poderá participar do processo democrático de treinamento de um
grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo.
Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de
Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta,
pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All.
OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All.
Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto,
você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para
qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá
todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer
versão do modelo GPT4All que utilize seus dados!Terms for opt-inTermos de participaçãoDescribes what will happen when you opt-inDescrição do que acontece ao participarOpt-in for anonymous usage statisticsEnviar estatísticas de uso anônimasYesSimAllow opt-in for anonymous usage statisticsPermitir o envio de estatísticas de uso anônimasNoNãoOpt-out for anonymous usage statisticsRecusar envio de estatísticas de uso anônimasAllow opt-out for anonymous usage statisticsPermitir recusar envio de estatísticas de uso anônimasOpt-in for networkAceitar na redeAllow opt-in for networkPermitir aceitação na redeAllow opt-in anonymous sharing of chats to the GPT4All DatalakePermitir compartilhamento anônimo de chats no Datalake GPT4AllOpt-out for networkRecusar na redeAllow opt-out anonymous sharing of chats to the GPT4All DatalakePermitir recusar compartilhamento anônimo de chats no Datalake GPT4AllSwitchModelDialog<b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue?<b>Atenção:</b> Ao trocar o modelo a conversa atual será perdida. Continuar?ContinueContinuarContinue with model loadingConfirma a troca do modeloCancelCancelarThumbsDownDialogPlease edit the text below to provide a better response. (optional)Editar resposta (opcional)Please provide a better response...Digite sua resposta...SubmitEnviarSubmits the user's responseEnviarCancelCancelarCloses the response dialogFecha a caixa de diálogo de respostamain<h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a><h3>Ocorreu um erro ao iniciar:</h3><br><i>"Hardware incompatível detectado."</i><br><br>Infelizmente, seu processador não atende aos requisitos mínimos para executar este programa. Especificamente, ele não possui suporte às instruções AVX, que são necessárias para executar modelos de linguagem grandes e modernos. A única solução, no momento, é atualizar seu hardware para um processador mais recente.<br><br>Para mais informações, consulte: <a href="https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions">https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions</a>GPT4All v%1GPT4All v%1<h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.<h3>Ocorreu um erro ao iniciar:</h3><br><i>"Não foi possível acessar o arquivo de configurações."</i><br><br>Infelizmente, algo está impedindo o programa de acessar o arquivo de configurações. Isso pode acontecer devido a permissões incorretas na pasta de configurações do aplicativo. Para obter ajuda, acesse nosso <a href="https://discord.gg/4M2QFmTt2k">canal no Discord</a>.Connection to datalake failed.Falha na conexão com o datalake.Saving chats.Salvando chats.Network dialogAvisos de redeopt-in to share feedback/conversationspermitir compartilhamento de feedback/conversasHome viewTela inicialHome view of applicationTela inicial do aplicativoHomeInícioChat viewVisualização do ChatChat view to interact with modelsVisualização do chat para interagir com os modelosChatsChatsModelsModelosModels view for installed modelsTela de modelos instaladosLocalDocsLocalDocsLocalDocs view to configure and use local docsTela de configuração e uso de documentos locais do LocalDocsSettingsConfiguraçõesSettings view for application configurationTela de configurações do aplicativoThe datalake is enabledO datalake está ativadoUsing a network modelUsando um modelo de redeServer mode is enabledModo servidor ativadoInstalled modelsModelos instaladosView of installed modelsExibe os modelos instalados