diff --git a/CMakeLists.txt b/CMakeLists.txt new file mode 100644 index 00000000..27f48a26 --- /dev/null +++ b/CMakeLists.txt @@ -0,0 +1,580 @@ +cmake_minimum_required(VERSION 3.25) # for try_compile SOURCE_FROM_VAR + +include(../common/common.cmake) + +set(APP_VERSION_MAJOR 3) +set(APP_VERSION_MINOR 6) +set(APP_VERSION_PATCH 2) +set(APP_VERSION_BASE "${APP_VERSION_MAJOR}.${APP_VERSION_MINOR}.${APP_VERSION_PATCH}") +set(APP_VERSION "${APP_VERSION_BASE}-dev0") + +project(gpt4all VERSION ${APP_VERSION_BASE} LANGUAGES CXX C) + +if(APPLE) + option(BUILD_UNIVERSAL "Build a Universal binary on macOS" OFF) + if(BUILD_UNIVERSAL) + # Build a Universal binary on macOS + # This requires that the found Qt library is compiled as Universal binaries. + set(CMAKE_OSX_ARCHITECTURES "arm64;x86_64" CACHE STRING "" FORCE) + else() + # Build for the host architecture on macOS + set(CMAKE_OSX_ARCHITECTURES "${CMAKE_HOST_SYSTEM_PROCESSOR}" CACHE STRING "" FORCE) + endif() +endif() + +find_package(Python3 3.12 QUIET COMPONENTS Interpreter) + +option(GPT4ALL_TEST "Build the tests" ${Python3_FOUND}) +option(GPT4ALL_LOCALHOST "Build installer for localhost repo" OFF) +option(GPT4ALL_OFFLINE_INSTALLER "Build an offline installer" OFF) +option(GPT4ALL_SIGN_INSTALL "Sign installed binaries and installers (requires signing identities)" OFF) + + +set(CMAKE_EXPORT_COMPILE_COMMANDS ON) +set(CMAKE_CXX_STANDARD 23) +set(CMAKE_CXX_STANDARD_REQUIRED ON) +if (MSVC) + # Enable accurate __cplusplus macro to fix errors in Jinja2Cpp + add_compile_options($<$:/Zc:__cplusplus>) +endif() + + +# conftests +function(check_cpp_feature FEATURE_NAME MIN_VALUE) + message(CHECK_START "Checking for ${FEATURE_NAME} >= ${MIN_VALUE}") + string(CONCAT SRC + "#include \n" + "#if !defined(${FEATURE_NAME}) || ${FEATURE_NAME} < ${MIN_VALUE}\n" + "# error \"${FEATURE_NAME} is not defined or less than ${MIN_VALUE}\"\n" + "#endif\n" + "int main() { return 0; }\n" + ) + try_compile(HAS_FEATURE SOURCE_FROM_VAR "test_${FEATURE_NAME}.cpp" SRC) + if (NOT HAS_FEATURE) + message(CHECK_FAIL "fail") + message(FATAL_ERROR + "The C++ compiler\n \"${CMAKE_CXX_COMPILER}\"\n" + "is too old to support ${FEATURE_NAME} >= ${MIN_VALUE}.\n" + "Please specify a newer compiler via -DCMAKE_C_COMPILER/-DCMAKE_CXX_COMPILER." + ) + endif() + message(CHECK_PASS "pass") +endfunction() + +# check for monadic operations in std::optional (e.g. transform) +check_cpp_feature("__cpp_lib_optional" "202110L") + + +list(APPEND CMAKE_MODULE_PATH "${CMAKE_CURRENT_LIST_DIR}/cmake/Modules") + +# Include the binary directory for the generated header file +include_directories("${CMAKE_CURRENT_BINARY_DIR}") + +set(CMAKE_AUTOMOC ON) +set(CMAKE_AUTORCC ON) + +# Generate a header file with the version number +configure_file( + "${CMAKE_CURRENT_SOURCE_DIR}/cmake/config.h.in" + "${CMAKE_CURRENT_BINARY_DIR}/config.h" +) + +set(CMAKE_FIND_PACKAGE_TARGETS_GLOBAL ON) +find_package(Qt6 6.5 COMPONENTS Core HttpServer LinguistTools Pdf Quick QuickDialogs2 Sql Svg REQUIRED) + +if (QT_KNOWN_POLICY_QTP0004) + qt_policy(SET QTP0004 NEW) # generate extra qmldir files on Qt 6.8+ +endif() + +# Get the Qt6Core target properties +get_target_property(Qt6Core_INCLUDE_DIRS Qt6::Core INTERFACE_INCLUDE_DIRECTORIES) +get_target_property(Qt6Core_LIBRARY_RELEASE Qt6::Core LOCATION_RELEASE) + +# Find the qmake binary +find_program(QMAKE_EXECUTABLE NAMES qmake qmake6 PATHS ${Qt6Core_INCLUDE_DIRS}/../.. NO_DEFAULT_PATH) + +# Get the Qt 6 root directory +get_filename_component(Qt6_ROOT_DIR "${Qt6Core_LIBRARY_RELEASE}" DIRECTORY) +get_filename_component(Qt6_ROOT_DIR "${Qt6_ROOT_DIR}/.." ABSOLUTE) + +message(STATUS "qmake binary: ${QMAKE_EXECUTABLE}") +message(STATUS "Qt 6 root directory: ${Qt6_ROOT_DIR}") + +set(CMAKE_RUNTIME_OUTPUT_DIRECTORY ${CMAKE_BINARY_DIR}/bin) + +if (CMAKE_INSTALL_PREFIX_INITIALIZED_TO_DEFAULT) + set(CMAKE_INSTALL_PREFIX ${CMAKE_BINARY_DIR}/install CACHE PATH "..." FORCE) +endif() + +add_subdirectory(deps) +add_subdirectory(../gpt4all-backend llmodel) + +if (GPT4ALL_TEST) + enable_testing() + + # Llama-3.2-1B model + set(TEST_MODEL "Llama-3.2-1B-Instruct-Q4_0.gguf") + set(TEST_MODEL_MD5 "48ff0243978606fdba19d899b77802fc") + set(TEST_MODEL_PATH "${CMAKE_BINARY_DIR}/resources/${TEST_MODEL}") + set(TEST_MODEL_URL "https://huggingface.co/bartowski/Llama-3.2-1B-Instruct-GGUF/resolve/main/${TEST_MODEL}") + + # Create a custom command to download the file if it does not exist or if the checksum does not match + add_custom_command( + OUTPUT "${TEST_MODEL_PATH}" + COMMAND ${CMAKE_COMMAND} -E echo "Downloading test model from ${TEST_MODEL_URL} ..." + COMMAND ${CMAKE_COMMAND} -DURL="${TEST_MODEL_URL}" -DOUTPUT_PATH="${TEST_MODEL_PATH}" -DEXPECTED_MD5="${TEST_MODEL_MD5}" -P "${CMAKE_SOURCE_DIR}/cmake/download_model.cmake" + DEPENDS "${CMAKE_SOURCE_DIR}/cmake/download_model.cmake" + ) + + # Define a custom target that depends on the downloaded model + add_custom_target(download_test_model + DEPENDS "${TEST_MODEL_PATH}" + ) + + add_subdirectory(tests) + + # The 'check' target makes sure the tests and their dependencies are up-to-date before running them + add_custom_target(check COMMAND ${CMAKE_CTEST_COMMAND} --output-on-failure DEPENDS download_test_model chat gpt4all_tests) +endif() + +set(CHAT_EXE_RESOURCES) + +# Metal shader library +if (APPLE) + list(APPEND CHAT_EXE_RESOURCES "${GGML_METALLIB}") +endif() + +# App icon +if (WIN32) + list(APPEND CHAT_EXE_RESOURCES "${CMAKE_CURRENT_SOURCE_DIR}/resources/gpt4all.rc") +elseif (APPLE) + # The MACOSX_BUNDLE_ICON_FILE variable is added to the Info.plist + # generated by CMake. This variable contains the .icns file name, + # without the path. + set(MACOSX_BUNDLE_ICON_FILE gpt4all.icns) + + # And the following tells CMake where to find and install the file itself. + set(APP_ICON_RESOURCE "${CMAKE_CURRENT_SOURCE_DIR}/resources/gpt4all.icns") + list(APPEND CHAT_EXE_RESOURCES "${APP_ICON_RESOURCE}") +endif() + +# Embedding model +set(LOCAL_EMBEDDING_MODEL "nomic-embed-text-v1.5.f16.gguf") +set(LOCAL_EMBEDDING_MODEL_MD5 "a5401e7f7e46ed9fcaed5b60a281d547") +set(LOCAL_EMBEDDING_MODEL_PATH "${CMAKE_BINARY_DIR}/resources/${LOCAL_EMBEDDING_MODEL}") +set(LOCAL_EMBEDDING_MODEL_URL "https://gpt4all.io/models/gguf/${LOCAL_EMBEDDING_MODEL}") +message(STATUS "Downloading embedding model from ${LOCAL_EMBEDDING_MODEL_URL} ...") +file(DOWNLOAD + "${LOCAL_EMBEDDING_MODEL_URL}" + "${LOCAL_EMBEDDING_MODEL_PATH}" + EXPECTED_HASH "MD5=${LOCAL_EMBEDDING_MODEL_MD5}" +) +message(STATUS "Embedding model downloaded to ${LOCAL_EMBEDDING_MODEL_PATH}") +if (APPLE) + list(APPEND CHAT_EXE_RESOURCES "${LOCAL_EMBEDDING_MODEL_PATH}") +endif() + +if (DEFINED GGML_METALLIB) + set_source_files_properties("${GGML_METALLIB}" PROPERTIES GENERATED ON) +endif() +if (APPLE) + set_source_files_properties(${CHAT_EXE_RESOURCES} PROPERTIES MACOSX_PACKAGE_LOCATION Resources) +endif() + +set(MACOS_SOURCES) +if (APPLE) + find_library(COCOA_LIBRARY Cocoa) + list(APPEND MACOS_SOURCES src/macosdock.mm src/macosdock.h) +endif() + +qt_add_executable(chat + src/main.cpp + src/chat.cpp src/chat.h + src/chatapi.cpp src/chatapi.h + src/chatlistmodel.cpp src/chatlistmodel.h + src/chatllm.cpp src/chatllm.h + src/chatmodel.h src/chatmodel.cpp + src/chatviewtextprocessor.cpp src/chatviewtextprocessor.h + src/codeinterpreter.cpp src/codeinterpreter.h + src/database.cpp src/database.h + src/download.cpp src/download.h + src/embllm.cpp src/embllm.h + src/jinja_helpers.cpp src/jinja_helpers.h + src/jinja_replacements.cpp src/jinja_replacements.h + src/llm.cpp src/llm.h + src/localdocs.cpp src/localdocs.h + src/localdocsmodel.cpp src/localdocsmodel.h + src/logger.cpp src/logger.h + src/modellist.cpp src/modellist.h + src/mysettings.cpp src/mysettings.h + src/network.cpp src/network.h + src/server.cpp src/server.h + src/tool.cpp src/tool.h + src/toolcallparser.cpp src/toolcallparser.h + src/toolmodel.cpp src/toolmodel.h + src/xlsxtomd.cpp src/xlsxtomd.h + ${CHAT_EXE_RESOURCES} + ${MACOS_SOURCES} +) +gpt4all_add_warning_options(chat) + +qt_add_qml_module(chat + URI gpt4all + VERSION 1.0 + NO_CACHEGEN + QML_FILES + main.qml + qml/AddCollectionView.qml + qml/AddModelView.qml + qml/AddGPT4AllModelView.qml + qml/AddHFModelView.qml + qml/ApplicationSettings.qml + qml/ChatDrawer.qml + qml/ChatCollapsibleItem.qml + qml/ChatItemView.qml + qml/ChatMessageButton.qml + qml/ChatTextItem.qml + qml/ChatView.qml + qml/CollectionsDrawer.qml + qml/HomeView.qml + qml/LocalDocsSettings.qml + qml/LocalDocsView.qml + qml/ModelSettings.qml + qml/ModelsView.qml + qml/NetworkDialog.qml + qml/NewVersionDialog.qml + qml/PopupDialog.qml + qml/SettingsView.qml + qml/StartupDialog.qml + qml/ConfirmationDialog.qml + qml/Theme.qml + qml/ThumbsDownDialog.qml + qml/Toast.qml + qml/ToastManager.qml + qml/MyBusyIndicator.qml + qml/MyButton.qml + qml/MyTabButton.qml + qml/MyCheckBox.qml + qml/MyComboBox.qml + qml/MyDialog.qml + qml/MyDirectoryField.qml + qml/MyFileDialog.qml + qml/MyFileIcon.qml + qml/MyFolderDialog.qml + qml/MyFancyLink.qml + qml/MyMenu.qml + qml/MyMenuItem.qml + qml/MyMiniButton.qml + qml/MySettingsButton.qml + qml/MySettingsDestructiveButton.qml + qml/MySettingsLabel.qml + qml/MySettingsStack.qml + qml/MySettingsTab.qml + qml/MySlug.qml + qml/MyTextArea.qml + qml/MyTextButton.qml + qml/MyTextField.qml + qml/MyToolButton.qml + qml/MyWelcomeButton.qml + RESOURCES + icons/antenna_1.svg + icons/antenna_2.svg + icons/antenna_3.svg + icons/caret_down.svg + icons/caret_right.svg + icons/changelog.svg + icons/chat.svg + icons/check.svg + icons/close.svg + icons/copy.svg + icons/db.svg + icons/discord.svg + icons/download.svg + icons/edit.svg + icons/eject.svg + icons/email.svg + icons/file-doc.svg + icons/file-docx.svg + icons/file-md.svg + icons/file-pdf.svg + icons/file-txt.svg + icons/file-xls.svg + icons/file.svg + icons/github.svg + icons/globe.svg + icons/gpt4all-32.png + icons/gpt4all-48.png + icons/gpt4all.svg + icons/gpt4all_transparent.svg + icons/home.svg + icons/image.svg + icons/info.svg + icons/left_panel_closed.svg + icons/left_panel_open.svg + icons/local-docs.svg + icons/models.svg + icons/network.svg + icons/nomic_logo.svg + icons/notes.svg + icons/paperclip.svg + icons/plus.svg + icons/plus_circle.svg + icons/recycle.svg + icons/regenerate.svg + icons/search.svg + icons/send_message.svg + icons/settings.svg + icons/stack.svg + icons/stop_generating.svg + icons/thumbs_down.svg + icons/thumbs_up.svg + icons/trash.svg + icons/twitter.svg + icons/up_down.svg + icons/webpage.svg + icons/you.svg +) + +qt_add_translations(chat + TS_FILES + ${CMAKE_SOURCE_DIR}/translations/gpt4all_en_US.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_es_MX.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_zh_CN.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_zh_TW.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_ro_RO.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_it_IT.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_pt_BR.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_jp_JP.ts +) + +set_target_properties(chat PROPERTIES + WIN32_EXECUTABLE TRUE +) + +macro(REPORT_MISSING_SIGNING_CONTEXT) + message(FATAL_ERROR [=[ + Signing requested but no identity configured. + Please set the correct env variable or provide the MAC_SIGNING_IDENTITY argument on the command line + ]=]) +endmacro() + +if (APPLE) + set_target_properties(chat PROPERTIES + MACOSX_BUNDLE TRUE + MACOSX_BUNDLE_GUI_IDENTIFIER gpt4all + MACOSX_BUNDLE_BUNDLE_VERSION ${PROJECT_VERSION} + MACOSX_BUNDLE_SHORT_VERSION_STRING ${PROJECT_VERSION_MAJOR}.${PROJECT_VERSION_MINOR} + OUTPUT_NAME gpt4all + ) + add_dependencies(chat ggml-metal) +endif() + +if (APPLE AND GPT4ALL_SIGN_INSTALL) + if (NOT MAC_SIGNING_IDENTITY) + if (NOT DEFINED ENV{MAC_SIGNING_CERT_NAME}) + REPORT_MISSING_SIGNING_CONTEXT() + endif() + set(MAC_SIGNING_IDENTITY $ENV{MAC_SIGNING_CERT_NAME}) + endif() + if (NOT MAC_SIGNING_TID) + if (NOT DEFINED ENV{MAC_NOTARIZATION_TID}) + REPORT_MISSING_SIGNING_CONTEXT() + endif() + set(MAC_SIGNING_TID $ENV{MAC_NOTARIZATION_TID}) + endif() + + # Setup MacOS signing for individual binaries + set_target_properties(chat PROPERTIES + XCODE_ATTRIBUTE_CODE_SIGN_STYLE "Manual" + XCODE_ATTRIBUTE_DEVELOPMENT_TEAM ${MAC_SIGNING_TID} + XCODE_ATTRIBUTE_CODE_SIGN_IDENTITY ${MAC_SIGNING_IDENTITY} + XCODE_ATTRIBUTE_CODE_SIGNING_REQUIRED True + XCODE_ATTRIBUTE_OTHER_CODE_SIGN_FLAGS "--timestamp=http://timestamp.apple.com/ts01 --options=runtime,library" + ) +endif() + +target_compile_definitions(chat + PRIVATE $<$,$>:QT_QML_DEBUG>) + +target_include_directories(chat PRIVATE src) + +# usearch uses the identifier 'slots' which conflicts with Qt's 'slots' keyword +target_compile_definitions(chat PRIVATE QT_NO_SIGNALS_SLOTS_KEYWORDS) + +target_include_directories(chat PRIVATE deps/usearch/include + deps/usearch/fp16/include) + +target_link_libraries(chat + PRIVATE Qt6::Core Qt6::HttpServer Qt6::Pdf Qt6::Quick Qt6::Sql Qt6::Svg) +target_link_libraries(chat + PRIVATE llmodel SingleApplication fmt::fmt duckx::duckx QXlsx jinja2cpp) + +if (APPLE) + target_link_libraries(chat PRIVATE ${COCOA_LIBRARY}) +endif() + +# -- install -- + +set(COMPONENT_NAME_MAIN ${PROJECT_NAME}) + +install(TARGETS chat DESTINATION bin COMPONENT ${COMPONENT_NAME_MAIN}) + +install( + TARGETS llmodel + LIBRARY DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} # .so/.dylib + RUNTIME DESTINATION bin COMPONENT ${COMPONENT_NAME_MAIN} # .dll +) + +# We should probably iterate through the list of the cmake for backend, but these need to be installed +# to the this component's dir for the finicky qt installer to work +if (LLMODEL_KOMPUTE) + set(MODEL_IMPL_TARGETS + llamamodel-mainline-kompute + llamamodel-mainline-kompute-avxonly + ) +else() + set(MODEL_IMPL_TARGETS + llamamodel-mainline-cpu + llamamodel-mainline-cpu-avxonly + ) +endif() + +if (APPLE) + list(APPEND MODEL_IMPL_TARGETS llamamodel-mainline-metal) +endif() + +install( + TARGETS ${MODEL_IMPL_TARGETS} + LIBRARY DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} # .so/.dylib + RUNTIME DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} # .dll +) + +if(APPLE AND GPT4ALL_SIGN_INSTALL) + include(SignMacOSBinaries) + install_sign_osx(chat) + install_sign_osx(llmodel) + foreach(tgt ${MODEL_IMPL_TARGETS}) + install_sign_osx(${tgt}) + endforeach() +endif() + +if(WIN32 AND GPT4ALL_SIGN_INSTALL) + include(SignWindowsBinaries) + sign_target_windows(chat) + sign_target_windows(llmodel) + foreach(tgt ${MODEL_IMPL_TARGETS}) + sign_target_windows(${tgt}) + endforeach() +endif() + +if (LLMODEL_CUDA) + set_property(TARGET llamamodel-mainline-cuda llamamodel-mainline-cuda-avxonly + APPEND PROPERTY INSTALL_RPATH "$ORIGIN") + + install( + TARGETS llamamodel-mainline-cuda + llamamodel-mainline-cuda-avxonly + RUNTIME_DEPENDENCY_SET llama-cuda-deps + LIBRARY DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} # .so/.dylib + RUNTIME DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} # .dll + ) + if (WIN32) + install( + RUNTIME_DEPENDENCY_SET llama-cuda-deps + PRE_EXCLUDE_REGEXES "^(nvcuda|api-ms-.*)\\.dll$" + POST_INCLUDE_REGEXES "(^|[/\\\\])(lib)?(cuda|cublas)" POST_EXCLUDE_REGEXES . + DIRECTORIES "${CUDAToolkit_BIN_DIR}" + DESTINATION lib COMPONENT ${COMPONENT_NAME_MAIN} + ) + endif() +endif() + +if (NOT APPLE) + install(FILES "${LOCAL_EMBEDDING_MODEL_PATH}" + DESTINATION resources + COMPONENT ${COMPONENT_NAME_MAIN}) +endif() + +set(CPACK_GENERATOR "IFW") +set(CPACK_VERBATIM_VARIABLES YES) +set(CPACK_IFW_VERBOSE ON) + +if(${CMAKE_SYSTEM_NAME} MATCHES Linux) + find_program(LINUXDEPLOYQT linuxdeployqt HINTS "$ENV{HOME}/dev/linuxdeployqt/build/tools/linuxdeployqt" "$ENV{HOME}/project/linuxdeployqt/bin") + configure_file("${CMAKE_CURRENT_SOURCE_DIR}/cmake/deploy-qt-linux.cmake.in" + "${CMAKE_BINARY_DIR}/cmake/deploy-qt-linux.cmake" @ONLY) + set(CPACK_PRE_BUILD_SCRIPTS ${CMAKE_BINARY_DIR}/cmake/deploy-qt-linux.cmake) + set(CPACK_IFW_ROOT "~/Qt/Tools/QtInstallerFramework/4.6") + set(CPACK_PACKAGE_FILE_NAME "${COMPONENT_NAME_MAIN}-installer-linux") + set(CPACK_IFW_TARGET_DIRECTORY "@HomeDir@/${COMPONENT_NAME_MAIN}") +elseif(${CMAKE_SYSTEM_NAME} MATCHES Windows) + find_program(WINDEPLOYQT windeployqt HINTS ${_qt_bin_dir}) + configure_file("${CMAKE_CURRENT_SOURCE_DIR}/cmake/deploy-qt-windows.cmake.in" + "${CMAKE_BINARY_DIR}/cmake/deploy-qt-windows.cmake" @ONLY) + set(CPACK_PRE_BUILD_SCRIPTS ${CMAKE_BINARY_DIR}/cmake/deploy-qt-windows.cmake) + set(CPACK_IFW_ROOT "C:/Qt/Tools/QtInstallerFramework/4.6") + set(CPACK_IFW_PACKAGE_ICON "${CMAKE_CURRENT_SOURCE_DIR}/resources/gpt4all.ico") + set(CPACK_PACKAGE_FILE_NAME "${COMPONENT_NAME_MAIN}-installer-win64") + set(CPACK_IFW_TARGET_DIRECTORY "@HomeDir@\\${COMPONENT_NAME_MAIN}") +elseif(${CMAKE_SYSTEM_NAME} MATCHES Darwin) + find_program(MACDEPLOYQT macdeployqt HINTS ${_qt_bin_dir}) + configure_file("${CMAKE_CURRENT_SOURCE_DIR}/cmake/deploy-qt-mac.cmake.in" + "${CMAKE_BINARY_DIR}/cmake/deploy-qt-mac.cmake" @ONLY) + set(CPACK_PRE_BUILD_SCRIPTS ${CMAKE_BINARY_DIR}/cmake/deploy-qt-mac.cmake) + set(CPACK_IFW_ROOT "~/Qt/Tools/QtInstallerFramework/4.6") + set(CPACK_IFW_PACKAGE_ICON "${CMAKE_CURRENT_SOURCE_DIR}/resources/gpt4all.icns") + set(CPACK_PACKAGE_FILE_NAME "${COMPONENT_NAME_MAIN}-installer-darwin") + set(CPACK_IFW_TARGET_DIRECTORY "@ApplicationsDir@/${COMPONENT_NAME_MAIN}") + set(CPACK_BUNDLE_NAME ${COMPONENT_NAME_MAIN}) + set(CPACK_BUNDLE_ICON "${CMAKE_CURRENT_SOURCE_DIR}/resources/gpt4all.icns") +endif() + +set(CPACK_COMPONENTS_ALL gpt4all) # exclude development components +set(CPACK_PACKAGE_INSTALL_DIRECTORY ${COMPONENT_NAME_MAIN}) +set(CPACK_PACKAGE_VERSION_MAJOR ${PROJECT_VERSION_MAJOR}) +set(CPACK_PACKAGE_VERSION_MINOR ${PROJECT_VERSION_MINOR}) +SET(CPACK_PACKAGE_VERSION_PATCH ${PROJECT_VERSION_PATCH}) +set(CPACK_PACKAGE_HOMEPAGE_URL "https://www.nomic.ai/gpt4all") +set(CPACK_PACKAGE_ICON "${CMAKE_CURRENT_SOURCE_DIR}/icons/gpt4all-48.png") +set(CPACK_RESOURCE_FILE_LICENSE ${CMAKE_CURRENT_SOURCE_DIR}/LICENSE) +set(CPACK_RESOURCE_FILE_README ${CMAKE_CURRENT_SOURCE_DIR}/README.md) +set(CPACK_PACKAGE_EXECUTABLES "GPT4All") +set(CPACK_CREATE_DESKTOP_LINKS "GPT4All") +set(CPACK_IFW_PACKAGE_NAME "GPT4All") +set(CPACK_IFW_PACKAGE_TITLE "GPT4All Installer") +set(CPACK_IFW_PACKAGE_PUBLISHER "Nomic, Inc.") +set(CPACK_IFW_PRODUCT_URL "https://www.nomic.ai/gpt4all") +set(CPACK_IFW_PACKAGE_WIZARD_STYLE "Aero") +set(CPACK_IFW_PACKAGE_LOGO "${CMAKE_CURRENT_SOURCE_DIR}/icons/gpt4all-48.png") +set(CPACK_IFW_PACKAGE_WINDOW_ICON "${CMAKE_CURRENT_SOURCE_DIR}/icons/gpt4all-32.png") +set(CPACK_IFW_PACKAGE_WIZARD_SHOW_PAGE_LIST OFF) +set(CPACK_IFW_PACKAGE_CONTROL_SCRIPT "${CMAKE_CURRENT_SOURCE_DIR}/cmake/installer_control.qs") + +include(InstallRequiredSystemLibraries) +include(CPack) +include(CPackIFW) +if(GPT4ALL_OFFLINE_INSTALLER) + cpack_add_component(${COMPONENT_NAME_MAIN}) +else() + cpack_add_component(${COMPONENT_NAME_MAIN} DOWNLOADED) +endif() +cpack_ifw_configure_component(${COMPONENT_NAME_MAIN} ESSENTIAL FORCED_INSTALLATION) +cpack_ifw_configure_component(${COMPONENT_NAME_MAIN} VERSION ${APP_VERSION}) +cpack_ifw_configure_component(${COMPONENT_NAME_MAIN} LICENSES "MIT LICENSE" ${CPACK_RESOURCE_FILE_LICENSE}) +cpack_ifw_configure_component(${COMPONENT_NAME_MAIN} SCRIPT "${CMAKE_CURRENT_SOURCE_DIR}/cmake/installer_component.qs") +cpack_ifw_configure_component(${COMPONENT_NAME_MAIN} REPLACES "gpt4all-chat") #Was used in very earliest prototypes + +if (GPT4ALL_LOCALHOST) + cpack_ifw_add_repository("GPT4AllRepository" URL "http://localhost/repository") +elseif(GPT4ALL_OFFLINE_INSTALLER) + add_compile_definitions(GPT4ALL_OFFLINE_INSTALLER) +else() + if(${CMAKE_SYSTEM_NAME} MATCHES Linux) + cpack_ifw_add_repository("GPT4AllRepository" URL "https://gpt4all.io/installer_repos/linux/repository") + elseif(${CMAKE_SYSTEM_NAME} MATCHES Windows) + #To sign the target on windows have to create a batch script add use it as a custom target and then use CPACK_IFW_EXTRA_TARGETS to set this extra target + cpack_ifw_add_repository("GPT4AllRepository" URL "https://gpt4all.io/installer_repos/windows/repository") + elseif(${CMAKE_SYSTEM_NAME} MATCHES Darwin) + cpack_ifw_add_repository("GPT4AllRepository" URL "https://gpt4all.io/installer_repos/mac/repository") + endif() +endif() diff --git a/gpt4all-chat/src/mysettings.cpp b/gpt4all-chat/src/mysettings.cpp index 4bc1595f..3fecf3f1 100644 --- a/gpt4all-chat/src/mysettings.cpp +++ b/gpt4all-chat/src/mysettings.cpp @@ -135,7 +135,7 @@ static QString getUiLanguage(const QString directory, const QString fileName) static QStringList getUiLanguages(const QString &modelPath) { QStringList languageList; - static const QStringList releasedLanguages = { "en_US", "it_IT", "zh_CN", "zh_TW", "es_MX", "pt_BR", "ro_RO" }; + static const QStringList releasedLanguages = { "en_US", "it_IT", "zh_CN", "zh_TW", "es_MX", "pt_BR", "ro_RO", "jp_JP" }; // Add the language translations from model path files first which is used by translation developers // to load translations in progress without having to rebuild all of GPT4All from source diff --git a/gpt4all-chat/translations/gpt4all_jp_JP.ts b/gpt4all-chat/translations/gpt4all_jp_JP.ts new file mode 100644 index 00000000..a443c37d --- /dev/null +++ b/gpt4all-chat/translations/gpt4all_jp_JP.ts @@ -0,0 +1,2881 @@ + + + + + AddCollectionView + + + ← Existing Collections + ←既存のコレクション + + + + Add Document Collection + ドキュメントコレクションを追加 + + + + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. + プレーンテキスト ファイル、PDF、または Markdown を含むフォルダーを追加します。[設定] で追加の拡張機能を構成します。 + + + + Name + 名前 + + + + Collection name... + コレクション名... + + + + Name of the collection to add (Required) + 追加するコレクションの名前(必須) + + + + Folder + フォルダ + + + + Folder path... + フォルダー パス... + + + + Folder path to documents (Required) + ファイルのフォルダー パス (必須) + + + + Browse + ブラウズ + + + + Create Collection + コレクションの作成 + + + + AddGPT4AllModelView + + + These models have been specifically configured for use in GPT4All. The first few models on the list are known to work the best, but you should only attempt to use models that will fit in your available memory. + これらのモデルは、GPT4All で使用するために特別に構成されています。リストの最初のいくつかのモデルが最もよく機能することがわかっていますが、使用可能なメモリに収まるモデルのみを使用するようにしてください。 + + + + Network error: could not retrieve %1 + ネットワーク エラー: %1 を取得できませんでした + + + + + Busy indicator + ビジーインジケーター + + + + Displayed when the models request is ongoing + モデルリクエストが進行中の場合に表示されます + + + + Model file + モデルファイル + + + + Model file to be downloaded + ダウンロードするモデルファイル + + + + Description + 説明 + + + + File description + ファイルの説明 + + + + Cancel + キャンセル + + + + Resume + 再開する + + + + Download + ダウンロード + + + + Stop/restart/start the download + ダウンロードを停止/再開/開始する + + + + Remove + 取り除く + + + + Remove model from filesystem + ファイルシステムからモデルを削除する + + + + + Install + インストール + + + + Install online model + オンラインモデルをインストールする + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">エラー</a></strong></font> + + + + Describes an error that occurred when downloading + ダウンロード中に発生したエラーについて説明します + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">警告: お使いのハードウェアには推奨されません。モデルには、システムで使用可能なメモリ (%2) よりも多くのメモリ (%1 GB) が必要です。</strong></font> + + + + Error for incompatible hardware + 互換性のないハードウェアのエラー + + + + Download progressBar + ダウンロードの進行状況バー + + + + Shows the progress made in the download + ダウンロードの進行状況を表示します + + + + Download speed + ダウンロード速度 + + + + Download speed in bytes/kilobytes/megabytes per second + ダウンロード速度 (バイト/キロバイト/メガバイト/秒) + + + + Calculating... + 計算中... + + + + + + + Whether the file hash is being calculated + ファイルハッシュが計算されているかどうか + + + + Displayed when the file hash is being calculated + ファイルハッシュが計算されているときに表示されます + + + + ERROR: $API_KEY is empty. + エラー: $API_KEY が空です。 + + + + enter $API_KEY + $API_KEYを入力 + + + + ERROR: $BASE_URL is empty. + エラー: $BASE_URL が空です。 + + + + enter $BASE_URL + $BASE_URLを入力 + + + + ERROR: $MODEL_NAME is empty. + エラー: $MODEL_NAME が空です。 + + + + enter $MODEL_NAME + $MODEL_NAMEを入力 + + + + File size + 文書サイズ + + + + RAM required + 必要なRAM + + + + %1 GB + %1GB + + + + + ? + ? + + + + Parameters + パラメータ + + + + Quant + クォント + + + + Type + タイプ + + + + AddHFModelView + + + Use the search to find and download models from HuggingFace. There is NO GUARANTEE that these will work. Many will require additional configuration before they can be used. + 検索を使用して、HuggingFace のモデルを検索してダウンロードします。これらのモデルが機能するという保証はありません。多くの場合、使用する前に追加の設定が必要になります。 + + + + Discover and download models by keyword search... + キーワード検索でモデルを見つけてダウンロードします...... + + + + Text field for discovering and filtering downloadable models + ダウンロード可能なモデルを検索およびフィルタリングするためのテキストフィールド + + + + Searching · %1 + 検索中 · %1 + + + + Initiate model discovery and filtering + モデルの検出とフィルタリングを開始する + + + + Triggers discovery and filtering of models + モデルの検出とフィルタリングをトリガーします + + + + Default + デフォルト + + + + Likes + いいね + + + + Downloads + ダウンロード + + + + Recent + 最近の + + + + Sort by: %1 + 並べ替え: %1 + + + + Asc + 昇順 + + + + Desc + 滑降 + + + + Sort dir: %1 + ソートディレクトリ: %1 + + + + None + なし + + + + Limit: %1 + 制限: %1 + + + + Model file + モデルファイル + + + + Model file to be downloaded + ダウンロードするモデルファイル + + + + Description + 説明 + + + + File description + ファイルの説明 + + + + Cancel + キャンセル + + + + Resume + 再開する + + + + Download + ダウンロード + + + + Stop/restart/start the download + ダウンロードを停止/再開/開始する + + + + Remove + 取り除く + + + + Remove model from filesystem + ファイルシステムからモデルを削除する + + + + + Install + インストール + + + + Install online model + オンラインモデルをインストールする + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">エラー</a></strong></font> + + + + Describes an error that occurred when downloading + ダウンロード中に発生したエラーについて説明します + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">警告: お使いのハードウェアには推奨されません。モデルには、システムで使用可能なメモリ (%2) よりも多くのメモリ (%1 GB) が必要です。</strong></font> + + + + Error for incompatible hardware + 互換性のないハードウェアのエラー + + + + Download progressBar + progressBar をダウンロード + + + + Shows the progress made in the download + ダウンロードの進行状況を表示します + + + + Download speed + ダウンロード速度 + + + + Download speed in bytes/kilobytes/megabytes per second + ダウンロード速度(バイト/キロバイト/メガバイト/秒) + + + + Calculating... + 計算中... + + + + + + + Whether the file hash is being calculated + ファイルハッシュが計算されているかどうか + + + + Busy indicator + ビジーインジケーター + + + + Displayed when the file hash is being calculated + ファイルハッシュが計算されているときに表示されます + + + + ERROR: $API_KEY is empty. + エラー: $API_KEY が空です。 + + + + enter $API_KEY + $API_KEYを入力 + + + + ERROR: $BASE_URL is empty. + エラー: $BASE_URL が空です。 + + + + enter $BASE_URL + $BASE_URLを入力 + + + + ERROR: $MODEL_NAME is empty. + エラー: $MODEL_NAME が空です。 + + + + enter $MODEL_NAME + $MODEL_NAMEを入力 + + + + File size + ファイルサイズ + + + + Quant + クォント + + + + Type + タイプ + + + + AddModelView + + + ← Existing Models + ←既存モデル + + + + Explore Models + モデルを見る + + + + GPT4All + GPT4All + + + + HuggingFace + HuggingFace + + + + ApplicationSettings + + + Application + 応用 + + + + Network dialog + ネットワークダイアログ + + + + opt-in to share feedback/conversations + オプトインしてフィードバック/会話を共有する + + + + Error dialog + エラーダイアログ + + + + Application Settings + アプリケーション設定 + + + + General + 一般的な + + + + Theme + テーマ + + + + The application color scheme. + アプリケーションのカラースキーム。 + + + + Dark + 暗い + + + + Light + 明るい + + + + ERROR: Update system could not find the MaintenanceTool used to check for updates!<br/><br/>Did you install this application using the online installer? If so, the MaintenanceTool executable should be located one directory above where this application resides on your filesystem.<br/><br/>If you can't start it manually, then I'm afraid you'll have to reinstall. + エラー: 更新システムは、更新の確認に使用される MaintenanceTool を見つけることができませんでした。<br/><br/>このアプリケーションはオンライン インストーラーを使用してインストールしましたか? その場合、MaintenanceTool 実行可能ファイルは、ファイル システム上でこのアプリケーションが存在するディレクトリの 1 つ上のディレクトリにあるはずです。<br/><br/>手動で起動できない場合は、再インストールする必要があります。 + + + + LegacyDark + LegacyDark + + + + Font Size + フォントサイズ + + + + The size of text in the application. + アプリケーション内のテキストのサイズ。 + + + + Small + 小さい + + + + Medium + 中くらい + + + + Large + 大きい + + + + Language and Locale + 言語とロケール + + + + The language and locale you wish to use. + 使用したい言語とロケール。 + + + + System Locale + システムロケール + + + + Device + デバイス + + + + The compute device used for text generation. + テキスト生成に使用される計算デバイス。 + + + + + Application default + 応用のデフォルト + + + + Default Model + デフォルトのモデル + + + + The preferred model for new chats. Also used as the local server fallback. + 新しいチャットに推奨されるモデル。ローカル サーバーのフォールバックとしても使用されます。 + + + + Suggestion Mode + 提案モード + + + + Generate suggested follow-up questions at the end of responses. + 提案されたフォローアップの質問 ATT と応答の猶予を生成します。 + + + + When chatting with LocalDocs + LocalDocs とチャットするとき + + + + Whenever possible + 可能な限り + + + + Never + 一度もない + + + + Download Path + ダウンロードパス + + + + Where to store local models and the LocalDocs database. + ローカル モデルと LocalDocs データベースを保存する場所。 + + + + Browse + 閲覧する + + + + Choose where to save model files + モデルファイルを保存する場所を選択する + + + + Enable Datalake + データレイクを有効にする + + + + Send chats and feedback to the GPT4All Open-Source Datalake. + チャットとフィードバックを GPT4All オープンソース データレイクに送信します。 + + + + Advanced + 高度な + + + + CPU Threads + CPU スレッド + + + + The number of CPU threads used for inference and embedding. + 推論とembeddingに使用される CPU スレッドの数。 + + + + Enable System Tray + システムトレイを有効にする + + + + The application will minimize to the system tray when the window is closed. + ウィンドウを閉じると、アプリケーションはシステム トレイに最小化されます。 + + + + Enable Local API Server + ローカルAPIサーバーを有効にする + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + OpenAI 互換サーバーを localhost に公開します。警告: リソース使用量が増加します。 + + + + API Server Port + API サーバー ポート + + + + The port to use for the local server. Requires restart. + ローカル サーバーに使用するポート。再起動が必要です。 + + + + Check For Updates + 更新を確認する + + + + Manually check for an update to GPT4All. + GPT4All のアップデートを手動で確認します。 + + + + Updates + 更新情報 + + + + Chat + + + + New Chat + 新しいチャット + + + + Server Chat + サーバーチャット + + + + ChatAPIWorker + + + ERROR: Network error occurred while connecting to the API server + エラー: API サーバーへの接続中にネットワーク エラーが発生しました + + + + ChatAPIWorker::handleFinished got HTTP Error %1 %2 + ChatAPIWorker::handleFinished で HTTP エラー %1 %2 が発生しました + + + + ChatDrawer + + + Drawer + ドロワー + + + + Main navigation drawer + メインナビゲーションドロワー + + + + + New Chat + + 新しいチャット + + + + Create a new chat + 新しいチャットを作成する + + + + Select the current chat or edit the chat when in edit mode + 現在のチャットを選択するか、編集モードでチャットを編集します + + + + Edit chat name + チャット名を編集 + + + + Save chat name + チャット名を保存 + + + + Delete chat + チャットを削除 + + + + Confirm chat deletion + チャットの削除を確認 + + + + Cancel chat deletion + チャットの削除をキャンセル + + + + List of chats + チャット一覧 + + + + List of chats in the drawer dialog + ドロワーダイアログ内のチャットのリスト + + + + ChatItemView + + + GPT4All + GPT4All + + + + You + あなた + + + + response stopped ... + 応答が停止しました... + + + + retrieving localdocs: %1 ... + ローカルドキュメントを取得しています: %1 ... + + + + searching localdocs: %1 ... + ローカルドキュメントを検索中: %1 ... + + + + processing ... + 処理中... + + + + generating response ... + 応答を生成しています... + + + + generating questions ... + 質問を生成します... + + + + + Copy + コピー + + + + Copy Message + メッセージをコピー + + + + Disable markdown + マークダウンを無効にする + + + + Enable markdown + マークダウンを有効にする + + + + %n Source(s) + %n ソース + + %n Source + + + + + LocalDocs + LocalDocs + + + + Edit this message? + このメッセージを編集しますか? + + + + + All following messages will be permanently erased. + 以降のメッセージはすべて永久に消去されます。 + + + + Redo this response? + この応答をやり直しますか? + + + + Cannot edit chat without a loaded model. + モデルが読み込まれていないとチャットを編集できません。 + + + + Cannot edit chat while the model is generating. + モデルの生成中はチャットを編集できません。 + + + + Edit + 編集 + + + + Cannot redo response without a loaded model. + モデルが読み込まれていないと応答をやり直すことはできません。 + + + + Cannot redo response while the model is generating. + モデルの生成中は応答をやり直すことはできません。 + + + + Redo + やり直す + + + + Like response + いいね!の返信 + + + + Dislike response + 嫌いな反応 + + + + Suggested follow-ups + 推奨されるフォローアップ + + + + ChatLLM + + + Your message was too long and could not be processed (%1 > %2). Please try again with something shorter. + メッセージが長すぎるため、処理できませんでした (%1 > %2)。もう少し短くしてもう一度お試しください。 + + + + ChatListModel + + + TODAY + 今日 + + + + THIS WEEK + 今週 + + + + THIS MONTH + 今月 + + + + LAST SIX MONTHS + 過去6か月 + + + + THIS YEAR + 今年 + + + + LAST YEAR + 去年 + + + + ChatView + + + <h3>Warning</h3><p>%1</p> + <h3>警告</h3><p>%1</p> + + + + Conversation copied to clipboard. + 会話がクリップボードにコピーされました。 + + + + Code copied to clipboard. + コードがクリップボードにコピーされました。 + + + + The entire chat will be erased. + + + + + Chat panel + チャットパネル + + + + Chat panel with options + オプション付きチャットパネル + + + + Reload the currently loaded model + 現在ロードされているモデルを再ロードします + + + + Eject the currently loaded model + 現在ロードされているモデルを取り出します + + + + No model installed. + モデルがインストールされていません。 + + + + Model loading error. + モデルの読み込みエラー。 + + + + Waiting for model... + モデルを待っています... + + + + Switching context... + コンテキストを切り替えています... + + + + Choose a model... + モデルを選択してください... + + + + Not found: %1 + 見つかりません: %1 + + + + The top item is the current model + 一番上のアイテムは現在のモデルです + + + + LocalDocs + LocalDocs + + + + Add documents + ドキュメントを追加 + + + + add collections of documents to the chat + チャットにドキュメントのコレクションを追加する + + + + Load the default model + デフォルトモデルをロードする + + + + Loads the default model which can be changed in settings + 設定で変更できるデフォルトのモデルをロードします + + + + No Model Installed + モデルがインストールされていません + + + + GPT4All requires that you install at least one +model to get started + GPT4Allを開始するには、少なくとも1つのモデルをインストールする必要があります + + + + Install a Model + モデルをインストールする + + + + Shows the add model view + モデル追加ビューを表示します + + + + Conversation with the model + モデルとの会話 + + + + prompt / response pairs from the conversation + 会話からのプロンプト/応答のペア + + + + Legacy prompt template needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. + レガシー プロンプト テンプレートは、[設定] で <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">更新</a> する必要があります。 + + + + No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> が設定されていません。 + + + + The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> は空白にできません。 + + + + Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. + Legacy system prompt needs to be <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">updated</a> in Settings. + + + + Copy + コピー + + + %n Source(s) + + %n Source + + + + + Erase and reset chat session + チャットセッションを消去してリセットする + + + + Copy chat session to clipboard + チャットセッションをクリップボードにコピー + + + + Add media + メディアを追加 + + + + Adds media to the prompt + プロンプトにメディアを追加します + + + + Stop generating + 生成を停止 + + + + Stop the current response generation + 現在の応答生成を停止する + + + + Attach + 添付 + + + + Single File + 単一ファイル + + + + Reloads the model + モデルを再読み込みします + + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help + <h3>モデルの読み込み中にエラーが発生しました:</h3><br><i>"%1"</i><br><br>モデルの読み込みに失敗する理由はさまざまですが、最も一般的な原因としては、ファイル形式が正しくない、ダウンロードが不完全または破損している、ファイルの種類が間違っている、システム RAM が不足している、モデルの種類に互換性がない、などが挙げられます。この問題を解決するための提案をいくつかご紹介します。<br><ul><li>モデル ファイルの形式と種類に互換性があることを確認します。<li>ダウンロード フォルダー内のモデル ファイルが完全であることを確認します。<li>ダウンロード フォルダーは設定ダイアログにあります。<li>モデルをサイドロードした場合は、md5sum をチェックしてファイルが破損していないことを確認します。<li>サポートされているモデルの詳細については、GUI の <a href="https://docs.gpt4all.io/">ドキュメント</a> をご覧ください。<li>ヘルプについては、<a href="https://discord.gg/4M2QFmTt2k">discord チャンネル</a> をご覧ください + + + + + Erase conversation? + 会話を消去しますか? + + + + Changing the model will erase the current conversation. + モデルを変更すると、現在の会話が消去されます。 + + + + + Reload · %1 + 再読み込み · %1 + + + + Loading · %1 + 読み込み中 · %1 + + + + Load · %1 (default) → + 読み込み中·%1 (デフォルト) → + + + + Send a message... + メッセージを送信... + + + + Load a model to continue... + 続行するにはモデルをロードしてください... + + + + Send messages/prompts to the model + モデルにメッセージ/プロンプトを送信する + + + + Cut + カット + + + + Paste + ペースト + + + + Select All + すべて選択 + + + + Send message + メッセージを送信 + + + + Sends the message/prompt contained in textfield to the model + テキストフィールドに含まれるメッセージ/プロンプトをモデルに送信します + + + + CollectionsDrawer + + + Warning: searching collections while indexing can return incomplete results + 警告: インデックス作成中にコレクションを検索すると、不完全な結果が返される可能性があります + + + + %n file(s) + + %n file + + + + + %n word(s) + + %n word + + + + + Updating + 更新中 + + + + + Add Docs + + ドキュメントを追加 + + + + Select a collection to make it available to the chat model. + コレクションを選択して、チャット モデルで使用できるようにします。 + + + + ConfirmationDialog + + + OK + オーケー + + + + Cancel + キャンセル + + + + Download + + + Model "%1" is installed successfully. + モデル「%1」が正常にインストールされました。 + + + + ERROR: $MODEL_NAME is empty. + エラー: $MODEL_NAME が空です。 + + + + ERROR: $API_KEY is empty. + エラー: $API_KEY が空です。 + + + + ERROR: $BASE_URL is invalid. + エラー: $BASE_URL が無効です。 + + + + ERROR: Model "%1 (%2)" is conflict. + エラー: モデル「%1 (%2)」が競合しています。 + + + + Model "%1 (%2)" is installed successfully. + モデル「%1 (%2)」が正常にインストールされました。 + + + + Model "%1" is removed. + モデル「%1」は削除されました。 + + + + HomeView + + + Welcome to GPT4All + GPT4Allへようこそ + + + + The privacy-first LLM chat application + プライバシーファースト LLM チャット アプリ + + + + Start chatting + チャットを始める + + + + Start Chatting + チャットを始める + + + + Chat with any LLM + LLMとチャット + + + + LocalDocs + ローカルドキュメント + + + + Chat with your local files + ローカルプロフィールとチャットする + + + + Find Models + モデルを探す + + + + Explore and download models + モデルを探索してダウンロードする + + + + Latest news + 最新ニュース + + + + Latest news from GPT4All + GPT4Allからの最新ニュース + + + + Release Notes + リリースノート + + + + Documentation + 書類 + + + + Discord + Discord + + + + X (Twitter) + X (Twitter) + + + + Github + Github + + + + nomic.ai + nomic.ai + + + + Subscribe to Newsletter + ニュースレターを購読する + + + + LocalDocsSettings + + + LocalDocs + LocalDocs + + + + LocalDocs Settings + LocalDocs設定 + + + + Indexing + インデックス作成 + + + + Allowed File Extensions + 許可されるファイル拡張子 + + + + Comma-separated list. LocalDocs will only attempt to process files with these extensions. + カンマ区切りのリスト。LocalDocs はこれらの拡張子を持つファイルのみを処理しようとします。 + + + + Embedding + Embedding + + + + Use Nomic Embed API + Nomic Embed APIを使用する + + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. + プライベートなローカル モデルの代わりに高速な Nomic API を使用してドキュメントを埋め込みます。再起動が必要です。 + + + + Nomic API Key + Nomic API キー + + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. + Nomic Embed に使用する API キー。Atlas の <a href="https://atlas.nomic.ai/cli-login">API キー ページ</a> から取得します。再起動が必要です。 + + + + Embeddings Device + Embeddings Device + + + + The compute device used for embeddings. Requires restart. + Embeddingsに使用されるコンピューティング デバイス。再起動が必要です。 + + + + Application default + アプリケーション預託 + + + + Display + 画面 + + + + Show Sources + ソースを表示 + + + + Display the sources used for each response. + 各応答に使用されたソースを表示します。 + + + + Advanced + 高度な + + + + Warning: Advanced usage only. + 警告: 上級者向けです。 + + + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + 値が大きすぎると、localdocs が失敗したり、応答が非常に遅くなったり、まったく応答しなくなったりする可能性があります。大まかに言うと、{N 文字 x N スニペット} がモデルのコンテキスト ウィンドウに追加されます。詳細については、<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">こちら</a>を参照してください。 + + + + Document snippet size (characters) + 文書フラグメントサイズ (文字数) + + + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. + ドキュメント スニペットあたりの文字数。数値が大きいほど、事実に基づく応答の可能性が高くなりますが、生成速度も遅くなります。 + + + + Max document snippets per prompt + プロンプトあたりの最大ドキュメントスニペット数 + + + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. + プロンプトのコンテキストに追加する、取得したドキュメント スニペットの最大ベスト N 一致。数値が大きいほど、事実に基づく応答の可能性が高くなりますが、生成速度も遅くなります。 + + + + LocalDocsView + + + LocalDocs + LocalDocs + + + + Chat with your local files + ローカルファイルとチャット + + + + + Add Collection + +コレクションを追加 + + + + <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. + <h3>エラー: LocalDocs データベースにアクセスできないか、無効です。</h3><br><i>注: 以下のいずれかの修正を試した後は、再起動する必要があります。</i><br><ul><li>ファイル システムに <b>ダウンロード パス</b> として設定されているフォルダーが存在することを確認します。</li><li><b>ダウンロード パス</b> の所有権と読み取り/書き込み権限を確認します。</li><li><b>localdocs_v2.db</b> ファイルがある場合は、その所有権と読み取り/書き込み権限も確認します。</li></ul><br>問題が解決せず、'localdocs_v*.db' ファイルが存在する場合は、最後の手段として、<br>それらのバックアップを作成して削除してみてください。ただし、コレクションを再作成する必要があります。 + + + + No Collections Installed + コレクションがインストールされていません + + + + Install a collection of local documents to get started using this feature + この機能を使い始めるには、ローカルドキュメントのコレクションをインストールしてください + + + + + Add Doc Collection + + 新しいファイルセットを追加しました + + + + Shows the add model view + モデル追加ビューを表示します + + + + Indexing progressBar + インデックス作成プログレスバー + + + + Shows the progress made in the indexing + インデックス作成の進捗状況を表示します + + + + ERROR + エラー + + + + INDEXING + インデックス作成 + + + + EMBEDDING + EMBEDDING + + + + REQUIRES UPDATE + アップデートが必要です + + + + READY + 準備ができて + + + + INSTALLING + インストール + + + + Indexing in progress + インデックス作成中 + + + + Embedding in progress + 埋め込み中 + + + + This collection requires an update after version change + このコレクションはバージョン変更後に更新が必要です + + + + Automatically reindexes upon changes to the folder + フォルダの変更時に自動的に再インデックスします + + + + Installation in progress + インストール中 + + + + % + % + + + + %n file(s) + + %n file + + + + + %n word(s) + + %n word + + + + + Remove + 取り除く + + + + Rebuild + 再構築 + + + + Reindex this folder from scratch. This is slow and usually not needed. + このフォルダを最初から再インデックスします。これは時間がかかるため、通常は必要ありません。 + + + + Update + アップデート + + + + Update the collection to the new version. This is a slow operation. + コレクションを新しいバージョンに更新します。これは時間のかかる操作です。 + + + + ModelList + + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> + <ul><li>個人の OpenAI API キーが必要です。</li><li>警告: チャットが OpenAI に送信されます。</li><li>API キーはディスクに保存されます。</li><li>OpenAI との通信にのみ使用されます。</li><li>API キーは <a href="https://platform.openai.com/account/api-keys">こちら</a>から申請できます。</li> + + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 + <strong>OpenAI の ChatGPT モデル GPT-3.5 Turbo</strong><br> %1 + + + + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 + <strong>OpenAI の ChatGPT モデル GPT-4</strong><br> %1 %2 + + + + <strong>Mistral Tiny model</strong><br> %1 + <strong>ミストラル タイニー モデル</strong><br> %1 + + + + <strong>Mistral Small model</strong><br> %1 + <strong>ミストラル スモール モデル</strong><br> %1 + + + + <strong>Mistral Medium model</strong><br> %1 + <strong>ミストラル ミディアム モデル</strong><br> %1 + + + + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. + <br><br><i>* OpenAI に ChatGPT-4 の料金を支払ったとしても、API キーへのアクセスは保証されません。詳細については OpenAI にお問い合わせください。 + + + + + cannot open "%1": %2 + 開けません。"%1": %2 + + + + cannot create "%1": %2 + 作成できません。"%1": %2 + + + + %1 (%2) + %1 (%2) + + + + <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> + <strong>OpenAI 互換 API モデル</strong><br><ul><li>API キー: %1</li><li>ベース URL: %2</li><li>モデル名: %3</li></ul> + + + + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> + <ul><li>個人の Mistral API キーが必要です。</li><li>警告: チャットが Mistral に送信されます。</li><li>API キーはディスクに保存されます。</li><li>Mistral との通信にのみ使用されます。</li><li>API キーは <a href="https://console.mistral.ai/user/api-keys">こちら</a>から申請できます。</li> + + + + <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> + <ul><li>個人の API キーと API ベース URL が必要です。</li><li>警告: 指定した OpenAI 互換 API サーバーにチャットが送信されます。</li><li>API キーはディスクに保存されます。</li><li>OpenAI 互換 API サーバーとの通信にのみ使用されます。</li> + + + + <strong>Connect to OpenAI-compatible API server</strong><br> %1 + <strong>OpenAI 互換 API サーバーに接続</strong><br> %1 + + + + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> + <strong>%1 によって作成されました。</strong><br><ul><li>%2 に公開されました。<li>このモデルには %3 件のいいねがあります。<li>このモデルには %4 回ダウンロードされています。<li>詳細については、<a href="https://huggingface.co/%5">こちら</a>をご覧ください。</ul> + + + + ModelSettings + + + Model + モデル + + + + %1 system message? + %1 システムメッセージ? + + + + + Clear + クリア + + + + + Reset + 初期化 + + + + The system message will be %1. + システム メッセージは %1 になります。 + + + + removed + 削除された + + + + + reset to the default + デフォルトにリセットする + + + + %1 chat template? + %1 チャット テンプレートですか? + + + + The chat template will be %1. + チャットテンプレートは %1 になります。 + + + + erased + 消去された + + + + Model Settings + モデル設定 + + + + Clone + クローン + + + + Remove + 取り除く + + + + Name + 名前 + + + + Model File + モデルファイル + + + + System Message + システムメッセージ + + + + A message to set the context or guide the behavior of the model. Leave blank for none. NOTE: Since GPT4All 3.5, this should not contain control tokens. + コンテキストを設定したり、モデルの動作をガイドするためのメッセージ。何もない場合は空白のままにします。注: GPT4All 3.5 以降、これには制御トークンを含めないでください。 + + + + System message is not <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">plain text</a>. + システム メッセージは <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">プレーン テキスト</a> ではありません。 + + + + Chat Template + チャットテンプレート + + + + This Jinja template turns the chat into input for the model. + この Jinja テンプレートは、チャットをモデルの入力に変換します。 + + + + No <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> configured. + この Jinja テンプレートは、チャットをモデルの入力に変換します。 + + + + The <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">chat template</a> cannot be blank. + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">チャット テンプレート</a> は空白にできません。 + + + + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Syntax error</a>: %1 + <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">構文エラー</a>: %1 + + + + Chat template is not in <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja format</a>. + チャット テンプレートは <a href="https://docs.gpt4all.io/gpt4all_desktop/chat_templates.html">Jinja 形式</a>ではありません。 + + + + Chat Name Prompt + チャット名プロンプト + + + + Prompt used to automatically generate chat names. + チャット名を自動的に生成するために使用されるプロンプト。 + + + + Suggested FollowUp Prompt + 推奨されるフォローアッププロンプト + + + + Prompt used to generate suggested follow-up questions. + 提案されるフォローアップの質問を生成するために使用されるプロンプト。 + + + + Context Length + コンテキストの長さ + + + + Number of input and output tokens the model sees. + モデルが認識する入力トークンと出力トークンの数。 + + + + Maximum combined prompt/response tokens before information is lost. +Using more context than the model was trained on will yield poor results. +NOTE: Does not take effect until you reload the model. + 情報が失われるまでの最大の組み合わせプロンプト/応答トークン数。 +モデルがトレーニングされたコンテキストよりも多くのコンテキストを使用すると、結果が悪くなります。 +注: モデルを再読み込みするまで有効になりません。 + + + + Temperature + 温度 + + + + Randomness of model output. Higher -> more variation. + モデル出力のランダム性。高いほど、バリエーションが多くなります。 + + + + Temperature increases the chances of choosing less likely tokens. +NOTE: Higher temperature gives more creative but less predictable outputs. + 温度によって、可能性の低いトークンを選択する可能性が高まります。 +注: 温度が高いほど、出力はより創造的になりますが、予測可能性は低くなります。 + + + + Top-P + トップP + + + + Nucleus Sampling factor. Lower -> more predictable. + Nucleus サンプリング係数。低いほど予測しやすくなります。 + + + + Only the most likely tokens up to a total probability of top_p can be chosen. +NOTE: Prevents choosing highly unlikely tokens. + 合計確率が top_p までの最も可能性の高いトークンのみを選択できます。 +注: 可能性が非常に低いトークンが選択されないようにします。 + + + + Min-P + 最小P + + + + Minimum token probability. Higher -> more predictable. + 最小トークン確率。高いほど予測しやすくなります。 + + + + Sets the minimum relative probability for a token to be considered. + 考慮されるトークンの最小相対確率を設定します。 + + + + Top-K + トップK + + + + Size of selection pool for tokens. + トークンの選択プールのサイズ。 + + + + Only the top K most likely tokens will be chosen from. + 最も可能性の高い上位 K 個のトークンのみが選択されます。 + + + + Max Length + 最大長 + + + + Maximum response length, in tokens. + 応答の最大長(トークン単位)。 + + + + Prompt Batch Size + プロンプトバッチサイズ + + + + The batch size used for prompt processing. + プロンプト処理に使用されるバッチ サイズ。 + + + + Amount of prompt tokens to process at once. +NOTE: Higher values can speed up reading prompts but will use more RAM. + 一度に処理するプロンプト トークンの数。 +注: 値を大きくするとプロンプトの読み取り速度が上がりますが、RAM の使用量も増えます。 + + + + Repeat Penalty + 繰り返しペナルティ + + + + Repetition penalty factor. Set to 1 to disable. + 繰り返しペナルティ係数。無効にするには 1 に設定します。 + + + + Repeat Penalty Tokens + 繰り返しペナルティトークン + + + + Number of previous tokens used for penalty. + ペナルティに使用された以前のトークンの数。 + + + + GPU Layers + GPU レイヤー + + + + Number of model layers to load into VRAM. + VRAM にロードするモデル レイヤーの数。 + + + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. +Lower values increase CPU load and RAM usage, and make inference slower. +NOTE: Does not take effect until you reload the model. + VRAM にロードするモデル レイヤーの数。このモデルのロード中に GPT4All の VRAM が不足する場合は、この値を減らします。 +値が小さいほど、CPU 負荷と RAM 使用量が増加し、推論が遅くなります。 +注: モデルを再ロードするまで有効になりません。 + + + + ModelsView + + + No Models Installed + モデルがインストールされていません + + + + Install a model to get started using GPT4All + GPT4Allを使い始めるにはモデルをインストールしてください + + + + + + Add Model + + モデルを追加 + + + + Shows the add model view + モデル追加ビューを表示します + + + + Installed Models + インストール済みモデル + + + + Locally installed chat models + ローカルにインストールされたチャットモデル + + + + Model file + モデルファイル + + + + Model file to be downloaded + ダウンロードするモデルファイル + + + + Description + 説明 + + + + File description + ファイルの説明 + + + + Cancel + 中止 + + + + Resume + 再開する + + + + Stop/restart/start the download + ダウンロードを停止/再開/開始する + + + + Remove + 取り除く + + + + Remove model from filesystem + ファイルシステムからモデルを削除する + + + + + Install + インストール + + + + Install online model + オンラインモデルをインストールする + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">エラー</a></strong></font> + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">警告: お使いのハードウェアには推奨されません。モデルには、システムで使用可能なメモリ (%2) よりも多くのメモリ (%1 GB) が必要です。</strong></font> + + + + ERROR: $API_KEY is empty. + エラー: $API_KEY が空です。 + + + + ERROR: $BASE_URL is empty. + エラー: $BASE_URL が空です。 + + + + enter $BASE_URL + $BASE_URLを入力 + + + + ERROR: $MODEL_NAME is empty. + エラー: $MODEL_NAME が空です。 + + + + enter $MODEL_NAME + $MODEL_NAMEを入力 + + + + %1 GB + %1 GB + + + + ? + ? + + + + Describes an error that occurred when downloading + ダウンロード中に発生したエラーについて説明します + + + + Error for incompatible hardware + 互換性のないハードウェアのエラー + + + + Download progressBar + progressBar をダウンロード + + + + Shows the progress made in the download + ダウンロードの進行状況を表示します + + + + Download speed + ダウンロード速度 + + + + Download speed in bytes/kilobytes/megabytes per second + ダウンロード速度 (バイト/キロバイト/メガバイト/秒) + + + + Calculating... + 計算中... + + + + + + + Whether the file hash is being calculated + ファイルハッシュが計算されているかどうか + + + + Busy indicator + ビジーインジケーター + + + + Displayed when the file hash is being calculated + ファイルハッシュが計算されているときに表示されます + + + + enter $API_KEY + $API_KEYを入力 + + + + File size + ファイルサイズ + + + + RAM required + 必要なRAM + + + + Parameters + Parameters + + + + Quant + Quant + + + + Type + 種類 + + + + MyFancyLink + + + Fancy link + ファンシーリンク + + + + A stylized link + 様式化されたリンク + + + + MyFileDialog + + + Please choose a file + ファイルを選択してください + + + + MyFolderDialog + + + Please choose a directory + ディレクトリを選択してください + + + + MySettingsLabel + + + Clear + 清める + + + + Reset + 重ねる + + + + MySettingsTab + + + Restore defaults? + デフォルトに戻す? + + + + This page of settings will be reset to the defaults. + このページの設定はデフォルトにリセットされます。 + + + + Restore Defaults + デフォルトに戻す + + + + Restores settings dialog to a default state + 設定ダイアログをデフォルト状態に戻します + + + + NetworkDialog + + + Contribute data to the GPT4All Opensource Datalake. + GPT4All オープンソース データ レイクにデータを提供します。 + + + + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + この機能を有効にすると、将来のモデル改善のためにデータを提供して、大規模な言語モデルをトレーニングする民主的なプロセスに参加できるようになります。 + +GPT4All モデルがあなたに応答し、あなたがオプトインしている場合、あなたの会話は GPT4All オープンソース データレイクに送信されます。さらに、その応答に「いいね」または「嫌い」を付けることができます。応答が気に入らない場合は、別の応答を提案できます。このデータは GPT4All データレイクで収集され、集約されます。 + +注: この機能をオンにすると、あなたのデータが GPT4All オープンソース データレイクに送信されます。この機能が有効になっている場合、チャットのプライバシーは期待できません。ただし、必要に応じてオプションの帰属を期待してください。あなたのチャット データは誰でもダウンロードできるように公開され、Nomic AI によって将来の GPT4All モデルを改善するために使用されます。Nomic AI はあなたのデータに添付されたすべての帰属情報を保持し、あなたのデータを使用する GPT4All! + + + + Terms for opt-in + オプトインの条件 + + + + Describes what will happen when you opt-in + オプトインすると何が起こるかを説明します + + + + Please provide a name for attribution (optional) + 帰属名を入力してください(オプション) + + + + Attribution (optional) + 帰属表示(オプション) + + + + Provide attribution + 帰属表示を提供する + + + + Enable + 有効にする + + + + Enable opt-in + オプトインを有効にする + + + + Cancel + キャンセル + + + + Cancel opt-in + オプトインをキャンセル + + + + NewVersionDialog + + + New version is available + 新しいバージョンが利用可能になりました + + + + Update + 更新する + + + + Update to new version + 新しいバージョンに更新 + + + + PopupDialog + + + Reveals a shortlived help balloon + 短期間のヘルプバルーンを表示します + + + + Busy indicator + ビジーインジケーター + + + + Displayed when the popup is showing busy + ポップアップがビジー状態の場合に表示されます + + + + SettingsView + + + + Settings + 設定 + + + + Contains various application settings + さまざまなアプリケーション設定が含まれています + + + + Application + 応用 + + + + Model + モデル + + + + LocalDocs + LocalDocs + + + + StartupDialog + + + Welcome! + いらっしゃいませ! + + + + ### Release Notes +%1<br/> +### Contributors +%2 + ### リリースノート +%1<br/> +### 貢献者 +%2 + + + + Release notes + リリースノート + + + + Release notes for this version + このバージョンのリリースノート + + + + ### Opt-ins for anonymous usage analytics and datalake +By enabling these features, you will be able to participate in the democratic process of training a +large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All +Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you +can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. +You should have no expectation of chat privacy when this feature is enabled. You should; however, have +an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone +to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all +attribution information attached to your data and you will be credited as a contributor to any GPT4All +model release that uses your data! + ### 匿名の使用状況分析とデータレイクのオプトイン +これらの機能を有効にすると、将来のモデル改善のためにデータを提供して、大規模な言語モデルをトレーニングする民主的なプロセスに参加できるようになります。 + +GPT4All モデルがあなたに応答し、あなたがオプトインしている場合、あなたの会話は GPT4All オープンソース データレイクに送信されます。さらに、あなたはその応答に「いいね」または「嫌い」を付けることができます。応答が気に入らない場合は、別の応答を提案できます。このデータは GPT4All データレイクで収集され、集約されます。 + +注: この機能をオンにすると、あなたのデータは GPT4All オープンソース データレイクに送信されます。 +この機能が有効になっている場合、チャットのプライバシーは期待できません。ただし、必要に応じて、オプションの帰属表示を期待してください。あなたのチャット データは誰でもダウンロードできるように公開され、Nomic AI によって将来の GPT4All モデルを改善するために使用されます。 Nomic AI は、あなたのデータに添付されたすべての属性情報を保持し、あなたのデータを使用するすべての GPT4All モデル リリースの貢献者としてあなたをクレジットします! + + + + Terms for opt-in + オプトインの条件 + + + + Describes what will happen when you opt-in + オプトインすると何が起こるかを説明します + + + + Opt-in to anonymous usage analytics used to improve GPT4All + GPT4All の改善に使用される匿名の使用状況分析へのオプトイン + + + + + Opt-in for anonymous usage statistics + 匿名の使用統計情報を受け取る + + + + + Yes + はい + + + + Allow opt-in for anonymous usage statistics + 匿名の使用統計情報のオプトインを許可する + + + + + No + いいえ + + + + Opt-out for anonymous usage statistics + 匿名の使用統計のオプトアウト + + + + Allow opt-out for anonymous usage statistics + 匿名の使用統計のオプトアウトを許可する + + + + Opt-in to anonymous sharing of chats to the GPT4All Datalake + GPT4All Datalakeへのチャットの匿名共有をオプトインする + + + + + Opt-in for network + ネットワークへの参加 + + + + Allow opt-in for network + ネットワークのオプトインを許可する + + + + Allow opt-in anonymous sharing of chats to the GPT4All Datalake + GPT4All Datalakeへのチャットのオプトイン匿名共有を許可する + + + + Opt-out for network + ネットワークのオプトアウト + + + + Allow opt-out anonymous sharing of chats to the GPT4All Datalake + GPT4All Datalakeへのチャットのオプトアウト匿名共有を許可する + + + + ThumbsDownDialog + + + Please edit the text below to provide a better response. (optional) + より良い回答を提供するために、以下のテキストを編集してください。(オプション) + + + + Please provide a better response... + もっと良い回答をお願いします... + + + + Submit + 提出する + + + + Submits the user's response + ユーザーの応答を送信する + + + + Cancel + キャンセル + + + + Closes the response dialog + 応答ダイアログを閉じます + + + + main + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>起動時にエラーが発生しました:</h3><br><i>「互換性のないハードウェアが検出されました。」</i><br><br>残念ながら、お使いの CPU はこのプログラムを実行するための最小要件を満たしていません。特に、このプログラムが最新の大規模言語モデルを正常に実行するために必要な AVX 組み込み機能をサポートしていません。現時点での唯一の解決策は、ハードウェアをより最新の CPU にアップグレードすることです。<br><br>詳細については、こちらを参照してください: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + + + GPT4All v%1 + GPT4All v%1 + + + + Restore + 復元する + + + + Quit + やめる + + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. + <h3>起動時にエラーが発生しました:</h3><br><i>「設定ファイルにアクセスできません。」</i><br><br>残念ながら、プログラムが設定ファイルにアクセスできない原因があります。設定ファイルが保存されているローカル アプリ構成ディレクトリの権限が正しくないことが原因の可能性があります。ヘルプが必要な場合は、<a href="https://discord.gg/4M2QFmTt2k">discord チャンネル</a>をご覧ください。 + + + + Connection to datalake failed. + データレイクへの接続に失敗しました。 + + + + Saving chats. + チャットを保存しています。 + + + + Network dialog + ネットワークダイアログボックス + + + + opt-in to share feedback/conversations + フィードバック/会話を共有するにはオプトインしてください + + + + Home view + ホームビュー + + + + Home view of application + アプリケーションのホームビュー + + + + Home + ホーム + + + + Chat view + チャットビュー + + + + Chat view to interact with models + モデルと対話するためのチャットビュー + + + + Chats + チャット + + + + + Models + モデル + + + + Models view for installed models + 搭載モデルのモデル図 + + + + + LocalDocs + LocalDocs + + + + LocalDocs view to configure and use local docs + ローカルドキュメントを設定および使用するための LocalDocs ビュー + + + + + Settings + 設定 + + + + Settings view for application configuration + アプリケーション構成の設定ビュー + + + + The datalake is enabled + データレイクが有効になっています + + + + Using a network model + ネットワークモデルの使用 + + + + Server mode is enabled + サーバーモードが有効になっています + + + + Installed models + インストールされたモデル + + + + View of installed models + インストールされたモデルの表示 + + +