From 0dac86866b9e2de017be724aa3aebbd6b19eb705 Mon Sep 17 00:00:00 2001 From: binmakeswell Date: Mon, 30 May 2022 23:06:49 +0800 Subject: [PATCH] [NFC] add inference (#1044) --- README-zh-Hans.md | 40 ++++++++++++++++++++++++++++++---------- README.md | 36 ++++++++++++++++++++++++++++-------- 2 files changed, 58 insertions(+), 18 deletions(-) diff --git a/README-zh-Hans.md b/README-zh-Hans.md index 6d69dda14..79acbb671 100644 --- a/README-zh-Hans.md +++ b/README-zh-Hans.md @@ -3,7 +3,7 @@ [![logo](https://raw.githubusercontent.com/hpcaitech/public_assets/main/colossalai/img/Colossal-AI_logo.png)](https://www.colossalai.org/) - 一个整合高效并行技术的 AI 大模型训练系统。 + Colossal-AI: 一个面向大模型时代的通用深度学习系统

论文 | 文档 | @@ -28,7 +28,7 @@
  • 为何选择 Colossal-AI
  • 特点
  • - 并行样例展示 + 并行训练样例展示
  • - 单GPU样例展示 + 单GPU训练样例展示
  • - +
  • + 推理样例展示 + +
  • 安装
      @@ -76,7 +81,7 @@ ## 特点 -Colossal-AI 为您提供了一系列并行训练组件。我们的目标是让您的分布式 AI 模型训练像普通的单 GPU 模型一样简单。我们提供的友好工具可以让您在几行代码内快速开始分布式训练。 +Colossal-AI 为您提供了一系列并行组件。我们的目标是让您的分布式 AI 模型像构建普通的单 GPU 模型一样简单。我们提供的友好工具可以让您在几行代码内快速开始分布式训练和推理。 - 并行化策略 - 数据并行 @@ -88,9 +93,11 @@ Colossal-AI 为您提供了一系列并行训练组件。我们的目标是让 - [PatrickStar](https://arxiv.org/abs/2108.05818) - 使用友好 - 基于参数文件的并行化 +- 推理 + - [Energon-AI](https://github.com/hpcaitech/EnergonAI)

      (返回顶端)

      -## 并行样例展示 +## 并行训练样例展示 ### ViT

      @@ -112,7 +119,7 @@ Colossal-AI 为您提供了一系列并行训练组件。我们的目标是让 -- 用相同的硬件条件训练24倍大的模型 +- 用相同的硬件训练24倍大的模型 - 超3倍的吞吐量 ### BERT @@ -127,24 +134,37 @@ Colossal-AI 为您提供了一系列并行训练组件。我们的目标是让

      (返回顶端)

      -## 单GPU样例展示 +## 单GPU训练样例展示 ### GPT-2

      -- 用相同的硬件条件训练20倍大的模型 +- 用相同的硬件训练20倍大的模型 ### PaLM

      -- 用相同的硬件条件训练34倍大的模型 +- 用相同的硬件训练34倍大的模型

      (back to top)

      + +## 推理样例展示 + +### GPT-3 +

      + +

      + +- [Energon-AI](https://github.com/hpcaitech/EnergonAI) :用相同的硬件推理加速50% + +

      (back to top)

      + + ## 安装 ### 从官方安装 diff --git a/README.md b/README.md index eb069a382..eff6951a2 100644 --- a/README.md +++ b/README.md @@ -3,7 +3,7 @@ [![logo](https://raw.githubusercontent.com/hpcaitech/public_assets/main/colossalai/img/Colossal-AI_logo.png)](https://www.colossalai.org/) - An integrated large-scale model training system with efficient parallelization techniques. + Colossal-AI: A Unified Deep Learning System for Big Model Era

      Paper | Documentation | @@ -28,7 +28,7 @@
    • Why Colossal-AI
    • Features
    • - Parallel Demo + Parallel Training Demo
    • - Single GPU Demo + Single GPU Training Demo
    • - +
    • + Inference Demo + +
    • Installation
        @@ -76,9 +81,9 @@ ## Features -Colossal-AI provides a collection of parallel training components for you. We aim to support you to write your +Colossal-AI provides a collection of parallel components for you. We aim to support you to write your distributed deep learning models just like how you write your model on your laptop. We provide user-friendly tools to kickstart -distributed training in a few lines. +distributed training and inference in a few lines. - Parallelism strategies - Data Parallelism @@ -93,9 +98,12 @@ distributed training in a few lines. - Friendly Usage - Parallelism based on configuration file +- Inference + - [Energon-AI](https://github.com/hpcaitech/EnergonAI) +

        (back to top)

        -## Parallel Demo +## Parallel Training Demo ### ViT

        @@ -131,7 +139,7 @@ Please visit our [documentation and tutorials](https://www.colossalai.org/) for

        (back to top)

        -## Single GPU Demo +## Single GPU Training Demo ### GPT-2

        @@ -149,6 +157,18 @@ Please visit our [documentation and tutorials](https://www.colossalai.org/) for

        (back to top)

        + +## Inference Demo + +### GPT-3 +

        + +

        + +- [Energon-AI](https://github.com/hpcaitech/EnergonAI): 50% inference acceleration on the same hardware + +

        (back to top)

        + ## Installation ### Download From Official Releases