8000 remove data server address notice by wheresmyhair · Pull Request #765 · OptimalScale/LMFlow · GitHub
[go: up one dir, main page]
More Web Proxy on the site http://driver.im/
Skip to content

remove data server address notice #765

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Merged
merged 1 commit into from
Apr 13, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
9 changes: 0 additions & 9 deletions readme/README_jp.md
Original file line number Diff line number Diff line change
Expand Up @@ -62,9 +62,6 @@ bash install.sh
当社の[公式ドキュメント(英語版)](https://optimalscale.github.io/LMFlow/examples/DATASETS.html)を参照してください。公式ドキュメントは現在翻訳中ですので、しばらくお待ちください。

### Fine-Tuning (Full)
> [!IMPORTANT]
> 最近、当社のデータストレージサーバーに問題が発生しました。データをダウンロードする際には、最新の [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) スクリプトが main ブランチにあることをご確認ください。ご不便をおかけして申し訳ございません。

全パラメーターファインチューニングは、モデルのすべてのパラメーターを更新します。GPT-2の全パラメーターファインチューニングの例を以下に示します:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -76,9 +73,6 @@ cd data && ./download.sh alpaca && cd -
```

### Fine-Tuning (LISA)
> [!IMPORTANT]
> 最近、当社のデータストレージサーバーに問題が発生しました。データをダウンロードする際には、最新の [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) スクリプトが main ブランチにあることをご確認ください。ご不便をおかけして申し訳ございません。

[LISA](https://arxiv.org/abs/2403.17919) は、**メモリ効率** の高いファインチューニングアルゴリズムであり、メモリとランダムに解凍された層の間でのバランスを取ることができます。以下のスクリプトは現在、**単一のGPU** 上でのみテストされています。最新情報にご注意ください! :smile:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -92,9 +86,6 @@ cd data && ./download.sh alpaca && cd -
```

### Fine-Tuning (LoRA)
> [!IMPORTANT]
> 最近、当社のデータストレージサーバーに問題が発生しました。データをダウンロードする際には、最新の [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) スクリプトが main ブランチにあることをご確認ください。ご不便をおかけして申し訳ございません。

LoRAは、全パラメータ微調整よりも効率的なパラメータ効率微調整アルゴリズムです。
```sh
cd data && ./download.sh alpaca && cd -
Expand Down
8 changes: 0 additions & 8 deletions readme/README_ko.md
Original file line number Diff line number Diff line change
Expand Up @@ -80,9 +80,6 @@ bash install.sh
저희의 [공식 문서(영문)](https://optimalscale.github.io/LMFlow/examples/DATASETS.html) 를 참고해 주세요. 공식 문서는 현재 번역 중이며, 조금만 기다려 주시기 바랍니다.

### Fine-Tuning (Full)
> [!IMPORTANT]
> 최근에 데이터 저장 서버에 일부 문제가 발생했습니다. 데이터를 다운로드할 때, 최신 스크립트인 메인 브랜치의 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) 를 사용해주시기 바랍니다. 불편을 끼쳐드려 죄송합니다.

전체 매개변수 파인 튜닝은 모델의 모든 매개변수를 업데이트합니다. GPT-2의 전체 매개변수 파인 튜닝의 예시는 아래와 같습니다:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -94,8 +91,6 @@ cd data && ./download.sh alpaca && cd -
```

### Fine-Tuning (LISA)
> [!IMPORTANT]
> 최근에 데이터 저장 서버에 일부 문제가 발생했습니다. 데이터를 다운로드할 때, 최신 스크립트인 메인 브랜치의 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) 를 사용해주시기 바랍니다. 불편을 끼쳐드려 죄송합니다.
[LISA](https://arxiv.org/abs/2403.17919) 는 **메모리 효율적인(memory-efficient)** 파인 튜닝 알고리즘이며, 메모리와 무작위로 해동하는 레이어 수 사이의 균형을 가능하게 합니다. 아래 스크립트는 현재 **단일 GPU** 에서만 테스트되었습니다. 최신 업데이트에 주목해 주세요! :smile:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -109,9 +104,6 @@ cd data && ./download.sh alpaca && cd -
```

### Fine-Tuning (LoRA)
> [!IMPORTANT]
> 최근에 데이터 저장 서버에 일부 문제가 발생했습니다. 데이터를 다운로드할 때, 최신 스크립트인 메인 브랜치의 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh) 를 사용해주시기 바랍니다. 불편을 끼쳐드려 죄송합니다.

LoRA는 전체 매개변수 미세 조정보다 더 효율적인 매개변수 효율적인 미세 조정 알고리즘입니다.
```sh
cd data && ./download.sh alpaca && cd -
Expand Down
9 changes: 0 additions & 9 deletions readme/README_zh-hans.md
Original file line number Diff line number Diff line change
Expand Up @@ -74,9 +74,6 @@ bash install.sh
请参考我们的 [官方文档(英文版)](https://optimalscale.github.io/LMFlow/examples/DATASETS.html)。官方文档正在汉化中,请耐心等待。

### 微调(全参数)
> [!IMPORTANT]
> 近期我们的数据存储服务器遇到了一些问题。当下载数据时,请确保使用main分支中最新的脚本 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh)。给您带来的不便敬请谅解。

全参数微调将更新模型的所有参数。全参数微调GPT-2的示例如下:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -88,9 +85,6 @@ cd data && ./download.sh alpaca && cd -
```

### 微调(LISA)
> [!IMPORTANT]
> 近期我们的数据存储服务器遇到了一些问题。当下载数据时,请确保使用main分支中最新的脚本 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh)。给您带来的不便敬请谅解。

[LISA](https://arxiv.org/abs/2403.17919) 是一种 **内存高效(memory-efficient)** 的微调算法,它允许在内存和随机解冻的层数之间进行权衡。下面的脚本目前仅在 **单个GPU** 上进行了测试。请关注我们的最新更新! :smile:
```sh
cd data && ./download.sh alpaca && cd -
Expand All @@ -104,9 +98,6 @@ cd data && ./download.sh alpaca && cd -
```

### 微调(LoRA)
> [!IMPORTANT]
> 近期我们的数据存储服务器遇到了一些问题。当下载数据时,请确保使用main分支中最新的脚本 [`download.sh`](https://github.com/OptimalScale/LMFlow/blob/main/data/download.sh)。给您带来的不便敬请谅解。

LoRA 是一种比全参数微调更为高效的 **参数高效(parameter-efficient)** 微调算法。
```sh
cd data && ./download.sh alpaca && cd -
Expand Down
0