","eos_token":"<|END_OF_TURN_TOKEN|>","pad_token":"","unk_token":null,"use_default_system_prompt":false}},"createdAt":"2024-04-04T03:56:52.000Z","discussionsDisabled":false,"downloads":440,"downloadsAllTime":6963,"id":"Aratako/c4ai-command-r-v01-japanese-instruct","isLikedByUser":false,"inference":"not-popular-enough","lastModified":"2024-04-07T15:18:37.000Z","likes":4,"pipeline_tag":"text-generat
宣伝 Style-Bert-VITS2のチュートリアル解説動画を作りました discordサーバー「AI声づくり研究会」によく出没しています 概要 2024-02-01、音声合成(TTS)の中国発オープンソースのBert-VITS2の日本語特化版のBert-VITS2 JP-Extra がリリースされ、私が作っているそれの改造版 Style-Bert-VITS2 でもJP-Extra版を2/3に使えるようになりました(しました)。 実際にどんな感じかは オンラインのデモ 上で試せるのでぜひお試しください。 これにより日本語の発音やアクセントやイントネーション等の自然性が上がり、クリアさや学習を回していったときのガタツキが大きく減る傾向があります。英語と中国語で音声合成したいという需要がなく日本語しか使わない場合はJP-Extra版を使うことを強くおすすめします。 本稿では、以前の の記事で
「Google Colab」で「AI BunCho」で利用されているモデル「japanese-novel-gpt-j-6b」を試したので、まとめました。 【注意】T4のハイメモリで動作確認しています。 1. japanese-novel-gpt-j-6b「japanese-novel-gpt-j-6b」は、日本初のAI(大規模言語モデル)を使用した創作支援アプリ「AI BunCho」で利用されているモデルです。「GPT-J-6B」をTPUで2週間日本語トークナイザーを用いて日本語データで事前学習し、その後2週間小説データで転移学習したものになります。 3. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」の「T4」の「ハイメモリ」を選択。 (2) パッケージのインストール。 # パッケ
LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog こんにちは。 LINEのNLP Foundation Devチームの清野舜と高瀬翔とoverlastです。 LINEでは2020年11月から日本語に特化した大規模言語モデル「HyperCLOVA」の構築と応用に関わる研究開発に取り組んできましたが、この「HyperCLOVA」と並行するかたちで複数の大規模言語モデルの研究開発プロジェクトが進行しています。 今回はそれらの研究開発プロジェクトのうち、我々を含むMassive LM開発ユニットから、日本語言語モデル「japanese-large-lm(ジャパニーズ ラージ エルエム)」をOSSとして公開できる状況になりましたので、本ブログを通じてお伝えすることにしました。 この記事
⚠️注意今回公開するのはLoRAを用いて作成したLLaMAの日本語化Adapterでありモデル自体ではありません。 LoRAをマージするベースのLLaMAは商用不可であり、今回公開するAdapterで日本語化したモデルも商用利用はできません。 OpneAIの利用規約で、OpenAIサービス、ChatGPTの出力結果を競合モデル開発用途に利用することはできません コンテンツ生成者はできません。 詳細は記事後半で述べていますが利用規約が適用されるのはコンテンツ生成者までです。 概要2022年の11月末にOpenAIからChatGPTが発表されてから、それに追随するようにGoogleからBard、MetaからLLaMAなど大規模言語モデル(LLM)が発表されました。さらにLLaMA 7Bを「text-davinci-003」を用いて「Self-Instruct」で作成された52Kのデータセット(
rinna社、日本語に特化した画像生成モデル「Japanese Stable Diffusion」を公開〜日本語画像生成モデルの公開と画像生成サービスの開始〜 rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン“クリフ”チェン、以下rinna社)は、日本語に特化した画像生成モデル「Japanese Stable Diffusion」を公開します。また、このモデルを用いた画像生成サービスも提供開始します。 ■背景 rinna株式会社は「人とAIの共創世界」をビジョンに掲げ、人と人との間にAIが介在することによる豊かなコミュニケーションを通して、すべての人が自分らしい創造性を発揮できる社会の実現を目指しています。その取り組みの中で、画像などの非言語コミュニケーションを重要視し、かねてよりAIりんなをはじめとしたAIキャラクターが発信する画像生成や、研究成果として学習済みの言語画像モデル
お知らせ: 2022/9/1 CS50 を活用した非営利/協賛企業による「コロナ学生支援」プロジェクトを実施中 ▼ 学生の方へ:CS50 の学習(履修証明書の取得)を一緒に取り組むプロジェクト CS50日本語版の翻訳コントリビューターである CODEGYM が主催する、非営利/無償のプロジェクト「CODEGYM Academy (外部リンク)」は、昨年に続き2022年度(春/秋)も、キャリア選択を控えた学生に対し、以下の企業の協賛により無償で17週間のプログラミング教育カリキュラムを提供します。 CODEGYM Academy 協賛企業(2022年) https://codegym.jp/academy/ 今年度のエントリーは締め切りました — ようこそ! このページは、ハーバード大学 CS50 の日本語版翻訳プロジェクトのページです。当サイトのドメインに掲載されているコンテンツは、Cre
2. ライセンスの確認以下のモデルカードにアクセスして、ライセンスを確認し、「Access Repository」を押し、「Hugging Face」にログインして(アカウントがない場合は作成)、同意します。 4. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」に「GPU」を選択。 (2) 「Stable Diffusion」のインストール。 # パッケージのインストール !pip install diffusers==0.3.0 transformers scipy ftfy(3) トークン変数の準備。 以下の「<HugginFace Hubのトークン>」の部分に、先程取得したHuggingFace Hubのトークンをコピー&ペーストします。 # トークン変数の準備 YOUR_TOKEN="<H
Write Stories, with the Largest Public Japanese AI ever! AIで小説を書こう! AI Novelist is the largest public Japanese storywriting AI, trained from scratch by more than 2TB corpus. You may start from one of the example prompts or start with your own text! Tips: You may want to enter at the least 5-6 lines worth of a seed text to make sure the AI understands the context/genre.
結構真面目に絵の上達議論などをしながら作業通話をしたいので作りました 同じような目標の方を募集してお互いに技術交換などを行って高めていきましょうというテーマです。 絵に関する事で議論したりしながら絵を描きます。 通話中は互いに画面を共有します。(画面共有は任意) 通話への参加は自由ですが、通話参加中はお絵かき関する作業を行ってください。 このグループに入った方は月初めに1ヶ月の目標と、年間の目標、このグループを通して達成したい最終目標の3つを立ててもらいます。 短いスパンの目標をこなしながら大きな目標をクリアしていくというのがこのグループの基本的な方針です。 入れない場合はこちらから https://discord.gg/2nTX6Fbj
お酒に弱い体質の人が増えるよう数千年かけて進化してきた お酒が弱くなった“進化”は、感染症の予防と関係がある 日本人は乾燥した耳垢の人が多いのも“進化”? お酒に関するトラブルが世間を騒がせているが、こんな興味深い研究があるのをご存知だろうか。 日本人の遺伝情報を調べたところ、お酒に弱い体質の人が増えるよう数千年かけて進化してきたことが、理化学研究所などの分析で分かったという。 詳しい原因は不明だが、アルコールに弱い体質が“何らかの理由”で環境への適応に有利に働いたとみられるという。 日本人がお酒に弱い体質の人が増えるよう進化した“何らかの理由”とは何なのか? お酒が飲めない「下戸遺伝子」の研究を行っている、北里大学の太田博樹准教授に話を聞いた。 お酒に弱い遺伝子を持つのは東アジア人 ーー日本人がお酒に弱い体質の人が増えるよう数千年かけて進化した。これにはどのような理由が考えられますか?
Explore the history and culture of Japanese comics beyond the page
Ubuntu 22.04 LTS - 2027年4月までサポート 以下の各ミラーサイトからダウンロードしてください。ファイル名は「ubuntu-ja-22.04-desktop-amd64.iso」です。 富山大学 北陸先端科学技術大学院大学 KDDI 研究所 株式会社アプセル オリジナル版からの変更点 日本語サポートパッケージの収録 日本語をサポートするためのパッケージをすべて含んでいます。これにより、ライブセッションで利用する場合でも各メッセージが日本語化されます。また、日本語の入力も可能です。 unzipの日本語のファイル名対応 unzipで展開するファイルに日本語(シフトJIS)を含むファイル名がついていた場合に、文字化けしない対策を追加しています。 Japanese Teamリポジトリの追加 Japanese Teamのパッケージリポジトリを追加してあります。 その他のバグ対応
2022年03月09日22:30 【朗報】米国務省「日本語は世界一難しい言語でした」→日本人がすごすぎると話題に! Tweet 1: 風吹けば名無し 2022/03/09(水) 12:27:14.78 ID:0cuDkF8O0 外交官などの専門職を養成する米国務省の機関「外務職員局(FSI)」は、 英語話者にとって習得が難しい、または容易な言語を、 習得するまでに必要な時間を基準にランク付けしています。 下のマップは、そのFSIのランキングをもとに作成されたもので (INSIDERによるとRedditユーザーが作成したそうです)、 8段階のカテゴリー(難易度)ごとに各国が色分けされています。 その中で日本(語)は、単独で最高レベルの「カテゴリーV✳︎」。 英語話者にとって世界一難しい言語と考えられています。 2: 風吹けば名無し 2022/03/09(水) 12:27:27.70 ID:0
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く