Work参照

HuggingFace llm 使い方

ローカルにインストール

from transformers import pipeline

HuggingFace llm ローカルにインストール

HuggingFace llm ダウンロード

Follow me!

Work参照” に対して2件のコメントがあります。

  1. ponlon2000 より:

    ★Hugging FaceのモデルをLangChainで使う方法を調べた
    https://www.mattari-benkyo-note.com/2023/05/19/langchain_hugging_face/

    ★LangChainにオープンな言語モデルを組み込んでアレコレしてみる (2) ~LangChain×オープンな言語モデル×GPU~
    https://qiita.com/sakue_103/items/8b32059629c01d0d27f2

    https://note.com/tachanwan/n/na2bc8e194da0

    ★CyberAgentの日本語LLMを動かしてみる
    https://qiita.com/Yuki-Imajuku/items/c58638008c923ae295d9

    Hugging FaceのモデルをLangChainで使う方法を調べた
    https://www.mattari-benkyo-note.com/2023/05/19/langchain_hugging_face/

    話題の ChatGPT + LangChain で、膨大な PDF ドキュメントの内容を爆速で把握する
    https://qiita.com/hiroki_okuhata_int/items/7102bab7d96eb2574e7d

    Falcon-7B で LangChain を試す
    https://note.com/npaka/n/ndbaacd1a1c42

    ——————————————————————-
    ★複数のLLMモデルファイルを保存しておいて、いちいちHuggingFaceからDLしなくて済むようにする
    https://qiita.com/takumayagi/items/e5d0e3e1a30ddbf41d1f

    Transformersの事前学習済みモデルをダウンロードして保存する
    https://hironsan.hatenablog.com/entry/how-to-download-transformers-pretrained-models

    ——————————————————————-
    フリーで使える日本語の主な大規模言語モデル(LLM)まとめ
    https://github.com/llm-jp/awesome-japanese-llm

    【Zephyr 7B Alpha】HuggingFaceがLlama 2を超えるLLMを出したので、比較レビューしてみた
    https://weel.co.jp/media/zephyr-7b-alpha#index_id3

    Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました
    https://note.com/elyza/n/na405acaca130

    rinna、日英バイリンガル大規模言語モデルをオープンソースで公開
    https://rinna.co.jp/news/2023/07/20230731.html

    ——————————————————————-

    AIプラットフォーム「Hugging Face」の使い方を解説
    https://zenn.dev/novel_techblog/article
    s/362fceec01c8b1

    Hugging Face Pipelineを使ったお手軽AIプログラミング
    https://eng-blog.iij.ad.jp/archives/17980

    ★パイプラインを直接渡すことによる HuggingFacePipeline の使用に関する問題
    https://github.com/langchain-ai/langchain/issues/8280

    ——————————————————————-

    OpenCALMをLoRAでファインチューニング
    https://zenn.dev/tk1/articles/071fc9e5493c66

    LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較
    https://note.com/sharp_engineer/n/ne9c667a01d0e

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

前の記事

LangChain X open-calm

次の記事

LLM作業:雑感