Hugging Face モデル 使い方 入門: `transformers`ライブラリでAIを動かす
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
2026年現在、Hugging Faceは「AI版GitHub」とも称され、オープンソースAI開発のデファクトスタンダードとして、世界中の開発者や研究者に利用されています。特に、Transformerモデルを基盤とした大規模言語モデル(LLM)や画像生成モデルの民主化に大きく貢献しました。Hugging Faceは単なるモデルリポジトリではなく、モデルの共有、データセット、デモアプリ(Spaces)、そして強力なライブラリ群を提供する総合プラットフォームです。本記事では、その核心であるモデルの利用方法に入門します。
Hugging Face transformersライブラリの基本
Hugging Faceのエコシステムで最も重要なのが、Pythonライブラリであるtransformersです。これにより、テキスト、画像、音声など、様々なモダリティに対応した数百種類の事前学習済みモデルを簡単に利用できます。
1. ライブラリのインストール
まず、transformersライブラリと、モデルの実行に必要な深層学習フレームワーク(PyTorchまたはTensorFlow)をインストールします。ここではPyTorchを推奨します。また、accelerateはモデルの高速化とメモリ効率化に役立つため、同時にインストールすることを強くお勧めします。
pip install transformers torch accelerate
💡 ポイント: 2026年6月時点では、
transformersライブラリの最新安定版はv4.x系であり、上記コマンドでインストールされるバージョンがそれに対応しています。accelerateは大規模モデルを効率的に扱うための重要なツールです。
2. pipelineを使ったモデルの利用
transformersライブラリの中でも、最も手軽にモデルを利用できるのが**pipeline**機能です。これは、特定のタスク(テキスト生成、感情分析、画像分類など)のために、モデル、前処理、後処理をまとめて提供する高レベルAPIです。
| 機能 | 説明 |
|---|---|
task |
実行したいタスクの種類(例: text-generation, sentiment-analysis) |
model |
使用するモデルの名前(Hugging Face Hubから自動ダウンロード) |
tokenizer |
テキスト処理用のトークナイザー(モデルとセットで自動ダウンロード) |
実践!Hugging Faceモデルを使ったテキスト生成
それでは、具体的なモデルを使ってテキスト生成を体験してみましょう。ここでは、汎用的なテキスト生成モデルとして広く使われているgpt2モデルを使用します。gpt2モデルは約1.24億のパラメータを持ち、比較的小規模ながら多様なテキスト生成が可能です。
1. テキスト生成パイプラインの初期化と実行
以下のPythonコードを実行することで、gpt2モデルをロードし、指定したプロンプトに基づいてテキストを生成できます。
from transformers import pipeline
# テキスト生成パイプラインの初期化
# 初回実行時には、gpt2モデルとトークナイザーがHugging Face Hubから自動的にダウンロードされます。
generator = pipeline("text-generation", model="gpt2")
# テキスト生成の実行
prompt = "AI技術は私たちの生活をどのように変えるでしょうか?"
results = generator(prompt, max_new_tokens=50, num_return_sequences=1)
print(results[0]['generated_text'])
このコードを実行すると、「AI技術は私たちの生活をどのように変えるでしょうか?」というプロンプトに続くテキストが生成されます。max_new_tokens=50は、生成される新しいトークン(単語や記号の単位)の最大数を50に制限しています。
⚠️ 注意:
max_new_tokensの値を大きくしすぎると、モデルによってはGPUメモリを大量に消費したり、推論に時間がかかったりする可能性があります。例えば、gpt2-large(約7.74億パラメータ)をローカルで実行する場合、最低でも16GB以上のVRAMを持つGPUが推奨されます。利用するモデルの規模とハードウェアリソースを考慮して調整してください。
さらに深く学ぶために:Hugging Faceの活用とエコシステム
Hugging Faceは、transformersライブラリ以外にも、AI開発を強力にサポートする様々なツールとサービスを提供しています。
1. Hugging Face Hubの活用
Hugging Face Hub(huggingface.co)は、モデル、データセット、デモアプリ(Spaces)が公開されているプラットフォームです。2026年6月時点では、Hubには約1,000,000件以上のモデル、100,000件以上のデータセットが登録されています。
- モデルの検索: タスク、言語、ライセンスなどでフィルターをかけて、目的に合ったモデルを効率的に見つけることができます。
- データセット: 大規模な学習済みモデルのファインチューニングに利用できる高品質なデータセットが多数公開されています。
- ライセンス: モデルの商用利用を検討する際は、必ずモデルページに記載されているライセンス(例: Apache 2.0, MIT, CC BY-NC-SAなど)を確認してください。
2. Hugging Face Spaces
Hugging Face Spacesは、AIモデルのデモアプリケーションを簡単にホストできるサービスです。GradioやStreamlitといったライブラリを使って、数分でウェブベースのAIアプリを公開できます。
- 無料枠: CPUベースのインスタンスは無料で利用できます。
- 有料プラン: より高性能なGPUインスタンス(例: NVIDIA T4 GPUインスタンスは月額約$0.60/時間)も利用可能です。これにより、大規模なモデルやリアルタイム処理が必要なアプリケーションもホストできます。
3. Inference API
Hugging Faceは、モデルを自分でデプロイすることなく、API経由で推論を実行できるInference APIも提供しています。これにより、モデルのインフラ管理の手間を省き、すぐに利用を開始できます。
- 料金体系: 小規模な利用であれば無料枠があり、月間10万リクエストまで無料で利用できるモデルもあります。それ以上の利用は従量課金制となり、例えばテキスト生成タスクでは、100万トークンあたり$0.05〜$0.20(モデルによって異なる)といった料金が設定されています。
Hugging Faceは、AI開発を始めるための強力な基盤を提供します。これらのツールとサービスを使いこなすことで、AIの可能性を最大限に引き出すことができるでしょう。