「Hugging Face モデル 使い方 入門」AI開発のGitHubを徹底解説
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
Hugging Faceは、2026年5月現在、AIモデル、データセット、デモアプリを共有・利用するための世界最大級のオープンソースプラットフォームです。AI開発における事実上の**「GitHub」**として機能し、特に自然言語処理(NLP)分野を中心に、画像認識、音声処理など多岐にわたるAIモデルが公開されています。本記事では、Hugging Faceモデルの基本的な使い方をステップバイステップで解説します。
Hugging Faceとは?AI開発の「GitHub」
Hugging Faceは、単なるモデルの宝庫ではありません。AIモデル、データセット、そしてSpacesと呼ばれるデモアプリケーションをホストし、コミュニティで共有・コラボレーションするためのエコシステム全体を提供しています。このプラットフォームの核となるのが、Transformersライブラリです。これは、著名な事前学習済みモデル(BERT, GPT-2, T5など)を簡単にダウンロードし、利用できるように設計されたPythonライブラリです。
Hugging Face Hubには、2026年5月時点で50万以上のモデルが公開されており、様々なタスクに対応したモデルを検索・利用できます。
モデル利用の準備:環境構築と基本ライブラリ
Hugging Faceモデルをローカル環境で利用するには、Pythonと主要なライブラリのインストールが必要です。
1. Python環境の準備
推奨されるPythonバージョンは3.9以上です。仮想環境の利用を強く推奨します。
python -m venv huggingface_env
source huggingface_env/bin/activate # macOS/Linux
# huggingface_env\Scripts\activate # Windows
2. Transformersライブラリのインストール
Hugging Faceモデルの利用には、transformersライブラリが必須です。また、モデルのバックエンドとしてPyTorchまたはTensorFlowのいずれかが必要です。ここではPyTorchを例に挙げます。
pip install transformers==4.38.0 torch
💡 ポイント:
transformersのバージョンを固定することで、将来的な互換性の問題を避けることができます。この記事では2026年5月時点の安定版を想定し、バージョン4.38.0としています。
⚠️ 注意: GPUを利用する場合は、PyTorchのインストール時にCUDA対応版を選択する必要があります。詳細はPyTorchの公式ドキュメントを参照してください。
実践!Hugging Faceモデルを使った推論
Hugging Faceモデルを使って推論を行う最も簡単な方法は、**パイプライン(pipeline)**機能を利用することです。
ステップ1:パイプラインの初期化
pipeline関数は、特定のタスク(例:感情分析、テキスト生成、翻訳など)に特化したモデルと前処理器を自動的にロードし、使いやすいインターフェースを提供します。
from transformers import pipeline
# 感情分析パイプラインを初期化
# デフォルトで "distilbert-base-uncased-finetuned-sst-2-english" モデルが使用されます。
sentiment_analyzer = pipeline("sentiment-analysis")
ステップ2:モデルを使った推論
初期化したパイプラインにテキストを入力するだけで、簡単に推論結果が得られます。
text_to_analyze = "Hugging Face models are incredibly powerful and easy to use!"
result = sentiment_analyzer(text_to_analyze)
print(result)
# 出力例: [{'label': 'POSITIVE', 'score': 0.9998789429664612}]
複数のテキストを一度に処理することも可能です。
texts = [
"I love this product, it's amazing!",
"This movie was really boring and disappointing."
]
results = sentiment_analyzer(texts)
for text, res in zip(texts, results):
print(f"Text: '{text}' -> Label: {res['label']}, Score: {res['score']:.4f}")
# 出力例:
# Text: 'I love this product, it's amazing!' -> Label: POSITIVE, Score: 0.9999
# Text: 'This movie was really boring and disappointing.' -> Label: NEGATIVE, Score: 0.9997
ステップ3:別のモデルを指定する
pipeline関数は、デフォルトモデル以外にも、Hugging Face Hubで公開されている任意のモデルを指定して利用できます。例えば、日本語の感情分析モデルを使いたい場合:
# 日本語感情分析モデル(例: cardiffnlp/twitter-xlm-roberta-base-sentiment-japanese)
# モデルのダウンロードには時間がかかる場合があります。
japanese_sentiment_analyzer = pipeline("sentiment-analysis", model="cardiffnlp/twitter-xlm-roberta-base-sentiment-japanese")
japanese_text = "この製品は本当に素晴らしいです!"
japanese_result = japanese_sentiment_analyzer(japanese_text)
print(japanese_result)
# 出力例: [{'label': 'Positive', 'score': 0.99824}]
⚠️ 注意: モデルによっては数GBのサイズがあり、ダウンロードに時間がかかったり、ローカルストレージを消費したりする場合があります。例えば、
bert-base-uncasedは約440MBです。
さらにHugging Faceを活用するために
1. Hugging Face Hubでのモデル探索
Hugging Face Hubのウェブサイト(huggingface.co/models)では、様々なフィルター(タスク、言語、ライセンスなど)を使って目的のモデルを効率的に検索できます。人気順やダウンロード数順でソートすることも可能です。
2. Hugging Face Spacesの活用
Hugging Face Spacesは、AIモデルを使ったデモアプリケーションを簡単に構築・共有できるプラットフォームです。GradioやStreamlitなどのライブラリを使って、Webアプリを数分でデプロイできます。
| プラン | CPUリソース | RAM | GPUリソース | 特徴 |
|---|---|---|---|---|
| 無料 | 2vCPU | 8GB | なし | 小規模なデモ、学習用 |
| Pro | 8vCPU | 32GB | A10G (1基) | より高性能なデモ、研究開発 |
2026年5月現在、無料プランでも十分なリソースが提供されており、簡単なデモであれば手軽に公開できます。
3. Auth Tokenの利用
Hugging Face Hubの一部のモデルやプライベートリポジトリにアクセスするには、Auth Tokenが必要です。Hugging Faceのウェブサイトでアカウントを作成し、Settings -> Access Tokensからトークンを生成できます。このトークンは、huggingface-cli loginコマンドで設定するか、コード内で直接指定して利用します。
huggingface-cli login
または、Pythonコード内で:
from huggingface_hub import login
login(token="hf_YOUR_TOKEN_HERE")
Hugging Faceは、AI開発を民主化し、誰もが最先端のモデルを利用できる強力なツールです。本記事で紹介した基本的な使い方をマスターし、ぜひご自身のプロジェクトに活用してみてください。