GLM-4.7 API の使い方:開発者ガイド (2026)
Zhipu AI の最新モデルをアプリケーションに統合する
Hyperealで構築を始めよう
Kling、Flux、Sora、Veoなどに単一のAPIでアクセス。無料クレジットで開始、数百万規模まで拡張可能。
クレジットカード不要 • 10万人以上の開発者 • エンタープライズ対応
GLM-4.7 API の使い方:開発者ガイド (2026年版)
GLM-4.7 は、中国を代表する AI 企業のひとつである Zhipu AI が提供する最新の大型言語モデルです。欧米のモデルに匹敵するパフォーマンスを大幅に低い価格で提供しており、コストを重視するアプリケーションを構築する開発者にとって魅力的な選択肢となっています。このガイドでは、GLM-4.7 API をプロジェクトに統合するために必要なすべてを解説します。
GLM-4.7 とは?
GLM-4.7 は、Zhipu AI(ChatGLM または BigModel としても知られる)によって開発された汎用大型言語モデルです。GLM (General Language Model) ファミリーは、独自の「自己回帰ブランク埋め込み(autoregressive blank-filling)」アーキテクチャを採用しており、GPT スタイルのデコーダー専用アプローチとは一線を画しています。
GLM-4.7 モデルのバリエーション
| モデル | パラメータ数 | コンテキストウィンドウ | 最適な用途 |
|---|---|---|---|
| GLM-4.7 | 非公開(大型) | 128K トークン | 複雑な推論、長文読解 |
| GLM-4.7-Flash | 非公開(小型) | 128K トークン | 高速応答、高スループット |
| GLM-4.7-Vision | 非公開 | 128K トークン | テキスト + 画像理解 |
| GLM-4.7-Code | 非公開 | 32K トークン | コード生成と解析 |
パフォーマンスベンチマーク
| ベンチマーク | GLM-4.7 | GPT-4o | Claude Sonnet 4 | Gemini 2.0 Flash |
|---|---|---|---|---|
| MMLU | 87.2 | 88.7 | 88.4 | 85.1 |
| HumanEval | 85.4 | 90.2 | 92.0 | 84.1 |
| MATH | 68.1 | 76.6 | 73.8 | 70.2 |
| MT-Bench | 9.1 | 9.3 | 9.2 | 8.8 |
GLM-4.7 はほとんどのベンチマークで競争力があり、特に中国語のタスクにおいては、多くの欧米モデルを凌駕する優れた性能を発揮します。
ステップ 1: Zhipu AI アカウントの作成
- open.bigmodel.cn (Zhipu AI の開発者プラットフォーム) にアクセスします。
- Register をクリックし、メールアドレスでアカウントを作成します。
- メールの認証を完了させます。
- ダッシュボードの API Keys に移動します。
- Create API Key をクリックし、キーをコピーします。
注: プラットフォームのインターフェースは中国語と英語の両方で利用可能です。新規アカウントには通常、テスト用の無料クレジットが付与されます。
ステップ 2: SDK のインストール
Python SDK
pip install zhipuai
Node.js / TypeScript
GLM API は OpenAI 互換のフォーマットを採用しているため、カスタムのベース URL を指定して OpenAI SDK を使用できます。
npm install openai
直接 HTTP(SDK 不要)
API は標準的な REST エンドポイントを使用しているため、curl や任意の HTTP クライアントを使用することも可能です。
ステップ 3: 初めての API コール
Python (公式 SDK)
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="your-api-key-here")
response = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain the difference between REST and GraphQL APIs."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)
Python (OpenAI 互換)
from openai import OpenAI
client = OpenAI(
api_key="your-zhipu-api-key",
base_url="https://open.bigmodel.cn/api/paas/v4/"
)
response = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Write a Python function to merge two sorted arrays."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)
Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-zhipu-api-key",
baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});
async function main() {
const response = await client.chat.completions.create({
model: "glm-4.7",
messages: [
{ role: "system", content: "You are a helpful coding assistant." },
{ role: "user", content: "Write a TypeScript function that debounces any function." },
],
temperature: 0.7,
max_tokens: 1024,
});
console.log(response.choices[0].message.content);
}
main();
cURL
curl https://open.bigmodel.cn/api/paas/v4/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "glm-4.7",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "What is quantum computing?"}
],
"temperature": 0.7,
"max_tokens": 1024
}'
ステップ 4: ストリーミングレスポンス
リアルタイムの出力を得るには、ストリーミングを有効にします。
Python
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="your-api-key")
stream = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "user", "content": "Write a detailed guide on Docker networking."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
Node.js
const stream = await client.chat.completions.create({
model: "glm-4.7",
messages: [{ role: "user", content: "Explain Kubernetes pods in detail." }],
stream: true,
});
for await (const chunk of stream) {
const content = chunk.choices[0]?.delta?.content || "";
process.stdout.write(content);
}
ステップ 5: Vision (画像理解)
GLM-4.7-Vision モデルを使用して画像を分析します。
import base64
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="your-api-key")
# 画像を読み込んでエンコード
with open("diagram.png", "rb") as f:
image_base64 = base64.b64encode(f.read()).decode("utf-8")
response = client.chat.completions.create(
model="glm-4.7-vision",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Describe this architecture diagram and identify any potential issues."
},
{
"type": "image_url",
"image_url": {
"url": f"data:image/png;base64,{image_base64}"
}
}
]
}
]
)
print(response.choices[0].message.content)
画像の URL を直接渡すこともできます。
response = client.chat.completions.create(
model="glm-4.7-vision",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "What is in this image?"},
{
"type": "image_url",
"image_url": {"url": "https://example.com/photo.jpg"}
}
]
}
]
)
ステップ 6: Function Calling (ツール利用)
GLM-4.7 は、エージェント型アプリケーションを構築するための Function Calling をサポートしています。
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get the current weather for a given city",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "The city name, e.g. 'Beijing'"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"],
"description": "Temperature unit"
}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "user", "content": "What is the weather like in Shanghai today?"}
],
tools=tools,
tool_choice="auto"
)
# モデルが関数を呼び出したいかチェック
message = response.choices[0].message
if message.tool_calls:
tool_call = message.tool_calls[0]
print(f"Function: {tool_call.function.name}")
print(f"Arguments: {tool_call.function.arguments}")
API リファレンス
エンドポイント
| エンドポイント | メソッド | 説明 |
|---|---|---|
/v4/chat/completions |
POST | チャット補完(テキストおよびビジョン) |
/v4/embeddings |
POST | テキスト埋め込み |
/v4/files |
POST | コンテキスト用ファイルのアップロード |
/v4/fine-tuning/jobs |
POST | ファインチューニングジョブの作成 |
/v4/images/generations |
POST | 画像生成 (CogView) |
リクエストパラメータ
| パラメータ | 型 | デフォルト | 説明 |
|---|---|---|---|
model |
string | 必須 | モデル ID (glm-4.7, glm-4.7-flash など) |
messages |
array | 必須 | 会話メッセージ |
temperature |
float | 0.95 | サンプリング温度 (0.0 - 1.0) |
top_p |
float | 0.7 | 核サンプリング(Nucleus sampling)パラメータ |
max_tokens |
integer | 1024 | 最大応答長 |
stream |
boolean | false | ストリーミングの有効化 |
tools |
array | null | ツール利用のための関数定義 |
tool_choice |
string | "auto" | ツール選択戦略 |
価格
GLM-4.7 の価格設定は、最大の利点のひとつです。
| モデル | 入力 (100万トークンあたり) | 出力 (100万トークンあたり) |
|---|---|---|
| GLM-4.7 | $0.50 | $1.50 |
| GLM-4.7-Flash | $0.05 | $0.15 |
| GLM-4.7-Vision | $0.60 | $1.80 |
| GLM-4.7-Code | $0.40 | $1.20 |
コスト比較
| モデル | 入力コスト | 出力コスト | GLM-4.7 との比較 |
|---|---|---|---|
| GLM-4.7 | $0.50/1M | $1.50/1M | -- |
| GPT-4o | $2.50/1M | $10.00/1M | 5〜7倍高価 |
| Claude Sonnet 4 | $3.00/1M | $15.00/1M | 6〜10倍高価 |
| Gemini 2.0 Flash | $0.075/1M | $0.30/1M | 約50%安価 (Flash) |
コストに敏感なアプリケーションにおいて、GLM-4.7-Flash は入力 100 万トークンわずか 0.05 ドルという、極めて強力な価格競争力を持っています。
ベストプラクティス
1. タスクに適したモデルを選択する
# 複雑な推論には GLM-4.7 を使用
complex_response = client.chat.completions.create(
model="glm-4.7",
messages=[{"role": "user", "content": "Analyze this legal document..."}]
)
# 単純で大量のタスクには GLM-4.7-Flash を使用
simple_response = client.chat.completions.create(
model="glm-4.7-flash",
messages=[{"role": "user", "content": "Classify this email as spam or not spam."}]
)
2. 128K のコンテキストウィンドウを活用する
GLM-4.7 は最大 128K トークンのコンテキストをサポートしています。以下の用途に活用してください。
- 文書を分割せずに長文を分析する
- すべての履歴を含めたマルチターンの会話
- 大規模なコードベースを一度のリクエストで処理する
3. エラー処理を適切に行う
from zhipuai import ZhipuAI, APIError, RateLimitError
client = ZhipuAI(api_key="your-api-key")
try:
response = client.chat.completions.create(
model="glm-4.7",
messages=[{"role": "user", "content": "Hello"}]
)
except RateLimitError:
print("レート制限に達しました。時間を置いて再試行してください。")
except APIError as e:
print(f"API エラー: {e.status_code} - {e.message}")
4. 中国語タスクへの最適化
GLM-4.7 は特に中国語処理に長けています。中国語ユーザーを対象としたアプリケーションであれば、GPT-4o や Claude を凌駕する可能性があります。
response = client.chat.completions.create(
model="glm-4.7",
messages=[
{"role": "system", "content": "あなたはプロの中国語コピーライターです。"},
{"role": "user", "content": "中国の若手ビジネスパーソンをターゲットにした、新しいスマートフォンの発売イベント用のマーケティングコピーを書いてください。"}
]
)
制限事項
- 国際的なレイテンシ: サーバーは主に中国にあるため、アジア以外の地域のユーザーはレイテンシが高くなる可能性があります。
- コンテンツフィルタリング: 中国の AI モデルは、中国の規制に沿った厳格なコンテンツモデレーションが適用されます。
- ドキュメント: 主要なドキュメントは中国語ですが、英語のドキュメントも提供されており、改善が進んでいます。
- エコシステム: OpenAI や Anthropic のモデルと比較すると、サードパーティの統合ツールがまだ少ない傾向にあります。
結論
GLM-4.7 は、高いパフォーマンスとアグレッシブな価格設定を兼ね備えており、AI アプリケーションを構築するすべての開発者にとって、一考の価値がある選択肢です。特に、中国語圏向けの市場や、コスト効率を重視するプロジェクトには最適です。OpenAI 互換の API 形式を採用しているため、GPT-4 からの移行であっても統合は非常にスムーズです。
LLM ワークフローと並行して、ビデオ作成、トーキングアバター、音声合成などの AI によるメディア生成が必要な開発者の場合、Hypereal AI が最新の生成型 AI モデルへの手頃な従量課金制 API アクセスを提供しています。これにより、あらゆるアプリケーションに視覚的・音声的な AI 機能を簡単に追加できます。
