/
/
/
LiteLLM(旧Berri)
Berri
「LiteLLM(旧Berri)」を開く

LiteLLM(旧Berri)

100以上のLLMプロバイダーに統一APIでアクセスできるオープンソースのLLMゲートウェイ/プロキシ。OpenAI互換フォーマットで切り替え・管理が簡単。

コミュニティに参加しよう

あなたの声が他のユーザーの参考になります

X(Twitter)ポスト投稿

LiteLLM(旧Berri)に関する投稿をシェアして、
作品や体験談をコミュニティで共有しましょう
1

Xで投稿

2

URLをコピー

3

貼り付け完了

この機能は現在準備中です

💡 例:作品紹介、活用事例、使ってみた感想、便利な使い方など
#Skywork #AI #生産性向上

質問・相談投稿

LiteLLM(旧Berri)について分からないことや
使い方の相談を気軽に投稿してください

💡 匿名で投稿可能です
コミュニティメンバーや運営チームが回答します

「LiteLLM(旧Berri)」とは?

LiteLLM(旧Berri)とは?

LiteLLMは、OpenAI・Anthropic・Google Gemini・AWS Bedrockなど100以上のLLM(大規模言語モデル)を、同じコードで呼び出せるようにするオープンソースのAIゲートウェイです。もともと「Berri AI」という名前でサービスを展開していたチームが開発しており、現在はGitHubで3.7万以上のスターを獲得しています。

「複数のAIモデルを使い分けたいけど、APIの仕様がバラバラで面倒」という問題を解決するのがLiteLLMの役割です。OpenAIのAPIフォーマットに統一することで、モデルを切り替えてもコードをほとんど変えずに済みます。たとえばOpenAI GPT-4oで動いているアプリをAnthropicのClaudeに切り替えたい場合、呼び出す先を変えるだけで対応できます。

100+

対応LLMプロバイダー数

37,600+

GitHubスター数

8ms

P95レイテンシ(1k RPS時)

MIT

オープンソースライセンス

LiteLLMは大きく2つの形で使えます。ひとつはPython SDKとして自分のコードに組み込む方法、もうひとつはプロキシサーバー(AIゲートウェイ)としてチーム全体のリクエストを一元管理する方法です。この記事では主にエンジニア・開発チーム向けのプロキシサーバーとしての使い方を中心に解説します。

\ オープンソースで無料から始められる /

LiteLLM公式サイトへ

※MITライセンスで自由に利用可能。GitHubからすぐに使い始めることができます

LiteLLMの主な機能

LiteLLMが提供する機能は、AIを使ったアプリを開発・運用するエンジニアや、複数チームにLLMを提供するプラットフォームチームを主な対象として設計されています。

統一APIインターフェース

OpenAI・Anthropic・Google VertexAI・AWS Bedrock・Groq・Mistralなど100以上のプロバイダーを、OpenAIフォーマットの単一APIで呼び出せます。モデル切り替えに必要なコード変更が最小限になります。

ロードバランシングとフォールバック

複数のモデルやAPIキーにリクエストを分散し、あるプロバイダーがダウンした場合に自動で別のプロバイダーに切り替えます。本番環境でのAI障害リスクを下げられます。

仮想キーとアクセス管理

チームや用途ごとに仮想APIキーを発行できます。開発者には特定モデルだけ、テスト環境には予算上限付きキーを配布する、といった細かい管理が可能です。

コスト追跡・予算管理

各キー・ユーザー・チームごとのAPIコストをリアルタイムで記録します。月次予算の上限設定や、特定チームの使いすぎアラートにも対応します。

レート制限

1分あたりのリクエスト数(RPM)やトークン数(TPM)を制限できます。特定のチームが大量リクエストを出してシステム全体を圧迫するのを防げます。

ログ・モニタリング連携

Langfuse・LangSmith・Datadog・S3・OpenTelemetryなど主要な可観測性ツールへのログ送信に対応しています。どのモデルをどれだけ使ったか、エラー率がどうかを把握できます。

とくに注目したいのはフォールバック機能です。たとえば「GPT-4oへのリクエストが失敗したらClaude 3.5 Sonnetに切り替える」という設定を数行で書けます。プロバイダーの障害がそのままサービス障害につながるリスクを減らせるのは、本番環境では大きなメリットです。

Python SDKとしての使い方(具体例)

LiteLLMをPython SDKとして使う最もシンプルな例はこちらです。OpenAI・Anthropic・Geminiをほぼ同じコードで呼び出せます。

# pip install litellm でインストール
from litellm import completion

# OpenAI GPT-4o を呼び出す
response = completion(model=”gpt-4o”, messages=[{“role”: “user”, “content”: “こんにちは”}])

# Anthropic Claude に切り替えたい場合はmodelを変えるだけ
response = completion(model=”claude-3-5-sonnet-20241022″, messages=[{“role”: “user”, “content”: “こんにちは”}])

# Google Gemini も同じフォーマット
response = completion(model=”gemini/gemini-2.0-flash”, messages=[{“role”: “user”, “content”: “こんにちは”}])

モデル名を変えるだけで切り替えられるため、「まずOpenAIで試してコストが高ければGeminiに移す」といった実験がしやすいです。

\ GitHubで詳しいドキュメントを確認する /

LiteLLM公式サイトへ

※ドキュメントはdocs.litellm.aiで公開されています

LiteLLMの料金

LiteLLMはオープンソース(MITライセンス)なので、自分でサーバーに立てて使う分には無料です。ただし「無料=コストゼロ」ではなく、インフラ費用や運用コストが別途かかる点は把握しておく必要があります。

プラン ソフトウェア費用 主な内容 対象
オープンソース無料 $0 統一API・仮想キー管理・予算追跡・ロードバランシング・フォールバック・レート制限・ログ連携 個人・小規模チーム
Enterprise Basic $250/月〜 Prometheusメトリクス・LLMガードレール・JWT認証・SSO(5人超)・監査ログ 中規模チーム
Enterprise Premium $30,000/年〜 Enterprise Basic全機能+優先サポート・カスタム開発・SLA保証 大規模組織

インフラ費用について

プロキシサーバーとして本番運用するには、PostgreSQL(ログ・キー管理用)とRedis(レート制限・キャッシュ用)のデータベースが必要です。AWSやGCPのマネージドサービスを使う場合、データベース費用だけで月$100〜$400程度かかるのが一般的です。ソフトウェアは無料でも、インフラ・運用コストは別計算になります。

SSOのポリシーについて

よく確認されるのがSSOの扱いです。LiteLLMはSSO(シングルサインオン)を5人までは無料で使えますが、6人以上になるとEnterprise Basicライセンスが必要になります。また、RBAC(役割ベースのアクセス制御)の詳細設定や監査ログもEnterprise機能です。チームが大きくなった段階でコストが変わる点は事前に把握しておくと良いでしょう。

機能 オープンソース Enterprise Basic
統一APIアクセス(100+プロバイダー) あり あり
仮想キー管理・予算追跡 あり あり
ロードバランシング・フォールバック あり あり
SSO 5人まで 制限なし
RBAC(細かいアクセス制御) 基本のみ フル
監査ログ なし あり
LLMガードレール なし あり
サポート コミュニティのみ 専用Slackチャンネル

こんな人におすすめ

LiteLLMはエンジニアが中心のツールです。コードを書かずに使うGUIツールではなく、自分でセットアップして運用する前提で設計されています。

複数のLLMをコードから使い分けたいエンジニア
チームにAIのAPIアクセスをまとめて提供したいプラットフォームチーム
AIのコストをモデル・チーム別に把握したい開発マネージャー
特定プロバイダーへの依存を避けてベンダーロックインをなくしたい組織
オンプレミスや自社環境にAIゲートウェイを構築したい企業

逆に、ノーコードツールを探している方やAIをプログラムから使わない方には向いていません。「ChatGPTに話しかけたい」という用途に使うツールではなく、AIを組み込んだシステムを作る側の人向けのインフラツールです。

活用シナリオの例

社内で10チームがそれぞれ別のLLMを使っているとします。全チームのAPIキーをLiteLLMプロキシに集約し、チームごとに仮想キーと月次予算上限を設定します。チームAがGPT-4oを使いすぎた場合も、他チームのレートに影響が出ません。月末に管理者がダッシュボードでチーム別コストをまとめてレビューできる、といった使い方が想定されます。

注意点

LiteLLMは機能が豊富ですが、使い始める前に把握しておきたい制約があります。

知っておきたいこと

  • セルフホストが前提:LiteLLMはSaaSではなく、自分でサーバーに立てて管理します。本番稼働にはDockerやKubernetes環境、PostgreSQL・Redisの運用知識が必要です。インフラ管理が自社のエンジニアリソースを使う点は事前に確認してください
  • SLAは自前で確保する必要がある:オープンソース版は99.99%のアップタイム保証などのSLAはありません。高可用性が必要な場合、冗長構成を自力で組む必要があります。Enterprise Premiumでは対応可能です
  • コミュニティサポートのみ(無料版):バグや設定の問題が起きた場合、公式の返答保証はありません。GitHubのIssueやDiscordで対応を探すことになります
  • 大量リクエスト時にレイテンシが増える場合がある:ベンチマーク上は8ms P95を達成していますが、PostgreSQLへの書き込みが絡む処理(コスト記録など)はスループットに影響することがあります
  • モデルのホスティングは含まない:LiteLLMはプロキシ・ルーティングツールであり、LLM自体をホストする機能はありません。vLLMやOllamaなど別のツールと組み合わせて使います

マネージドサービスとの比較

インフラ管理が負担になる場合、LiteLLMの管理をフルに引き受けるマネージドオプション(Hosted LiteLLM Proxy)も提供されています。ただしこちらはEnterpriseプランの範囲で、価格はカスタム見積もりになります。TrueFoundryやPortkeyなど、LiteLLMの代替となるマネージドゲートウェイサービスも存在するので、運用コストとトレードオフを比較してから選択するのが現実的です。

まとめ

LiteLLM(旧Berri)は、100以上のLLMプロバイダーを統一フォーマットで使えるようにするオープンソースのAIゲートウェイです。

「複数のAIモデルをコードから使い分けたい」「チーム全体のAPI使用コストを把握したい」「ベンダーロックインを避けたい」という課題を持つ開発チームには、自分でセットアップできる環境さえあれば有力な選択肢になります。GitHub上での採用実績も多く、コミュニティも活発です。

一方、セットアップと運用に一定の技術力が必要で、SaaSツールのように「登録してすぐ使える」ものではありません。チームのインフラ運用リソースと照らし合わせて、自前でホストするか、マネージドサービスを使うかを判断してから導入を検討してみてください。

\ オープンソースで試してみる /

LiteLLM公式サイトはこちら

※MITライセンスで無料公開中。ドキュメントはdocs.litellm.aiで確認できます

「LiteLLM(旧Berri)」を使ってみる

「LiteLLM(旧Berri)」の関連記事

「LiteLLM(旧Berri)」の関連記事

関連AIツール

×
目次
上部へスクロール
AIツールギャラリーへのフルアクセスをお楽しみください!