2026年オンプレミス生成AI完全ガイド
Blackwell世代GPU・最新オープンモデル・ハイブリッドAIで実現するセキュアな企業AI基盤
2026年、オンプレミス生成AIを取り巻く環境は大きく変化しました。NVIDIA Blackwell世代GPUの登場、DeepSeekやLlama 4などの高性能オープンモデルの台頭、そしてNIMやOllamaによるローカル推論の手軽さ向上により、企業が自社環境でAIを運用するハードルは着実に下がっています。本記事では、最新のハードウェア・ソフトウェア・モデル動向を踏まえ、オンプレミス生成AIの戦略的意義から技術要件、導入事例までを包括的に解説します。
オンプレミス生成AIの概要と戦略的価値
オンプレミス生成AIとは
オンプレミス生成AIとは、大規模言語モデル(LLM)や画像生成モデルなどの生成AIモデルを、サードパーティのクラウドサービスに依存せず、組織自身の物理的なインフラストラクチャ内で展開・運用する形態を指します。このアプローチにより、企業はハードウェア、ソフトウェア、データフロー、モデルアクセス、システムセキュリティの全てにおいて完全なコントロールを掌握できます。
2026年現在、DeepSeekやLlama 4など高性能なオープンモデルの急速な進化により、クラウドAPIに頼らず自社環境で実用レベルのAIを動かせるようになった点が、オンプレミス生成AIへの注目をさらに高めています。
クラウドとの主な違い
| 項目 | オンプレミス | クラウド |
|---|---|---|
| データ管理 | 自社内で完全制御 | プロバイダーに依存 |
| 初期コスト | 高額(ハードウェア購入) | 低額(サブスクリプション) |
| 運用コスト | 長期的に低減可能 | 利用量に応じて増加 |
| カスタマイズ性 | 高い(自由な構成) | 制限あり |
| スケーラビリティ | 物理的制約あり | 柔軟な拡張 |
| セキュリティ | 自社で主導管理 | プロバイダー依存 |
| レイテンシ | 低遅延(社内ネットワーク) | ネットワーク依存 |
AIソブリニティの重要性
多くの企業がオンプレミスを選択する背景には、「AIソブリニティ(AIにおける主権)」とも呼べる、自社のAIモデル、データ、運用の将来に対する完全なコントロールを掌握したいという戦略的意図が存在します。これは単なる規制遵守やセキュリティ確保を超えた、より根源的な動機です。
2026年に入り、各国で生成AI規制の具体化が進む中、データの越境移転リスクやAIモデルのブラックボックス性に対する懸念が高まっており、AIソブリニティの確保はますます経営課題としての重要性を増しています。
IDCの調査によると、企業の70-80%が毎年何らかのデータをパブリッククラウドから自社環境に戻しており、Nutanixの調査では85%の組織がクラウドベースのワークロードの最大半分をオンプレミスハードウェアに戻していると報告されています。生成AIの普及に伴い、この傾向はさらに加速しています。
オンプレミス生成AIの利点と課題
主要な利点
データは組織の管理下にあるファイアウォール内の信頼された環境に留まり、外部への露出が最小限に抑えられます。医療、金融、防衛といった機密性の高いデータを扱う業界や、GDPR、HIPAA、CCPAなどの厳格なコンプライアンス要件を持つ業界にとって極めて重要です。
ハードウェアからソフトウェアスタック全体を自社で所有・管理するため、モデル、パイプライン、システム構成を特定のビジネスニーズに合わせてきめ細かくカスタマイズし、既存の社内システムと緊密に統合することが可能です。
初期投資は高額になるものの、大規模かつ高頻度、あるいは継続的な推論ワークロードを実行する場合、トークン単位やリクエスト単位の課金が発生するクラウドサービスと比較して、長期的な運用コストを低く抑えられる可能性があります。DeepSeekの事例が示すように、効率的なモデルとハードウェアの組み合わせにより、従来の想定よりも低コストで高品質なAI推論を実現できるようになっています。
主要な課題
サーバー、高性能GPU、ネットワーク機器、ストレージといったハードウェアの調達、ソフトウェアライセンス、冷却設備(特にBlackwell世代では液冷が推奨)、電源供給、物理スペース確保などのインフラセットアップに多額の初期費用が必要です。
オンプレミスAIインフラとモデルの設計、導入、管理、保守を行うための高度なスキルを持つ人材が必要です。AI分野における専門人材の獲得競争は激しく、採用は困難かつ高コストになる傾向があります。ただし、NVIDIA NIMやOllamaなどのツールにより運用の敷居は徐々に下がっています。
コンテナオーケストレーション、GPUスケジューリング、ネットワーク構成、リソース制限の管理など、複雑なインフラ運用が求められます。システムの稼働時間、スケーラビリティ、セキュリティを確保するには、専門的なDevOpsまたはMLOpsの知識と体制が不可欠です。
最新ハードウェア構成(2026年版)
GPU・AIアクセラレータ
2026年現在、NVIDIAのBlackwell世代GPUが本格展開を開始し、AMD Instinctシリーズも大幅な性能向上を遂げています。用途と予算に応じた幅広い選択肢が利用可能です。
| GPU/アクセラレータ | メーカー | メモリ | 主な用途 |
|---|---|---|---|
| B200 | NVIDIA | 192GB HBM3e | 大規模学習・推論 |
| GB200 NVL72 | NVIDIA | 液冷ラック構成 | 超大規模ワークロード |
| H100 / H200 | NVIDIA | 80GB / 141GB HBM3e | 学習・推論(実績豊富) |
| L40S | NVIDIA | 48GB GDDR6X | 推論特化(コスト効率) |
| Instinct MI300X | AMD | 192GB HBM3 | 大規模学習・推論 |
| Instinct MI325X | AMD | 256GB HBM3e | 超大容量メモリ推論 |
| Gaudi 3 | Intel | 128GB HBM2e | 学習・推論(代替選択肢) |
| RTX 5090 / 5080 | NVIDIA | 32GB / 16GB GDDR7 | 中小規模LLM・PoC |
モデル規模別の推奨構成
| モデル規模 | 推奨GPU | 最小VRAM | 推奨RAM | ストレージ |
|---|---|---|---|---|
| 小規模(1-8B) | RTX 4060/5060以上 | 8GB | 16GB | NVMe SSD |
| 中規模(8-30B) | RTX 4090/5080以上 | 16-24GB | 32GB | NVMe SSD |
| 大規模(30-70B) | A100/H100/MI300X | 40-80GB | 64GB+ | NVMe SSD |
| 超大規模(70B+/MoE) | H100/B200複数またはGB200 | 160GB+ | 256GB+ | 分散NVMe |
ネットワーキング・インフラ
分散学習やストレージとの効率的なデータ転送には、最低10 Gbps、高性能環境では25 Gbps以上の広帯域幅が不可欠です。Blackwell世代GPUでは液冷システムが推奨されており、データセンターの冷却設計も重要な検討事項となっています。安定した電力供給インフラの確保も引き続き重要です。
ソフトウェアスタックと運用ツール
推論エンジン・モデル実行環境
2026年は、エンタープライズ向けのNVIDIA NIMから個人利用のOllamaまで、用途に応じた推論環境の選択肢が大幅に広がりました。
- NVIDIA NIM モデルをコンテナ化されたマイクロサービスとして簡単にデプロイ可能。NVIDIA AI Enterpriseの中核コンポーネントとして、エンタープライズ向けに最適化されたモデル配信を実現
- vLLM PagedAttentionによる効率的メモリ管理とOpenAI互換APIを提供。Continuous batchingの改善により、スループットがさらに向上
- Ollama ローカル環境でのLLM実行を手軽に実現するツール。GGUFフォーマット対応で、量子化モデルの実行に最適。企業でのPoC用途にも広く採用
- LM Studio GUIベースでローカルLLMを実行できるデスクトップアプリ。技術者でなくても直感的にモデルを試せるため、社内評価やプロトタイピングに活用
- Open WebUI ローカルLLM向けのWebインターフェース。ChatGPTライクなUIで社内ユーザーに馴染みやすく、Ollamaとの連携が容易
- Hugging Face TGI 人気モデル対応、テンソル並列処理によるスケーラブルな推論
コンテナ化・オーケストレーション
LLMアプリケーションとその依存関係をポータブルで軽量なコンテナにパッケージ化し、Kubernetesのようなオーケストレーションプラットフォームでデプロイ、スケーリング、管理を自動化します。NVIDIA NIMのコンテナベースアプローチにより、GPUドライバやモデル最適化の設定が大幅に簡素化されています。
MLOps・LLMOpsプラットフォーム
- MLflow 実験追跡、モデルレジストリ、デプロイメント
- Kubeflow KubernetesネイティブなMLワークフロー
- Red Hat OpenShift AI ハイブリッド環境対応、NVIDIAとの緊密な連携
- TrueFoundry オンプレミス対応MLOps/LLMOpsプラットフォーム
ベクトルデータベース(RAG用)
企業固有の知識ベースの埋め込みベクトルを格納・検索し、LLMが事実に基づいた最新情報をもとに出力を生成することを可能にします。
- Weaviate オープンソース、ハイブリッド検索対応
- Milvus 大規模データセット向け分散アーキテクチャ
- Chroma 軽量でシンプル、PoC向き
- Qdrant モジュール性と軽量設計、Rust製で高性能
- pgvector PostgreSQL拡張として既存DBインフラを活用可能
利用可能な生成AIモデル(2026年最新)
主要オープン/オープンウェイトLLM
2025年後半から2026年にかけて、オープンモデルの性能はクラウドAPI専用モデルとの差を急速に縮めています。特にDeepSeek V3/R1やLlama 4のMoE(Mixture of Experts)アーキテクチャは、少ない計算資源で高い性能を発揮する点で注目されています。
| モデルファミリー | 開発元 | 主要モデル・サイズ | ライセンス概要 |
|---|---|---|---|
| Llama 4 | Meta | Scout(109B, MoE 17Bアクティブ)、Maverick(400B, MoE 17Bアクティブ) | Llama Community License |
| Llama 3.3 | Meta | 70B | Llama Community License |
| DeepSeek V3 | DeepSeek | 671B(MoE, 37Bアクティブ) | MIT License |
| DeepSeek R1 | DeepSeek | 推論特化モデル(蒸留版1.5B-70Bあり) | MIT License |
| Mistral 3 | Mistral AI | 24B | Apache 2.0 |
| Mistral Large 2 | Mistral AI | 123B | Mistral Research License |
| Qwen 2.5 | Alibaba | 0.5B, 3B, 7B, 14B, 32B, 72B | Apache 2.0(一部制限あり) |
| QwQ-32B | Alibaba | 32B(推論特化) | Apache 2.0 |
| Gemma 3 | 1B, 4B, 12B, 27B | Gemma Terms of Use |
日本語特化LLM
日本語に最適化されたモデルも着実に進化しており、国内企業のオンプレミス導入において重要な選択肢となっています。
- ELYZA Llama-3-ELYZA-JP-8Bをはじめとした日本語LLMシリーズ。日本語ベンチマークで高い精度を実現
- Swallow(東工大+産総研) Llama 3.1ベースに更新。日本語の継続事前学習により高精度な日本語処理を実現
- PLaMo-2(Preferred Networks) 独自アーキテクチャの日本語LLMシリーズ。研究用途・商用利用の両方に対応
- Stockmark 1000億パラメータ規模の日本語LLM。ビジネス文書処理に強み
- NTT tsuzumi 軽量かつ高精度な日本語LLM。商用提供でエンタープライズ向けサポートあり
- NEC cotomi cotomi / cotomi Proとして商用提供。金融・官公庁での導入実績あり
- サイバーエージェント 日本語特化モデルを継続的にリリース
画像生成モデル
- Stable Diffusion 3.x 年間収益$1M未満は無料、Enterprise版あり
- FLUX.1シリーズ Black Forest Labs製。schnell(高速)、dev(高品質)の使い分けが可能
- HiDream-I1 170億パラメータ、MITライセンス
- ControlNet 空間的条件付け制御、Apache 2.0
多くのオープンモデルは階層的なライセンスアプローチを採用しており、一定規模までは無料ですが、大規模な商用展開には開発元との直接的な商用ライセンス契約が必要となる場合があります。特にLlama 4は月間アクティブユーザー7億人超で別途ライセンスが必要となるため、利用規模に応じた確認が重要です。
2026年の注目トレンド
Small Language Models(SLM)とエッジAI
Gemma 3(1B/4B)、Qwen 2.5(0.5B-3B)、DeepSeek R1蒸留版(1.5B)など、小型ながら高性能なモデルが続々と登場しています。これらのSLMは、単体のGPUやNPU搭載のAI PC上でも十分に動作し、エッジ環境やリアルタイム処理が求められるユースケースで力を発揮します。全社的な大規模基盤を構築する前の、部門単位でのPoC実施にも最適です。
量子化技術の進化
モデルの重みを低ビット精度に変換する量子化技術が大きく進歩しています。GGUFフォーマットが事実上の標準となり、OllamaやLM Studioで手軽に量子化モデルを利用できるようになりました。AWQ(Activation-aware Weight Quantization)やGPTQ(Post-Training Quantization)といった手法により、精度をほぼ維持しながらメモリ使用量を大幅に削減できます。これにより、70Bクラスのモデルでも消費者向けGPUで実行可能になっています。
NVIDIA NIMによるデプロイ簡素化
NVIDIA NIM(NVIDIA Inference Microservice)は、最適化されたモデルをコンテナ化されたマイクロサービスとして提供するプラットフォームです。GPUドライバ、推論エンジン、モデル最適化がすべてパッケージ化されているため、従来は数日から数週間かかっていたモデルデプロイが、数時間で完了するようになりました。オンプレミス環境への生成AI導入のハードルを大きく下げる存在として注目されています。
ハイブリッドAIの標準化
オンプレミスとクラウドを組み合わせた「ハイブリッドAI」が標準的なアーキテクチャになりつつあります。機密データの処理や定常的な推論ワークロードはオンプレミスで実行し、大規模学習や一時的な負荷増大時にはクラウドを活用するという使い分けが一般化しています。Dell AI FactoryやHPE Private Cloud AIなど、ハイブリッド構成を前提としたエンタープライズソリューションも充実してきました。
AI PCの台頭
NPU(Neural Processing Unit)を搭載したAI PCが急速に普及しています。Intel Core Ultra、Qualcomm Snapdragon X、Apple Mシリーズなどが代表的なプラットフォームで、個人の端末上でSLMを実行し、データを外部に出さずにAIを活用できます。全社導入前の個人レベルでのAI活用や、機密性の高い個別業務での利用に適しています。
導入における主要課題と対処法
高額な初期投資の軽減策
- 段階的導入 まずはOllamaやLM Studioで小規模なPoCから開始し、効果を確認してから本格投資へ移行
- SLMの活用 1B-8Bクラスの小型モデルであれば、既存のワークステーションやAI PCでも実行可能
- 量子化の活用 GGUF/AWQ量子化により、少ないGPUメモリで大規模モデルを実行
- オープンソース活用 DeepSeek V3/R1(MIT License)など、商用利用可能な高性能モデルの活用
- ハイブリッドモデル 定常ワークロードはオンプレミス、ピーク時はクラウドで処理
- 補助金活用 IT導入補助金、DX推進補助金などの公的支援制度を活用
人材ギャップの解消
- 社内研修 既存IT部門のアップスキリング
- ツール活用 OllamaやOpen WebUIなど、専門知識が少なくても運用可能なツールの導入
- 戦略的採用 AI/MLOps専門人材の確保
- 外部パートナー活用 専門ベンダーとの協力による初期構築支援
- マネージドサービス NVIDIA NIMやDell AI Factoryなど、運用負荷を軽減するソリューション
セキュリティ確保
- 多層防御 データ、アプリケーション、インフラの各層で対策
- アクセス制御 ロールベースアクセス制御(RBAC)
- データ暗号化 保存時・通信時の暗号化
- ネットワーク分離 AIワークロードの論理的・物理的分離
- 継続監視 リアルタイムでの異常検知
スケーラビリティの実現
- モジュラー設計 独立してスケール可能なコンポーネント
- Kubernetes活用 動的なワークロードスケーリング
- NVIDIA NIM活用 コンテナ化による柔軟なスケールアウト
- 効率的リソース管理 GPU、CPU、メモリの最適化
- 将来計画 需要予測に基づくハードウェア計画
データセキュリティとガバナンス
データ保護のベストプラクティス
オンプレミス環境では、データが組織の管理下にとどまるため、外部への情報漏洩リスクを大幅に低減できます。一方で、内部からの脅威や設定ミスによるリスクも存在するため、包括的な対策が必要です。
- 最小権限の原則 業務遂行に必要な最小限のアクセス権限のみ付与
- ネットワーク分離 生成AIモデルへのアクセスを厳格に制御
- プロンプトインジェクション対策 入出力チェック機能の導入
- 監査ログ管理 アクセス履歴の記録・監視
- 従業員教育 セキュリティポリシーと責任あるAI利用
- モデルの出力検証 ハルシネーション対策としてRAGと組み合わせた事実確認
データガバナンスフレームワーク
効果的なデータガバナンスは、データの正確性、セキュリティ、コンプライアンスを維持するために不可欠です。データのライフサイクル全体を管理する構造化されたアプローチが求められます。
法規制への対応
- 日本の個人情報保護法(APPI) 安全管理措置の義務。2025年改正を踏まえた対応が必要
- EU AI規則(AI Act) 2025年から段階施行。リスクベースの規制アプローチへの対応
- EU一般データ保護規則(GDPR) データ保護影響評価の実施
- 業界特有規制 FISC安全対策基準、HIPAA等
業界別導入事例
金融業界
金融専門用語を学習させた生成AIを導入し、翻訳や要約の精度を向上。月22万時間の業務時間削減効果を試算し、不正検知やリスク管理などへの活用も拡大中。
neoAIと協力し、オンプレミス型の次世代AI基盤を構築。金融・行内業務に特化したLLM「あおぞらLLM」を開発し、ベンチマークテストにおいて応答精度の大幅な向上を確認。
製造業
大規模言語モデルを活用し、熟練技術者のノウハウを画像やグラフが多い技術文書からデータ資産化し、A-ESモデル構築を加速。
生産施設全体に生成AIを導入し、品質逸脱42%削減、設備総合効率37%向上、エネルギー消費29%削減を報告。
医療・ヘルスケア
TXP Medical社の生成AIによる自動医療文書作成システムをトライアル導入。オンプレミス環境で動作し、電子カルテ情報などの機密性の高い医療データを院外に出すことなくAI活用が可能。
オンプレミス型生成AIサーバーのRAG機能により、電子カルテ・読影レポート・院内規約と関連付けた対話型支援システムを構築。退院サマリー作成の自動生成カバー率52.8%を達成。
DeepSeekの効率的学習アプローチ
中国のDeepSeek社は、DeepSeek V3(671Bパラメータ、MoE)の学習をわずか約560万ドルで完了したと報告しています。これは同規模のモデルの学習費用として破格の低さであり、効率的なMoEアーキテクチャとFP8学習の活用により実現しました。この事例は、必ずしも最先端のハードウェアを大量に揃えなくても、アーキテクチャの工夫と最適化によって高性能なモデルを構築できることを示しており、オンプレミス導入を検討する企業にとって大きな示唆を与えています。
エンタープライズ向けソリューション
2026年現在、主要ITベンダーはオンプレミスAI導入を支援する包括的なソリューションを提供しています。
| ベンダー | ソリューション名 | 特徴 |
|---|---|---|
| NVIDIA | AI Enterprise 5.x + DGX SuperPOD with Blackwell | NIMによるモデルデプロイ簡素化、Blackwell GPUの性能を最大活用 |
| Dell | Dell AI Factory | NVIDIA GPUを搭載したサーバー群と統合管理ソフトウェアで、設計から運用までをワンストップで支援 |
| HPE | HPE Private Cloud AI with NVIDIA | NVIDIAとの共同開発によるターンキー型プライベートAIクラウド |
| Red Hat | OpenShift AI | Kubernetes基盤のAIプラットフォーム。ハイブリッド・マルチクラウド対応 |
| VMware | Private AI Foundation with NVIDIA | 既存VMware環境でのAIワークロード実行を支援 |
| 富士通 | FUJITSU Private GPT AI solution | 国内サポート体制が充実、日本語モデルとの連携 |
| 日立 | Red Hat OpenShift AI + NVIDIA AI Enterprise | SIerとしての導入支援力と運用ノウハウ |
まとめと今後の展望
オンプレミス生成AIの戦略的価値
オンプレミス環境における生成AIの活用は、データ主権の確保、機密情報の保護、特定条件下でのコスト効率、規制遵守といった観点から、多くの企業にとって魅力的な選択肢です。2026年の今、Blackwell世代GPUの登場、DeepSeekやLlama 4などの高性能オープンモデルの急増、そしてNIMやOllamaによる導入の手軽さ向上が相まって、オンプレミス生成AIの実現可能性は大きく高まっています。
成功のための重要要素
- 段階的アプローチ OllamaやAI PCでの小規模PoCから始め、効果を確認した上で本格的なGPUサーバー導入へ進む
- 適切なモデル選択 タスクに応じたSLM/LLMの使い分けと、量子化によるリソース最適化
- ハイブリッド設計 オンプレミスとクラウドの最適な組み合わせを設計
- 人材育成 社内外からの専門知識確保と継続的な学習
- セキュリティ重視 多層防御とガバナンス体制の確立
- 運用体制 MLOps/LLMOpsによる継続的な管理・改善
今後の展望
オンプレミスとクラウドの境界はますます曖昧になり、ハイブリッドAI環境が標準的な選択となっていくでしょう。企業は、ワークロードの特性、データの機密性、コスト、パフォーマンス要件に応じて、最適な実行環境を柔軟に選択し、組み合わせるようになります。
NVIDIAが提唱する「AIファクトリー」の概念が現実のものとなりつつあります。オンプレミスAIインフラは、単なるサーバーの集合体ではなく、データ処理からモデル開発、推論、監視に至るまでの一貫した生産ラインとして設計・運用される必要性が高まっています。NIMやDGX SuperPODなどの統合プラットフォームがこの実現を加速させています。
オンプレミス生成AIの導入は決して容易な道のりではありませんが、2026年のエコシステムの成熟により、かつてないほど現実的な選択肢となっています。その戦略的価値を理解し、自社に適したアプローチで段階的に導入を進めることで、企業は持続的な成長と競争力強化を実現できるでしょう。
- NVIDIA AI Platform
- NVIDIA NIM - AI Inference Microservices
- Ollama - Run LLMs Locally
- LM Studio - Discover, download, and run local LLMs
- Open WebUI - Self-hosted AI Interface
- DeepSeek
- Meta Llama
- Models - from cloud to edge | Mistral AI
- On-Premises Generative AI Solutions | TrueFoundry
- Private AI - VMware
- Red Hat OpenShift AI
- 生成AIによる自動医療文書作成システム | TXP Medical
ハードウェア選定から運用体制構築まで、お気軽にご相談ください。
関連記事
MCPとは?AIと外部サービスをつなぐ新標準プロトコルと使いこなしたいMCPサーバーランキング10選
MCPとは?AIと外部サービスをつなぐ新標準プロトコル 「ChatGPTやClaudeに、SlackやGoogle Driveを直接操作してもらえたら…」を実現する仕組みと、注目のMCPサーバーを一挙紹介 2

会計DX専門チームが教えるfreee MCP完全ガイド|AIで経理業務を自動化する方法
会計DX専門チームが教えるfreee MCP完全ガイド|AIで経理業務を自動化する方法 freee MCPを使えば、AIアシスタントに話しかけるだけで経理業務を自動化できます。導入手順を画像付きで分かりやすく解説します。

Claude Codeの4大コンテキスト管理術|CLAUDE.md・Skills・Subagents・Agent Teams完全ガイド
Claude Codeの4大コンテキスト管理術|CLAUDE.md・Skills・Subagents・Agent Teams完全ガイド AIコーディングエージェント「Claude Code」を使いこなすカギは「コンテキス

ベイズ隠れマルコフモデルで「見えない解約リスク」を可視化する|SaaS行動ログから顧客の心理状態を推定
ベイズ隠れマルコフモデルで「見えない解約リスク」を可視化する SaaS行動ログから顧客の心理状態を推定し、チャーンリスクを先回りで予測する統計的アプローチ。Salesforce Data CloudやSnowflakeに

Claude活用術|業務効率化を実現する実践テクニック10選【2026年版】
Claude活用術|業務効率化を実現する実践テクニック10選【2026年版】 Projects、ファイル作成、Google連携、Coworkなど、Claude Pro・Teamプランの最新機能をフル活用して業務を加速する

Claude vs ChatGPT vs Gemini vs Copilot|4大AI徹底比較【2026年最新】
Claude vs ChatGPT vs Gemini vs Copilot|4大AI徹底比較【2026年最新】 「結局どのAIを使えばいいの?」という疑問に答えます。Anthropic・OpenAI・Google・Mi