レッドハット、ハイブリッドクラウドの効率向上に向けたAIソリューションを発表

レッドハット、ハイブリッドクラウドの効率向上に向けたAIソリューションを発表

オープンソースソリューションのリーダー、レッドハットがハイブリッドクラウド向けAIソリューションを発表

オープンソースソリューションの主要プロバイダーであるRed Hatは、ハイブリッドクラウド環境でのAI展開を加速するための製品・サービス群であるRed Hat AIに複数のアップグレードを導入した。

最新のアップデートでは、Red Hat AIスイートにRed Hat OpenShift AI 2.18Red Hat Enterprise Linux AI (RHEL AI) 1.4を含む新機能が追加された。これらのアップグレードにより、企業はより効率的かつ安全なAIモデルを構築し、ビジネスニーズに適応させることが可能となる。

さらに、Red Hat AIはOpenShift AIRHEL AIを統合し、AIモデルのトレーニング・ファインチューニングからデプロイ、監視までのライフサイクル全体を管理できる統合プラットフォームを開発した。

このプラットフォームは、**予測AI(Predictive AI)と生成AI(GenAI)**の両方をサポートし、企業がよりスマートなAIモデルを開発できるよう支援する。また、幅広いアクセラレーテッドコンピュートアーキテクチャ上で効率的に動作することを保証する。

Red Hat OpenShift AI 2.18の主要アップグレー

以下は主な強化ポイント:

  • 分散サービング(Distributed Serving with vLLM
    OpenShift AIは、**「分散モデルサービング」**を提供し、複数のGPUに負荷を分散することで、サーバー負荷を軽減し、処理速度を向上させ、リソース利用を最適化する。
  • エンドツーエンドのモデルチューニング
    InstructLabOpenShift AIのデータパイプラインを活用することで、大規模言語モデル(LLM)のファインチューニングが簡単かつスケーラブルになり、運用環境での管理が容易になる。
  • AIガードレール(AI Guardrails
    有害コンテンツや個人識別情報、競争データを検出・抑制する機能を搭載し、同時にAIモデルが企業のポリシーに準拠することを保証する。
  • モデル評価(Model Evaluation
    **言語モデル評価ツール(lm-eval)**を活用し、多様なタスクでLLMのパフォーマンスをベンチマークできるようにすることで、モデルの応答性と有効性を向上させる。

RHEL AI 1.4 の新機

Red Hat AIの重要なコンポーネントであるRHEL AIは、エンタープライズ向けのLLMを開発・テスト・運用するための信頼性の高いプラットフォームを提供する。最新バージョンであるRHEL AI 1.4では以下の機能が追加された。

  • Granite 3.1 8B モデ
    • **多言語推論(Multilingual Inference)**をサポート
    • タクソノミー(分類体系)および知識カスタマイズに対応
    • 最大128Kのコンテキストウィンドウを提供し、要約やRAG(Retrieval-Augmented Generation)タスクを向上

このアップデートにより、Red Hat AIは企業のAIインフラを強化し、より高速で効率的なAIモデル開発を可能にする。

Red Hat AIカテゴリの最新記事