
セミナー概要
あなたのAIサービス、「作った」だけで終わっていませんか?
生成AIの開発・検証フェーズを乗り越え、いよいよ本番リリースへ。しかし多くの企業が、そこで想定外の壁にぶつかります。
「レスポンスが遅くてユーザーが離脱する」
「GPUコストが膨らんで利益が出ない」
「スケールしたらインフラが不安定になった」
これらはすべて、AIの推論フェーズ特有の課題です。開発成功の喜びが、サービス提供の苦難に変わる前に、打ち手があります。
本セミナーでは、AI開発のエキスパートと、国内DCネットワークのプロが一堂に会し、ソフトウェアとインフラの垂直統合によるAI事業加速のリアルをお伝えします。
当日は書籍『実践的パフォーマンスエンジニアリングによるAI高速化』の内容をベースにした実践的な技術解説に加え、GMI Cloud との提携による最先端GPU基盤の構築事例を日本初公開予定です。
セミナー終了後には懇親会も設けております。同じ課題を持つ参加者同士で情報交換したり、具体的な技術テーマについて、登壇者とディスカッションすることも可能です。
登壇者
中原 晃宏
株式会社オプテージ
ソリューション事業推進本部 データセンタービジネス推進部 マネージャー
浅原 明広
株式会社フィックスターズ
CMO
講演内容
- LLM推論を劇的に速くする具体的な手法(モデル圧縮・最適化の実践知識)
- 推論コスト削減のための設計アプローチ
- 次世代AIチップ(NVIDIA以外の選択肢)と今後の技術動向
- 低レイテンシ・高セキュリティを両立する国内データセンター活用術
- OPATGE × GMI Cloud連携による最先端GPU基盤のご紹介
合計45分
【交流会のお知らせ】
講演終了後、講演内容や技術に関する質問、参加者同士の交流の場として軽食・ドリンクをご用意しております。
受講で得られるもの
推論コスト問題を「構造的に」理解できる
レイテンシ悪化がユーザー離脱・利益圧迫につながるメカニズムを把握し、経営・開発の両サイドで課題を語れるようになります。
LLM推論を速くする具体的な手法を習得できる
モデル圧縮や推論最適化の実践的アプローチを学び、明日から自社エンジニアと議論できる「勘所」を持ち帰れます。
国内AIインフラの選定基準を身につけられる
レイテンシ・セキュリティ・拡張性の観点から自社サービスに最適なインフラを評価・選定するための判断軸を得られます。
個別相談で「自社課題の打ち手」を持ち帰れる
フィックスターズ・オプテージの専門家に推論課題やインフラの悩みを直接相談でき、自社に即したアドバイスを得られます。
開催日時
2026年3月26日(木) 18:00 〜 20:00
開催場所
BLUE FRONT SHIBAURA TOWER S 7F HALL3
〒105-0023 東京都港区芝浦1丁目1−1(アクセス)
対象者
こんな方におすすめです
- 生成AIサービスをリリース済み、または近日公開を予定している
- 推論コストやレイテンシの問題が顕在化しつつある
- AIインフラの選定・見直しを検討している
- セキュアな国内AIインフラに興味がある
参加費用
無料
※ 途中休憩あり、途中入退室可能です
※ 予告なく時間配分・内容等が変更になる場合があります