db tech showcase

dbtsブログ

このエントリーをはてなブックマークに追加

【dbts2025 レポート】【英語セッション】Powering Real-Time Revenue Intelligence with SingleStore

AI データ分析 ビジネス ユーザー事例
【dbts2025 レポート】【英語セッション】Powering Real-Time Revenue Intelligence with SingleStore

こんにちは、プロダクト開発本部笹谷@札幌です。
db tech showcase 2025 2日目の[C11]のセッションである「【英語セッション】Powering Real-Time Revenue Intelligence with SingleStore」のレポートをお届けします。

セッション概要

Large Language Models (LLMs) are transforming how we build intelligent applications—but most architectures today suffer from complexity, latency, and fragmentation. Stitching together vector stores, OLTP systems, document databases, and search engines at the application layer leads to brittle pipelines and limited context. What if the intelligence lived closer to the data?

In this session, we explore why attention at the data layer is all you need. Learn how SingleStore—a unified operational database—enables real-time, multi-modal AI workloads by combining transactions, analytics, full-text, and vector search in a single engine. From low-latency queries across structured and unstructured data to fine-grained retrieval and hybrid search, we’ll demonstrate how SingleStore simplifies LLM integration at scale.

Using real-world examples and a live demo, we’ll show how leading organizations are building AI copilots, personalized analytics, and real-time agents—all on a single, operational data layer. This talk is for developers, data teams, and architects looking to build production-ready GenAI systems without stitching layers together manually.

Join us to see how SingleStore is powering the next generation of intelligent applications—because when your data layer is smart, your entire stack gets simpler.

スピーカー名:
Singlestore
APAC SE
Solutions Engineer
Prabhanshu Chauhan 様

Singlestore
APAC Sales
Managing Director Japan
John Kirch 様

はじめに

 リアルタイム収益分析インテリジェンスをSingleStoreで実現するセッションでした。

セッション内容

  • 冒頭は一般的な企業におけるビジネスの拡大に伴うデータ基盤の複雑化について、典型例として紹介。
    •  企業は単純なデータソースから、規模拡大とともに垂直スケールを試みるが、スケーラビリティや同時実行性の問題が発生し、キャッシュDBを導入する
    • IoTデータのような大規模データを蓄積し始め、これをKafkaで分析する。同様に、AI等で発生する顧客データを収益の観点でKafka同様に分析する要求において、どうリアルタイムに分析を実現するか?
    • 多様なデータの一般的な性質として、蓄積されサイロ化するので、コストがかかり、リアルタイム分析を阻害する要因を持つ
  •  運用データレイヤのないAIアプリケーションは価値が低いので、リアルタイム分析は必須という主張を展開
  •  AIアプリには1つの問い合わせに100の潜在サブクエリがあるようなイメージ
  • ハイブリッド検索とマルチモーダル対応
  • セキュリティ・正確性などでエンタープライズデータとの統合時に求められる要件が多い
  •  PB規模のデータをミリ秒単位で分析し、かつSLAが高い
  • マルチモーダルなデータ対応
    • jsonのような非構造化データだけでなく、マルチモーダルなデータをSingleStoreでリアルタイムでインデックス化して利用できる
  • 途中でSingleStoreはどのような沿革を辿ってきたかについて説明
    • もともとはMemSQLというインメモリDBからスタートし、DBから統合分析プラットフォームへと変遷
  • 以下のようなAIとのやりとりを例にとってプラットフォームとしての対応力を説明
    • 「この領収証に基づいて申請内容を分析して」->「カンファレンス参加にどれだけの収益をもたらしたか?」->「カンファレンス参加メンバーにフォローアップメールでコンタクトを持てた」
  • 上記の内容を統合的にクエリして分析出力
  • マルチモーダルなデータを別々に抱え、上記のように統合的にAIで分析するのが困難、SingleStoreをプラットフォームとしに集約しインデクス化する
  • デモでは、一般的なAIアプリケーションのようなUIの入力欄に、黒い靴を買いたい旨を対話的に入力する事例。
    •  マルチモーダルなデータをまとめてクエリしAIによって結果を出力しつつ、リアルタイムでこのクエリについて分析もできている状態を示した

まとめ

  1. 組織の拡大とともに、データも拡大し、大規模化・多様化・複雑化・サイロ化する
  2. 分散し多様化したマルチモーダルなデータを分析することは困難。
  3. SingleStoreによって、生成AIアプリケーションのクエリに対し、マルチモーダルなデータをまたぐクエリ詳細について、統合的に分析することが可能。

聴講した感想

  • 一般的な生成AI製品において、どの規模のデータセットに対するクエリで、どのようなパフォーマンスが出たのかがリアルタイムでわかることは、経営層に近い収益管理者にとって強みになりうることがデモで実感できた
  • 弊社における生成AI製品開発においても、AIがどういう形で答えを出力したのかについて、説明性の要求は内外からある
    • クエリ面とパフォーマンス面に限れば、こうしたホワイトボックス化が有益かもしれない
一覧に戻る