アイキャッチ画像

生成AIの回答における”もっともらしい嘘”を抑制する

カサナレという会社は、RAG(検索拡張生成)と呼ばれる技術分野に強みを持っています。RAGとは、大規模な言語モデル(LLM)に検索機能を組み合わせることで、より正確で一貫性のある情報を生成することができる技術です。カサナレは、様々な企業のニーズに合わせたAIエージェントの開発を支援し、新しい取り組みをサポートしてきました。

一方、東北大学言語AI研究センターでは、AIと人間が共生する社会を実現するために、様々な専門分野の研究に取り組んでいます。

RAGを活用することで、LLMが生成する情報の品質を高め、ハルシネーション(幻覚)と呼ばれる問題を抑制できることが報告されています。ハルシネーションとは、AIが存在しない情報を生成してしまう現象のことです。カサナレと東北大学言語AI研究センターは、このハルシネーションの抑制に向けた共同研究を開始しました。

この共同研究では、以下の3つの方向性で進められます:

  1. データ駆動型アプローチ(RAG)の利用
  2. AIの生成する情報の品質を評価する基準の開発
  3. LLMの推論能力を強化するためのファインチューニング(微調整)

両者は、専門的なデータセットを用いた研究プロジェクトを共同で進め、LLMの精度を向上させ、ハルシネーションの問題を抑制することを目指しています。この取り組みにより、企業固有のデータを活用したRAG技術の一貫性と精度が向上し、より実用的な生成AIの活用環境が提供されることが期待されます。

カサナレは創業当初から、企業内データの品質を高めるための様々なアプローチを検証してきました。これにより、LLMを活用する際に直面する「データを入れているはずなのに、正しく返ってこない」という問題の解決に取り組んできたそうです。

カサナレは、今回の共同研究の成果を通じて、ハルシネーションの抑制によるLLMの品質向上を実現し、企業のデジタルトランスフォーメーション(DX)の推進と日本社会全体の発展に貢献していきたいと考えています。