(株)PKSHA Technology【3993】の掲示板 2024/04/11〜2024/04/22
-
>>731
ChatGPTなどLLMの弱点“ハルシネーション”
「GPTは要素技術だ。商用という意味では遠い」
2023年05月23日 15時10分 公開
PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏(左)とPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏
ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。
「GPTは要素技術だ。そのままでは商用という意味では遠い。検討すべき課題がある」。
こう話すのはPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏だ。
課題としては、精度、コスト、レスポンス速度、セキュリティなどが挙げられる。
例えば、現在商用利用でほぼ唯一の選択肢となるOpenAIのGPT系APIは、上位のモデルになるほどコストがかかる。GPT-4モデルを使ったChatGPTの応答を見れば分かるとおり、速度も決して速いとはいえない。
ハルシネーション(人工知能の幻覚)
コストや精度という課題は、基本的に演算リソースによるもので、今後の半導体の進化によって自然と解決されていくものだろう。しかし精度については、解決は容易ではない。
LLMが、堂々ともっともらしいウソをつくことはよく知られている。これは、ハルシネーション(人工知能の幻覚)と呼ばれLLMが根本的に抱える課題だ。
PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏は「ハルシネーションは一定は抑えられるが100%は難しい」と話す。
商用利用において、ハルシネーションを防ぎ、精度を上げる手法はいくつかある。例えばFAQに相当する内容を持ったデータベースを事前に準備しておき、それをLLMがアクセスしやすいようにベクトル化した上でマッチさせる、データベースの内容を事後学習(ファインチューニング)させるなどだ。
花塚氏は「ファインチューニングはコストがかかるので、外部のリソースを持ってきて、それをChatGPTに入力し、それをもとに回答する」形を解決策として挙げる。
既存AIモジュールとの組み合わせ、人が介入するUX
とはいえ、現時点ではChatGPTの精度を向上させるよりも、既存のAIモジュールと組み合わせるほうが、精度、コスト、速度のバランスが取れるようだ。
花塚氏は「LLMが得意とする部分を見極め、体験の中心ではなく、システム全体の1パーツとして利用する。既存モジュールを組み合わせて、コスト、精度、速度など最適なシステムを作るべき」だと指摘する。
PKSHAグループでは、機械学習を用いたLLM以外のAIモジュールを多数保有しており、特化した用途においては、こうしたAIモジュールと組み合わせるほうが利点が大きいとしている。
またLLMの入出力においても「人の確認や入力する情報をマスクするなど、人が介入するUXを検討すべきだ」(花塚氏)としている。
今後の方向性として中島氏が指摘したのが、OpenAIのGPT以外のモデルの可能性だ。特に、米Metaが開発したLLaMAをベースに、世界各地で軽量LLMモデルの開発が進んでいる。
また、オープンソースのLLMも各所から登場しており、画像生成AI同様、オープンソース起点で次の大きなイノベーションが起きる可能性もある。「テックジャイアントではなく、オープン系に期待したい」(中島氏)
投資初心者 4月18日 04:18
>>730
知らなかったんですがPKSHA LLMsってやはり複数のLLMを最適な配置で組み合わせる概念のことなんですね。LLMにもコストや速さ含め、モデルによって苦手な部分と得意な部分があるので
後半のLLMを使ってハルシネーションを防ぐ考え方は最近出てきた考え方なのですが、すでに発信できるレベルまで取り入れてるんですねぇ。やはり日本企業の中では一番進んでそうだなあ