Column:生成AIの動向と日立の研究への取り組み
- 鯨井 俊宏,間瀬 正啓
- 日立製作所 研究開発グループ 先端AIイノベーションセンタ メディア知能処理研究部
生成AIブーム
生成AI(Artificial Intelligence)が空前のブームとなっている。
2022年7月に公開された画像生成AIサービスMidjourney*は,テキストで描きたい対象を説明するだけで,人間同等以上の画像を生成することができ,明らかに人間以上のクオリティだと言えるだろう。実際に,絵画コンクールで優勝した作品がこのサービスで生成されたものだということが明らかにされ,物議を呼んだ。
さらに生成AIブームに輪をかけたのは,2022年11月に公開されたChatGPTである。チャット形式という利用しやすいインタフェースと,驚くほど多様な活用が可能なことから,2か月で1億ユーザーを突破する大ブームとなった。
MicrosoftはChatGPTを開発したOpenAIに大規模な投資を行い,Azure*上でChatGPTや,そのベースとなっている大規模言語モデルであるGPT(Generative Pretrained Transformer)のサービスを行っている。ChatGPTの機能を拡張するツール群も,続々と出現している。Google,Amazon,Metaなどの米国IT大手や複数のスタートアップが,こぞって独自の大規模言語モデルを開発し,競争が激化している。
このように大きな注目を集めている生成AIだが,従来のAIと何が違うのだろうか。従来のAIシステムは,撮影した工業製品の画像から欠陥製品を発見する,などのように特定の目的のために設計され,学習用のデータが集められ,構築・運用されていた。しかし,生成AIに関しては特定の利用目的をもって設計されていない,というのが従来のAIシステムとの大きな違いである。
実際,ChatGPTのベースとなっている大規模言語モデルGPTは,文章の要約,翻訳,添削などさまざまに活用することができるが,これらの機能を実現するために設計されたわけではない。
GPTが学習時に行っているのは,大量に集められた学習用のデータ(文書)の途中までを見て,それに続く単語を精度良く予測できるようにパラメータを調整しているだけである。それにもかかわらず,入力するプロンプトの工夫によって,要約,翻訳,添削などの機能が実現される。これを機能の創発と呼んでいる。
開発者でさえ想定していなかったさまざまな活用方法が,日々無数のユーザーによって模索され産み出されている。次々に新しいことができるようになり,自らも活用方法を発展させられる,これが今の生成AIブームを支えているエネルギーの一つであろう。
企業内で活用アイデアのコンペ実施など,ボトムアップでの活用方法探索を組織だって行う企業も多い。またトップダウンの取り組みとしては,異なる部署間での情報共有の効率化,熟練労働者が減る中での知識伝承,ソフトウェア開発の内製化への移行など経営課題の解決をめざした取り組みも行われている。
2010年代前半から中盤にかけては深層学習をはじめとしたAIを何かに使いたいというAIブームが起こったが,技術起点でのAI活用はPoC(Proof of Concept)での技術検証止まりになることも多かった。
2010年代後半以降では各企業にDX(デジタルトランスフォーメーション)組織が設立され,自社の経営課題に基づいた目的指向型のアプローチが取られるようになり,PoCを通じてビジネス成果までつながる成功事例が増えた。そしてここにきてChatGPTをはじめとした生成AIが大きな着目を浴びるようになり,再び生成AIを何かに使えないか,という技術起点でのPoCが期待されるケースが増えている。生成AIの活用については,上記のようなボトムアップの取り組みと,目的指向型のトップダウンの取り組みの両輪で進めて行くことが重要だと考えている。
生成AIがもたらす機会とリスク
生成AIの開発競争が激化し,さまざまな知的業務への適用が加速している中で,著作権侵害,プライバシー,AI倫理,情報漏洩などのリスクが懸念されている。特に,現在の大規模言語モデルにはハルシネーション(幻覚)と呼ばれる,まことしやかな嘘をつく,という現象が知られている。プロンプトの工夫などによりある程度抑止できるが,この現象は確率的に単語を生成していくGPTのメカニズムに起因するため,完全に避けることはできない。大規模言語モデルの高度な創発能力の裏返しとも言える性質である。生成AIを使いこなすには,権利侵害や情報漏洩に対する入力への注意はさることながら,出力の信頼性の適切な考慮が不可欠である。
生成AIがもたらす機会とリスクについては,2021年にスタンフォード大学が基盤モデル(Foundation Model)の概念を提唱しており,その技術的な側面のみならず,応用の可能性と社会への影響まで含めた詳細なレポートを公表し1),学術界で活発に議論されてきた。そして,ChatGPTをはじめとする生成AIの爆発的な普及を受けて,社会的な議論に発展している。生成AIの能力への過信を防ぐため,人権侵害を防ぐため,あるいは悪用への対策のため,世界各国で法規制やガイドライン整備が進められている。
欧州では2021年4月にAIに対する世界初の包括的な規制法案EU AI Actが提出され2),審議が進められていた。審議終盤の2023年6月の欧州議会による修正案において,基盤モデルを用いた生成AIの開発者に対して,安全性の検査,生成物がAIによるものであることの明示,学習に利用した著作物の開示などを求める条項が盛り込まれ,2023年12月に大筋合意に至っている。米国では2023年10月にAIの安全性に関する大統領令を公表し,基盤モデルを開発する企業に対して,学習を行う際の政府への通知と,安全性とセキュリティの検証結果の政府への共有を義務付けている。日本ではAI戦略会議を中心に生成AIを含めたAI開発・利活用の方針が示され3),事業者向けガイドラインの作成が進められている。
国際協調の動きも進展している。2023年10月にG7広島AIプロセスの首脳声明が採択され4),開発から利用に至るすべてのAI関係者に向けた指針と,AIの開発者向けに精緻化した行動規範が公開された。2023年11月には英国主導でAIセーフティサミットが開催され,米中欧日を含む28か国およびEUによる,AIの安全性に向けた自主的な取り組みとして,ブレッチリー宣言が採択された5)。
これらを実践していくためには,国際的な技術標準が重要な役割を担うことが期待される。ISO/IEC JTC1 SC42ではAIに関する国際標準規格が開発されており6),ISO/IEC 42001 AI Management Systemや,AIの信頼性に関する多数の規格が開発されている。
日立は,2021年2月に社会イノベーションビジネスに向けたAI倫理原則を発表し,LDSL (Lumada Data Science Laboratory) のAI倫理専門チームを中心に社内教育やリスクアセスメントの実践を進めてきた。生成AIの急速な普及に伴い,2023年4月に社内向けの利用ガイドラインを策定してリスクを周知徹底するとともに,適切な安全管理に基づくインフラを整備し,専門家による助言の下で運用する体制を確立している。2023年5月にGenerative AIセンタを設立し,リスクを管理しながら生成AIの活用を進めている。
研究への取り組み
日立でのAIの研究は,1960年代より画像,音声,言語処理と言ったメディア・知識処理において開始され,製品検査装置,海外向けATM(Automated Teller Machine),指静脈認証などの事業に貢献してきた。言語処理に関する研究も最も早くから着手した研究テーマの一つであり,現在も言語処理に関する国際コンペで上位の入賞を続けている。2013年にはディベートAIと呼ばれる,議論テーマを与えると,経済,環境,政治などの観点で賛成/反対の意見を大量のドキュメントから抽出・整理して文章として生成するAIの開発を行った7)。日立は,これらの研究実績をベースに生成AIの研究を進めている。
日本企業には,その強みを下支えしてきた,先人の「知」や組織の「知」がある。一方で,こうした「知」は,これまで明文化されていなかったり,あちこちに散らばっていたりするため,まだまだ活用の余地が残されている。日立は,生成AIが,これらの「知」の集約とインタプリタの役割を果たすと考えている。
著作権やプライバシーに配慮しながら,企業が持つ潜在力としての「知」をフルに生かし,人の知的作業を強力に補助することで,人間はよりクリエイティブな業務に集中できるようになる。「知」の抽出,「知」の整理,「知」の活用のあらゆる場面で生成AIは活用できるが,生成AI単独では不足する部分もあり,これまで培った自然言語処理技術との融合が必要になると考えている。
OT(Operational Technology)×IT×プロダクトへの取り組みによって蓄積された「知」と,60年の蓄積で磨かれた信頼性の高いAIの研究力で,日立はイノベーションを加速し,持続的な経済成長を実現していく。