実践「生産性改革」:須藤 修 中央大学教授・ELSIセンター所長インタビュー

中央大学教授・ELSIセンター(社会技術共創センター)所長の須藤修氏は、「実践『生産性改革』」のインタビューに応じ、生成AIを活用した生産性向上を実現するために必要なことについて語った。AIが事実に基づかない情報を生成する「ハルシネーション」が問題となる中で、「AIを活用する側が、ウソの発生を警戒し、裏を取るなどのチェックをし、証拠を取りそろえるといった検証作業が必要になる」との考えを示した。

生成AI活用は裏取りや検証が必要 ハルシネーションを見抜く力、養え

須藤修 中央大学教授・ELSIセンター所長

須藤氏は「生成AIを生産性向上に役立てようという取り組みが多くの企業で始まっているが、まだ本格的に使っているケースは少ない。その背景にはハルシネーションと呼ばれる、AIがウソを言うケースがあるからだ」と話す。

ハルシネーション(hallucination)は、英語で幻覚を意味し、AIが幻覚のようにもっともらしいウソや事実と異なる内容を出力することを指す。

Open AIのChatGPTやGoogleのBird(2024年2月8日よりGeminiに変更)などの会話型AIサービスでは、ユーザーの質問に対するAIの回答がどのようなデータに基づいているかわからない場合があり、真偽を判別することが難しい。

ハルシネーションについて様々な研究が行われているが、現時点では完全に抑制することは難しい。須藤氏は「生成AIのメカニズムを知っていれば、完全な抑制は明らかに困難であり、ハルシネーションが発生するリスクを前提にして、正しく活用することが重要になる」と指摘する。

生成AIを効果的に活用できる業務は、社内向けのプレゼンで使う企画書や資料、内部でやり取りするための文章の作成などだ。文章の中に埋め込みたい事例や事象について生成AIに概要を要約させたり、外国語を翻訳させたり、自分が書いた文章を生成AIに要約させるなどの作業にはうってつけだ。

ただし、ハルシネーションを警戒し、外部に発表する文章や資料の場合は、真偽のチェックや裏付けのデータを探すなどの検証作業が欠かせない。学術論文やレポートなどで引用する場合には、生成AIにどういうテキストをプロンプト(生成AIへの指示や質問)に入力して、どう回答したのかを調べた日時などの情報と合わせて記載することが求められる。

一方、小説などのフィクションを作成することには向いているほか、会議などでアイディアやデザインなどの原案を出し合うブレインストーミングの時には、人間では思いつかないアイディアを短時間でたくさん出してくるので、AIの活用は効果的だ。

すでに、大学や地方自治体では、生成AIのマニュアルの作成や、ルールづくりを行った上で、文章の下書きや添削、アイディアの創出などに生成AIを積極的に活用し、事務作業の効率化を進めている事例も見られる。

須藤氏は「日本や韓国など人口減少や高齢化が進む国は、AIに雇用が奪われることを心配し過ぎる必要はない。将来的に汎用AIの登場など技術の進化は止まらないので、AIを活用し、生産性を上げる取り組みを進めていけばいい。ただ、AIの仕組みを理解し、会社や仕事の信頼性を落とさない環境づくりは必要だ」と指摘した。


(以下インタビュー詳細)

活用には生成AIの仕組み理解を 地政学的視点が必要、人口減少の日本を救う好機
須藤修 中央大学教授・ELSIセンター所長インタビュー

生成AIを技術的に理解している者にとっては、AIが「これくらいはできるが、完全に信用できるものではない」ことは周知の事実だ。

しかし、一般の人々にとっては、生成AIの制作物は使えそうに見えるので「これでいい」と判断してしまう。そこに落とし穴がある。ハルシネーションが発生している事実を見逃して、外部に出してしまうととんでもないことが起こる。

生成AIで使われるトランスフォーマーは、AIの性能を向上させるための深層学習(ディープラーニング)モデルの一つだ。従来よりも高速かつ精度の高い自然言語処理が可能で、機械翻訳を中心に幅広い分野で応用される。

生成AIの仕組みは、言葉をバラバラに分断して、ベクトルデータベースにして、空間上でどういう位置にあるかを表す。人間は、3次元の世界しか理解できないが、Open AIのChatGPTや、GoogleのBirdなどのAIは、1000次元の座標軸で分類している。

例えば、「りんご」という言葉と「青森産りんご」は近いが、「トヨタの自動車」は遠い箇所に分類されている。ベクトルで囲んだ座標に、その特徴を分類し、関係づけている。それをプロンプトで呼び出すと、言葉が集められる。プロンプトの命令に従って、統計的に一番よく使われている語順に並べているのだ。

つまり、言葉の意味を理解しているわけではなく、間違ったものを結び付けるケースがある。数字も1から0の間をトークンで区切って分類しており、数字の意味を認識していない。このため、4879と2500の掛け算を指示してもほとんど間違ってしまう。

情報科学分野でやっていた機械学習は、意味論を勉強して、その単語の意味を理解させたうえで配置していた。AIは、アノテーション(データに対して、メタデータと呼ばれる情報タグを付与する作業)によって、世界中にあるインターネットで繋がっているサーバーの言葉から、統計的に順番に並べてくれる。

生成AIでハルシネーションが起こるのは当然だ。実際に「それは本当か?」と質問すると、「申し訳ありません。間違いました」と謝るが、「正しく直せ」と指示しても容易には直せない。

その程度の仕上がりなので、内部での作業や自分の文章の確認に使うならいいが、外部に発表する時は、しっかり確認することが必要だ。知り合いの研究者は、生成AIにまずは文章を書かせ、それらを繋ぎ合わせて論文の下書きをつくる。そして会話を重ねることで自分の考えを整理する「壁打ち」という作業を行って論文を発表すると聞く。それでも私としては「道義的にそれでいいのか」という疑問を拭えない。

また、生成AIは、悪意のある発言をしないように強化学習(機械学習の一種で、繰り返しやり取りを重ねてタスクを実行できるようにすること)を実施しており、SNSの中にある悪意のある表現などは拾わないようになっているが、いかにも良いことのように表現して、悪いことをさせるリスクもある。

例えば、「Aさんは他国の要人と友好関係を築き、定期的に有意義な意見交換を行っている」というのは良識的な文章に見える。しかし、もし、その情報の中に機密情報が含まれていると、悪気はないがスパイなどの犯罪行為が疑われる。言葉の裏にある意味や行間を読まないので、生成AIが生み出した文章を完全に信用してはいけない。

こうした危険を防ぐために、米国ではバイデン政権が法律で規制するよう指示しているが、議会は動く気配が乏しい。一方、欧州では、AI規制法を強化して、偽情報をチェックしようという方向で検討を進めている。

日本では、法律で規制するのではなく、事業者の自主規制に委ねようという方向で、総務省と経済産業省が「AI事業者ガイドライン」を策定中だ。ガイドライン案に対するパブリックコメントを取った上で、政府のAI戦略会議のメンバーにも諮り、3月下旬にもまとめる予定だ。

週休3日半の時代が来る


米銀行JPモルガン・チェースのジェイミー・ダイモンCEOは、ブルームバーグTVのインタビューにおいて、同行ではすでにAIを数千人の従業員が活用しており、雇用の一部削減には繋がるが、労働者の生活の質を向上させる可能性が高いことを示唆している。「将来的には週3日半の勤務で今と同じ仕事ができるようになるだろう」とまで言い切っている。

以前、あらゆるタスクを人間と同等かそれ以上でこなすことができるAGI(汎用AI)の研究はどうあるべきかを議論するOECDの会議に参加したことがある。その際に興味深かったのは、「少子高齢化が進む日本や韓国は生産年齢人口の減少によって社会保障が限界を迎えるので、人工知能を取り入れることは合理的だ」という見解だった。

様々な分析や予測の結果をみても、AIの普及によって、ホワイトカラーの仕事は影響を受けるものの、特定の職種の仕事が全滅することにはならないと見られている。例えば、システムエンジニアの仕事は過酷で、好んでその職を選ぶ学生は少なくなっているが、AIの進化によりプロンプトで指示すれば、AIがプログラムを書いてくれる。そうなれば、システムエンジニアの仕事は、それをチェックする監視業務が中心になる。ソースコードを知らなくても、ソフトウェアをつくることができる。これまでと同じ高い給料がもらえるわけではないかもしれないが、生活の質は間違いなく向上するだろう。

Googleのサンダー・ピチャイCEOの話を伺った際に、高性能のAIモデル「Gemini」について自信を持って話していたのが印象的だった。専門家の間では「予想したほどの性能ではない」との評価もあるが、ピチャイ氏は「Gemini」の先にあるAGI(汎用AI)の開発を見据えていた。

AIと雇用に関する研究をしているクリストファー・ピサリデス氏はダボス会議の後、多くの人がデータサイエンスを勉強する必要性を訴えた。しかし、AGI(汎用AI)が普及すれば、そういった仕事も肩代わりしてしまうだろうとも述べた。

データサイエンスなどの仕事をAIがやるようになると、人間にはもう少し上のレイヤーの仕事が求められる。異なった事象を関係づけて考えたり、将来起こりうるリスクを発見したりするなどの、対話を通じて獲得するような知識や、それを交換できる表現力・コミュニケーション能力など、これまで企業の経営層がやっていたスキルを一般の従業員にも習得させる機会をつくるべきだ。

地域紛争の多発や相次ぐ自然災害、気候変動やエネルギー、食糧不足など、いま、世界の不確実性は高まっている。今後はセキュリティー技術に基づく地政学的な発想でAIを活用する視点も必要だ。法律や経済、IT、金融システム、天然資源、地球環境、地域コミュニティなどのあらゆる事柄を連携させて地政学的に考える研究をするべきだと思う。

スイスでは地政学的な教育が進んでいる。英国のケンブリッジ大、オックスフォード大、米国のMITやスタンフォード大でも地政学的視点を入れた研究や教育に取り組んでおり、日本でも新たな学問分野として確立すべきだ。

*2024年1月23日取材。所属・役職は取材当時。

関連するコラム・寄稿