AIに任せっきりで4,400万円返金するハメに。大手コンサルの失敗と次の策
世界的なコンサルティング会社Deloitte(デロイト)が、AIの誤りによって、契約金4,400万円のうち最終支払分を返金したというのです。
AI活用が当たり前になってきたこの時代で、このニュースはとても興味深いですよね。
何が起きたのか
Deloitteオーストラリア法人が政府向けに提出したレポートに、AI生成による重大な誤りが含まれていたそうです。
具体的には、存在しないシドニー大学法学教授による架空の論文が12回も引用され、スウェーデンの教授による実在しない研究も2件参照されていました。さらに、重要な裁判所判決の引用も誤っており、判事の名前すら誤記されていたとのこと。
Deloitteは後に、Azure OpenAI GPT-4oを使用して一部の分析を行ったことを認めています。
これが、いわゆる「AI幻覚」と呼ばれる現象です。
AI幻覚とは何か
AI幻覚とは、AIがもっともらしい嘘をつく現象のことです。
存在しない論文、架空の人物、間違った事実。でも、それがまるで本当のことのように、自信を持って答えてくる。これがAI幻覚の怖いところなんです。
私も毎日AIを使っていますが、こういった現象に遭遇することはよくあります。
6割近くがAIエラーで業務ミス
実は、この問題はDeloitteに限った話ではありません。
KPMGの調査によると、生成AIを使用する従業員の6割近くが、AIのエラーによって業務上のミスを犯したことを認めているそうです。
つまりAIを使っている人の半分以上が、何らかの失敗をしているということです。これは決して珍しいことではないんですね。
なぜ、こんなことが起きるのか
では、なぜこんなことが起きるのでしょうか。
一つは、AIへの過度な信頼です。
ジョージア工科大学の准教授は「AIがどれほど賢くなったかという話を聞き続けるうちに、人々は過度に信頼するようになる」と指摘しています。
「AIが言っているんだから、正しいだろう」
そう思ってしまうんですよね。でも、AIは必ずしも正しくない。むしろ、間違っていることもある。それを理解していないと、Deloitteのような失敗をしてしまう可能性があります。
もう一つは、トレーニング不足です。
ボストンコンサルティンググループの調査によると、適切な訓練を受けたと感じている従業員は全体の3分の1にとどまっているそうです。
つまり、多くの人が「なんとなく」AIを使っているんです。
私が感じていることとしては、「AI活用により人間が面倒くさがりになった」です。
AIは間違っていることを言うことがある。これは今や利用している皆さんも感じることが多くあると思います。ですが、AIが会社内容に対してファクトチェック(事実確認)をすることが面倒臭いと感じる人が多いと思います。なので確認業務を怠り、AIが会社そのままの内容で提出してしまうのです。
私が実感していること
私は毎日擦り切れるほどAIを活用してきました。
この2年くらいの間、ChatGPTから始まり、いろいろなAIを試してきました。そして、何度もうまくいかない現象を確認しました。
AIに任せたら、クオリティが低いものが出てきた。検討違いのものが出てきた。AIに聞いたけど、良い解決策が見つからなかった。作業がドツボにはまって、かえって時間がかかった。
こういった経験を何度も何度も繰り返してきたからこそ、AIの得意なこと不得意なことが見えてきました。
そして、「AIに全部任せてはいけない」ということも、身に染みて分かりました。
汎用AIは95%失敗、特化型AIは2%失敗
興味深いデータがあります。
MITの調査によると、汎用的な生成AIツールによる投資では、95%の企業がゼロリターンという結果に終わっているそうです。
一方、特定業務に特化したAIエージェントの場合、展開後の失敗率は2%未満にとどまるとのこと。
この違いは何でしょうか。
それは、「明確な目的があるかどうか」だと思います。
汎用AIは、何でもできそうに見えます。でも、実際には「何をやらせたいのか」が曖昧だと、うまく機能しないんです。
一方、特化型AIは、やることが決まっています。「この作業を、こうやってやる」というのが明確なので、AIも迷わない。だから成功率が高い。
私たちのような中小企業がAIを使うなら
では、私たちのような中小企業がAIを使う時、どうすればいいのでしょうか。
まず一つ目は、「AIを過信しない」ことです。
AIが出してきた答えは必ずチェックする。特に、事実関係については必ず裏を取る。論文の引用、統計データ、固有名詞。こういったものは、AIが間違えやすいポイントです。
二つ目は、「小さく始める」ことです。
いきなり大きなプロジェクトをAIに任せるのではなく、まずは小さな作業から試してみる。うまくいったら、徐々に範囲を広げていく。
三つ目は、「特化させる」ことです。
「何でもやってくれ」ではなく、「この作業を、こういう風にやってくれ」と明確に指示する。目的を絞る。そうすることで、AIも性能を発揮しやすくなります。
四つ目は、「人間が最終チェックをする」ことです。
途中でチェックしてもヌケモレがでます。ですのでもう一度最後は人間が責任を持つ。これは絶対に必要です。
Deloitteの失敗から学ぶ
興味深いのはDeloitteがこの失敗にも関わらず、AI投資を大幅に加速させていることです。
返金発表と同じ日に、Anthropicとの提携拡大を公表し、全世界47万人の従業員にAIを展開する計画を発表しました。
これは後退ではなく前進なんです。
失敗から学んで次に活かす。それがDeloitteの姿勢です。この内容だけ見ると、ちょっと開き直っているようにも見えるので、どうかなと思う部分はありますが(笑)、企業姿勢としては正しい判断です。
彼らは、単なる汎用チャットボットではなく、職種ごとに異なるAI「ペルソナ」を開発する方針を打ち出しました。会計士向け、ソフトウェア開発者向けなど、専門性の高い作業を支援するAIエージェントです。
そして、1万5,000人の専門家をAI活用の認定者として養成する計画も進めています。
つまり、「AIを使う」だけではなく、「AIを正しく使う人材を育てる」ことに投資しているんです。
結局、大事なのは人間
今回のDeloitteの事例が教えてくれるのは、「結局、大事なのは人間」ということです。
AIがどれだけ進化しても、それを使うのは人間です。AIが出してきた答えを判断するのも人間。そして、その結果に責任を持つのも人間。
Deloitteの失敗は、私たちへの警鐘でもあります。
AIを理解し人間と上手にコラボさせることで、仕事、そして生活がより良いものになっていくでしょう(^^)

