トップ
事務所案内
お問合せ
労務コンテンツ一覧
サービス案内
人事労務ニュース
リーフレット
リンク先
IPO労務監査・改善
M&A労務監査
給与監査顧問
人材採用・確保支援
就業規則作成・改定
高難度業務対応
労働問題解決
求人内容
裁判例紹介・ブログ
作成日:2026/03/27
【ブログ】AIを使う時代に問われる「品質の保証」− 海外大手コンサルの失敗事例と、私自身が体験したこと−
AIを使う時代に問われる「品質の保証」
── 海外大手コンサルの失敗事例と、私自身が体験したこと

AIによって業務効率が上がること自体は、非常に良いことです。
実際、多くの業務でAIが使われるようになり、これからは「AIを使うかどうか」ではなく、「どう使うか」が問われる時代になっていくと思います。

ただ一方で、AI活用に関する深刻な問題もすでに起き始めています。
本記事では、海外で実際に発生した事例と、私自身が経験したエピソードをもとに、AIと「品質の保証」について考えてみたいと思います。

1. 海外で相次いだ「AI引用捏造」問題

2025年、世界四大会計事務所の一つであるデロイトが、オーストラリアとカナダの両国で、政府向け報告書にAIが生成した架空の引用を含めていたことが相次いで発覚しました。

【事例1】オーストラリア ─ 政府委託報告書の引用捏造(2025年7月公開) デロイト・オーストラリアは、雇用・職場関係省から約44万豪ドル(約4,300万円)で委託を受け、福祉制度のコンプライアンスに関する237ページの報告書を作成しました。

しかし、シドニー大学の研究者クリス・ラッジ氏がこの報告書を精査したところ、存在しない学術論文への引用や、連邦裁判所の判事の発言を捏造した引用文など、合計約20箇所のエラーが発見されました。

デロイトはAIツール(Azure OpenAI・GPT-4o)の使用を認め、修正版を再公開するとともに、契約の最終支払い分を返金することで合意しています。
【事例2】カナダ ─ 医療人材計画報告書の偽引用(2025年5月公開) 続いてカナダでは、ニューファンドランド&ラブラドール州政府がデロイト・カナダに約160万カナダドル(約1億6,000万円)で委託した526ページの医療人材計画報告書においても、実在する研究者を架空の論文の著者として引用するなど、少なくとも4件の偽引用が発見されました。

引用された研究者本人が「その論文は存在しない」「名前が挙げられた共著者とは共同研究したことがない」と証言しており、AI由来の捏造である可能性が高いと報じられています。

デロイト・カナダは「引用のサポートに限定的にAIを使用した」と認め、引用箇所の修正を進めています。なお、現地の公認会計士協会(CPANL)は、デロイトに対する正式な調査を開始しています。

オーストラリアの野党議員は「判事の言葉を捏造し、存在しない参考文献を使うなど、大学1年生でも深刻な問題になるようなことだ」と厳しく批判しています。

いずれのケースでも、デロイトは「報告書の提言・推奨事項そのものには影響しない」と主張していますが、引用の正確性に対する信頼が損なわれたことで、報告書全体の信頼性が大きく揺らいでいます。

2. 私自身が体験したこと

海外の大手コンサルに限った話ではありません。実は、私自身もAI活用の品質に関する問題を直接体験しています。

【実体験】クライアントの給与規程に関するエピソード あるクライアント企業の給与規程について、別の社会保険労務士から提示された内容を確認してほしいと依頼を受けたことがあります。

実際に目を通してみると、その内容は生成AIで作成された結果がそのまま提示されたものでした。法的な観点からの内容精査も、規程としての体裁の処理も一切なされていない状態だったのです。

私はその点を率直に指摘しました。

給与規程は、賃金の計算方法や支払い条件を定める文書であり、労使間の権利義務に直結します。AIの出力をそのまま「成果物」として提示することは、専門家としての職責が果たされているとは言い難いと感じました。

AIを使うこと自体は問題ではありません。しかし、AIの出力に対して専門的な検証を行い、実務に耐える品質に仕上げるプロセスを経ているかどうか。ここが、専門家としての価値の分かれ目になります。

3. これから問われること

AIは便利なツールですが、使い方を誤ると品質に対する信頼を損なう可能性があります。
今後は、「AIを使っているかどうか」ではなく、「AIを使っても品質が担保されているか」が重要になっていくでしょう。

品質への信頼は、内容の正確さだけでなく、プロセスの誠実さによっても支えられています。デロイトのケースが示しているのは、結論が正しくても、そこに至る過程に不誠実さがあれば、成果物全体の信頼が損なわれるということです。

例えば、次のような運用を社内で明確にしておくことが求められます。

AIは下書き・たたき台の作成までに留め、最終確認は必ず人間(専門家)が行う
引用・エビデンスは必ず原典にあたって確認する
AI活用のルール・ポリシーを策定し、必要に応じて外部にも示せる状態にしておく
4. 専門家の役割は変わる、しかしなくならない

AIを使うこと自体は、これから当たり前になります。
だからこそ、その成果物の品質を誰がどこまで保証するのかという点が、より強く問われるようになります。

責任の重い仕事や重要な判断が必要な案件では、まだまだ専門家の判断が不可欠な場面は多いでしょう。すべての仕事がすぐにAIに置き換わるわけではありません。

ただし、「単に書類を作るだけ」という仕事の価値は、今後少しずつ変わっていくのではないかと感じています。AIでもできることではなく、専門家にしかできないこと──すなわち、事実の検証、法的リスクの判断、クライアントの状況に即した個別の助言──こそが、これからの専門家の本質的な価値になっていくはずです。

AI活用のルールやポリシーの具体的な策定方法については、また別の機会に整理してみたいと思います。
当法人でも、AIを積極的に活用しつつ、専門家としての検証プロセスを経た成果物をクライアントにお届けすることを大切にしています。

※本記事で紹介した海外事例は、2025年10月〜11月に各種報道機関(Fortune、CBC News、The Independent等)で報じられた内容に基づいています。金額は報道時点のものであり、為替レートにより変動します。