なぜ、AIは「匠の技」を代替できないのか?

人工知能(AI)の進化は、かつては人間の聖域とされてきた「知的労働」の領域に、静かだが確実な足音で迫っている。複雑な症例を診断し、膨大な判例を分析し、難解なデータを解釈する――。これまで医師や弁護士といった専門家が担ってきたこれらの業務が、AIによって代替される日は、もはやSFの世界の話ではない。

多くの予測は、AIが専門職の仕事を奪い、彼らの権威を失墜させる未来を描き出す。しかし、その予測は、専門家の「知」の本質を、あまりにも単純に捉えすぎてはいないだろうか。もし、専門家の真の価値が、教科書的な知識や論理的な思考力といった「AIが得意なこと」ではなく、もっと人間的な、機械には決して真似のできない「何か」にあるとしたら?

この根深く、複雑な課題に、私たちはどう向き合えばよいのだろうか。

なぜ、AIの「完璧な診断」は、患者の心を救えないのか?

近年、医療分野におけるAIの活用は目覚ましい。例えば、富士フイルムが開発したAI技術は、CT画像から肺がんの疑いがある候補を検出するなど、医師の診断を支援するツールとして実用化が進んでいる。AIが人間の目では見逃してしまうような微細な兆候を発見し、診断の精度を向上させる可能性は、多くの専門家が認めるところだ。

しかし、この技術の進歩は、私たちに一つの問いを投げかける。もしAIが人間よりも正確な診断を下せるようになったとしても、私たちは医師という存在を必要としなくなるのだろうか。

この問いは、決して医療だけの話ではない。法務部門で働く佐藤さんも、同様の課題に直面していた。彼女の会社では、契約書のレビュー業務にAIツールを導入した。AIは、契約書に潜むリスクを瞬時に、かつ網羅的に洗い出してくれる。業務は劇的に効率化された。しかし、佐藤は一抹の不安を拭えないでいた。AIが提示するリスクリストは、あまりに無機質で、文脈を欠いている。

「この条項のリスクは、確かに理論上は存在する。しかし、長年の付き合いがあるこの取引先との関係性を考えれば、許容できる範囲だ」。そうした、AIには判断できない「人間的な機微」を、どう評価すればよいのか。最終的な判断を下すのは、常に人間である佐藤の役割だった。

このような課題が多くの専門職の現場で他人事ではないのは、私たちが専門家の「知(Expertise)」を、単に知識や情報を処理する「認知能力」として捉えがちだからだ。しかし、専門家の仕事は、それだけではない。彼らは、患者やクライアントとの対話を通じて状況を理解し、組織内の力学を読み解き、そして、自らの判断に対する「責任」を負う。この、知識、文脈、そして責任が複雑に絡み合った実践こそが、専門知の本質なのである。

複雑な課題を構造的に捉えるための「思考の道具」

佐藤さんが直面したようなジレンマを、単なるAIの技術的な限界として片付けるのではなく、構造的に分析するための思考の道具をいくつか紹介する。

「実体」としての専門知
これは、専門家の知を、個人が所有する知識や認知能力といった、独立した「実体(Substance)」として捉える見方である。この見方に立てば、専門知は人間から抽出し、データ化し、AIに学習させることが可能であるように思える。多くのAI脅威論は、この「実体論的」な専門知の理解に基づいている。

「関係性」の中で生まれる専門知
これに対し、専門家の知は、孤立した個人の頭の中に存在するのではなく、他者やモノ、状況との「関係性(Relation)」の中で、生成され、適用され、承認されるという見方がある。この「関係論的」な視点に立てば、専門知は文脈から切り離すことができず、AIによる完全な代替は原理的に困難となる。

関係論的専門知がAIにもたらす3つの壁
関係論的な視点から専門知を捉え直すと、AIが専門職の仕事を代替する上で、以下の3つの本質的な壁に突き当たることがわかる。

  • 不透明性の壁(Opacity): 関係性の中で生まれる暗黙知や文脈的知識は、データ化が困難であり、AIの学習データには含まれない。

  • 翻訳の壁(Translation): AIが生み出す客観的なアウトプットは、個々のクライアントの感情や状況に合わせて「翻訳」されなければ、受け入れられない。

  • 説明責任の壁(Accountability): AIの判断プロセスはブラックボックス化しがちであり、なぜその結論に至ったのかを説明し、最終的な責任を負うことができない。

AIには決して真似できない、「関係的専門知」という聖域

この問いに対し、Pakarinen and Huising (2023)が経営学のトップジャーナルであるJournal of Management Studiesで発表した論文は、AI時代の専門職の未来を考える上で、極めて重要な理論的視座を提供している。この研究は、AIが専門職を代替するという一般的な予測の根底にある「専門知」の捉え方を批判的に検討し、社会学や組織論における膨大な実証研究を統合することで、「関係的専門知(Relational Expertise)」という新しい概念を提示したものである。

この研究が私たちに見せてくれるのは、専門家の真の価値が、AIが模倣可能な「実体」としての知識ではなく、人間同士の相互作用の中でしか生まれ得ない「関係性」の中にこそ宿るという、希望に満ちた光景だ。

1. 専門知は「生成」される:AIには見えない、現場の暗黙知

研究によれば、専門家の知は、単に教科書から学ぶだけでは完結しない。それは、同僚、クライアント、そして様々なモノやツールとの相互作用の中で、常に「生成」され続ける。例えば、医師は、患者の言葉にならない表情や、看護師との何気ない会話、そして過去の類似症例の記憶といった、画像データには現れない無数の情報を統合して診断を下す。

この発見が示唆するのは、AIの学習データがいかに膨大であろうとも、それは常に「不完全」であるという事実だ。関係性の中で生まれる、こうした文脈的で暗黙的な知は、データ化することが極めて困難であり、AIにとっては「不透明」なままである。AIによる診断は、この豊かな関係性の網の目から抜け落ちた、断片的な情報に基づくものにならざるを得ない。

2. 専門知は「適用」される:AIにはできない、人間的な「翻訳」

次に、専門家の仕事は、正しい答えを出すことだけではない。その答えを、目の前のクライアントが理解し、納得し、そして行動に移せるように「適用」することが求められる。AIがどんなに論理的に完璧な解決策を提示したとしても、それがクライアントの感情や組織の政治力学を無視したものであれば、決して受け入れられることはない。

この事実は、AIのアウトプットと、それを受け取る人間との間に、専門家による「翻訳」というプロセスが不可欠であることを示している。専門家は、AIの無機質な提案を、クライアントの状況に合わせた「人間的な物語」へと翻訳し、信頼関係に基づいてそれを伝える。この翻訳能力こそが、関係的専門知の核心の一つなのだ。

3. 専門知は「承認」される:AIには負えない、最終的な「責任」

そして最も重要な点として、専門家は自らの判断に対して、法的な、そして社会的な「説明責任」を負う。AIは「なぜ」その結論に至ったのかを、人間が納得できる形で説明することができず、万が一間違いがあった場合に、その責任を取ることもできない。

この発見は、AIがどれだけ進化しても、最終的な意思決定の権限と責任は、人間に留まり続けることを示唆している。専門家は、AIを便利な「相談相手」として活用しつつも、その提案を鵜呑みにするのではなく、自らの専門知に基づいて検証し、最終的な判断を下し、その結果に責任を負う。この「説明責任」を全うする能力こそが、専門家が社会から信頼を「承認」されるための最後の砦となる。

この「人間性の砦」は、本当に安泰か?

もちろん、どのような優れた理論も、それ一つで全てを語ることはできない。Pakarinen and Huisingの研究は、AIが専門職を「完全に」代替することの困難さを理論的に示したものであり、AIが専門職の業務の一部を自動化したり、仕事のやり方を大きく変えたりする可能性を否定するものではない。

また、「関係的専門知」の重要度は、専門職の種類や、業務の内容によって大きく異なるだろう。より定型的で、人間的な相互作用の少ない業務は、AIによる代替が進みやすいかもしれない。

結局のところ、この研究は専門職の安泰を保証するものではなく、むしろ「AI時代において、私たち専門家が本当に価値を発揮すべき領域はどこなのか」という、より本質的な問いを私たちに投げかけているのかもしれない。

AIを「脅威」から「最高の相棒」に変えるために

では、完璧な答えがないとわかった上で、私たちはこの複雑な問題とどう向き合えばよいのだろうか。

ここまでの話から見えてくるのは、AIと専門家の関係が、ゼロサムの「代替」関係ではなく、互いの強みを活かし合う「協働」関係へと進化していく未来像だ。重要なのは、AIに仕事を奪われることを恐れるのではなく、AIをいかにして「飼いならし(Domestication)」、自らの関係的専門知を増幅させるための「最高の相棒」に育て上げるか、という新しい視点を持つことなのかもしれない。

まず、私たちは、自らの専門知のうち、何が「実体」としての知識であり、何が「関係性」の中で生まれる知なのかを、自覚的に区別する必要がある。そして、前者(知識の検索やデータ分析など)は積極的にAIに委ね、後者(クライアントとの信頼関係構築、複雑な状況の文脈的理解、倫理的判断など)に、自らの時間とエネルギーを集中させるべきではないだろうか。

次に、AIを「ブラックボックス」としてただ利用するのではなく、その思考プロセスを理解し、そのアウトプットを批判的に吟味し、そしてそれをクライアントの言葉に「翻訳」するための、新しいスキルセットを身につける必要がある。

そして、AIの導入によって生まれる新しい役割(例えば、AIの学習データを管理する「データキュレーター」や、AIの倫理的な運用を監督する「AI倫理オフィサー」など)を、専門職の中に積極的に取り込んでいくことも重要だ。

もちろん、これらの論点にすぐさま答えが出るわけではない。しかし、こうした視点を持って対話を始めること自体が、AIという抗いがたい変化の波を、自らの専門性を深化させるための好機へと変える、重要な第一歩となるだろう。

あなたの「専門性」を再定義するための対話リスト

この記事で得た視点を、日々の意思- 決定の場で実践するために、以下のような論点を定期的に自問し、チームで対話する習慣を取り入れてみてはどうだろうか。

  • 専門知の棚卸し: 私たちの仕事において、純粋な知識や情報処理に該当する部分はどこか?そして、クライアントや他部署との「関係性」の中でしか生まれない価値はどこにあるか?

  • AIとの役割分担: AIに任せるべきタスクと、人間が担うべきタスクを、どのように切り分けるべきか?AIの分析結果を、どのように人間的な文脈に「翻訳」して付加価値を生み出すか?

  • 新たなスキルの特定: AIを使いこなし、その提案を批判的に評価し、そしてその結果に責任を負うために、私たちにはどのような新しいスキルや知識が必要か?

  • 説明責任の所在: AIを用いた意思決定において、最終的な説明責任は誰が、どのように果たすのか?そのプロセスは、クライアントや社会に対して透明性を確保できているか?

  • 未来の役割創造: AIの普及によって、私たちの専門職の中に、どのような新しい役割や専門性が生まれる可能性があるか?その変化に備え、私たちは今から何を学ぶべきか?

#️⃣【タグ】
人工知能(AI), 専門職, 専門知, 関係的アプローチ, 暗黙知

📖【書誌情報】
Pakarinen, P., & Huising, R. (2023). Relational expertise: What machines can’t know. Journal of Management Studies, 62, 2053-2082.