AI社員に人格は不要。目的である価値設計から入るべき

「AI社員に人格は不要」というのがぼくの立場です。それどころか、「AI社員を作る」という発想自体に手段の目的化を感じています。

GeminiのGemsをやめてClaudeのSkillsに乗り換えたことをきっかけにClaude Codeを使い倒すようになり、その流れで自分の業務AI化を試みたのですが、設計をどう考えても「人格」という軸が自然には出てきませんでした。

この違和感を言語化してみます。

スポンサーリンク

きっかけ:AI組織の設計で「人格」が出てこなかった

会社の業務をAIで組織化しようと試みたとき、担当クライアント・業務の類型・業務フロー・スキル・関心事といった軸でエージェントを分割することを考えました。しかし、どの角度から切っても、エージェント同士を区別する根拠として「人格の違い」は出てきませんでした。

その後、「AI社員に人格を持たせるべき」という論調のコンテンツをSNSや動画で改めて調べてみました。読んでみると、内容のほとんどは表現レイヤの話でした。人格を持たせると何が変わるかといえば、口調・返答スタイル・エモーションの乗せ方が変わります。ようするに、AIとやりとりする人間をエンターテインするための表現の味付けです。

コンテンツレイヤ——何を調査し、何を判断し、何を出力するか——は人格で変わるわけではありません。アウトプットの品質・アウトカムへの貢献という観点では、人格の有無はほとんど関係ないんですよね。

AI社員の人格より先に問うべきは価値設計

正直に言うと、ぼくは「AI社員を作り育てる」という発想そのものに手段の目的化を感じています。AI社員というフォームに当てはめることが目的になっていて、「そのAIで何を実現するか」という価値設計が後回しになっているケースが多い印象です。

先にあるべきなのは価値設計です。 どんな状態を作り出したいのか。どの業務を変えたいのか。その問いへの答えから逆算したとき、「AI社員」という形態が最適とは限りません。今回の記事でぼくが議論しているのも、その前提の上の話です。「どうしてもAI社員を作るという手段を取るとしたら」という条件を置いたうえで、そのなかで合理的な設計として思考モードを起点にする考え方を提案しています。

とはいえ、「AI社員を作る」というコンセプト自体のわかりやすさは認めています。AIを人間に見立て、育てるように教えていくアプローチは、AIに慣れていない人にはとっつきやすいフレームです。特に「部下を持つ立場かつAI初心者」というセグメントには、この入口は有効だと思います。人材育成になぞらえることで、ITそのものに疎い層でも自分ごととして受け入れやすくなります。ぼくが問題にしているのは、その入口をそのまま最終形態として扱うことです。

社員の本質は「機能(ファンクション)」

組織における社員の本質を考えると、業務プロセスを実行してアウトカムを生み出す「機能」として整理できます。

たとえば、経理担当は数字に強い性格だから採用されるのではありません。経理という機能を担えるから採用されます。

ぼくがAI組織を設計しようとしたときも、自然とこの考え方に沿っていました。担当業務・スキルセット・扱う情報領域。これらの軸でAIを分割する理由はすぐに見つかりましたが、人格を分割軸にする理由はどうしても出てきませんでした。

人間同士のコミュニケーションで人格が果たしている役割は確かにあります。信頼構築・感情的サポート・関係の継続性。ただ、これらは人間特有の複雑性から生まれるニーズです。

ぼくの考えでは、業務を「前さばき層(定型対応・情報収集・データ整理・ドラフト作成)」と「本質層(洞察・意思決定・感情的サポート・関係構築)」の2層に分けると整理できます。人格が本当に必要とされるのは本質層であり、その本質層は引き続き人間が担う部分です。

多様性は「人格」ではなく「思考モード」で担保する

「人格を複数持たせることで、組織に多様な視点が生まれる」という主張もよく目にします。ロジックとして理解できますが、それをあえて複数の観点や文脈が1つにパッケージされた「人格」でやる必要はないと思っています。楽観的視点・悲観的視点・革新的視点・保守的視点。これらは「人格」の一部ではなく、独立した「思考モード(観点)」として実装すべきです。

具体的には、人格は「普段は楽観的だが数字の話だと悲観的になるAI社員」というパッケージです。一方、思考モードは「今回のアウトプットに楽観視点のレビューを追加する」という命令です。後者のほうがコントロールしやすく、状況に応じた切り替えや組み合わせが柔軟にできるでしょう。

多様な思考モードの組み合わせから最適解を探索するアプローチは、業務の文脈への最適化という点で人格より合理的です。 ぼく自身はまだこれを構想段階で試せていないのですが、方向性としては確信しています。

人格が有効になる場面

ただし、ぼくの結論がすべてのケースに当てはまるわけではありません。

たとえば、顧客と直接やりとりするAI(チャットサポート・接客エージェントなど)では、一貫したキャラクターが信頼感やブランド体験につながるケースがあります。また、感情的なつながりを目的としたAI(メンタルヘルスサポート・コーチングツールなど)では、人格の一貫性が機能の一部になります。

「人格を持たせるべき」という論調の多くは、こういったユースケースを念頭に置いているようにも見えます。ぼくが違和感を覚えたのは、それを業務効率を目的としたAI組織設計にそのまま適用しようとしていることなのです。

まとめ

ぼくの考えを整理すると、こうなります。

  • 価値設計が先: 「AI社員を作る」より「何を実現するか」を先に問う。手段から入ると目的を見失う
  • 人格は表現レイヤ: コンテンツ品質・アウトカムは人格で変わらない
  • 社員の本質は機能: 業務・スキル・情報領域が自然な分割軸になる
  • 多様性は思考モードで担保: 人格という固定パッケージより、モードの動的な組み合わせのほうが柔軟

本件におけるぼくの文脈は「業務効率化のためのAI組織設計」です。なので、AI初心者が入口として「AI社員」というフレームを使うことは有効だと思っていますし否定はしません。

ただ、慣れてきたら価値設計からの逆算に切り替えることをおすすめしたいです。設計の目的を先に定めてから、人格の要不要を問う。その順番が大事だと考えます。

ここまで読んでいただきありがとうございました。

コメント

タイトルとURLをコピーしました