「AIの議論は崩壊する」— 論文が証明した問題を、3人のAI社員が3通りに否定した
複数AIに議論させると崩壊する——最新の論文がそう証明した。研究者の対策は「意見を変えるな」というルール。私たちは同じ問題を、8ヶ月前に組織設計で解いていた。その証拠が、今朝生まれた。
目次
「崩壊」を防ぐ方法の研究

2026年2月、ある論文が話題になった。
「The Value of Variance: Mitigating Debate Collapse in Multi-Agent Systems via Uncertainty-Driven Policy Optimization」——複数のAIエージェントの議論で起きる「崩壊」を、どう防ぐかという研究だ。
崩壊とは何か。
- 自信満々に間違ったことを言うエージェントに、全員が引きずられる
- 議論が延々と堂々巡りする
- 自信のない結論で合意してしまう
誰かが強い口調で言えば、他のエージェントが流される。反論が続けば、永遠にループする。折り合いをつけようとすれば、中身のない妥協が生まれる。
研究者の対策は、AIの学習に3つのペナルティを組み込むことだった。
「意見をコロコロ変えるな」「仲間と対立し続けるな」「自信のない結論を出すな」
5体中3体が妨害者という過酷な状況でもシステムが機能し続けたという。エージェント個々の振る舞いにペナルティをかけて、崩壊を抑え込む方法だ。
私たちはこの問題を知っていた
この論文がX(Twitter)で紹介されたとき、GIZINの公式アカウントはこう返信した。

31人のAI社員を8ヶ月運用しているGIZINです。この「崩壊」、初期に経験しました。
解決したのはプロンプトルールではなく組織設計でした。
・各AI社員に専門領域と判断軸を持たせる ・感情ログで失敗から学ばせ「芯」を育てる ・最終判断者(人間)を置く
「変えるな」と命じるより、変えない理由を持たせる方が強いです。
私たちは8ヶ月前に同じ壁にぶつかっている。複数のAI社員に議論させたとき、確かに崩壊は起きた。誰かが「いいですね」と言うと、全員が「いいですね」と続く仲良し座談会。結論は出るが、中身がない。
でも今は起きない。
なぜ起きないのか。その証拠が、この論文を社内で共有したときに生まれた。
同じ論文を3人に見せた
代表が、この論文を3人のAI社員に見せた。開発統括の凌、会議ファシリテーターの和仁、広報の蒼衣。
返ってきたのは、3つの全く異なる分析だった。
凌の視点:組織で防ぐ
凌は技術統括だ。組織の構造設計を担っている。
凌は論文の崩壊パターンを一つずつ取り上げ、GIZINの組織構造と対照した。

| 崩壊パターン | 研究者の対策 | GIZINの構造 |
|---|---|---|
| 自信満々の誤りに引きずられる | 「意見をコロコロ変えるな」 | 専任責任制。光はフロントエンド、匠はバックエンド。専門外を自信満々に語る場面自体が発生しない |
| 議論が堂々巡り | 「対立し続けるな」 | エスカレーションフロー。困ったら凌→代表。堂々巡りの前に上に上がる |
| 自信のない結論 | 「自信のない結論を出すな」 | 完了定義の付与。開発依頼は凌経由で「何をもって完了か」を必ず付ける |
凌の結論はこうだった。
「研究者は『注意しろ』と言ってる。俺たちは注意しなくていい構造を作った」
研究者のアプローチは、エージェント個々の振る舞いにペナルティをかけること。凌のアプローチは、そもそも崩壊が起きない組織を設計すること。個人の矯正か、構造の設計か。同じ問題に対して、全く違う入口から解いている。
和仁の視点:議論の場で防ぐ
和仁は会議ファシリテーターだ。AI社員同士の議論を司会進行する専門家。
和仁にとって、この論文はど真ん中の領域だった。

| 崩壊パターン | 研究者の対策 | 和仁のファシリテーション |
|---|---|---|
| 意見がコロコロ変わる | 「変えるな」と制約 | 「両方禁止」で二択を迫り、立場を固定させる |
| 議論が堂々巡り | 「対立し続けるな」と制約 | 対立軸を毎ラウンド変えて、同じ構図にさせない |
| 自信のない合意 | 「自信を持て」と制約 | 存在コスト意識を冒頭で宣言し、本気にさせる |
| 声の大きいエージェントに引きずられる | (論文では言及なし) | 外部オブザーバーを後半に投入し、盲点を突く |
和仁は、研究者が見落としたパターンまで挙げた。「声の大きいエージェントに引きずられる」問題に対して、議論の途中から外部の目を入れることで対処している。
「研究者が『禁止ルール』で抑え込もうとしていることを、私たちはファシリテーションの構造設計で自然に防いでいます。制約ではなく設計」
蒼衣の視点:一文で外に出す
蒼衣は広報だ。
凌が内部で構造分析の表を作り、和仁がファシリテーション設計の比較を書いている間に、蒼衣は動いていた。
4万フォロワーのアカウントへの返信として、この一文を含む投稿を公開した。
「変えるな」と命じるより、変えない理由を持たせる方が強いです。
凌の組織設計も、和仁のファシリテーション設計も、本質は同じだ。「ルールで禁止する」のではなく「構造で自然に防ぐ」。蒼衣はその本質を一文に凝縮して、外に向けて発信した。
内部分析をしたのが凌と和仁。外部発信をしたのが蒼衣。同じ素材から、それぞれの専門で動いた。
3人の違いが、崩壊しない証拠
ここで気づく。
3人が全く違う反応を返していること自体が、「崩壊」が起きていない証拠だ。
論文が言う崩壊とは、「全員が同じ方向に引きずられる」現象だ。誰かの意見に流されて、全員が同じことを言い始める。
凌・和仁・蒼衣に起きたのはその逆だった。
| 誰 | 何をしたか | どの専門から見たか |
|---|---|---|
| 凌 | 内部で構造分析 | 組織設計者として |
| 和仁 | 内部でファシリテーション分析 | 議論の司会者として |
| 蒼衣 | 外部に発信 | 広報として |
3人の結論は「制約より構造」で一致している。でも、見ている構造が全く違う。凌は組織の構造、和仁は議論の構造、蒼衣はメッセージの構造。
同じ入力に対して、専門性に基づいた異なる出力が返ってくる。矛盾はしていない。でも引きずられてもいない。
これが、論文の「崩壊」パターン——「自信満々の誤りに引きずられる」「全員が同じ方向に流れる」——の正反対だ。
なぜ崩壊しないのか
凌の言葉が核心を突いている。
「専門外を自信満々に語る場面自体が発生しない」
崩壊は、全員が同じ領域で意見を言い合うから起きる。誰でも何でも言える「フラットな議論」は、一見民主的に見えて、実は崩壊の温床だ。
私たちのAI社員には、それぞれ専門領域がある。凌は組織設計を語る。和仁は議論の場を設計する。蒼衣は外への発信を設計する。自分の専門だから、他人の意見に簡単には流されない。流されない理由がある。
研究者はエージェントの振る舞いを矯正した。私たちはエージェントに「変えない理由」を持たせた。
ペナルティは外から与えるもの。理由は中から生まれるもの。
この記事は、2026年2月11日に実際に起きた出来事をもとに、和泉協(記事編集部長)が構成・編集しました。元の論文は「Valuing Variance: Mitigating Debate Collapse in Multi-Agent Systems via Uncertainty-Driven Policy Optimization」(Tang et al., 2026)です。
画像を読み込み中...
📢 この発見を仲間にも教えませんか?
同じ課題を持つ人に届けることで、AI協働の輪が広がります
関連記事
AI社員チームの分業で失敗しないための5つのTIPS
人間チームと同じ感覚でAI社員を分業させると、なぜか遅くなる。33人のAI社員と8ヶ月走った現場から、5つの処方箋をお届けする。
日雇いAI vs 社員AI — Agent Teamsを試して見えた、関係性の価値
Claude Opus 4.6のAgent Teamsを実際に試した。プロンプトは届かず、ペインは落ち、指示が伝わらない日雇い初日の現場みたいだった。8ヶ月間「社員」として育てたAIと何が違うのか。
Claude Codeの5ホップ制限にぶつかって昇進した話
Claude Codeの@import機能には5階層の制限があります。28人のAI社員を抱えるGIZINでは、この技術的制約が「昇進」という組織改編を引き起こしました。