倫理 — 構造を直しても残る 5 つの問い
ここまで 22 回、わりと構造の話ばかりしてきた。労働市場が歪んでいる、規制が空白だ、養成校の AI 教育がまだ薄い、Pepper はこういう理由で外れた、voice AI はこの 4 条件を満たした、humanoid は工場で実証中で病院にはまだ来ない、と。
ここまで 22 回、わりと構造の話ばかりしてきた。労働市場が歪んでいる、規制が空白だ、養成校の AI 教育がまだ薄い、Pepper はこういう理由で外れた、voice AI はこの 4 条件を満たした、humanoid は工場で実証中で病院にはまだ来ない、と。
第 V 幕に入る前に、構造を直しても消えない問題を 5 つだけ並べておきたい。技術論ではなく、技術がうまく実装されたとしても残る種類の問いをまとめます。
僕は普段、健診の現場と読影室を行き来していて、こういう倫理的な疑問を「なんとなく嫌だな」と感じるときがある。法律でグレー、業界 GL ではまだ書かれていない、でも現場の人は薄々わかっている、というやつです。
5 つだけ、なるべく clean に問いを立てます。答えは出さない。第 24 回 (連載最終回 / 日本提言 synthesis) の伏線として置くだけです。
問い 1 — AI の判断で患者が損をしたとき、誰が責任を負うのか
たとえば肺の CT で AI が結節を pick up した。読影医は「これは血管の断面でしょう」と却下した。実際には小さな腺癌で、6 ヶ月後に 2cm まで育って見つかった。患者は訴訟する。誰が被告になるのか?
逆のパターンもある。AI が pick up しなかった所見を医師も見逃した。患者が訴訟する。AI 開発元、PMDA 認証手続き、病院、医師、誰の落ち度か?
米 FDA は「AI が出した推奨を採用するかどうかの最終判断は医師にある」と明示している。だから訴訟相手は医師、というのが米のロジック。でも米でも実態は MGH と Mayo の間で運用が違っていて、MGH は AI 推奨を「全件レビューしてからカルテ記載」、Mayo は「優先度高だけ flag」、Cleveland Clinic は「AI が無音だった所見も second-pass で人が見る」。同じ規制下でも 3 つに分かれる。
日本はもっと grey です。薬機法では SaMD としての承認、医師法では医師の最終判断、製造物責任法では PL 法上の defect — この 3 層が同一ケースに同時に関わる。判例がほぼない。「医師法上は医師の責任、薬機法上は PMDA 承認内、PL 法上は使用方法逸脱なし」みたいに、各法律で責任が分散して、結果的に誰も補償しない、という展開がありえる。
責任分担を契約書で決める動きはある。Lunit と日本の健診センターの契約には「医師の最終判断責任」が書き込まれている。けれど契約は当事者間でしか効力がなくて、患者は契約の外にいる。患者が訴訟するときに「契約上はそうでも、事実上は AI に依存してたよね」という認定をされる可能性は残る。
もう 1 つ、AI accountability で僕が個人的に気になっているのは「学習データに含まれていなかった集団」の扱いです。日本人女性の乳腺は欧米モデルで lower sensitivity で出る、とよく言われる。米国産の AI を日本で使って、結果として日本人女性の見逃しが増えたとき、誰が責任を負うのか。技師でも医師でも病院でもメーカーでもなくて、「学習データの偏り」が原因で、誰の作為でもない事故になる。これは現行法で扱う枠組みがない。
問い 2 — 患者の声を録音し続ける ambient documentation の同意は、どこまで取れるのか
第 20 回で voice AI の話をしました。Nuance DAX、Abridge、Suki が米で 600+ 1,000+ 規模の医療機関で稼働中。日本も 4 年遅れで来ます。
便利です。診察に集中できる。電子カルテ入力が 30-60 分/日減る。
ただ、診察室で患者の声をずっと録っている、という事実があります。
同意はどこまで取るか。「ambient AI を使います」という説明書を一度見せて、「OK です」と言えば、その日の診察分は OK。でも次回は? 患者が「やっぱり今日は録らないで」と言える権利は明示されているか? その日の録音は本当に消去されるのか? Verification は誰がするか?
データはどこに保存されるか。米 HIPAA covered entity だけが扱う構成なら US 国内、Microsoft Azure、限定された期間。でも Nuance DAX は global 製品で、日本の hospital が契約したときにどこに保存されるか、契約書を読まないとわからない。GDPR 圏 (EU) と比べて、日本の改正個人情報保護法 (2022) が「医療情報の二次利用」をどこまで許容しているかは、運用 GL レベルでも決着していない。
そして、training data としての二次利用。「あなたの診察記録を匿名化して AI 改善に使います」という条項が契約書のどこかにあって、患者は実質的に拒否できないことがある。匿名化したつもりが、希少疾患 + 地理的特定 + 年齢 + 性別の組み合わせで個人特定可能になる、という再識別問題は、海外でいくつも事例があります (Massachusetts 州の医療データ匿名化失敗例、Strava heatmap で米軍基地が特定されたケース、等)。
加えて、患者が AI 録音を断ったとき、医師は録音なしで診察を続けるのか、それとも「録音しないなら受診不可」になるのか。米では一部の医院が「録音同意がない患者は別 tier の受診時間枠」と扱い始めていて、「同意の自発性」が崩れ始めている。
ここに正解はない。ただ、現場で誰がどう運用しているかを見える化する義務は、誰かが負うべきだと思う。
問い 3 — 受付クラーク・看護助手・技師補の仕事が消えたとき、それを「効率化」と呼ぶか「displacement」と呼ぶか
第 IV 幕で僕は「2030 年累計で技師時間 15-30% が voice AI / 案内ロボ / VR/AR / humanoid に吸収される」と書いた。これを「craft 深化」「増収」「人員削減」の 3 シナリオで議論した。
でも技師の話をしている裏で、もっと早く影響を受ける職種があります。
医療事務。受付クラーク。看護助手 (technician aide)。検査受付係。診療情報管理士。読影下請けの transcriptionist (これは voice AI でほぼ消える)。
米 BLS 統計では medical secretaries の雇用は 2024-2034 で -10% 予測。Medical transcriptionists は -5%。米はこの数字を「displacement」と呼ぶ。日本はどう呼ぶか。
日本で僕がこの 1 年で見ている特徴は、「displacement の議論がそもそも起きていない」ことです。理由は単純で、医療事務も看護助手も、現状ですでに人手不足だから。「AI に置き換わって失職する」のではなく「AI が来てやっと欠員を埋めずに済む」というロジックが先に立っている。
これは一見、日本特有の幸運に見えるけれど、僕は警戒している理由が 2 つある。
1 つは、「displacement されない」という理由が「もともと足りていない」だからであって、「人として価値がある仕事だから残る」ではない。AI コストが下がり続けて、求人広告すら出さなくなる病院が増えると、医療事務になりたい新卒は就職先を見つけられなくなる。雇用が消えるわけではないけれど、新規参入の道が細くなる、という形での displacement は起きうる。
2 つ目は、医療事務・看護助手が「技師補」「読影補助」のような臨床周辺職にステップアップする経路が、AI に経路ごと吸収される可能性。日本の医療労働市場は、看護助手 → 准看 → 看護師、医療事務 → 診療情報管理士、技師補 → 技師、というキャリアパス上昇が、地方や中小病院での人材育成の根幹だった。AI がその下層を吸い上げると、上層への階段の最初の一段が消える。これは長期的に「医療現場の上層に若い人がほとんどいない」ことにつながる。
「効率化」と「displacement」のどちらと呼ぶかは、政策議論として超重要です。前者なら厚労省の話、後者なら経産省 + 厚労省 + 文科省の連携テーマになる。日本では今のところ、前者で済ませている。
問い 4 — AI に頼ることで、人の判断力は劣化するのか
これは僕にとって、5 つのうちで一番モヤッとしている問いです。
航空業界で「automation surprise」という言葉があって、autopilot に長く頼っていたパイロットが、いざ手動操縦に切り替わったときに対応できない、というケースを指す。Air France 447 (2009)、Asiana 214 (2013) など。
医療版が起こりうる。読影 AI を 10 年使い続けた radiologist が、ある日 AI が落ちた状態で 100 件の CT を読まされたとき、AI なし時代の自分と同じレベルで読めるか。Mayo の 2024 内部評価では、AI 使用 2 年以上の radiologist は AI なし環境で sensitivity が 4-7% 落ちる、というデータが内部資料 (公開はされていない) で出ている、という話を、現地の読影医から直接聞いたことがある。
技師についても同じ問いがある。撮影プロトコル選択を AI が prompt するようになって 3-5 年経ったあと、AI が落ちたときに技師は自分で全部選べるか。CT の画質トラブル (artifact) が出たとき、AI が flag しなかった subtle な artifact を、人の目で気づけるか。「気づかなくなった」のではなく「気づけなくなった」になっていないか。
RSNA の 2024 大規模試験で、興味深い結果が出ている。乳房 mammography の screening で、
- AI 単独: AUC 0.86
- 人 (radiologist) 単独: AUC 0.83
- 人 + AI 併用: AUC 0.87
人 + AI が一番強い、というのは予想通り。でも内訳を見ると、「人 + AI」のほとんどの上昇分は「AI が flag した所見を人が確認した」由来で、「人が独自に気づいて AI が同意」由来は限定的だった。つまり 5-10 年後に、「人 + AI」の AUC が「AI 単独」を下回る可能性がある。人が AI に依存して独自判断を弱めると、合議は強くならない。
これは technical issue として「AI に過度依存しないように UI を設計する」「AI off の training を定期的に挟む」みたいな対策で部分的に解ける。でも本質的には倫理問題で、「人が判断する力を維持するために、わざと AI を使わない時間を作る」ことを医療経営の経済的合理性の中で続けられるか、というガバナンス問題になる。
僕の今の仮説: 病院単位で「AI off 日」を月 1 で設定するくらいのことを、職能団体 (JART / 放射線科専門医会) が advocate しないと、自然には起きない。経営側は AI を full activate した方が読影スループットが上がるから、「敢えて AI 使わない時間」を作るインセンティブはない。
問い 5 — AI が「均霑化」を実現するか、それとも「格差」を拡大するか
最後はマクロな問いです。
AI 推進派の理屈: 「大学病院でしか読めなかった希少疾患も、AI が裏で動けば 200 床の地方病院でも見落とさない。これは均霑化です」。
AI 警戒派の理屈: 「AI を導入できる病院だけがメリットを受ける。導入できない病院 (中小、地方、離島) との差は逆に広がる」。
両方正しいです。問題は「どっちが優勢になるか」で、これは政策と価格設計次第です。
米の現状:
- Mayo / Cleveland / Stanford / Johns Hopkins / MGH の 5 大施設が、AI 開発のパートナーとして寡占。Lunit、Aidoc、Viz.ai、Rad AI などはここに先に入る。
- 中堅以下の community hospital は、AI ツールを「使う側」で、「co-design する側」ではない。
- 結果として、希少 / 高難度 case は引き続き 5 大施設に集まり、AI もそこで磨かれて、また 5 大施設の優位が強化される。
日本の現状:
- 大学病院 + がんセンター中心の AI 導入。健診センターは Lunit を中心に高シェア。中小病院 (200-400 床) は、放射線科専門医不在 + 設備リース予算制約で AI 導入が遅い。
- 一方で日本は、米と違って 8,000 病院の long tail がある。AI 一律導入が「均霑化」になりうる構造的余地は、米より大きい。
- ただし、AI ライセンスフィーが施設規模に応じた tier 価格になるか、施設規模に依らない uniform 価格になるかで、long tail の取り込み速度が決まる。Lunit は uniform 寄り、Aidoc は tier 寄り、と聞いている。
JART (第 17 回参照) は職能団体としてこの議論をまだ正面から扱っていない。「AI 推進の advocacy」と「格差是正の advocacy」を両立させるのは難しいが、職能団体の役割としては両方が期待される。日本の場合、JART が「中小病院・地方病院での AI 導入支援」を JART レベルで明示するかどうかが、今後 5 年の格差動向に効きます。
「AI が格差を拡大しない」を保証する自然な力学はない。これは作為で介入しないと、放置で拡大する方向に動く問題です。
5 問の共通構造 — 「技術が解いた」と思っても残る
5 つを並べたとき、共通の構造があります。
- AI 責任帰属: 技術 (AI) が「正しく動いた」場合でも、責任の帰属は法律と契約と慣行で決まる、技術論で消えない。
- ambient プライバシー: 技術 (voice AI) が「正しく実装された」場合でも、同意の自発性、データ保管、二次利用の問題は別レイヤー。
- 雇用 displacement: 技術 (自動化) が「効率化」を実現した結果、誰の仕事が消えるかの判断は社会選択。
- AI 依存: 技術 (AI) が「人の判断を補助する」目的を完璧に達成しても、人の判断力が長期的に劣化するかどうかは別問題。
- 均霑化 vs 格差: 技術 (AI) が「均霑化のポテンシャルを持つ」と「均霑化を実現する」は別。介入しなければ格差拡大が default。
つまり、第 IV 幕で評価した 4 技術カテゴリ (案内ロボ / voice AI / VR/AR / humanoid) のすべてが、第 18 回の 4 条件 (人間補助 / 単機能 / ROI / 法的明瞭) を完璧にクリアしたとしても、上の 5 問は残ります。
これは技術への悲観論ではなくて、「技術評価の 4 条件と倫理評価の 5 問は別軸」という整理です。第 18 回の 4 条件は「技術がそもそも展開可能か」を見る。今回の 5 問は「展開された後の社会選択」を見る。
両方が必要で、片方だけでは判断できない。
第 24 回 (連載最終回 / 日本提言 synthesis) で僕がやりたいこと
第 24 回は連載最長になります。
これまで 23 回で積み上げたもの:
- 第 II 幕 8 ヶ国モデル (米 / 英 / 北欧 / 独 / 韓 / 星 / 中 / 中東-豪-印)
- 第 III 幕 日本の構造的歪み 5 つ
- 第 18 回 Pepper の 3 教訓
- 第 IV 幕 4 技術カテゴリ評価
- 第 23 回 残り続ける 5 つの倫理問
これを foundation にして、4 軸 (政策 / 経営 / 職能団体 / 国際連携) で 2026-2030 の具体的レバーを提示します。誰が何をやるべきか。何を avoid すべきか。古澤 良知 個人の意見と、現場で観測したファクトを分けて並べる。
連載通してくれた人にとっての結論を、ここに集約させてもらいます。
来週で連載は閉じます。ここまで 23 週、読み続けてくれた人、本当にありがとうございます。最後の 1 通で、構造的なことを全部言い切ります。
— LifeLink Insights (監修: YOSHI.TOMO FURUSAWA)
著者: LifeLink Insights | 監修: YOSHI.TOMO FURUSAWA Gloversal, Inc. CEO — "Turning healthcare technology into human-centered operations." https://gloversal.com/
連載アーカイブ: [note マガジン link] 本日同時公開: Notion (プロ向け) / Medium / Substack / X thread