人生の最期を、私たちは誰に委ねるのか
「人生の最期は、自分で選びたい」
そんな思いを背景に、近年、世界各国で安楽死を巡る議論が活発になっています。その中でも特に注目を集めているのが、安楽死カプセル「サルコ(Sarco)」と、そこに新たに導入されるAIによる精神状態判定です。
人の「死の選択」にAIが関与する時代は、私たちに何を問いかけているのでしょうか。
安楽死カプセル「サルコ」とは何か
「サルコ」は、オーストラリア出身の医師で安楽死活動家でもあるフィリップ・ニッチケ氏が開発した安楽死カプセルです。
名前は「石棺(サルコファガス)」に由来し、2019年に発表されました。
特徴として語られてきたのは、
- 医師が直接関与しない設計
- 利用者自身の意思によって操作される点
- 医療施設に依存しない構造
などです。
安楽死が形式上合法とされているスイスでは、2024年に初めて実際に使用されたと報じられ、大きな議論を呼びました。
AIによる「精神判定」の導入
今回、新たに注目されているのが、AIによる精神状態の判定テストです。
これは、安楽死を希望する本人が
「自らの人生を終える判断を下すだけの意思能力を備えているか」
を確認する目的で導入されました。
報道によると、
- AIが「問題なし」と判断した場合のみ、次の段階へ進める
- 判定後、一定時間内に本人が最終判断を下す
- 期限を過ぎると、手続きは最初からやり直し
という仕組みが検討・導入されています。
近年、AIチャットボットが精神的に不安定な人に悪影響を与えたとして訴訟問題に発展した事例もあり、「AIが命に関わる判断をすること」への懸念が高まる中、今回は逆に“歯止め”としてAIが使われている点が特徴的です。
法律と倫理の狭間で
サルコの初使用を巡っては、その場に立ち会った医師が自殺ほう助の疑いで当局に逮捕される事態も起きました。
スイスでは、
- 本人の自発的意思であること
- 手助けする側に利己的動機がないこと
が条件とされていますが、その解釈を巡っては今なお議論が続いています。
この出来事は、
「制度として認められているはずの安楽死であっても、現場の判断や責任は極めて重い」
という現実を浮き彫りにしました。
人の死をAIに委ねてよいのか
ここで、素朴な疑問が浮かびます。
- 本当にAIによる判定は必要なのか
- 精神科医による従来の評価では不十分なのか
- 判断の責任は、誰が負うのか
AIを導入することで、人間が抱える精神的負担や法的リスクを軽減できる一方、
「人の最期をアルゴリズムで判断してよいのか」
という新たな倫理問題も生まれています。
最新の動向としても、専門家や倫理学者の間では
AIはあくまで補助的役割にとどめるべきだ
という慎重な意見が多く、明確な答えはまだ出ていません。
安楽死をどう考えるか ― 筆者の見解
安楽死は、非常に重く、簡単に結論を出せるテーマではありません。
ただし、
- 慢性的で耐え難い苦痛
- 回復の見込みがない病
- 本人の明確な意思
といった特定の事情下では、「安楽死」という選択肢を否定しきれない現実もあるでしょう。
今回の安楽死カプセルとAI判定について感じるのは、
人が実行するか、AIが実行するかの違いではなく、
“本人の意思が本当に尊重されているか”が本質ではないか
という点です。
人生の最期をどう迎えるのか。
その選択を、誰と、どのように共有するのか。
このニュースは、私たち一人ひとりに
「生き方」と「死に方」を改めて考えさせる問いを投げかけています。
まとめ
- 安楽死カプセル「サルコ」にAI精神判定が導入され議論が再燃
- 法律・倫理・技術が交差する極めて難しいテーマ
- 重要なのは技術そのものより「本人の意思と尊厳」
センシティブだからこそ、感情的にならず、社会的な視点で考え続けることが求められているのかもしれません。


コメント