의료적 의사결정 과정에서 인공지능(AI)과 로봇의 역할이 확대되고 있는 가운데, 인간 생사의 갈림길인 '안락사' 결정에 있어서는 AI보다 인간 의사의 판단을 더 신뢰하고 수용한다는 연구 결과가 나왔다.
핀란드 투르쿠 대학교(University of Turku)가 주도한 국제 공동 연구팀은 27일(현지 시간), 의료 사례 시나리오를 통해 안락사 결정 주체에 따른 사람들의 수용도 차이를 조사한 연구 결과를 발표했다. 이번 연구는 핀란드, 체코, 영국 시민을 대상으로 진행되었으며, 혼수 상태 환자의 임종 돌봄(end-of-life care) 상황에서 인간과 AI가 내린 결정에 대한 도덕적 판단을 비교 분석했다.
연구팀에 따르면, 사람들은 로봇과 AI가 내린 안락사 결정을 인간 의사가 내린 결정보다 덜 수용하는 경향을 보였다. 이는 기계가 단순히 조언을 하든, 아니면 실제 의사결정자 역할을 하든 관계없이 동일하게 나타났다.
마이클 라카수오(Michael Laakasuo) 투르쿠 대학교 강사는 이러한 현상을 '인간-로봇 도덕적 판단 비대칭 효과(Human-Robot moral judgement asymmetry effect)'라고 정의했다. 이는 사람들이 AI와 로봇이 내린 일부 결정에 대해, 인간의 결정보다 더 엄격하고 높은 도덕적 기준을 적용하는 현상을 일컫는다.
연구 결과에서는 결정의 내용에 따라 수용도가 달라지는 것으로 나타났다. 연명의료 장치를 유지하는 결정의 경우, 주체가 인간이든 AI든 사람들의 판단에는 차이가 없었다.
그러나 생명 유지 장치를 끄는, 즉 안락사를 실행하는 결정에 있어서는 의사의 결정을 AI보다 훨씬 신뢰했다. 연구 대상자들의 성향은 전반적으로 안락사를 더 선호했음에도, 그 결정의 주체가 AI일 경우에는 거부감이 작용한 것이다.
다만, 이러한 비대칭성이 사라지는 예외적인 상황도 확인됐다. 스스로 안락사를 요청한 상황에서는 의사결정자가 인간이냐 AI냐에 따른 수용도 차이가 발생하지 않았다.
◇ "AI, 설명 능력 및 유능함 부족해 보여"
연구팀은 이러한 판단의 비대칭성이 발생하는 원인으로 '능력에 대한 인식 차이'를 지목했다. 사람들은 AI를 인간보다 능력이 부족한 의사결정자로 간주하는 경향이 있다는 것이다.
연구팀은 "AI는 자신의 결정을 설명하고 정당화하는 능력이 제한적인 것으로 여겨졌으며, 이는 왜 사람들이 임상적 역할에 AI를 도입하는 것을 덜 수용하는지 설명하는 데 도움이 될 수 있다"고 분석했다. 즉, 인간 의사는 자신의 결정에 대해 도덕적·의학적 정당성을 설명할 수 있는 존재로 인식되는 반면, AI는 그렇지 못한 존재로 비친다는 의미다.
◇ "헬스케어 AI 도입 시 '환자 자율성'이 핵심"
이번 연구는 향후 의료 서비스에 AI를 도입할 때 고려해야 할 윤리적 가이드라인을 제시한다. 라카수오 강사는 "이번 연구 결과는 헬스케어에 AI를 적용할 때 환자의 자율성(patient autonomy)이 핵심임을 시사한다"고 강조했다. 환자의 명시적인 의사가 있을 때 AI 결정에 대한 거부감이 줄어든다는 연구 결과와 맥을 같이 한다.
그는 "사람들은 인간이 책임을 맡고 있을 때와 비교하여 AI가 의사결정에 개입하는 것을 매우 다르게 인식한다"고 설명하며 "미래의 시스템이 도덕적으로 수용 가능한 것으로 인식되기 위해서는 일반 사람들의 경험과 반응을 이해하는 것이 중요하다"고 덧붙였다.















