본문 바로가기
지금 나의 관심은.../디지털 유산 관리와 사후 데이터 보호

사망자의 데이터를 AI가 학습해도 될까? 사후 AI 재현의 윤리와 법

by mindgrov 2025. 4. 26.
반응형

AI로 되살아난 고인, 위로일까?

최근 AI 기술의 발전으로, 사망한 사람의 디지털 흔적을 기반으로 한 '그리프봇(griefbot)'이나 '데드봇(deadbot)'이 등장하고 있습니다. 이러한 기술은 고인의 목소리, 말투, 대화 습관 등을 모방하여 유족들이 마치 생전의 고인과 대화하는 듯한 경험을 제공합니다. 일부는 이를 통해 위로를 받기도 하지만, 다른 이들은 이러한 기술이 오히려 유족들의 슬픔을 장기화시키거나 현실 감각을 흐릴 수 있다고 우려합니다.

 

고인의 자기결정권과 AI 재현의 경계

AI 기술을 활용해 사망자를 재현하는 것은 감성적 위로처럼 보일 수 있지만, 그 이면에는 복잡한 윤리적 문제가 얽혀 있습니다. 이 기술은 단순히 텍스트나 음성 데이터를 활용하는 차원을 넘어, ‘사망자의 정체성’을 기술적으로 재현한다는 철학적 문제로까지 이어집니다.
이제 이 문제를 세 가지 핵심 논점으로 나눠 깊이 살펴볼 수 있습니다.

 

① 사망자의 ‘사전 동의’와 자기결정권 존중 문제

생전에 AI로 재현되는 것에 대해 명확히 동의하지 않은 고인의 데이터를 사용하는 행위는 윤리적으로 매우 민감한 영역입니다. 이는 생전의 프라이버시를 존중할 것인가, 아니면 사망 후 유족의 감정 치유를 우선할 것인가 하는 가치 충돌을 동반합니다.

특히, 유럽연합 GDPR은 ‘사망자는 더 이상 데이터 주체가 아니므로 보호 대상이 아니다’라는 해석이 지배적이지만, 프랑스나 독일에서는 사망자의 디지털 유산에 대한 보호 연장을 시도하고 있습니다. 대한민국 역시 아직 명확한 기준은 없지만, 사망자의 생전 개인정보가 유족에게까지 영향을 미칠 수 있기 때문에 사전 동의 절차의 도입이 논의될 필요가 있습니다.

② 유족의 감정권과 슬픔의 순환

유족의 입장에서 고인의 AI를 통해 ‘대화’하거나 ‘음성’을 듣는 경험은 단기적으로 위로가 될 수 있습니다. 그러나 이로 인해 슬픔의 수용과 해소가 지연되거나, AI가 현실을 대체하는 경험이 반복되면 ‘애도하지 못한 채 감정에 붙잡히는’ 역효과도 우려됩니다.

심리학적으로도 '가상의 고인'과 지속적인 상호작용이 슬픔의 종결 단계를 방해할 수 있다는 연구들이 있습니다. 더불어 AI 재현이 현실과 가상의 경계를 모호하게 만들면, 사망 사실 자체를 받아들이는 데 혼란을 줄 수 있습니다. 즉, AI 고인은 위로가 될 수 있지만 동시에 감정적 상처를 반복시키는 트리거가 될 수도 있습니다.

③ 기술이 ‘삶’을 대체하려 할 때

"AI는 과연 인간의 기억과 감정을 대체할 수 있는가?"라는 보다 철학적인 차원에서 질문도 던질 수 있습니다. 사망자의 말투와 표현 방식, 가치관을 그대로 학습한 AI가 고인의 ‘의식’처럼 느껴지는 상황이 온다면, 이는 단순한 도구를 넘어 가짜 존재에 대한 정서적 의존 문제로까지 이어집니다.

이러한 문제는 단순히 기술의 영역이 아닌, 윤리학과 인류학의 깊은 논쟁 주제입니다. ‘기억의 권리’, ‘죽을 권리’, ‘영원히 남겨지지 않을 권리’라는 개념은 사망자의 존엄성을 마지막까지 보장하는 최소한의 윤리적 울타리가 되어야 합니다. 따라서, AI로 고인을 재현하는 기술은 생명 윤리 위에서 매우 제한적이고, 신중하게 운용되어야 합니다.

 

AI 기술을 통한 고인의 AI 재현은 윤리적 및 법적 문제를 동반합니다. 이러한 기술이 유족의 진정한 위로가 되기 위해서는 고인의 생전 동의 제도의 도입, 유족 대산의 심리적 영향 평가, 유족의 권리 보호, 그리고 명확한 법적 기준 마련 등 다각도의 접근이 필요해 보입니다. 

 

반응형