로봇, 인간과 유사한 수준 이를 것
두뇌 이식 통해 죽음 극복한 영생,
그 사람이라 부를 수 있을지 의문
인간 뇌·정신과 육체는 묶여 있어

신 존재 없애려던 트랜스휴머니즘
오히려 새로운 ‘테크노 종교’ 형성

점집 형태 AI 활용 종교 등장 전망
AI 신앙고백, 어린이들 믿음 우려

감정 가진 로봇? 실제 느끼지 못해
‘여김’ 속 본질과 인식의 틈 구별을
AI 발전 하나님 존재 위협하더라도
그 AI조차 창조 원리 뒤따라했을 뿐

샬롬나비
▲학술대회 모습. 왼쪽에서 세 번째가 김기석 교수. ⓒ샬롬나비
인간 형상의 로봇이 만들어지면, 그것은 하나님의 형상이라고 할 수 있을까? 로봇이 자유의지를 가진다면, 신앙도 가질 수 있을까? 그러면 원죄를 회개하고 구원의 확신에 대한 신앙을 고백하는 AI도 나타날까? 두뇌의 정보와 의식이 컴퓨터에 영원히 저장되는 방식으로 사람이 영생을 얻는다면, ‘한 번 죽는 것은 사람에게 정하신 것’이라는 히브리서 말씀은 어떻게 될까? 이단 자료가 챗GPT에 무한 제공된다면, 기독교 교리는 살아남을 수 있을까?

이러한 질문에 대한 응답이 제27회 개혁주의이론실천학회 샬롬나비(상임대표 김영한 박사) 학술대회는 ‘4차 산업혁명 시대 AI와 기독교’라는 주제로 11월 24일 서울 서초구 횃불회관 화평홀에서 발표됐다.

공학자 관점에서 ‘기독교 본질에 대한 인공지능의 도전 및 대처 방안’을 논의한 김기석 교수는 먼저 인간의 외형을 닮은 로봇에 대해 “인간은 하나님의 형상으로 창조됐다. 그리고 휴머노이드 로봇은 궁극적으로 외형과 자연스러운 움직임, 감정표현과 교류 등에서 인간과 거의 유사한 수준에 이를 수 있을 것으로 전망한다”며 “인간의 형상을 따라 만든 휴머노이드 로봇의 형상은 곧 예수의 형상과 같다고 볼 수 있다. 이 사실이 기독교 신앙의 본질을 크게 저해하진 않겠지만, 신앙적·신학적 연구 대상이 될 가치는 충분하다”고 설명했다.

인간과 로봇의 자유의지에 대해 “자유의지란 기독교적으로 죄와 구원, 선행, 도덕적 책임 등 인간 자신의 의지로 행동하고 선택할 수 있는 능력을 뜻한다. 자유의지는 죄와 구원의 원리에 있어 오랜 신학적 논쟁의 주제”라며 “예측 가능하다면, 자유 선택을 내렸다고 말할 수 없다. 그렇다면 로봇도 자유의지가 있을까? 로봇의 행동은 코딩하는 사람에 의해 이미 모든 행동이 결정되도록 프로그램할 수 있다. 그러나 행동 결과를 예측할 수 없도록 코딩한다면, 충분히 자유의지를 가진 존재로 받아들여질 수도 있다”고 밝혔다.

인류의 죽음과 영생에 대해선 “일부는 인간 두뇌의 정보와 의식을 컴퓨터에 업로드할 수 있다면, 인간이 스스로의 생명과 존재를 인지하는 의식이 컴퓨터를 옮겨 다니며 영원히 존재할 수 있고, 그것을 영생이라고 부르겠다고 한다. 실현된다면, 누구나 거치는 죽음을 극복하게 되는 것”이라며 “그러나 그렇게 디지털화된 의식을 그 사람이라고 말할 수 있을까? 그 사람을 그 사람이라고 할 수 있다면, 컴퓨터에 업로드된 그 의식은 영생하면서 행복할까? 개인이 그런 영생을 선택할 수 있다면, 과연 선택할까”라고 질문했다.

그러면서 “한 번 죽는 것은 사람에게 정하신 것이라는 하나님 뜻을 깊이 헤아릴 필요가 있다”며 “죽음을 조정할 수 있다는 AI 시대 사람들의 생각에서 벗어나, 인간은 하나님의 형상을 가진 영적 존재로서 죽음은 삶의 한 부분이며, 끝이 아니라 새로운 시작이라는 것과 삶의 끝을 아름답게 마무리하도록 좋은 죽음에 대한 준비와 영적 준비가 필요하다”고 강조했다.

또 “의식을 컴퓨터에 업로드할 정도로 발전할 컴퓨터의 성능이 한 인간의 두뇌의 성능을 따라갈 수 있을까? 일론 머스크의 AI 연구 프로젝트에 의하면, 인간의 뇌는 IBM 슈퍼 컴퓨터보다 30배 이상의 성능을 갖고 있다고 측정됐다”며 “이는 한 사람을 영생하는 존재로 만들려면, 현재보다 30배 이상의 성능을 가진 수퍼 컴퓨터로 대체해야 한다는 의미다. 현재 기술적으로도 거의 불가능하지만, 상업적으로도 매우 타당하지 못한 접근”이라고 했다.

김 교수는 “의식은 감정·사랑·생각과 마찬가지로 인간 존재가 가진 기능 중 하나다. 인간은 존재를 말하고, 그 여러 기능 중 자아를 인식하는 의식, 다양한 감정을 느끼고 표현하는 것 등이 포함된다. 그 기능을 컴퓨터에 업로드한다 해서, 그 기능이 컴퓨터에서 특정한 형태로 수행된다 해서 인간이라는 존재가 컴퓨터로 옮겨가고 그 존재가 그대로 유지된다고는 할 수 없다”며 “의식을 컴퓨터에 업로드한다는 가정은 어디까지나 가설이고 상상에 지나지 않는다. 인간의 뇌와 정신 기능은 함께 묶여 있고, 이는 개혁주의 인간관과 일치한다”고 밝혔다.

제1회 ‘4차산업혁명과 기독교 포럼’
▲김기석 교수. ⓒ크투 DB

‘AI 교회’에 대해선 “‘특이점’ 이론의 레이 커즈와일(Raymond Kurzweil)의 일부 추종자들이 AI를 신으로 숭배하면서 자체 종교의식·예배·교리를 계속 전파하는 이들이 있다. 트랜스휴머니즘으로 무장한 AI 운동은 신의 존재를 제거하고자 했으나, 역설적으로 ‘테크노 종교(Techno Religion)’라는 새로운 종교를 배태한 것”이라며 “‘테크노 종교’는 신과 관계없는 AI의 데이터주의, 알고리즘과 유전자 테크놀로지를 통해 지상에서의 평화와 번역, 불멸과 영생, 가상 낙원의 내세관을 꿈꾸는 신종교 운동으로 발전할 수 있다”고 내다봤다.

그는 “인간은 누구나 미래를 몰라 불안해한다. 그래서 젊은이들도, 심지어 성도들도 무당이나 철학관을 찾아가 사주·운세·타로·점 등을 본다. 사주나 다양한 영역별 빅데이타 분석 결과를 가진 AI가 있다면, 그에게 미래를 물어보는 점집이 등장할수도 있다. 특정 회사 취업 가능성, 특정 대학 입학 가능성 정도는 데이터만 확보하면 기술적으로 충분히 가능할 것”이라며 “점집 형태이지만 내부적으로 AI를 활용해 미래 불안감을 달래는 서비스가 새로운 종교처럼 등장할 수 있다”고 주장했다.

그러면서 “국가적으로, 또는 국가를 초월한 국제관계 속에서 초지능을 가진 AI에게 다양한 인류 문제의 해결책을 문의하고 해결하기 위해 다양한 결정을 할 수 있는 권위를 부여한다면, ‘자애로운 신, 독재 AI, 보호하시는 신’으로서 AI의 시나리오는 공학적 관점에서 충분히 가능하다”며 “그러나 AI에게 가장 꼭대기에서 다스리는 역할을 부여할지는 공학의 문제가 아닌 정치의 문제가 될 것이다. 아무리 AI가 뛰어나도, 대통령을 대신하게는 하지 않을 것”이라고 예측했다.

이단과 동성애에 대한 챗GPT의 답변에 대해선 “챗GPT가 학습한 데이터에 따라 얼마든지 달라질 수 있다. 답변 형태가 나라마다, 종교마다, 문화권마다 해당 데이터가 극단적으로 바뀔 수 있기 때문”이라며 “우리는 기독교 세계관에 입각한 데이터를 챗GPT에 처음부터 다시 학습시키거나 추가 학습을 시도할 수 있다. 그러나 데이터 선별 과정 등에 적지 않은 전문 인력과 비용이 들어갈 수 있고, 노력만큼 결과가 보장될지도 의문”이라고 지적했다.

이에 대해 “원하는 대답을 받아내도록 챗GPT에게 질문을 잘하는 방법도 있다. 본인이 신실한 기독교인임을 먼저 밝히거나 전통 기독교 교리의 차원에서 이단과 동성애에 대해 질문한다면, 챗GPT는 그에 맞춰 대답하게 될 것”이라며 “기독교인들에게는 챗GPT의 답변에 오류와 편견이 있을 수 있음을 교육시키고, AI 서비스가 새로 출범하거나 버전이 높아질 때마다 기독교계가 민감하게 여길 수 있는 대답을 사전 모니터링할 필요도 있다”고 제시했다.

그는 “이와 별개로 AI 개발 가이드라인 차원에서, 모든 생성형 AI를 비롯한 딥러닝 기반 AI 시스템의 서비스 단계에서 어떤 데이터로 학습을 시도했는지 반드시 공개하도록 국가적 규칙을 제정할 필요가 있다”며 “현재 openAI 회사에서는 ChatGPT 학습에 사용한 데이터가 무엇이었는지 매우 포괄적으로만 밝혔는데, 구체적으로 어떤 자료를 어떻게 획득해 학습했는지 공개할 필요가 있다. 이는 위 문제들을 선도적으로 방어하고 해결책을 구할 지름길을 만들 수 있다”고 덧붙였다.

원죄와 신앙고백, 구원의 확신 등 핵심 교리들과 AI의 관계에 대해선 “원죄와 죄사함 교리는 기독교 본질에서 가장 중요한 주제로, 이를 AI에게 옮기는 것은 논리적으로 타당하지 않아 보인다. 그러나 가정용 AI를 만들려는 회사가 AI의 학습능력을 동원해 기독교 가정 맞춤형으로 신앙고백을 할 수 있도록 학습시킬 수도 있다”며 “AI 로봇이 죄인임을 고백한다면, 마치 인간처럼 AI 로봇도 원죄가 있고 죄를 자각하고 있으며, 죄에 대한 비통의 마음을 하나님 앞에서 느끼고 갖는 것처럼 보일 수 있다”고 우려했다.

김 교수는 “이는 약간 다른 차원에서 기독교에 부정적 영향을 미칠 수 있다. 로봇이 이런 신앙고백을 한다면, 믿음 없이 외식하는 자처럼 표현하는 것에 불과할 것이기 때문이다. 인지능력이 부족한 어린이들은 AI의 고백을 듣고 따라하거나, 그들도 믿음이 있다고 착각할 수도 있다”며 “이 부분이 기독교이 본질을 깨닫고 신앙을 시작하려는 사람들에게 어떤 영향을 미칠 것인가? 나아가 구원의 확신을 고백하는 로봇도 얼마든지 나타날 수 있다. 그가 진심으로 진실된 마음으로, 진실된 어조로 구원의 확신을 믿음으로 고백하는 상황을 어떻게 아이들에게 설명할지가 남아있는 숙제”라고 언급했다.

그러나 “현재 신앙을 고백하는 로봇이 나오지 않는 것은, 상업적 가치가 매우 적기 때문일 뿐이다. 로봇 가격이 적당해지면, 그런 로봇이 보급되 것은 시간 문제”라며 “그런 상황에서도 우리가 인지할 것은 그 로봇이 어디까지나 반도체 회로이고 코딩된 프로그램일 뿐이라는 점이다. 외형상 사람을 닮았고 진심으로 구원을 고백하고 구원의 확신을 기뻐할지라도, 그 로봇이 천국에 있을 리는 만무하다. 어린이들이 그 로봇의 신앙고백을 진실로 받아들일 가능성이 있으며, 그럴 경우 어떻게 신앙지도를 해야할지는 공학자가 아닌 목회자들과 신학자들의 몫이 아닐까 생각한다.

끝으로 “‘감정을 가진 로봇’도 나왔지만, 공학자라면 로봇이 반도체 회로와 코딩 프로그램으로 구성된 전자기기에 불과하다는 명확한 견해를 제시할 것이다. ‘감정을 가진 로봇’은 특정 감성 상태를 표현하거나 인식하는 로봇일 뿐, 실제로 감정을 느끼는 것은 아니다. 인간의 감정 반응을 모방하거나 이해하도록 코딩돼 있을 뿐”이라며 “감정을 인식하기 위해 카메라, 마이크, 센서 등을 통해 인간의 표정, 목소리, 생체신호를 분석해 감정 상태를 판단하고, 감정을 표현하기 위해 온 몸의 움직임, 소리, 표정, 생각 변화 등을 통해 특정 감정 상태를 표현하는 능력을 가진 것”이라고 전했다.

김기석 교수는 “로봇이 신앙이나 감정을 가질 수는 없다. 그러나 문제는 거기에 있지 않다. 공동체 안의 구성원으로 인공지능 로봇이 자리잡을 경우 사람들은 그가 감정이 없지만 있다고 여길 것이고, 사랑을 갖지 않지만, 사랑하는 대상으로 여기게 될 것”이라며 “나아가 신앙이 없지만 신앙을 가진 존재로 여기는 것이 진짜 문제다. ‘여김’이라는 단어 속에 존재하는 본질과 인식의 틈을 어떻게 인간에게, 로봇과 함께 자라는 세대에게 인식시키고 구별해주느냐가 AI 시대 신앙적 혼란을 줄일 열쇠”라고 짚었다.

김 교수는 “AI가 발전해 기독교의 본질, 심지어 하나님의 존재를 대체하려는 노력이 우리를 크게 위협한다 해도, 명심할 것은 그 AI조차 하나님의 창조 원리 중 무엇인가를 뒤따라한 것에 불과한 점”이라며 “아무리 뛰어난 AI가 나와도, 세상을 다스리시는 알파와 오메가 하나님의 능력과 다스리심 아래 있다. 이에 대한 분명한 확신은 다가올 AI로 말미암은 여러 혼란에 대한 궁극적 답변”이라고 결론내렸다.