[묻고 답하고 통하다]
장병탁 서울대 AI연구원장
AI가 만드는 새로운 사후세계
고인의 아바타 복원은 시간문제
AI가 표정·목소리·제스처 등 학습
영화 ‘원더랜드’처럼 생생함 관건
AI는 사랑이란 감정을 몰라?
기술적으론 감정 이해·표현 가능
일각선 자의식 가질 수 있다고 봐
‘학습한 사랑’ 오히려 진솔할 수도
갈수록 정교해지는 딥페이크
AI는 양날의 칼 가진 핵무기 같아
활용자 윤리 교육·부분 규제 필요
규제·자율성 사이 균형 맞춰가야
로봇이 일자리를 위협할까
소송 대응 등 법조 분야 적용 가능
AI 판사, 편향성까지 학습할 우려
‘환각’ 현상 있어 맹신하는 건 위험
고인의 아바타 복원은 시간문제
AI가 표정·목소리·제스처 등 학습
영화 ‘원더랜드’처럼 생생함 관건
AI는 사랑이란 감정을 몰라?
기술적으론 감정 이해·표현 가능
일각선 자의식 가질 수 있다고 봐
‘학습한 사랑’ 오히려 진솔할 수도
갈수록 정교해지는 딥페이크
AI는 양날의 칼 가진 핵무기 같아
활용자 윤리 교육·부분 규제 필요
규제·자율성 사이 균형 맞춰가야
로봇이 일자리를 위협할까
소송 대응 등 법조 분야 적용 가능
AI 판사, 편향성까지 학습할 우려
‘환각’ 현상 있어 맹신하는 건 위험
“인간의 사랑이 진짜고, 인공지능(AI)의 (학습을 통해 얻은) 사랑은 가짜라고만 할 수 있을까요. AI가 자의식을 가질 수 있다는 데까지 생각을 열어 둬야 합니다.”
2024년을 규정하는 열쇠말로 일상으로 훅 들어온 AI, 특히 사람처럼 보고 듣고 말하는 오픈AI의 새 모델 GPT-4o를 빼놓을 수 없다. 대중문화에서도 AI 바람은 거셌다. 지난 6월 개봉한 영화 ‘원더랜드’(김태용 감독, 탕웨이·수지 주연)는 AI로 복원된 망자와 소통이 가능한 미래를 그렸다. AI 머신러닝·뇌과학·휴머노이드 로봇 분야 석학인 장병탁(61) 서울대 AI 연구원장(컴퓨터공학부 교수)은 “영화에 나온 ‘원더랜드 서비스’는 머지않아 구현될 가능성이 큰 AI 기술”이라고 설명했다. 그는 “영화 ‘그녀’(HER·스파이크 존즈 감독)에서처럼 AI가 ‘학습한 사랑’이 인간이 느끼는 감정보다 더 진솔할 수도 있고, AI가 노벨상을 받는 날도 올 것”이라고 했다. 지난 8일 서울 관악구 서울대 AI연구원에서 장 원장을 만나 AI와 인류의 미래를 들어봤다. 다음은 일문일답.
장병탁 서울대 AI연구원장이 지난 8일 인터뷰에 앞서 서울대 연구진이 개발한 가정용 인공지능(AI) 로봇 ‘오페어’(AUPAIR)의 어깨에 손을 얹은 채 미소를 짓고 있다. 오페어는 2017년 국제로보컵대회에서 우승했다. 레스토랑 주문, 투어 가이드, 고난도 심부름 평가에서 압도적 1위를 했고 결승전에서 장기자랑, 딥러닝 기반 시각대화(영상을 보고 음성으로 질의 응답)를 시연했다.
안주영 전문기자
안주영 전문기자
-영화 ‘원더랜드’처럼 AI로 망자와 소통이 가능한 날이 올까.
“‘원더랜드 서비스’는 AI가 고인을 ‘회생’(복원)시킨 것인데 이미 오래전부터 연구됐다. 살아 있을 때 목소리나 표정, 제스처를 데이터화해 학습시켜 아바타의 구현이 가능하다. 돌아가신 할머니·할아버지와 대화를 주고받을 수 있다. 실제 고인의 목소리와 표정을 얼마나 사실적으로 구현할지가 관건인데 시간문제다.”
-AI 하면 영화 ‘그녀’를 떠올린다. AI가 감정을 느끼고 사랑을 할 수 있을까.
“철학적인 질문이다. 기술적으로 AI가 감정을 가진 것처럼 보이게 만드는 건 가능하다. AI가 진짜 나를 좋아한다는 착각에 빠지게 할 수 있다. 진짜 사랑을 느끼는 건 아닐지 모르지만, 인간은 거기에 현혹될 수 있다.”
-사랑만큼은 인간의 고유 감정이 아닐까.
“어느 철학과 교수의 얘기를 듣고 충격을 받은 적이 있다. 알파고는 사람이 두는 수를 계속 흉내 내면서 더 좋은 수를 뒀다. 챗GPT도 학습을 통해 인간을 흉내 낸다. 이런 AI의 학습을 본 한 철학과 교수가 ‘인간의 사랑도 그런 거 아닐까’라고 했다. AI가 상대방이 좋아하는 말을 계속해 주고 애착을 흉내 내는 것이 인간이 연애 감정을 알아가는 것과 크게 다르지 않다는 의미다. 인간의 사랑이 진짜고, AI의 사랑은 가짜라고만 하긴 어렵다. AI도 기술적으로 사랑의 감정을 이해하고 표현할 수 있다. 예컨대 직장 상사가 듣기 좋아하는 말만 골라 하면서 비위를 맞추는 건 AI도 할 수 있다. 카메라와 글로 학습한 데이터를 바탕으로 눈치를 보는 것이다. 궁극적인 질문은 ‘AI가 자의식을 가질 수 있느냐’인데 요즘 철학자들은 AI가 자의식을 가질 뿐 아니라 인간보다 더 잘할 수도 있다는 관점까지 보이며 생각을 열어 두고 있다.”
-올해 노벨상의 화두도 AI였다. AI가 노벨상을 받는 날도 올까.
“AI 국제학회에서 노벨 의학상을 받을 AI를 만들자는 얘기가 있었다. 의학 분야에서 새롭게 발견된 지식과 누적된 데이터가 가장 많아서다. 다만 AI가 노벨상을 받기 위한 가장 큰 벽은 아직 사람으로 인정하지 않는다는 점이다. 법적, 제도적으로 혁명적 전환이 있어야 가능하다.”
-예술의 영역은 어떤가. 천재들의 예술성도 학습 가능한 영역일까.
“가능하다. 하지만 예술의 정의와 평가 기준이 달라질 수밖에 없다. 카메라가 등장하면서 극사실주의 작품의 가치가 떨어졌다. AI는 소설을 잘 쓴다. 사람보다 더 창의적인 것처럼 보이기도 한다. 앞으로 예술성의 경계가 모호해질 것 같다.”
-AI의 발전에 두려움을 느끼기도 한다. 가장 먼저 일자리가 줄어들 텐데.
“사람이 하기 싫은 일에서 해방되는 건 장점이지만 일자리를 빼앗기는 건 위협이다. AI가 인간 실수를 보완해 주는 장점이 있으니 적절히 활용해야 한다. 무슨 일을 시켜도 잘하는 똘똘한 사원이 입사했다고 보면 된다. 언젠간 부서장 자리를 넘볼 수도 있지만 아직은 신입사원 단계여서 경륜에 차이가 있다.”
-딥페이크는 대표적인 부작용으로 꼽힌다. 해결책이 있을까.
“제일 큰 이슈다. AI 기술 자체는 가치중립적이며 양날의 칼이다. 핵과 비슷하다. 원전은 중요한 에너지원이지만 핵무기는 인류를 파멸시킬 수 있다. 그래서 AI 활용자에 대한 윤리 교육이 필요하다. 현재 AI 기본법 논의가 이뤄지고 있다. 위험하거나 악용 소지가 있는 부분에 대한 규제가 필요하다. AI도 규제와 시스템의 테두리에 들어와야 한다.”
-아이유 버전 비비의 ‘밤양갱’처럼 음성 저작권 문제도 손봐야 할 텐데.
“AI 기술 공개를 제재할 구체적인 법은 없다. 논의해야 할 부분이다. 너무 일찍 규제하면 기술 발전이 저해되고, 규제를 안 하면 프라이버시가 침해될 수 있다. 시간이 지나면 규제와 자율성 사이 균형을 맞춰 가는 지점이 생길 것이다.”
-극단적이지만 영화 ‘터미네이터’처럼 AI가 인류를 위협하는 날이 올 수도 있을까.
“AI의 발전은 로봇이 자율성을 얻는 과정이다. 자율성이 커질수록 통제에서 멀어진다. 악한 사람이 작심하고 AI를 조종하면 인류를 위협할 가능성은 얼마든지 있다. 자율성 부여와 통제가 최대 딜레마다.”
-원장님의 관심사는 어느 쪽인가.
“머신러닝을 30년 넘게 연구했다. 지금은 AI가 몸을 가진 휴머노이드 로봇을 연구하고 있다. 챗GPT는 몸이 없다. 반대로 기계공학자들이 연구하는 로봇에는 정신(AI)이 빠져 있다. 이 두 가지가 결합한 것이 ‘임보디드(체화된) AI’다. 은퇴하고 나서 집안일을 도울 AI 로봇을 만드는 게 꿈이다.”
-자율주행차처럼 AI도 발전 단계가 있을 텐데.
“6단계가 있다. 1단계는 사람이 지식을 넣어 주는 단계, 2단계는 스스로 지식을 만드는 머신러닝·딥러닝 단계다. 3단계는 스스로 데이터를 습득해 학습하는 단계다. 생성형 AI라 불리는 챗GPT가 여기에 해당한다. 4단계는 현재 연구 중이다. 인간이 옳고 그름에 대한 정답을 정해 주지 않아도 답을 찾는다. 5단계는 인간 수준의 AI가 구현된 단계로 인공일반지능(AGI)이라고 부른다. 6단계는 AI가 인간을 초월해 슈퍼지능을 가진 단계다.”
-챗GPT의 한계는.
“글로만 학습한다는 점이다. 다 이해하고 아는 것처럼 보이지만 모르면서 흉내 낸다. 인간은 다양한 감각 정보로 ‘컵’의 형상과 용도를 이해한다. 글로만 학습한 챗GPT는 사람처럼 이해하진 못한다. AI의 학습과 이해에는 일종의 환각 현상이 있다. 그래서 챗GPT를 무조건 믿는 건 위험하다. 사람처럼 의도를 갖고 잘못된 정보를 만드는 건 아니지만 정보가 허위인지 아닌지를 모른다.”
-AI가 발전하면 의사 수를 늘릴 필요가 없는 것 아니냐는 얘기도 나온다.
“시간이 필요하다. 의료 분야보다 법조 분야에 적용될 여지가 크다. 법률사무소에서 문서로 이뤄지는 사건 조사와 소송 대응은 AI가 더 잘한다. 100% 마음에 들지 않아도 시간을 크게 단축할 수 있다. 직원 5명이 사건 하나를 준비하는 데 한 달이 걸렸다면, AI를 쓰면 한 달에 사건 10개를 할 수 있다.”
-AI가 판사를 대체할 수도 있을까.
“AI가 내린 판결을 받아들일 수 있을까. AI가 하면 중립적이니까 객관적 판결을 할 거라 보는 의견이 있다. 하지만 AI가 정치적으로 편향된 판사의 데이터로 학습하면 그 성향을 닮아 더 위험하다. 기계 자체는 공정하지만 편향성을 주는 방법은 여러 가지다. 특정 정당 사람이 모여 있는 단체 메신저 방에서 오가는 글을 AI가 학습하면 무슨 말인지도 모르고 흉내 낼 수 있어 조심해야 한다.”
-트럼프 2기의 AI 정책 방향은.
“미국의 AI 연구는 외국인력 의존도가 높다. 트럼프 당선인은 외국인 유입에 반대하고 실리콘밸리 정보기술(IT) 업체는 유능한 유학생이 미국을 떠나길 거부한다. 다만 트럼프는 동전의 양면 같은 사람이다. 규제 완화에 열려 있어서 기회가 올 수 있다. 특히 테슬라와 구글을 위해 강력한 지원에 나설 수도 있다.”
-AI와 로봇과 인간의 공존은 가능한가.
“AI 연구가 인간을 이해하는 데 도움이 된다. 사람은 정말 똑똑하고 훌륭하다. 다만 인간 삶이 기계화·자동화되면서 인간다움을 잃어 가는 것도 사실이다. 그래서 강연에서 매번 인성과 사회성 교육이 중요하다고 강조한다. 아무리 AI가 발전해도 인간이 할 일은 계속 있을 거라는 데 동의하지만 앞으로 더 적극적으로 찾아내지 않으면 도태될 수밖에 없다.”
장병탁 서울대 AI연구원장
●장병탁 서울대 AI연구원장 1963년 경북 문경 출생. 서울대 컴퓨터공학과를 졸업하고 동 대학원에서 석사, 독일 본 대학에서 박사학위를 받았다. 2015년 세계 최고 권위의 AI 분야 국제학술대회(AAAI)에서 ‘상상력 기계’를 발표해 이목을 끌었다. 머신러닝 분야 연구 성과를 인정받아 2017년 정보통신 부문 홍조근정훈장을 받았다.
2024-11-18 14면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지