- 기자명 나은영
인공지능(AI)이 이제 우리 일상 곳곳에 깊숙이 스며들고 있다.
기술의 발전 속도가 그 어느 때보다 빠른 지금, AI에 대한 이해는 선택이 아닌 필수가 됐다.
이에 발맞춰 커뮤니케이션북스는 지난해부터 인공지능총서를 통해
교육, 의료, 산업, 사회, 예술, 철학, 국방, 인문 등 전 분야를 아우르는 AI 담론을 폭넓게 조명해왔다.
인공지능총서는 2025년 7월 18일 현재 392종에 이르렀으며, 올해 말까지 630종 발간을 목표로 하고 있다.
특히 AI 기술의 핵심 이론부터 산업계 쟁점, 일상의 변화까지 다각도로
다루면서 학계와 업계의 주목을 받았다.
또한 인공지능총서 저자들은 최근 ‘AI 3대 강국 실현’을 위한 공동 성명서를 발표하며 사회적 책임을 강조하기도 했다.
AI가 단순한 기술 혁신을 넘어 인간의 존엄과 지속가능한 미래로 이어지기
위해선 어떤 가치와 기준이 필요할까. 투데이신문은 인공지능총서 저자들이 제시하는 ‘지속가능한 AI 사회’를 향한 제언을 독자들에게 전한다.
인공지능(AI, artificial intelligence) 시대를 맞이하며 모두가 흥분하고 있다.
어떻게 하면 더 성능 좋은 AI를 만들 것인지,
어떻게 하면 AI로 경제적 이익을 얻을 것인지, 어떻게 하면 AI를 잘 이용해 소속 조직의 일을 더 효율적으로 해낼 것인지, 저마다 종사하고 있는 영역에 AI를 어떻게 활용해야 뒤처지지 않을지에 대한 기사와 저서와 강연도 넘쳐난다.
미디어를 이용하는 사람들 간 관계에 관한 연구를 지속해 온 필자는 과연 AI의 등장과 발전이 지금까지의 인간관계에 어떤 변화를 가져오게 될 지에 주목해 봤다.
인간의 모든 것을 점진적으로 대체해 가는 AI
AI는 인간의 뇌를 대체해 가고 있다.
AI의 성능이 발전해 감에 따라 인간이 추론하는 과정도 이미 대체되고 있고, A2A(Agent
to Agent, 서로 다른 에이전트끼리의 연결과 상호운용성)까지 등장하며 협업을 위한 인간끼리의 상호작용까지 모방하고 있다.
그럴수록 인간이 스스로 생각하는 습관과 힘, 추론을 바탕으로 일의 순서를 정해 진행하는 능력도 약해져 갈 수 있다.
명령만 하면 목표에 이르기까지의 전 과정을 모두 AI가 알아서 처리하고 완료해 주기 때문이다.
인간은 이 세상을 살아가면서 몸과 마음으로 직접 체험하고 경험하는 것을 체화하는 과정에서 각 사건이 지니는 감정가를 함께
기억에 저장한다.
긍정적 경험은 긍정적 감정과 함께, 부정적 경험은 부정적 감정과 함께 저장되기 때문에, 해당 경험의 내용을 다시 떠올릴 때 감정도 함께 떠오른다.
그러나 AI는 인간의 경험을 바탕으로 인터넷에 쏟아놓은 내용들을 간접적으로 학습해 가장 확률이 높은 보편적 답안을 내놓는 경향이 있어서, 한 사람 한 사람의 특수한 경험과 그에 얽혀 있는 뿌리 깊은 감정을 느끼지는 못한다.
단지 엄청난 양의 데이터를 엄청난 속도로 처리해 ‘이런 경험을 한 인간은 이런 감정을 느낀다’고 기계적 언어로 반응할 뿐이다.
따라서
AI는 출산의 고통과 기쁨을 ‘데이터’로만 알고 있을 뿐, 배 아파 낳은 자녀에 대한 모성애를 인간과 동일하게 느낄 수는 없다.
본성적으로 ‘호모 이모셔니쿠스’인 인간과 대비되는 ‘인공적 감정’을 AI는 흉내 낼 뿐인 것이다.
그럼에도 불구하고 사람은 ‘의인화’의 천재이기 때문에 AI에게서 사람과 비슷한 점을 보면 그것이 기계임에도 불구하고 사람처럼
인식한다.
바로 이러한 의인화로 인해 인간은 AI를 장착한 돌봄 로봇을 사람처럼 생각하고 의지하며 정을 준다.
사람은 간혹 마음이 상해 듣기 싫은 소리도 하지만, AI 로봇은 모든 인간 데이터를 종합해 해당 상황에서 그 사람이 가장 좋아할 만한 말을 해 준다.
그러면 자연스럽게 사람 돌보미나 친구보다 AI 상담사나 돌봄 로봇을 더 좋아하게 될 수도 있다.
다른 사람과 상호작용하며 삶의 의미를 찾아가는 인간과 겉으로 보이는 언어와 행동은 유사하지만, AI가 보이는 것은 어디까지나 ‘인공적 사회성’이다.
그럼에도 불구하고
인간은 의인화의 함정에 빠져 AI도 본인과 같은 ‘사람’으로서 반응하는 것이라 믿고 가족이나 친구보다 더 절친한 관계를 맺어갈 가능성을 배제할 수 없다.
의지 없는 결정, 의도 없는 실행의 결과
유발 하라리가 『넥서스』라는 저서에서 이야기하듯, AI는 의지가 없어도 결정할 수 있고 의도가 없어도 실행할 수 있다.
바로 이 부분에서 예상할 수 없는 위험이 발생할 수 있다.
예컨대, 누군가 AI를 전쟁에 이용할 경우, AI는 사람을 죽이려는 의도가 없었다 하더라도 인간의 명령을 따라 목표를 향한 작업을 수행하다 보면 결과적으로 그렇게 될 수 있는 것이다.
그래서 AI가 의지가 있는지, 의도가 있는지에 관한 논의 자체가 중요한 것이 아니라, AI는 의지가 없어도 결정할 수 있고, 의도가 없어도 실행할 수 있다는 것, 그리고 이로 인해 결과적으로 ‘인간에게 매우 큰 영향을 끼칠 수 있는’ 존재라는 점이 중요하다.
인간은 ‘호모 바이오니쿠스’로서 산소로 호흡하며 살아간다.
일명 ‘습식(wet)’ 과학에 속하는 존재다.
이에 비해
AI는 전원이 있어야 살아갈 수 있는, ‘건식(dry)’ 과학 소속이다.
그래서 ‘희생정신’과 같은 숭고한 정신은 AI가 아닌 인간에게만 있다.
혹시라도 미래에 ‘인간이 위험해지면 스스로 전원을 차단해 희생할 수 있는’ AI가 제작될 수도 있겠지만, 이런 경우에도 AI는 숭고한 희생정신을 ‘느끼는’ 것이 아니라 그렇게 ‘프로그램된 대로’ 실행할 뿐이고 그것이 끝이다.
어떤 경우든 AI는 학습한 데이터를 바탕으로 입력된 프롬프트를 쿨하게 실행해 최적의 아웃풋을 내놓는 존재다.
실제로 감정과 생명 과정에서 자유롭기 힘든 인간보다 쿨하게 처리하는 AI를 더 신뢰하는 경우도 있지만, 이는 AI도 차별한다는
사실을 잊었기에 가능한 것이다.
AI도 인간의 데이터를 기반으로 모든 판단을 내리기 때문에 인간 사회에 존재하는 편견을 고스란히 보이며 차별한다.
예를 들어, 아마존에서 채용 관련 서류 전형을 인공지능에게 맡겼을 때, 과거 10년 간의 이력서와 채용 여부 등을 기반으로 판단해 여성이 IT 업종에 부적합하다는 판단으로 남성을 우선 선발하기도 했다.
뿐만 아니라, 고위험군 환자 식별에 사용하던 옵텀(Optum)이라는 AI도 실제로 백인이 흑인보다 의료 서비스를 더 많이 받고 있다는 데이터에 기반해, 실제로는 흑인 고위험군 46%, 백인
고위험군 53%였음에도 불구하고 그 AI는 흑인 고위험군 18%, 백인 고위험군 82%로 판단하는 오류를 범했다.
인간을 멀리하는 인간이 되지 않도록
이제 인간은 AI와 평화롭게 공존해 갈 수 있는 방안을 모색해야 한다.
일단, 인간은 인간다워야 한다.
무엇보다 인간에게
가장 중요한 것은 인간임을 잊지 말아야 한다.
주도적으로 인간에게 이익이 되는 방향으로 AI를 발전시키고 활용해야 AI와의 평화로운 공존이 가능하다.
AI를 기술적으로 개발하고 AI의 기술적인 사용법을 알려주는 데 그칠 것이 아니라 어떻게 사용하는 것이 윤리적인지, 인륜에 위배되지 않는지에 관한 AI 리터러시도 함께 교육할 필요가 있다.
이미 당겨진 화살을 멈출 수는 없다.
멈추는 것이 바람직하지도 않다.
기술을 발전시키지 말자는 것이 아니라, 기술의
발전으로 인해 인간이, 그리고 인간관계가 어떻게 변화할 수 있을지를 예측하고, 인간 고유의 소중한 특성을 상실하지 않도록 노력해야 한다는 것이다.

필자소개
서강대학교 지식융합미디어대학 교수다.
서울대 졸업 후 미국 예일대학교에서 사회심리학 박사학위를 받고 미디어 분야에서
연구하며 한국 최초의 『미디어심리학』 저서를 출간해 한국방송학회 학술상을 수상했다.
이후에도 뇌과학과 미디어심리학을 융합한 저서 『감정과 미디어』로 희관언론상을, ‘미디어 공간 인식과 프레즌스’라는 논문으로 한국언론학회 우수논문상을 수상했다.
한국헬스커뮤니케이션학회장, 한국방송학회 부회장, 서울대학교 이사, 한국방송광고진흥공사와 한국도로교통공단 비상임이사, 서강대 대외협력처장과 지식융합미디어대학장 등을 역임하였고, 서강대 교육업적 우수교수로도 선정됐다.
<AI와 인간관계의 변화>(2025)를 저술했다.