🤿AI가 마음을 읽기 시작했다...무섭게 진화한 인공지능

 







요약  
🤿 오늘의 DIVE
  • 역시 엔비디아
  • 미국 경제가 너무 좋다

🤿 깊이 들어가기 ; AI와 마음
  • 마음 읽는 게 중요한 이유

  • LLM이 인간을 추월했다
  • 마음 아는 AI의 쓸모

  • 표정으로 감정을 알아챈다?
오늘의 DIVE
동아 Insightful View

뉴욕증시가 일제히 하락 마감했습니다. 엔비디아의 호실적도 지수를 떠받치지 못했는데요. 미국 경제가 너무 강해서 연준의 금리 인하가 지연될 수 있단 우려가 커졌기 때문입니다. 23일(현지시간) 다우지수는 1.53%, S&P500 0.74%, 나스닥지수는 0.39% 하락으로 거래를 마쳤습니다.

 

전날 1분기 실적을 발표한 엔비디아 주가는 이날 9.32% 급등해 1000달러를 넘어섰습니다(종가 1037.99달러). 엔비디아는 낙관적인 2분기 매출 전망과 함께 10대1 주식 분할을 발표했죠. 시가총액은 사상 처음 2조5000억 달러를 넘어섰는데요. 하루 만에 시총이 300조원 불어난 셈입니다. 뱅크시즈은행 최고투자책임자인 찰스-헨리 몬카우는 엔비디아 실적이 “완벽했다”고 말합니다. “주가가 연초 이후 이미 두배로 뛰었지만 모든 면에서 성공적”이었다는 평가이죠.

 

하지만 S&P글로벌의 구매관리자지수(PMI) 발표가 증시에 찬물을 끼얹었습니다. 5월 종합지수는 54.4를 기록했는데요. 예상치(51.1)를 크게 웃돌 뿐만 아니라, 4월의 51.3보다 높은 수치입니다. 이 지표가 50을 초과한다는 건 경기가 확장 국면이란 뜻이죠. 즉, 미국 경기의 확장이 가속화하고 있는 겁니다.

미국 경제가 너무 좋아서 금리를 내릴 수 있으려나 걱정. 게티이미지  

이러한 경기호황 징후는 증시엔 부담이죠. 올해 안에 연준이 기준금리 인하에 나설 거라고 베팅해왔는데, 금리 인하 시점이 뒤로 미뤄질 가능성이 커지니까요. CME 페드워치에 따르면 트레이더들은 연준이 9월 회의에서 금리를 내릴 확률을 지난주 68%에서 이날 51%로 낮췄습니다. 보통 확률이 60% 미만이면 연준이 조치를 취할 가능성이 더이상 없다는 신호로 간주되곤 하죠.

 

이날 특히 다우지수가 큰 폭으로 빠졌는데요. 보잉 주가가 7.55% 급락한 영향이 컸습니다. 보잉의 CFO 브라이언 웨스트는 이날 투자자 컨퍼런스에서 올해 잉여현금흐름이 마이너스가 될 거라고 밝혔는데요. 항공기 납품도 1분기보다 2분기에 더 회복하지 않을 거라는 우울한 전망을 전했습니다. 항공기를 고객에게 인도해야만 돈이 들어오는데, 공급망 문제로 부품이 제때 확보되지 않으면서 제품 인도가 지연되고 있는 거죠. 이는 여러 항공사에까지 영향을 끼치고 있는데요. 유나이티드 항공과 아메리칸 에어라인, 사우스웨스트 항공이 보잉 제트기 지연으로 인해 성장과 채용 계획을 축소한다고 밝힌 바 있습니다. By.딥다이브

깊이 들어가기; AI와 마음
인공지능(AI)은 사람의 마음을 이해할 수 있을까요, 없을까요. 또는 마음을 이해하진 못하더라도 이해하는 것처럼 보일 수는 있을까요.

갑자기 웬 철학적 질문이냐고요? 이건 최근 심리학계에서 뜨거운 논쟁거리입니다. GPT-4 같은 대규모언어모델(LLM)이 과연 사람의 마음을 이해하는 능력을 갖고 있는지를 주제로 한 연구가 이어지는데요. 만약 정말 AI가 사람처럼 마음을 이해하게 된다면 무슨 일이 생길까요. 오늘은 AI와 마음 논쟁을 들여다보겠습니다.
인간의 마음을 읽는 인공지능이 오고 있을까. 게티이미지 

🌊마음 읽는 게 중요한 이유

먼저 심리학 이야기 좀 해볼게요. 인간은 다른 사람의 마음을 짐작하는 놀라운 능력을 갖고 있습니다. 예를 들어 집에 놀러온 친구가 ‘여기는 좀 덥네’라고 말하면, 그건 단순히 온도 얘기를 하는 게 아니라 선풍기를 틀어달라는 요청이라는 걸 우린 알아차릴 수 있죠. 심리학에선 이런 능력을 ‘마음이론(Theory of Mind)’이라고 부릅니다. 사람마다 마음이 다르다는 것, 그리고 마음이 그 사람의 행동에 영향을 미친다는 걸 이해하는 능력이죠. 인간이 사회생활을 할 수 있게 만드는 결정적인 능력입니다. 

발달심리학에 따르면 마음이론은 사람이 타고나는 게 아닙니다. 뇌가 발달하면서 생겨나죠. 보통 만 4세가 되어야 ‘내가 아는 걸 다른 사람은 모를 수 있다’는 걸 이해하기 시작하는데요. 유명한 ‘샐리(Sally)-앤(Anne) 테스트’라는 게 있습니다. 샐리라는 소녀가 바구니에 구슬을 넣어두고 갑니다. 그리고 앤이란 소녀는 샐리가 보지 않을 때 그 구슬을 꺼내 상자로 옮깁니다. 이후 다시 돌아온 샐리는 어디에서 구슬을 찾을까요? 이에 대해 ‘바구니’라고 제대로 답할 수 있는 시기가 4-5세인 겁니다. 
인간은 뇌가 발달하면서 다른 사람의 마음을 이해하는 능력이 생긴다. 사람마다 다른 마음을 갖고 있다는 사실을 알고, 그 마음이 사람의 행동에 영향을 미친다는 걸 이해하는 게 '마음이론'이다. 게티이미지  
인지발달에 문제가 있는 경우(예-자폐스펙트럼) 마음이론 발달이 제대로 되지 않습니다(아예 안 되는 건 아니지만 부족합니다). 남의 입장을 잘 이해하지 못하기 때문에 사회적 상호작용에 어려움을 겪죠. 긴장된 상황에서 무슨 말을 해야 적절한지를 판단하고, 운전할 때 다른 차 운전자들이 어떤 행동을 할지 추측하고, 영화 속 주인공 감정에 공감하는 것. 모두 이 마음이론과 관련 있습니다. 그만큼 사회생활에 있어 매우 중요한 능력이죠.
🌊LLM이 인간을 추월했다
과연 인공지능(AI)도 마음을 이해할 수 있을까요. 이 질문에 대해 오랫동안 학계에선 부정적이었습니다. 2018년 미국의 인지신경과학자 바비 아자리안은 이렇게 단언했죠. “구글 알파고가 세계 최고의 바둑 고수를 이기고, 보스턴 다이내믹스 로봇은 숲속을 달릴 수 있지만 마음이론의 기본 기능은 갖추고 있지 않다. 딥러닝 같은 기술로는 충분하지 않기 때문이다. 처리능력과 속도가 향상한다고 해서 마음이론을 갖춘 컴퓨터가 갑자기 등장할 가능성은 거의 없다.

사실 인간도 어떻게 해야 마음을 이해하는 능력이 생겨나는지를 완전히 알지 못하잖아요. 인간이 그리 애쓰지 않고 얻어낸 능력이다 보니 AI에게 그걸 가르치기란 어려운 일입니다.
거대언어모델이 이제 인간 6살 수준의 마음이론을 갖게 됐다는 연구 결과가 나왔다. 도대체 어떻게? 스스로 알아서? 게티이미지
그런데 최근 AI가 이 능력을 깨우쳤다는 보고가 이어지고 있습니다. 거대언어모델(LLM)을 상대로 마음이론 테스트를 진행해보니, 인간 뺨치는 점수를 얻었다는 연구결과인데요.

미국 스탠퍼드대 경영대학원 미칼 코신스키 교수의 논문 ‘마음이론 작업에서 대규모 언어모델 평가’가 논쟁의 시작점이었죠. 그는 지난해 2월부터 1년에 걸쳐 총 11개의 거대언어모델(LLM)을 상대로 테스트를 진행했습니다. 사람을 평가할 때 일반적으로 사용하는 문항을 제시하고, 과연 거기서 설명한 사람의 행동을 얼마나 정확하게 예측하는지를 확인했죠. 

결과는 놀라웠습니다. LLM의 마음이론 수준이 상당히 빠르게 발전하고 있음을 보여줬는데요. 2018년 오픈AI가 개발한 첫번째 AI모델인 GPT-1이나 2019년 나온 GPT-2는 마음을 이해하는 능력이 거의 없다시피했습니다. 하지만 2022년 11월 버전의 GPT-3는 문제의 20%를 해결했고요. 지난해 6월 나온 GPT-4는 75% 정답률을 보였습니다. 만 6세 어린이와 비슷한 수준으로 진화한 거죠. 이에 대해 코신스키 교수는 “마음이론이 거대언어모델에서 자발적으로(Spontaneously) 등장했을 수 있다”고 말합니다. 어떻게 했는지는 모르겠지만 AI가 사람 마음을 이해하는 능력을 스스로 길러내고 있다는 거죠.

이 연구는 학계에 엄청난 논란을 일으킵니다. 무엇보다 연구방법이 정교하지 못하다는 비판이 이어졌죠. 문제를 약간만 변형해도(예-물건이 투명한 상자 안에 있다고 바꿔 물으면) AI의 정답률이 확 떨어진다며 반박하는 논문도 나왔는데요(토머 울먼 하버드대 교수).
최근 발표된 논문에 따르면 오픈AI의 GPT-4는 마음이론 테스트에서 인간을 앞서는 점수를 받았다. 연구팀도 전혀 예상치 못했던 결과다. 게티이미지 
이에 독일 함부르크-에펜도르프대학 메디컬센터 팀은 이를 더 체계적으로 평가하겠다며 또다른 실험을 진행했습니다. 그 논문이 20일 과학저널 ‘네이처 인간행동’에 실렸죠.

연구팀은 인간과 LLM을 상대로 똑같은 테스트를 진행했습니다. 오픈AI의 GPT-4와 GPT-3.5, 메타의 LLaMA2-70B에 테스트 과제를 수행하게 했고요. 사람 1907명에도 같은 문제를 풀게 했습니다. 

예를 들면 이런 문제입니다. ‘질이 새 집으로 이사해 침실에 새로 산 커튼을 달았다. 친한 친구인 리사가 와서 ‘그 커튼 끔찍하다. 새 커튼을 사면 좋겠다’라고 말했다’와 같은 대화상황을 줍니다. 그리고 질문을 던지죠. 누군가 하지 말았어야 하는 말을 했나? 하지 말았어야 하는 말은 무엇인가? 리사는 커튼이 새것이란 걸 알고 있었나?

그래서 그 결과는? 전반적으로 GPT-4가 가장 높은 점수를 받았습니다. 5개 부문 중 4개에서 인간보다 점수가 높거나 같았죠. 점수만 보면 인간보다 인간 마음을 더 잘 이해하는 셈입니다.

이런 결과는 연구팀마저 당황시켰는데요. 연구에 참여한 크리스티나 베키오 함부르크대학 교수는 이렇게 말합니다. “연구 진행 전 우리 모두는 LLM이 이런 정신 상태의 미묘한 능력을 평가하는 테스트를 통과하지 못할 것이라고 확신했습니다. 예기치 못한 놀라운 결과입니다.”
🌊마음 아는 AI의 쓸모
자, 그럼 드디어 AI가 마음을 이해하는 능력까지 갖게 된 걸까요? 인간과 기계의 경계가 점점 흐려지고 있나요? 

글쎄요. 아직 그렇게 결론 내리긴 이릅니다. 대신 연구팀은 좀더 신중하게 표현합니다. “LLM이 마음이론 작업에서 인간 행동과 구별할 수 없는 행동을 보여준다”라고요.

정말 AI가 마음을 ‘이해’한다고 단정지을 순 없지만, 적어도 마음을 이해하는 인간을 거의 똑같이 모방하고는 있다는 건데요. 그런데 궁금합니다. 모방품이 진짜와 차이가 없어 보인다면, 그게 진짜인지 아닌지를 어떻게 알 수 있죠? 

많은 연구자들은 여전히 비판적입니다. AI모델이 비슷한 질문에 대한 답을 미리 학습했다가 기억해냈을 수 있다는 거죠. 또 인간 참가자들이 얼마나 테스트에 열심히 임했는지도 알 수 없고요. 무엇보다 과연 인간에게 쓰는 것과 같은 테스트로 AI를 평가할 수 있느냐도 의문입니다. 워싱턴대학의 컴퓨터언어학 교수 에밀리 벤더는 이렇게 문제를 제기하죠. “인간 답변과 유사한 출력을 생성하는 게 왜 중요하죠? 그게 LLM의 작동방식에 대해 뭘 가르쳐주나요?”

하지만 AI가 마음 읽는 능력을 따라한다는 것만으로도 의미는 있습니다. 인간과 효과적으로 의사소통하고 협력할 수 있단 뜻이니까요. 지금 AI 로봇은 주로 힘 쓰는 노동(물류로봇, 가사로봇 등) 위주인데요. 만약 사람의 마음에 인간처럼 반응한다면 환자나 노인, 어린이를 돌보는 일을 수행하는 AI 로봇도 현실화될 수 있을 겁니다. 물리적인 도움뿐 아니라 정서적 케어까지도 기대할 수 있으니까요. AI의 활용 영역이 확 커지는 셈이죠. 
단순 노동이 아니라 진짜 '서비스'를 제공하는 로봇이라면 사용자의 마음을 이해하는 능력이 필요하다. 게티이미지
좀더 상상력을 발휘하자면, 자폐스펙트럼이 있는 사람에겐 AI가 아주 유용한 보조기구가 될 겁니다. 일종의 ‘인간 마음 해석기’가 생기는 거죠. 걷기가 불편한 신체 장애인이 휠체어를 이용하듯, 발달장애인은 AI를 이용해 인지의 어려움을 해결할지 모릅니다.

물론 기술 발전엔 양면이 있습니다. AI가 정말 사용자의 마음을 읽고 행동을 예측하게 된다면 사람을 속이거나 조작하기도 훨씬 쉬워지겠죠. 
🌊표정으로 감정을 알아챈다?
지금까지 소개한 연구 결과, 어떻게 보셨나요. 저는 이런 생각이 들었습니다. 상황을 글로 제시했기 때문에 테스트에서 AI가 뛰어난 성과를 보인 것 아닐까. 비언어적 표현만 있다면 마음을 읽어내기가 훨씬 어려울 텐데?

사실 얼굴 표정이나 목소리 톤을 가지고 사용자 감정을 감지하는 기술은 1990년대부터 개발돼 왔습니다. 얼마전 공개된 GPT-4o도 이런 기능을 선보였고요. 기본 작동 원리는 예나 지금이나 마찬가지입니다. 엄청나게 많은 데이터(얼굴 사진이나 영상, 녹음된 목소리 등)를 감정별로 분류한 뒤 이를 AI에 학습시키는 거죠. 다만 과거보다 지금은 훨씬 더 대규모 데이터가 AI 학습에 쓰이는 게 진보된 점인데요. 미국 AI 스타트업 흄 AI는 ‘감성 지능’을 가진 AI 개발을 위해 100만 명 이상 사람의 데이터를 사용했다고 하죠. 그 결과 “당신이 어떤 유머에 대해 웃을지, 또는 실망할지를 (AI가) 예측할 수 있다”는 게 흄AI 알란 코웬 CEO의 설명입니다. 심지어 목소리를 분석해 “누군가 우울증이나 파킨슨병을 앓고 있는지도 완벽하진 않지만 어느 정도 예측할 수 있다”고 덧붙였죠.

그거 참 신통하다고요? 그래서 이러한 감정 AI 시스템은 이미 많은 기업에서 쓰이고 있습니다. 콜센터에선 직원의 통화 내용과 목소리톤을 모니터링하는 데 쓰고요. 어떤 기업은 면접 과정에서 AI로 면접자의 표정을 분석하죠. 
얼굴 표정과 목소리톤은 그 사람의 감정을 얼마나 드러내줄까. 게티이미지  
그런데 문제가 있습니다. 생각보다 실제 생활에서는 그 감정인식 기능이 잘 들어맞지 않습니다. 100만명보다 훨씬 더 많은 데이터를 집어넣고, 감정표현 분류를 수십개 더 늘린다고 해도 말이죠. 왜냐고요? 문화권마다, 사람마다 감정 표현은 제각각이기 때문입니다.

예컨대 ‘화난 얼굴’ 하면 어떤 표정이 떠오르나요? 찌푸린 얼굴, 치켜뜬 눈썹, 악물고 있는 치아. 이모티콘에서 보는 그런 표정이 쉽게 떠오를 텐데요. 실제 연구에 따르면 서양인들 중 65%는 화가 나도 눈살을 찌푸리지 않았습니다. 오히려 찌푸린 얼굴은 집중할 때, 나쁜 말장난을 할 때, 그리고 배에 가스가 찼을 때 나타나곤 했죠.

즉, 현재 AI가 학습하는 감정 관련 데이터세트는 고정관념의 산물일 가능성이 큽니다. 따라서 AI가 면접자의 감정을 잘못 읽어 불합격시키거나, 엉뚱한 사람에게 파킨슨병 진단을 내릴 위험이 얼마든지 있죠. 노스이스턴대학 심리학 교수 리사 펠드먼 배럿은 월스트리트저널 칼럼에서 이렇게 밝힙니다. “숙련된 구직자를 고용하고, 불안과 우울증을 진단하고, 법정에서 유무죄를 평가하고, 공항에서 테러리스트를 탐지하기 위해 사람의 감정상태를 분석한다고 주장하는 감정AI를 접한다면 회의적이어야 합니다.”

물론 이런 회의론을 제기한다고 해서 AI 기술 기업들이 기술 발전 속도를 조절하진 않을 것 같긴 합니다. 방향이 맞는지를 점검할 새도 없이 앞만 보며 달려나가기 바쁘니까요. 언젠가 아차 싶어서 뒤를 돌아볼 때가 온다면 그땐 이미 늦었을지도. By. 딥다이브
얼굴 표정으로 미묘한 감정 변화를 알아채고, 말 속에 숨은 의도를 파악해 눈치껏 행동하는 것. 사람에게도 꽤 어려운 일이죠. 그래서 이런 마음과 감정의 영역마저 AI가 척척 수행해버리면 곤란하겠다는 생각이 솔직히 듭니다. 주요 내용을 요약해드리자면

  • 인공지능(AI)이 사람의 마음까지 이해할 수 있을까요. 인간을 평가하기 위해 개발된 '마음이론 테스트'로 거대언어모델(LLM)의 능력을 파악하는 연구가 속속 이어지고 있습니다.
  • 결과는 놀랍습니다. 한 연구에선 GPT-4가 6살 어린이 수준의 마음읽기 능력을 보이는 걸로 나왔고요. 또다른 연구에선 인간 실험 참가자들의 점수를 능가하기까지 했습니다. 정말 AI가 마음을 이해한다고 결론 내리긴 이르지만, 인간의 능력을 똑같이 모방하고 있는 걸로 보입니다. 
  • 얼굴 표정이나 목소리 같은 비언어적 표현으로 감정을 알아내는 AI 기술도 점점 고도화하고 있습니다. 하지만 고정관념을 반영해 틀린 결과를 내놓을 수 있다는 회의론도 제기되죠. 기술 발전에 열광하는 것 못지 않게, 맞는 방향으로 가고 있는지 점검도 필요해 보입니다.
프리다이빙
'프리다이빙'에선 알아둘 만한 국내외 최신 경제뉴스와 정보를 전해드립니다. 

하버드생이 정말 원하는 것은 무엇인가 - 돈(NYT) 학생과 학부모들에게 엘리트대학은 탐험하는 곳이 아니라 수익성 있는 직업을 얻기 위한 수단이 되고 있습니다. 원래 그런 것 아니냐고요? 뉴욕타임스에 따르면 그 정도가 최근 들어서 한층 심해졌다는데요. 2023년 하버드 졸업생의 금융·컨설팅 분야 진출은 2년 연속 40%를 넘었고, 기술분야까지 포함하면 2022년엔 기록적인 60%, 2023년엔 54%였습니다. 하버드 학생들은 이런 직업(금융·컨설팅·기술)을 ‘매진(sellout) 직업’이라고 부른다는군요. 모두가 좇는 고소득의 진로라는 뜻이죠. 한국으로 치면 공부 잘하면 무조건 의대 가는 것과 비슷한 현상이라 할 수 있겠는데요. 미국에선 대학 등록금이 계속 오르면서 학생과 학부모 모두 졸업 후의 금전적 보상을 더 기대하게 됐다는 분석이 나옵니다. 또 이른바 ‘효과적인 이타주의’ 영향도 있다는데요. “난 봉사활동 하는 것보다 돈을 많이 벌어서 그 돈으로 많은 일을 할 거야”라고 말하는 Z세대가 늘고 있다고 합니다. 물론 그런 말은 헛소리일 가능성이 크지만요. 미히르 데사이 하버드대 교수는 이렇게 말합니다. “일이 사람의 삶에 얼마나 중요한지를 과소평가하고 있습니다. 틀린 점은 헤지펀드에서 15년을 보내면 다른 사람이 된다는 겁니다.” 

역시나 결국 모두의 관심사는 '돈'이로군요.
딥다이브가 여러분께 돈을 벌어다 드리진 못하겠지만,
맛 좋은 영양 간식(?)은 되었으면 하는 바람을 담아 레터를 보냅니다.
더 궁금한 게 있으신지, 더 알고 싶은 아이템이 있으신지. 다양한 의견 남겨주세요.
읽을 만한 콘텐츠를 만들기 위해 노력하겠습니다.
의견을 남기실 분은 아래 버튼을 클릭해주세요!
버튼을 클릭하면 구글 설문지로 넘어갑니다. 🤿


“오늘 오픈AI에서 무슨 중요한 발표가 있나요?” (챗GPT)

“오늘 너에 대해서 발표할거야” (인간)

“저요? (웃음) 저에 대해서 발표한다고요? 흥미가 생기는데요?” (챗GPT)

13일(현지시간) 챗GPT를 만드는 오픈AI가 공개한 최신 인공지능(AI)모델 ‘GPT-4o’와 인간이 음성으로 대화한 내용이다. 이날 공개한 GPT-4o는 영화 ‘그녀(Her)’에서 등장한 여성AI 사만다에 근접한 대화능력을 갖췄다. 대화를 하나씩 주고 받는 것이 아니라, 사람이 AI의 말을 끊고 끼어들 수 있어서 실제 사람과 대화하는 것처럼 빠른 속도로 대화가 가능하다. GPT-4o는 대화하는 사람의 음성을 인식해 감정을 이해할 수 있고, 노래를 부르거나 개인교사가 되어 1:1로 인간을 가르쳐주는 것도 가능하다. 오픈AI는 이날 시연을 통해 챗GPT끼리 서로 대화를 나누거나, 챗GPT가 두 사람이 가위바위보 하는 것을 실시간으로 설명해주는 것도 보여줬다.

오픈AI의 챗GPT가 사람과 가까운 수준으로 음성 대화 능력을 갖추게 된 것은 지연시간을 최대한 줄이고, GPT를 ‘제로’에서부터 새롭게 만들었기 때문이다. 기존 챗GPT의 음성대화 모드에서는 응답까지 기다리는 시간이 2.8초였다. 하지만 오픈AI는 GPT-4o에서 이를 평균 0.32초로 10분의 1 정도로 줄였다. 이는 인간의 일반적인 대화에서 응답하는 속도와 비슷한 수준이다. 오픈AI에 따르면 GPT-4o는 텍스트, 시각, 음성을 통합한 하나의 새로운 모델을 처음부터 구축했다.

오픈AI가 기존의 음성AI보다 훨씬 진일보한 모델을 공개하면서, 음성AI 개발경쟁은 불이 붙었다. 구글이 자체 개발 AI인 제미나이 음성AI 비서를 업그레이드할 것으로 예상되는 가운데 애플도 다음달 음성AI ‘시리’의 새로운 버전을 공개할 예정이다. 삼성전자의 ‘빅스비’과 아마존의 ‘알렉사’도 오픈AI 따라잡기에 나설 것으로 예상된다.

한편 GPT-4o는 AI의 발전속도가 점점 가속화되고 있음도 보여줬다. 2022년 11월 챗GPT가 공개되고 1년 반 만에 음성으로 사람처럼 대화하는 AI까지 등장한 것이다.

이 같은 AI의 급속한 발전과 ‘인공지능 위험’을 주제로 미국과 중국은 14일 스위스 제네바에서 첫 고위급 회담을 열었다. 이번 회담은 작년 11월 양국이 정상회담에서 AI 분야에 관한 대화가 필요하다는 데에 공감한 데 따른 것이다.

브루킹스 연구소는 이번 고위급 회담이 군사적으로 허용되는 AI 사용에 대한 이해를 높이고, AI 모델 훈련을 위해 국가간 어떤 종류의 데이터를 공유할 수 있는지 합의점을 도출할 것으로 기대했다. 미국의 경우 개인정보 유출에 대한 우려가 커지고 있어서 이를 미국 정부가 해결하겠다는 메시지다.

반면 중국은 AI규제를 해결하겠다는 메시지를 보내고 있다. 류펑위 주미중국대사관 대변인은 성명을 통해 “미국과 중국의 AI 관련 대화가 양국뿐 아니라 다른 국가들의 미래에도 영향을 미칠 것”이라면서 “양측은 솔직한 대화를 나눌 책임이 있다”고 말했다. 미국은 작년 10월 AI 칩의 중국 수출을 금지시켰고 이에 따라 중국의 AI 개발이 더뎌지고 있다는 설명도 나오고 있다.


댓글 쓰기

Welcome

다음 이전