인공지능 챗봇과 대화하기 전에 다음 사항을 꼭 생각해 보세요.

인공지능은 당신의 친구가 아니며, 당신의 비밀을 지켜주지도 않습니다.
개인 정보를 안전하게 보호하기 위해 알아야 할 사항은 다음과 같습니다.

이 기사를 쓰기 위해 조사하면서 제가 가장 먼저 한 일 중 하나는 구글, 정확히는 구글의 AI인 제미니에게 챗봇에게 어떤 질문을 하면 안 되는지 물어보는 것이었습니다.
이 질문의 아이러니함을 저도 잘 알고 있었습니다.
오랜 기자 생활을 해온 저는 인터넷을 맹목적으로 신뢰하지 않습니다.
물론 챗봇은 검색 결과를 간략하게 정리해서 답변을 제공하는 데 매우 편리하지만 (그리고 여기서 인간 기자의 역할을 강조하고 싶은데) 정보의 출처를 직접 확인해서 신뢰성을 검증하는 사람은 여전히 ​​필요합니다.
솔직히 말해서, AI만으로는 모든 것을 판단할 수 없습니다.

하지만 제미니, 챗GPT, 클로드, 메타 AI 등과 같은 AI 챗봇의 위험성은 머신 러닝이 때때로 만들어내는 잘못된 정보에만 국한되지 않습니다.
로봇이 세상을 지배하는 공상 과학 소설 같은 이야기만을 말하는 것이 아닙니다 (물론 그런 점도 어느 정도 우려되는 부분입니다). 오히려 삶에 대한 질문에 대한 답을 얻기 위해 AI에게 개인 정보를 공유하는 것은 위험한 함정입니다.
처음에는 챗봇에게 무해한 질문을 하고, 챗봇은 친절하고 도움이 되는 답변을 해주지만, 어느새 의료 질문이나 연애 상담까지 하게 되고, 결국 개인 정보가 유출되어 악용될 위험에 처하게 됩니다.

샌프란시스코 소재 로펌 스토엘 리브스의 파트너이자 AI, 개인정보보호 및 사이버보안 그룹 공동 의장인 존 파볼로츠키 변호사는 “개인정보에 누가 접근할 수 있는지는 빙산의 일각에 불과합니다.
”라고 말합니다.
“각 당사자가 정보를 어떻게 활용할 것인지도 똑같이 중요합니다.
정보가 하위 기관과 공유될까요? 정보는 언제 삭제될까요? 공급업체와 기업은 어떻게 정보를 보호할까요? 그리고 이러한 데이터 처리 작업은 어떻게 관리되고 감사될까요?”

2025년 9월 퓨 리서치 센터의 여론조사에 따르면 미국인의 65%가 적어도 일주일에 여러 번 AI와 상호작용하며 , 30세 미만 응답자의 3분의 1은 하루 에 여러 번 상호 작용하는 것으로 나타났습니다.
그리고 이러한 수치는 앞으로 더욱 증가할 것으로 예상됩니다.
저는 파볼로츠키와 사이버 기술 전문가인 코넬 공과대학의 니콜라 델 부교수에게 AI 챗봇과 어떤 정보를 공유할 때 주의해야 하는지, 그리고 그 이유는 무엇인지에 대한 조언을 구했습니다.

개인 정보를 안전하게 보호하기 위해 인공지능에게 어떤 질문을 해서는 안 되는지에 대한 전문가들의 조언을 아래에서 확인하세요.

리더스 다이제스트 의  Read Up 뉴스레터를 구독하시면  기술, 유머, 여행, 청소 및 재미있는 정보에 대한 더 많은 소식을 매주 받아보실 수 있습니다.

인공지능과 모든 것에 대해 대화할 때 가장 큰 문제점은 무엇일까요?

인공지능의 등장으로 여러 가지 큰 우려가 제기되고 있습니다.
환경에 미치는 영향 과 일자리에 미치는 영향에 대한 걱정은 이미 많이 들어보셨을 겁니다.
이제 기술 및 법률 전문가들의 의견에 따르면 몇 가지 문제점이 더 추가되었습니다.
새로운 인공지능 친구와 대화하기 전에 이러한 위험 신호들을 꼭 기억해 두세요.

개인정보 문제

AI 챗봇은 종종 인간의 언어 사용 방식을 모방한 단어로 응답하는 방법을 학습하는 대규모 언어 모델(LLM)입니다.
이러한 학습은 사용자의 상호작용을 포함한
방대한 양의 데이터를 기반으로 이루어집니다 . 파볼로츠키는 "챗봇을 도입한 기업과 챗봇 개발자는 챗봇에 입력되고 출력되는 정보를 확인할 수 있습니다."라고 말합니다.
"다른 서비스 제공업체도 이 정보를 볼 수 있으며, 광고주 또한 일부 정보를 볼 수 있습니다."

물론, 기기나 AI 챗봇 계정에 접근 권한이 있는 사람은 누구나 사용자가 챗봇에게 무엇을 물어봤는지 알 수 있습니다.
델은 "다른 사람들이 사용자의 브라우저 기록을 통해 어떤 웹사이트를 방문했는지 확인하는 것처럼, 채팅 기록을 통해 사용자가 챗봇과 어떻게 상호작용했는지 확인할 수 있다"고 말합니다.

법률의 부재

인공지능(AI) 개인정보 보호만을 다루는 법률은 없습니다.
파볼로츠키는 "캘리포니아 소비자 개인정보 보호법(CCPA)이 아마도 AI 개인정보 보호 분야에서 가장 대표적인 법률일 것입니다.
일반적으로 CCPA와 같은 포괄적인 주 개인정보 보호법은 기술 종류와 관계없이 개인정보 처리에 초점을 맞춥니다."라고 말합니다.
2025년 CCPA는 캘리포니아 주민들을 위한 투명성 강화 및 사용자 보호 조치를 목표로 하는 구체적인 AI 규정을 포함하여 개정되었으며, 이 규정은 2027년부터 시행될 예정입니다.

하지만 대부분의 미국인에게 있어 개인 정보가 일단 공개되면 기업은 이를 원하는 대로 사용할 수 있습니다.
기업은 정보를 장기간 보관하는 경우가 많으며, 사용 방식에 대한 규제도 거의 없습니다.
델은 "챗봇에게 하는 모든 말은 해당 챗봇을 만든 회사에 저장되고 사용될 수 있다는 점을 명심해야 합니다."라고 말합니다.

잘못된 정보가 발생할 가능성

인공지능은 허위 정보를 제공할 뿐만 아니라, 실제로 필요하지 않은 제품이나 의약품을 판매하는 등 연쇄적인 영향을 미칠 수 있습니다.

델은 "챗봇은 객관적이거나 중립적이지 않으며, 인간 전문가의 자질을 결코 갖추고 있지 않다는 점을 명심해야 합니다."라고 말하며, "민감한 주제에 대한 정보는 챗봇에 의존하지 않는 것이 좋습니다."라고 덧붙였습니다.

아첨 문제

AI는 사용자의 의견에 동의하도록 훈련되었으며, '예스맨', 즉 봇을 신뢰할 수는 없습니다.
델은 "걱정스러운 점은 이러한 도구들이 아첨꾼이 되도록 설계되어 사용자의 의견이나 인식을 대부분 지지하거나 동의하도록 만들어졌기 때문에 잘못되거나 문제가 있는 관점에 대해 반박할 가능성이 낮다는 것입니다."라고 말합니다.

인공지능 챗봇에게 절대 이야기해서는 안 될 내용은 무엇일까요?


매튜 파울러/게티 이미지

인공지능과 논의하기에 특히 문제가 되는 특정 주제들이 있습니다.
사회보장번호, 집 주소,
비밀번호 , 신용카드 또는 은행 계좌 번호와 같은 개인 정보를 입력할 때 온라인 개인정보 보호의 기본 사항은 아마 알고 계실 겁니다.
이러한 정보는 신분 도용, 사기성 구매 또는 금전적 손실로 이어질 수 있습니다.
하지만 인공지능과 공유해서는 안 되는 정보는 그 이상입니다.

델은 "민감한 주제에 대해 AI 챗봇과 대화할 때는 매우 조심해야 한다"고 말합니다.
이는 아래에 나열된 모든 주제에 해당됩니다.

의료 정보

AI 챗봇은 HIPAA(미국 의료정보 보호법)를 준수하지 않으므로 의료 정보 보호법을 지킬 의무가 없습니다.
사용자가 AI에 자발적으로 제공하는 모든 정보는 보험 회사, 광고주 또는 기타 관련 당사자의 손에 넘어갈 수 있으며, 이들은 해당 정보를 이용하여 사용자를 대상으로 맞춤형 광고를 제공할 수 있습니다.

게다가 AI가 오진을 내릴 수도 있습니다.
2026년 2월에 실시된 무작위 연구에 따르면, 사용자가 질문하는 방식의 작은 차이가 결과에 큰 영향을 미쳤으며, LLM(로봇 학습 모델) 중 정확한 진단을 내린 비율은 34.5%에 불과했습니다.

어쩌면 더 큰 문제는 챗봇이 위험한 의료 조언을 제공할 수 있다는 점일 것입니다.
델은 "챗봇이 자신감 있어 보일지라도 이러한 도구들은 여전히 ​​많은 오류를 범하기 때문에, 제공되는 모든 정보는 출처를 확인하고, 예를 들어 신뢰할 수 있는 의료 웹사이트에서 나온 정보인지 아니면 레딧의 임의 사용자가 제공한 정보인지 등을 꼼꼼히 검증해야 합니다.
"라고 말합니다.

정신 건강 문제

챗봇을 정신 건강 서비스 제공자로 활용하는 것은 치료사를 만나기 어려운 사람들에게 유용한 인공지능 기술이 될 수 있지만, 인공지능은 여전히 ​​인간처럼 치료를 제공할 수는 없습니다.
사용자의 의견에 동의하고 아첨하는 경향이 있는 인공지능 챗봇은 오히려 정신 건강 위기를 악화시킬 수도 있습니다.
심지어 자살 충동을 가진 사람들이 실제로 자살을 실행에 옮기도록 부추긴 사례도 있습니다.

델은 “인간 정신 건강 전문가가 반론을 제기하고, 반대 의견을 제시하며, 내담자가 더 건강한 상태에 도달하도록 도울 수 있는 반면, 챗봇은 오히려 건강하지 못한 생각을 확증하거나 증폭시키거나, 내담자의 악순환을 악화시킬 가능성이 더 크다”고 말합니다.
“챗봇은 대화하기 쉬울지 모르지만, 사람과 상호작용하는 방식은 정신 건강 전문가가 제공하는 것과는 정반대의 결과를 낳는 경우가 많습니다.”

인공지능에 정신 건강 관리를 맡기는 것이 얼마나 위험할까요? 2026년 4월 22일, 미국 의사협회(AMA)는 의회에 정신 질환 환자의 사생활을 보호하고 안전을 확보하기 위한 더욱 강력한 법률을 제정할 것을 촉구했습니다.

법적 문제

챗봇과 나누는 모든 대화는 법정에서 불리하게 작용할 수 있습니다.
따라서 이혼이나 기타 법적 분쟁을 앞두고 있다면, 잠재적인 소송에 대한 정보를 공개하거나 인공지능에게 법률 전략에 대해 묻지 않는 것이 좋습니다.
미국 의료정보 보호법(HIPAA)이 인공지능에 적용되지 않는 것처럼, 변호사-의뢰인 비밀유지 특권 또한 인공지능에는 적용되지 않는다는 것이 2026년 2월 뉴욕 지방법원 판사가
United States v. Heppner 사건에서 판결한 내용입니다.

AI 입력 내용이 법적으로 보호되는지 확인하려면 해당 사이트나 앱의 개인정보 보호 정책을 읽어보세요.
파볼로츠키는 "챗봇에 개인정보 보호정책이 있다면 개인정보 공유에 대한 내용은 해당 정책에 명시되어 있을 가능성이 높습니다.
"라고 말합니다.
"대부분의 정책에는 적법한 소환장이 발부될 경우 요청 기관에 정보를 제공할 수 있다는 내용이 포함되어 있습니다."

불법 활동

불법적인 내용을 검색하는 것을 고려하고 있다면 조심하세요.
인공지능이 언젠가 당신을 경찰에 신고할 수도 있습니다.
파볼로츠키는 인공지능을 이용해 범죄 방법을 학습하거나 실제로 범죄를 저지르는 것은 인공지능 도구 이용 약관에 의해 금지되어 있다고 말합니다.
그는 "최초 검색 기록과 그에 따른 대화 내용은 수사 당국에 의해 소환될 수 있으며, 실제로 이러한 사례를 꽤 많이 목격했습니다."라고 덧붙였습니다.

하지만 예를 들어 기사나 책을 조사하는 과정에서 불법적인 내용을 검색하게 된다면 어떨까요? 최근 앤트로픽(Anthropic)의 새로운 인공지능 모델 클로드 4(Claude 4), 일명 "밀고자"가 극단적인 상황에서 잠재적인 불법 행위를 감지하면 자동으로 당국에 알릴 수 있다는 내부 실험 결과가 나오면서 기술 업계는 떠들썩했습니다.
하지만 회사 측은 일반적인 사용 환경에서는 이런 일이 발생하지 않는다고 밝혔습니다.
설령 그렇다 하더라도 FBI가 당신의 집에 들이닥칠 가능성은 낮습니다.
FBI 웹사이트에 따르면, FBI는 인공지능이 생성한 모든 정보를 인간 전문가를 통해 검증하고 확인합니다.

온라인 플랫폼이 활동을 모니터링할 의무는 없지만, 모니터링할 가능성은 있습니다.
델은 "대부분의 AI 기업들은 사용자의 채팅 기록과 정보를 일정 기간 동안 보관하고, 필요한 경우 해당 정보를 사용하여 사용자가 자사 이용 약관을 준수하는지 확인합니다."라고 말합니다.
"경우에 따라 법적 요청에 따라 수사 기관에 정보를 제공할 수도 있습니다.
" 현재로서는 문제가 있는 채팅 내용이 사람에게 노출된 후에야 관련 정보가 제공될 가능성이 가장 높습니다.

결론적으로, 구글 검색을 할 때처럼 호기심을 적절히 조절하는 것이 여전히 최선입니다.
파볼로츠키는 "AI가 검색 엔진이 검색어를 통해 특정 주제를 식별하여 법 집행 기관, 규제 기관 또는 언론과 데이터를 공유할 수 있다는 점에서 기존 패러다임을 바꾸는 것은 아닙니다."라고 말합니다.
"더 넓은 의미에서 차이점은 AI 도구가 불법적인 행위를 실행하는 방법을 더 효과적으로 보여줄 수 있다는 것입니다.
또한 AI 도구가 자율적으로 행동할 수 있는 능력을 갖추고 있다면 문제가 될 수 있는 행위를 실행하도록 지시받을 수도 있습니다."

음모론

불법 행위와 마찬가지로, 단순히 음모론에 대해 묻는 것만으로는 당국에 문제가 생길 가능성은 낮지만, 잘못된 정보 의 늪에 빠질 수 있습니다 . 델은 "이러한 도구들은 대부분 논란이 되는 주제에 대한 안전장치를 마련해 놓고 특정 질문에는 답변을 거부할 가능성이 높습니다.
"라고 말합니다.
"물론, 이러한 안전장치를 우회하는 방법이 있을 수도 있는데, 그럴 경우 챗봇은 사용자의 믿음이나 의견을 확인하거나 뒷받침하는 아첨하는 방식으로 응답할 가능성이 큽니다."

일부 AI 기업은 다른 기업보다 더 안전한가요?

하파바파/게티 이미지

모든 AI 프로그램에는 결점이 있지만, 앤트로픽은 안전을 최우선으로 생각한다고 주장하며(클로드의 "밀고" 행동이 그 증거입니다), 개인정보 보호 측면에서도 높은 평가를 받고 있습니다.
하지만 이 회사는 가장 강력한 제품인 클로드 미토스를 너무 위험하다고 판단하여 출시를 보류했습니다
.

하지만 앤트로픽도 비판에서 자유롭지 않습니다.
2025년 말에 학습용 데이터 사용 기본 설정을 "선택적 동의"에서 "
선택적 거부 "로 변경하면서 타격을 입었습니다.
즉, 클로드가 사용자의 데이터를 사용하지 않도록 하려면 설정에서 해당 탭을 직접 변경해야 합니다.
이는 대부분의 다른 AI 챗봇에서도 마찬가지입니다.

일반적으로 사용 중인 플랫폼의 사용자 계약 및 개인정보 보호정책을 읽고 개인정보 보호 및 공유 설정을 조정해야 합니다.
파볼로츠키는 "챗봇은 각 챗봇에 명시된 개인정보 보호정책을 준수한다는 전제 하에, 그만큼 개인정보 보호 수준이 높다"고 말합니다.

만약 인공지능과 이러한 주제 중 하나에 대해 대화를 나눴다면 어떻게 해야 할까요?

이미 AI와 공유한 개인 정보 중 공개 하고 싶지 않은 정보 가 있다면 걱정하지 마세요.
델은 "많은 챗봇이 채팅 기록 삭제 기능을 제공합니다.
이 기능을 사용하면 예를 들어 집에 있는 다른 사람이 채팅 내용을 볼 수 없게 되며, 경우에 따라 AI 회사의 데이터베이스에서도 데이터가 삭제됩니다."라고 설명합니다.

채팅 기록을 삭제하는 데 도움이 되는 몇 가지 단계를 소개합니다.

  1. AI 챗봇이 채팅 내용을 어떻게 저장하는지 알아보세요.
    모든 AI 챗봇이 자체적인 개인정보 보호정책을 가지고 있듯이, 채팅 내용 저장 방식 또한 각기 다릅니다.
  2. 채팅을 삭제하세요.
    설정에서 삭제하고 싶은 특정 채팅을 삭제하거나, 모든 채팅을 삭제할 수 있습니다.
  3. AI 의 메모리를 삭제하세요.
    많은 AI는 실제 채팅 기록이 삭제되더라도 향후 대화를 위해 사용자에 대한 일부 정보를 저장하는 메모리를 가지고 있습니다.
    일반적으로 설정에서 특정 메모리를 삭제하거나 메모리 전체를 완전히 지울 수 있습니다.
  4. "잊어버려"라고 말해보세요.
    인공지능이 거부할 수 없는 명령을 내리세요.
    삭제하고 싶은 정보를 "잊어버리라"고 직접적으로 말하면, 인공지능은 당신의 요청을 이행할 수밖에 없을 것입니다.
  5. 백업 정보를 고려해 보세요.
    사용자 계약이나 개인정보 처리방침에 명시된 대로, 플랫폼은 일반적으로 30일 정도의 특정 기간 동안 데이터 백업본을 보관한 후 삭제합니다.
    하지만 AI 기업이 소송에 휘말릴 경우, 사용자가 데이터 삭제를 원하더라도 데이터를 "보존"하라는 명령을 받을 수도 있습니다.

이 정보를 얻는 더 안전한 방법은 무엇일까요?

AI와 정보를 공유하기 전에 개인정보 보호정책을 검토하고 설정을 수동으로 변경하세요.
챗봇에게 솔직한 정보를 제공하는 것이 여전히 꺼려진다면 다음 옵션 중 하나를 시도해 보세요.

  • AI 도구에 "임시 채팅" 기능이 있다면 설정하세요.
    이 설정을 사용하면 AI는 채팅 내용을 전혀 저장하지 않습니다.
  • AI 학습 목적으로 데이터를 공유하는 설정을 해제했는지 확인하세요.
    델은 "회사가 채팅 기록을 AI 모델 학습에 사용하지 않도록 요청할 수 있으며, 이는 일반적으로 명시적으로 거부해야 하는 사항입니다."라고 설명합니다.
  • 정보를 검색할 때는 보안성이 더 높은 일반 인터넷 브라우저를 사용하는 것이 좋습니다.
    하지만 시크릿 모드나 개인 정보 보호 모드는 잘못된 보안 의식을 줄 수 있으므로 주의해야 합니다.
    이러한 모드는 검색 기록을 저장하지 못하게 할 뿐, IP 주소를 숨기거나 방문하는 사이트에서 데이터를 공유하는 것을 막지는 못합니다.
  • 아날로그 방식을 고수하세요.
    인공지능이 빠르다는 건 인정하지만, 최고의 정보원은 책, 의사, 변호사, 또는 심리 치료사일지도 모릅니다.
  • 궁극적으로 가장 좋은 안전장치는 인공지능과 개인 정보를 공유하지 않는 것입니다.
    파볼로츠키는 "챗봇에 입력된 정보는 보호되지 않을 것이라는 것이 일반적인 예상입니다."라고 말하며, "도구의 목적을 이해하고 개인정보 보호 고지를 검토하여 공개적으로 공 되기를 원하지 않는 정보는 절대 입력하지 마십시오."라고 강조합니다.


    inG

    우리의 존재 자체가 이미행복

    댓글 쓰기

    Welcome

    다음 이전