[AI 이야기] AI 시대의 경쟁력: 비판적 수용과 사회적 스킬 HSAD 공식 블로그 HSADzine

HSAD 공식 블로그 HSADzine

 

내가 헛소리하면 바로 얘기해줘요

 

제가 정말 존경하는 분 중 한 분이 저와 AI 프로젝트를 시작할 때 처음으로 하신 말씀입니다. 그분은 연구 분야에서 세계적인 영향력을 가지고 계신 권위자였지만, 자신의 권위를 내세우는 대신 본인이 할 실수나 잘못을 반드시 지적해 달라고 요청하셨습니다. 오늘은 AI 시대에서 무엇보다도 중요해진 비판적 수용 능력에 대해서 이야기해보려고 합니다.

 

완벽한 인간은 없다

 

왼쪽부터 스티브 잡스, 마틴 루터 킹 주니어, 뉴턴

 

스티브 잡스, 마틴 루터 킹 주니어, 뉴턴. 역사적으로 길이 남을 엄청난 업적을 남긴 사람들입니다. 하지만 사람들에게 잘 알려지지 않은 이들의 치명적인 실수들이 있습니다.

 

스티브 잡스는 애플에서 최첨단 기기를 만들었지만, 췌장암 진단을 받고도 높은 확률로 완치 가능한 수술 대신 침술과 대체 의학을 고집했습니다. 9개월을 그렇게 보낸 뒤 치료 적기를 놓쳤고, 결국 사망에 이르렀습니다. 마틴 루터 킹 주니어 목사는 노벨 평화상 수상자였지만, 논문 표절과 문란한 사생활이 FBI 조사로 드러났습니다. 뉴턴은 근대 과학의 아버지이면서도 인생의 상당 부분을 비과학적인 연금술 연구에 쏟아부어 무려 65만 단어에 이르는 기록을 남겼습니다.

 

이외에도 세계적인 권위를 가진 사람들이 상식 밖의 일들을 한 예시는 차고도 넘칩니다. 제가 이런 예시를 보여드리는 이유는 이들의 업적을 깎아내리려는 것이 아닙니다. 우리가 AI 시대를 살아가면서 어떻게 AI를 대해야 할지에 대한 경종을 울리기 위해서입니다.

 

기술에 대한 과신(overtrust)은 사람과 컴퓨터, 로봇의 상호작용을 연구하는 분야(HCI, HRI)에서 굉장히 중요한 주제입니다 [1]. AI가 발전할수록 이 문제는 더욱 심각해지고 있습니다. 자율주행 중 센서를 속이고 운전석을 비운 채 이동하다 사고가 나는 것은 극단적인 예시입니다.

 

최근 LLM이 발달하면서 사람들은 그럴듯해 보이는 AI의 답변을 무비판적으로 수용하는 문제가 많이 생겨나고 있습니다. 반대로 AI를 잘 아는 사람들은 할루시네이션 문제 때문에 지나치게 경계하기도 합니다. 저 역시 할루시네이션을 과하게 경계하며 제대로 된 출처를 찾는 데 많은 노력을 쏟을 때가 종종 있습니다.

 

하지만 할루시네이션은 사실 태생적 문제입니다. 제가 앞에서 유명인들의 실수 사례를 든 것이 바로 그 이유입니다. 사람도, 전문가들도 종종 거짓말을 하고, 자신의 목숨을 앗아갈 정도로 잘못된 판단을 합니다. AI라고 그러지 말라는 법이 있을까요?

 

가장 인간다운 것이 가장 큰 경쟁력

 

요즘 미래를 준비하는 방법은 앞으로 어떤 직업이 AI로 대체될지를 보는 게 아니라, 어떤 인간적인 특성이 AI로 절대 대체되지 못할지를 보는 것이라는 말이 있습니다.

 

CSET의 보고서 중 노동시장에서 중요한 스킬의 비중을 설명한 차트 [2]

 

한국산업기술진흥원(KIAT)이 정책브리프로 보고하면서 인용한 미국 안보신기술센터(CSET)의 보고서 'AI and the Future of Workforce Training'에 따르면 [2], AI 기반 미래 시장에서 기술적 능력은 업무 경쟁력의 27%만 차지하고, 학습능력과 사회적 상호작용 스킬, 사고력 등이 58%를 차지하게 될 것이라고 합니다.

 

여기에서 강조하는 모든 능력이 바로 AI 대비 인간의 차별점입니다. 인간의 뇌는 가소성(Neuroplasticity)을 가지고 있어 끊임없이 적응하고 배우며, 정보 간의 연결성을 만들어냅니다. 하지만 현재 기술력으로는 AI가 인간 뇌의 처리 속도와 효율성을 따라잡기 어렵습니다. 그 격차는 수십억 배 이상입니다.

 

게다가 아무리 AI가 친근하게 말하고 개인화된 대화를 한다 해도, 업무 측면에서 사회적 상호작용, 설득력, 비판적 사고 능력은 여전히 AI로 대체될 수 없는 영역입니다. (물론 최근에는 인간의 체온, 표정, 몸짓까지 로봇에 학습시키며 이런 장벽도 넘으려 하고 있지만요.) 그렇기에 노동 시장에서 이러한 인간만의 특성을 가장 잘 발휘하는 사람들이 더 좋은 대우를 받고 있습니다.

 

비판적 수용

 

위에서 말씀드린 사회적 상호작용이나 설득력 등에 대해서는 더 깊이 논하지 않겠습니다. 이전에 '설득의 심리학'이라는 책으로 조금 소개해 드리기도 했지만, 저는 그 분야의 전문가가 아니기 때문에 AI를 어떻게 활용할지에 대해 설명드리는 게 더 좋을 것 같습니다.

 

저는 이 AI 시대에서 가장 중요한 것 중 하나가 비판적 수용이라고 생각합니다. 1990년대는 정보의 홍수 시대였습니다. 2000년대에는 구글 알고리즘 덕분에 검색 첫 페이지에서 웬만한 정보를 얻을 수 있게 되었습니다. 2010년대부터는 SNS를 통해 나와 비슷한 생각을 하는 사람들, 혹은 내가 관심 있는 정보에 더 많이 노출되게 되었습니다. 그리고 2020년대인 지금, AI가 모든 것을 요약해서 우리의 사고방식, 고민까지도 대신하고 있습니다. 잘못하면 가만히 앉아서 바보가 될 수도 있는 상황입니다.

 

저는 이러한 한계에서 벗어나기 위해 반드시 세 가지 정도는 의도적인 노력을 들여 비판적 수용 능력을 갖춰야 한다고 생각합니다.

 

Google AI Studio의 Nanobanana 모델로 생성된 이미지

 

비판적 수용을 해야 하는 이유를 예를 들어 말씀드려 볼게요. 절벽 위에(시장상황) 흔들 다리(우리 회사의 사업)가 있다고 생각해 봅시다. 흔들 다리의 각 판자를 연결하는 나사(AI를 활용한 제품/서비스)가 모두 박혀 있는데, 딱 하나가 빠져 있습니다(할루시네이션). (1) 나사가 빠져 있는지 확인하고, (2) 빠질 만한 곳을 알고 있고, 혹시 실수로 못 볼 수 있으니 (3) 나뿐만 아니라 다른 사람들도 함께 들여다봐야 하지 않을까요?

이를 대입해 보면, 저는 꼭 (1) 출처를 확인하고, (2) 비판적으로 수용할 기본적인 도메인 지식을 갖추고, (3) 여러 LLM을 활용한 교차 검증이 필요하다고 생각합니다. 우리가 사람이 일을 할 때도 이런 것들을 확인하는 것처럼요!

 

유튜버가 로켓을 바꾼 날

 

저는 비판적 수용이 꼭 외부 지식에 대한 판단에만 그치지 않는다고 생각합니다. 진정한 비판적 수용은 자기 자신의 의견까지도 비판적으로 판단하고 수용 여부를 결정하는 것입니다.

 

Tim Dodd의 채널인 EverydayAstronaut에 올라온 영상 [3]

 

일론 머스크는 테슬라도 매우 성공적인 기업으로 일궈냈지만, 우주공학 분야에서도 NASA도 해내지 못한 정말 말도 안 되는 기술인 로켓 재사용 기술을 상용화시켜 인류를 우주여행의 길로 한 발짝 더 앞서게 만든 SpaceX를 창업하고 일궈냈습니다. 일론 머스크가 Tim Dodd라는 유튜버와 인터뷰를 했을 때의 일입니다. Tim Dodd NASA 출신도 아니고 항공우주공학 학위도 없지만, 로켓에 대한 열정으로 엄청난 독학을 한 사람이었습니다. 그가 일론에게 물었습니다. "왜 별도의 냉각 가스 시스템이 필요한가요? 그냥 메인 엔진의 여분 가스를 쓰면 안 되나요?"

 

보통 사람이었다면 이렇게 말했을 겁니다. "당신이 뭘 알아요? 우리 내부에 최고의 전문가들이 있는데 그걸 고려 안 했겠어요?" 권위를 먼저 내세우며 말이죠. 하지만 일론은 잠시 생각하더니 말했습니다. "듣고 보니 그 말이 맞는 것 같네요." 그리고 엄청난 규모의 설계 수정을 단행했고, 기존보다 훨씬 효율적인 로켓을 만들게 되었습니다.

 

보통 사람이라면 이런 식으로 본인 전문성의 결함을 인정하고, 그 짧은 순간에 다른 이의 의견을 수용하기 어려웠을 겁니다. 그렇기 때문에 이런 능력을 가진 사람들이 더욱 인정받게 되는 것 같습니다.

 

마케팅 분야에서는 엄청난 전문성과 기획 능력, 창의성이 요구됩니다. 그 와중에 타이밍 빠르게 대응해야 하는 임기응변 능력까지 필요하기 때문에 AI 활용이 극대화될 수 있는 산업 최전선의 영역이라는 생각이 듭니다.

 

그래서 마케터로서 누군가와 일을 할 때, 혹은 자신의 업무를 처리할 때, AI를 활용할 때 등 모든 순간에 스스로 '내가 헛소리하고 있지는 않은가?'라고 되뇌이면서, 늘 검증하려 노력하고, 다른 사람의 의견을 비판적으로 수용하는 사람이 된다면 더 멋진 일들을 많이 할 수 있지 않을까 합니다.

 

그리고 가급적 ChatGPTClaude 등 평소 사용하던 하나의 AI만 쓰지 말고, 적어도 Chat, 이미지, 비디오, 리서치 등 분야를 막론하고 해당 분야의 AI 서비스 중 최소 두 개 정도는 계속해서 비교하면서 써보시기를 꼭 권장드립니다.

 

[1] Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human factors46(1), 50-80.

[2] Matthias et al. (2024). AI and the Future of Workforce Training. CSET.
 
https://cset.georgetown.edu/publication/ai-and-the-future-of-workforce-training/

[3] EverydayAstronaut, YouTuber’s Question Helps Elon Musk Improve Starship.
https://www.youtube.com/shorts/WY73exaVpyw

 

이충헌 박사의 AI 트렌드와 인사이트 2025.11

 

 

Posted by HSAD공식블로그