자동화하면 안 되는 일이 있다 — AI 시대 직장인의 판단력 설계

대표 이미지


지금 이 글을 읽고 있는 당신은 아마 AI 도구를 하나쯤 쓰고 있을 것입니다. 어쩌면 이미 여러 개를 동시에 쓰고 있을지도 모릅니다. 이메일 초안을 Claude에게 맡기고, 회의록 요약을 Whisper에게 던지고, 보고서 형식은 GPT로 다듬는 일상. 그 자체는 나쁘지 않습니다.

그런데 잠깐.

당신이 자동화한 그 일들, 정말 자동화해도 되는 일이었나요?

이 질문을 지금 꺼내는 이유는 AI를 쓰지 말라는 뜻이 아닙니다. 오히려 반대입니다. AI를 제대로 쓰려면, AI가 절대로 잘 못하는 것이 무엇인지를 먼저 알아야 하기 때문입니다. 그리고 지금 인터넷에 넘쳐나는 "AI로 이렇게 하세요" 콘텐츠들은 그 절반의 이야기를 거의 하지 않습니다.


AI가 잘하는 것과 잘 못하는 것

AI는 평균을 최적화합니다. 이 말이 왜 중요한지 한 번만 생각해보면 됩니다.

수백만 개의 데이터를 학습한 모델이 만들어내는 출력은, 그 데이터의 평균값에 가장 가까운 답입니다. 문법적으로 자연스럽고, 논리 구조가 매끄럽고, 표준적인 형식을 정확하게 따릅니다. 그래서 정해진 틀 안에서 반복 수행되는 작업에서는 압도적으로 빠르고 일관됩니다.

문제는 비즈니스 가치의 상당 부분이 평균에서 벗어나는 순간에 만들어진다는 점입니다.

까다로운 고객 하나를 잘 붙잡는 것. 팀 내 갈등이 수면 위로 올라오기 전에 신호를 포착하는 것. 데이터가 멀쩡한데 뭔가 이상하다는 느낌을 버리지 않는 것. 모두가 찬성하는 자리에서 혼자 반대 의견을 꺼내는 것. 이런 순간들은 평균적인 답이 오히려 해가 됩니다. 그리고 이 영역이 정확히 "자동화해선 안 되는 일"의 핵심입니다.

MIT Sloan의 Loaiza & Rigobon 연구에 따르면, AI는 공감(empathy), 존재감(presence), 판단(judgment), 창의성(creativity), 희망을 전달하는 능력(hope) 등 다섯 가지 인간 역량을 복제하지 못합니다. 이 다섯 가지가 왜 중요한가 하면, 직장에서 가장 어려운 순간들이 정확히 이 역량들을 요구하기 때문입니다.


자동화하면 안 되는 일의 세 가지 속성

자동화해선 안 되는 일에는 공통된 속성이 있습니다. 이분법("자동화 가능 vs 불가능")으로 보면 놓치게 되는 속성들입니다. 중요한 것은 "자동화해야 할 때"와 "하지 말아야 할 때"를 구분하는 판단력입니다.

첫째, 예외 처리가 핵심인 일.

표준 프로세스에서 벗어난 상황이 생겼을 때, AI는 가장 자주 등장하는 유형의 답을 내놓습니다. 그러나 예외적 상황은 정의상 "자주 등장하지 않는 것"입니다. 항공 업계와 의료 분야에서 자동화 편향(automation bias)이 사고 원인으로 지목되는 경우가 있는 이유가 여기 있습니다. 자동화 시스템이 잘못된 신호를 보내도 운영자가 그것을 그냥 받아들이는 현상입니다. 이 개념은 직장 업무에도 그대로 적용됩니다. AI가 생성한 보고서 초안, AI가 추천한 응답, AI가 정리한 우선순위. 비판 없이 수용하는 순간, 예외 상황에서의 판단력은 AI의 판단으로 교체됩니다.

둘째, 관계 판단이 포함된 일.

LSE Business Review는 리더십, 이해관계자 관리, 맥락 기반 판단은 AI가 대체하기 어렵다고 분석합니다. 인간관계에서 발생하는 신뢰와 불신은 텍스트 데이터로 완전히 포착되지 않습니다. 어떤 발언이 회의실 분위기를 바꾸는지, 이 제안을 지금 이 사람에게 어떻게 전달해야 수용될지, 저 팀장이 피드백을 이렇게 말하는 데에는 어떤 배경이 있는지. 이런 판단들을 자동화하면 겉으로 보기에는 매끄럽지만 실제로는 관계가 서서히 손상됩니다.

셋째, 가치 기반 결정이 수반되는 일.

어떤 결정이 "옳은가"는 데이터만으로 결정되지 않습니다. 무엇을 우선순위로 삼을 것인가, 어떤 위험을 감수할 것인가, 단기 이익과 장기 신뢰 중 무엇을 선택할 것인가. 이 질문들은 AI가 참조할 수 있는 값이 없습니다. AI는 당신이 무엇을 중요하게 생각하는지 모릅니다. 그것은 당신이 직접 결정해야 합니다.


자동화 편향이 판단력을 갉아먹는 방식

자동화 편향은 무서운 개념입니다. 인간이 AI의 출력을 비판 없이 수용하는 경향을 뜻하는데, 이것이 위험한 이유는 서서히 진행되기 때문입니다.

처음에는 단순한 편의였습니다. AI가 이메일 초안을 써주니 빠릅니다. 그 초안을 거의 그대로 보냅니다. 다음에도, 그 다음에도. 1년이 지나면 이메일을 직접 쓰는 능력이 어느 정도 퇴화해 있습니다. 문제는 이것이 아닙니다. 진짜 문제는 AI가 판단을 잘못 내렸을 때 그것을 감지하는 능력도 함께 약해진다는 점입니다.

자동화가 늘수록 AI가 틀릴 때를 잡아낼 인간의 능력이 더 중요해집니다. 그런데 역설적으로, 자동화에 익숙해질수록 그 감지 능력이 약해집니다. 이 역설 안에 AI 시대 직장인의 핵심 과제가 있습니다.

앞선 포스트 "Claude는 내 직원인가, 동료인가"에서 다뤘던 AI와의 관계 설정 질문은, 결국 이 역설을 어떻게 관리하느냐의 문제이기도 합니다. AI를 도구로만 보든 동료로 보든, 그 관계에서 판단의 주도권이 인간 쪽에 있어야 한다는 점은 달라지지 않습니다.


"왜"를 먼저 묻지 않은 자동화의 결말

나심 탈레브(Nassim Taleb)는 저서 "안티프래질(Antifragile)"에서 최적화된 시스템이 블랙스완 상황에서 취약하게 붕괴한다고 주장합니다. 자동화로 매끄럽게 돌아가는 프로세스일수록, 예외적 충격이 왔을 때 전혀 준비가 되어 있지 않은 상태가 됩니다.

여기서 더 실용적인 함정이 있습니다. "잘못된 프로세스를 AI로 더 빠르게 반복하는 것(automating a bad process faster)." 흔히 회자되는 이 표현은, 자동화 결정에서 가장 자주 저질러지는 실수를 정확히 짚습니다.

어떤 회의 방식이 비효율적이었다면, AI가 그 회의록을 더 빠르게 요약해줘도 비효율은 그대로입니다. 어떤 고객 응대 방식이 관계를 손상시키고 있었다면, AI가 그 방식으로 더 많은 응대를 해줘도 손상은 가속됩니다. 자동화 전에 "왜 이 일을 하는가"를 먼저 묻지 않으면, 더 빠른 실수만 남습니다.

자동화가 인간의 관여를 줄이는 것이 아니라 다른 방향의 관여를 늘린다는 경험은 실무에서 흔히 보고됩니다. 자동화된 시스템은 더 높은 수준의 감독을 요구하는 역설이 여기서도 반복됩니다.


독자를 위한 자동화 결정 체크리스트

어떤 일을 자동화하기 전에 다음 네 가지를 스스로에게 물어보십시오.

1. 이 일에서 예외 처리가 핵심인가?
표준 케이스 95%는 자동화해도 됩니다. 나머지 5%의 예외 상황이 이 업무의 실제 가치를 만든다면, 자동화는 가치를 자르는 것과 같습니다.

2. 이 결과에 관계적 판단이 영향을 미치는가?
상대방이 누구인지, 지금 어떤 상황인지, 어떤 방식으로 전달해야 하는지가 중요하다면 자동화 비율을 낮추십시오. AI는 당신의 관계 맥락을 모릅니다.

3. 이 일에 나의 가치 판단이 포함되어야 하는가?
"무엇이 더 중요한가"를 결정해야 하는 순간이 포함된 업무는 자동화하지 마십시오. 가치 판단의 자리를 비워두면, AI가 그 빈자리를 채웁니다. AI의 가치 기준이 당신의 기준이 아닐 수 있습니다.

4. 지금 자동화하려는 프로세스 자체가 맞는 프로세스인가?
자동화 전에 먼저 그 프로세스가 올바른지 검토하십시오. 잘못된 일을 더 빠르게 하는 것은 자동화가 아니라 가속된 실수입니다.


이 체크리스트는 매 업무마다 꺼내야 하는 것이 아닙니다. 처음 자동화를 도입할 때 한 번 제대로 통과시키는 것으로 충분합니다. 그 결정을 기록해두십시오. 자동화한 이유와 자동화하지 않은 이유를.

판단력은 판단을 계속하는 사람에게만 남습니다. AI 시대에 당신의 직업적 가치는 AI가 잘하는 것을 AI보다 잘하는 데 있지 않습니다. AI가 닿지 못하는 영역에서 더 날카롭게 판단하는 데 있습니다. 그러려면 그 영역을 자동화에 넘겨주지 않아야 합니다.

자동화할수록, 자동화하지 말아야 할 것을 더 잘 알아야 합니다.

댓글

이 블로그의 인기 게시물

자금광업, 금·구리 슈퍼사이클 최대 수혜주로 주목

마이클 버리가 선택한 헬스케어 기업, 왜 몰리나 헬스케어일까?

미국 주식 과열 신호 점검: 조정 가능성은 언제일까?