-
- 바람직한 AI 활용법
-
AI를 활용하는 방식은 크게 세 가지로 나뉜다. 먼저 ‘인간 중심형’이다. AI는 보조 도구일 뿐, 모든 결정은 인간이 내린다. 이메일 초안 작성, 문서 요약, 데이터 분석 같은 반복 작업을 AI에게 맡기고, 인간은 전략적 판단에 집중한다. 인도의 한 보험회사는 15만 명의 설계사를 위해 AI가 49개 보험사의 모든 상품 정보를 기억하게 했다. 설계사들은 AI에게 물어보기만 하면 된다.
반대편에는 ‘AI 중심형’이 있다. 여러 AI 에이전트가 협력해 복잡한 업무를 처리하고, 인간은 떨어져 감독만 한다. 스마트 그리드 같은 전력망 시스템이 대표적이다. 발전소부터 가정까지, 수많은 AI가 실시간으로 전력 수급을 조절한다. 인간이 일일이 개입하기엔 너무 복잡하고 빠른 영역이다.
하지만 가장 이상적인 방식은 그 중간, 바로 ‘인간-AI 파트너십’이다. 이것이 바로 ‘휴먼인더루프’다.
-
- 사람이 루프 안으로 들어가는 세 가지 방법
-
휴먼인더루프에서 인간이 맡아야 할 역할은 크게 세 가지 단계를 거친다.
1단계의 역할은 ‘명령자’다. AI에게 무엇을 할지 명확히 알려줘야 한다. AI가 수행해야 할 목표와 따라야 할 규칙을 동시에 제시하는 것이다. 막연한 질문이 아닌 창의적이고 날카로운 질문을 던지는 능력, 이것 자체가 사람의 경쟁력이다. AI는 방대한 데이터를 기반으로 답을 찾아내는 능력에는 뛰어나지만, 그 답을 찾기 위한 혁신적인 질문을 던지는 능력은 부족하다. 그러니 제대로 된 질문을 통해 AI의 역량을 높여야 한다.
다음 단계는 ‘검증자’다. AI가 내놓은 결과를 맹신하면 안 된다. AI의 성능이나 공정성은 데이터의 품질에 의해 직접적으로 좌우되기 때문이다. 인간은 AI가 학습할 데이터를 선별하고, 잘못된 데이터를 수정해줘야 한다.
구글의 Gemini가 독일군을 흑인으로, 교황을 여성으로 표현했던 적이 있다. 다양성이라는 가치에 과도하게 집착하다 역사적 맥락을 놓쳤던 것이다. 결국 구글은 사람을 동원해 해당 모델을 재학습시키고 교정해야 했다. ChatGPT는 이런 문제를 줄이기 위해 RLHF(인간 피드백 기반 강화학습)를 사용한다. AI 모델이 여러 개의 답변을 생성하면 인간 검증자들이 각 답변을 읽고 더 유용하고 덜 편향되며 더 안전한 답변에 순위를 매긴다. 수백에서 수천 명의 사람이 AI 뒤에서 일한다. 자율주행차 AI가 오토바이를 잘못 인식할 때 엔지니어는 수천 장의 오토바이 이미지를 추가해 데이터 편향을 교정한다.
최종은 ‘완결자’ 역할이다. 최종 결정은 인간의 몫이다. AI는 여러 영역에서 다양한 방식으로 사람을 돕지만 과업을 완성하는 것은 결국 인간이다. 인간만의 공감능력, 통찰력, 직관력, 경험, 가치판단, 미적 감각, 창조력이 반드시 필요하기 때문이다.
의료 분야를 보자. AI가 암 의심 부위를 찾아내더라도 환자의 전체적인 건강 상태, 병력, 생활습관, 심리상태까지 고려해 치료 계획을 세우는 건 의사다. 서울대병원의 2025년 연구에 따르면, 유방촬영 영상 판독에서 AI 소프트웨어가 전문의보다 10% 더 민감하게 암을 찾아냈다. 하지만 최종 진단과 치료는 여전히 의사의 영역이다. 주식 거래에서도 AI가 매도를 권해도 트레이더는 AI가 고려하지 못한 예외적 리스크를 파악해 최종 판단을 내린다.
-
Human-In-The-Loop
-
- 2026년 병오년의 인재상
-
그리스 신화에 등장하는 켄타우로스는 상체는 인간, 하체는 말인 반인반마의 존재다. 켄타우로스는 활을 쏘는 명사수로, 무엇보다 인간의 지혜와 동물의 힘을 동시에 가진 존재로 묘사된다. 그리고 이러한 켄타우로스가 이 시대를 대표하는 인재상이 되고 있다. 켄타우로스의 상체, 즉 인간의 머리는 정답 없는 질문을 던지는 창의성, AI의 한계를 꿰뚫어 보는 비판적 사고, 기술을 올바른 방향으로 이끄는 윤리적 판단, 사람들과 협업하며 감동을 만드는 공감 능력을 상징한다. ‘무엇을, 왜 해야 하는가’를 결정하는 능력이다. 이것은 AI가 결코 대체할 수 없는 인간 고유의 영역이다.
반면 켄타우로스의 하체, 즉 말은 파워와 스피드를 나타낸다. 말은 인간이 길들인 동물 중 가장 빠르고 힘이 세다. 과거 사람들은 말을 타고 먼 거리를 빠르게 이동했고, 말의 힘으로 무거운 짐을 옮겼다. 말이 인간의 능력을 극적으로 확장시켜 준 것이다. 지금 시대의 말은 바로 AI다. AI는 인간의 한계를 뛰어넘는 속도로 데이터를 처리하고, 패턴을 발견하며, 24시간 쉬지 않고 달려간다. ‘어떻게 할 것인가’의 문제를 해결해준다.
체스 세계 챔피언 가리 카스파로프는 켄타우로스의 개념을 현대적으로 재해석한 바 있다. 인간과 컴퓨터가 팀을 이루면 최고의 인간이나 최고의 컴퓨터 단독 팀을 모두 이긴다는 사실을 증명한 것이다. 즉 진정한 역량은 이 둘이 결합할 때 나온다. 인간이 방향을 정하면 AI가 가장 빠르게 답을 찾아온다. 인간은 AI 덕분에 지루하고 반복적인 작업에서 해방되어 더 고차원적인 사유와 창의적 활동에 집중할 수 있게 된다.
-
- 전문성이 없으면 AI도 소용없다
-
모든 사람이 AI의 도움을 얻는 것은 아니다. 미국 하버드대학교 파브리치오 델라쿠아 연구팀은 보스턴컨설팅그룹의 758명 컨설턴트를 대상으로 한 현장 실험에서 흥미로운 사실을 발견했다. GPT-4를 컨설턴트의 능력 범위 내에서 사용한 고숙련 노동자는 생산성이 약 40% 증가했다. 12.2% 더 많은 작업을 완료했고, 25.1% 더 빠르게 일했으며, 결과물의 질도 40% 높았다. 하지만 본인 고유의 능력과 상관없는 분야에서 사용했을 때는 오히려 성과가 19% 감소했다.
연구진은 이를 ‘AI의 불규칙한 기술적 경계(Jagged Technological Frontier)’라고 불렀다. AI는 특정 작업에서는 뛰어나지만 또 다른 작업에서는 크게 뒤처진다. 쉽게 말해서 자기 일에 전문성이 부족한 사람이 AI를 함부로 사용하면 오히려 역효과가 발생할 수 있다.
이는 상식적으로 생각해봐도 당연한 결과다. 자기 업무에 대해 직무역량이 현저히 떨어지는 사람이 “AI야 일 좀 해줘” 한다고 해서 만족할 만한 성과가 나오리라고 기대하기는 어렵다. 업무역량이 탁월한 사람이 AI에게 일을 시키고, 그중에서 취사 선택해 수정해 나갈 때 월등한 결과를 기대할 수 있다.
엑셀과 워드만 잘한다고 경영전략을 척척 수립할 수 없었듯 AI만 잘 다룬다고 전문가가 되는 건 아니다. 역설적이지만 인공지능이 발달할수록 자기 업무에 관한 전문성이 더 중요해진다.
-
- 현명한 협업이 답이다
-
휴먼인더루프는 단순한 기술 개념이 아니다. 이것은 AI와 인간이 각자의 강점을 살려 최고의 결과를 만들어내는 협업 철학이다. AI의 압도적인 연산 능력과 인간의 비판적 사고, 윤리적 판단력, 맥락을 이해하는 지혜가 결합할 때 비로소 우리는 기술을 안전하고 이롭게 활용할 수 있다.미래는 AI가 인간을 대체하는 세상이 아니다. 인간과 AI가 함께 일하는 세상이다. AI의 결정을 맹목적으로 따르는 것이 아니라 AI를 유능한 파트너로 활용하고 그 판단 과정에 인간이 적극적으로 개입하는 것이다. 이것이 바로 휴먼인더루프가 제시하는 이 시대의 가장 중요한 기술 철학이자 시대정신이다.
AI 시대의 진정한 승자는 가장 강력한 기계를 가진 자가 아니라 그 기계 위에서 가장 깊이 사유하고 가장 현명한 질문을 던지는 인간이 될 것이다. 루프 안에 인간이 있어야 하는 이유는 명확하다. 우리가 만드는 건 단순한 결과이 아니라 인간다움이 담긴 가치이기 때문이다.
-
휴먼인더루프는 단순한 기술 개념이 아니다.
이것은 AI와 인간이 각자의 강점을 살려 최고의 결과를 만들어내는 협업 철학이다.
AI의 압도적인 연산 능력과 인간의 비판적 사고, 윤리적 판단력, 맥락을 이해하는 지혜가 결합할 때
비로소 우리는 기술을 안전하고 이롭게 활용할 수 있다.
TREND
AI 활용의 핵심 철학,
AI 활용의 핵심 철학,
휴먼인더루프
지난 5월, 미국의 일간지인 《시카고 선타임즈》가 ‘여름 추천 도서’ 특집을 냈다. 기사를 흥미롭게 읽은 독자들이 소개된 책을 찾아보다 이상한 점을 발견했다. 추천된 15권 중 10권이 세상에 존재하지 않는 책이었다. 저자 이름도, 출판사도 그럴듯했지만 전부 가짜였다. 모두 AI가 만들어낸 허구였던 것이다. 이유는 이랬다. 칼럼니스트가 AI를 활용해 기사를 작성하고는 사실 확인 절차를 거치지 않은 채 기사를 보냈고, 언론사에서도 확인 없이 발행을 했다. 권위 있는 언론사의 신뢰도는 순식간에 땅에 떨어졌다. 이 사건은 AI가 만든 결과물을 인간이 단 한 번도 확인하지 않으면 어떤 일이 벌어지는지 적나라하게 보여줬다. 아무리 AI가 그럴듯한 내용을 만들어내도, 최종 검증은 인간의 몫이라는 것이다. 이렇듯 AI가 업무를 수행하는 과정에 반드시 인간이 개입해야 한다는 원칙, 즉 ‘휴먼인더루프(HITL, Human in the Loop)’는 이제 AI 시대의 가장 중요한 핵심 철학으로 떠오르고 있다.
Text 이혜원 트렌드코리아 소비트렌드분석센터 연구위원