AI 기술은 스스로 학습하고 판단하는 자율적 시스템으로 인식된다. 대량의 데이터를 분석해 패턴을 발견하고 점점 더 정확한 결과를 산출하는 과정은 인간의 개입 없이 이루어지는 것처럼 설명된다. 그러나 실제 AI 학습의 기반에는 반복적으로 수행되는 인간 노동이 존재한다. 이 노동은 AI 성능을 유지하고 개선하는 데 필수적이지만 자동화 서사 속에서 쉽게 가려진다. 이 글은 AI 학습을 가능하게 하는 반복적 인간 노동의 구조와 그 의미를 분석한다.

1. AI 학습이 인간 개입을 전제로 하는 구조
AI 학습은 데이터에 기반해 이루어진다. 그러나 데이터는 자연 상태로는 학습에 적합하지 않다. 의미를 갖기 위해서는 분류되고 정제되며 기준에 맞게 가공되어야 한다. 이 작업은 자동으로 이루어지지 않으며 사람의 판단을 전제로 한다.
학습 데이터에는 정답이 필요하다. 이미지가 무엇인지 문장이 어떤 의도를 가지는지 행동이 정상인지 비정상인지를 정의하는 기준은 사람이 설정한다. AI는 이 기준을 학습할 뿐 기준 자체를 생성하지 못한다. 따라서 학습 이전 단계에서 사람은 반복적으로 데이터를 확인하고 분류하며 정답을 부여한다.
이 구조는 학습이 진행된 이후에도 유지된다. 환경과 데이터 유형이 변화하면 기존 학습 결과는 빠르게 부정확해진다. 새로운 유형을 반영하기 위해 사람은 다시 데이터를 선별하고 기준을 수정하며 학습용 자료를 보완한다. AI 학습은 일회성 과정이 아니라 인간 노동을 지속적으로 요구하는 구조다.
2. 반복적 인간 노동이 수행되는 실제 영역
AI 학습을 위한 반복적 인간 노동은 여러 영역에서 수행된다. 대표적인 예는 데이터 라벨링이다. 이미지 음성 텍스트 영상에 의미를 부여하고 분류하는 작업은 AI가 학습할 수 있도록 만드는 핵심 단계다. 이 노동은 단순 반복처럼 보이지만 높은 집중력과 기준 이해를 요구한다.
또 다른 영역은 학습 결과 검증 노동이다. AI가 산출한 결과가 적절한지 확인하고 오류 사례를 선별하는 작업은 사람이 수행한다. 이 과정에서 잘못된 판단은 다시 학습 데이터로 환원되며 수정이 반복된다. 이 검증 노동은 AI 정확도를 유지하는 데 필수적이지만 시스템 성과로 환산되지 않는다.
모델 개선을 위한 피드백 노동도 존재한다. AI가 오분류하거나 문제를 일으킨 사례를 분석하고 원인을 정리해 개발 과정에 전달하는 역할은 사람의 몫이다. 이 과정은 학습과 운영을 연결하는 중요한 고리지만 자동화된 학습 과정에서는 잘 드러나지 않는다.
또한 윤리적 판단 노동도 포함된다. 특정 결과가 사회적으로 허용 가능한지 차별이나 위험 요소가 없는지를 판단하는 작업은 수치화하기 어렵다. 이 판단은 사람이 반복적으로 수행하며 AI의 행동 범위를 제한한다. 이 노동은 AI 안전성을 유지하는 데 필수적이지만 비공식 영역에 머무른다.
3. 반복적 인간 노동이 기록되지 않는 이유
AI 학습 과정에서 수행되는 반복적 인간 노동은 결과 중심 구조 속에서 쉽게 누락된다. 시스템은 학습 성능 정확도 처리 속도 같은 수치를 중심으로 평가된다. 이 수치를 만들기 위해 투입된 인간 노동은 시스템 외부 요소로 취급된다.
또한 이 노동은 분산되어 수행된다. 데이터 라벨링 검증 피드백 판단은 서로 다른 주체에 의해 이루어지며 하나의 노동 흐름으로 묶이지 않는다. 결과적으로 비용과 시간은 개별 항목으로 흩어져 관리되며 전체 규모는 드러나지 않는다.
AI 기술은 자율성과 혁신의 상징으로 설명되기 때문에 인간 개입을 강조하는 것은 기술 서사와 충돌한다. 조직은 AI가 스스로 학습하고 개선되는 것처럼 보이길 원하며 반복적 인간 노동은 보조 요소로 축소된다. 이로 인해 해당 노동은 공식 기록과 평가 구조에서 배제된다.
이 구조 속에서 반복적 인간 노동은 자동화의 그림자 영역에 머문다. AI 성능이 유지될수록 이 노동은 더 많이 필요해지지만 동시에 더 보이지 않게 된다.
AI 학습을 정확히 이해하기 위해서는 기술 성능뿐 아니라 그 성능을 가능하게 한 인간 노동을 함께 고려해야 한다. 반복적 인간 노동을 제외한 AI 평가는 기술의 자율성을 과장하고 실제 운영 비용을 왜곡한다.
이 노동이 가시화되지 않으면 특정 집단에게 부담이 집중된다. 반복 작업을 수행하는 인력은 낮은 가시성과 불안정한 평가 속에서 일하며 이는 장기적으로 AI 생태계의 지속 가능성을 약화시킨다. 기술은 발전하지만 이를 지탱하는 노동 구조는 개선되지 않는다.
또한 반복적 인간 노동이 구조적으로 인정되지 않으면 AI의 한계도 드러나지 않는다. 어떤 판단이 자동화되지 않는지 어떤 영역에서 지속적인 인간 개입이 필요한지는 이 노동을 통해 가장 먼저 확인된다. 이를 분석하지 않으면 AI 시스템은 같은 오류를 반복하게 된다.
AI 학습을 위한 반복적 인간 노동은 기술의 실패를 의미하지 않는다. 이는 AI가 현실과 연결되기 위해 반드시 거쳐야 하는 과정이다. 이 노동을 인정하고 기록하는 것은 기술 발전을 늦추는 일이 아니라 기술을 현실에 맞게 이해하는 일이다.
AI는 혼자 학습하지 않는다. 그 뒤에는 반복적으로 기준을 세우고 판단하며 수정하는 인간 노동이 존재한다. 이 노동을 가시화하는 것이 AI 기술을 평가하는 다음 단계가 되어야 한다.