본문 바로가기
AI

AI가 일터를 차지한 사이, 사람의 권리도 사라졌다

by 비전공자의 테크노트 2025. 10. 28.
반응형

AI가 들어온 일터’에서 지금 벌어지는 일

 

최근 한국의 일터에서는 음성봇·챗봇·요약 AI가 고객응대, 사내 보고, 채용 심사 등 사람의 역할을 빠르게 대체하거나 ‘감독’하고 있습니다. 콜센터는 대표적입니다. AI 콜 에이전트와 자동응답 시스템이 전면으로 나서면서, 사람 상담사와 연결되기까지 더 많은 단계와 시간이 필요하다는 체감이 넓습니다. 동시에 글로벌 리서치는 기업이 ‘완전 무인화’로 치닫기보다는 사람과 AI의 혼합 운영으로 선회할 것이라는 전망을 냅니다. 가트너는 2025년 6월 “AI로 인력 축소” 계획을 상당수 기업이 재검토하고 있다고 밝혔습니다. 즉, AI가 고객센터의 전면을 바꾸고 있지만, 현장 인력의 완전 대체가 곧바로 정착되는 시나리오는 아닙니다.

 

이 변화는 단지 ‘편의 개선’의 문제가 아닙니다. 노동자의 통지·설명·이의제기 권리, 고객의 선택권과 접근성, 채용·평가 과정의 공정성 등 기본적 권리의 지형을 재편합니다. 정책 측면에서도 한국은 2024년 말 국회를 통과한 인공지능기본법을 토대로 2025년 하위법령(시행령·시행규칙) 초안을 공개해 의견수렴 중입니다. 산업 혁신과 안전·신뢰의 균형을 표방하지만, 현장의 권리 보장 장치가 충분한지에 대한 논쟁이 이어집니다.

AI가 들어온 일터’에서 지금 벌어지는 일

 

콜센터에서 벌어지는 구조 변화: 자동화와 연결 지연, 그리고 혼합 모델

 

콜센터 자동화는 두 갈래로 진화합니다.

첫째, 안내·분류·간단 업무를 자동화하는 L1 수준(IVR·음성인식·요약).

둘째, 결제 변경·환불 절차 등 규칙 기반 업무를 워크플로우와 연동해 ‘실행’까지 하는 L2 수준입니다.

 

문제는 고객과 노동자 모두가 체감하는 마찰 비용입니다. 고객은 ‘사람과의 연결’까지 다층 메뉴를 통과해야 하는 피로가 누적되고, 노동자는 실시간 감정 분석·스크립트 준수 모니터링 등 ‘보이지 않는 감시’가 강해졌다고 느낍니다. 국내외 기사와 업계 발표를 보면, AI 상담 에이전트가 확산되는 한편 많은 기업들이 “디지털 퍼스트 이되, 사람을 유지”하는 하이브리드 운영으로 전략을 조정합니다. 이는 무리한 무인화를 줄여 고객 불만과 브랜드 리스크를 통제하기 위한 선택입니다.

 

채용·평가에서의 AI : 편의와 위험의 양면

 

채용·인사에서 AI는 이력서 사전필터링, 영상인터뷰 분석, 적성 평가(텍스트·음성·표정 분석) 등으로 확산했습니다. 그러나 알고리즘 편향과 불투명성 논란도 커졌습니다. 한국의 학술·정책 논의는 HR AI의 편향·설명가능성·개인정보 이슈를 꾸준히 지적합니다. 해외 연구·논의 역시 ‘채용에서의 AI 편향’과 결과 설명의 어려움을 경고합니다. 결국 핵심은, AI가 합격·불합격의 결정요소가 될수록 지원자에게 사유 통지와 이의제기, 사람 검토 경로가 보장되어야 한다는 점입니다.

실무에서 들었던 인상적인 사례가 있습니다. 특정 지역 사투리·발음에 대한 음성인식 정확도 저하 때문에, 전형 결과가 납득되지 않는 불복 이슈가 반복됐습니다. “기술은 공정하다”는 가정이 실제 지원자 경험과 충돌할 수 있음을 보여줍니다.

 

법·정책 현황: 한국의 인공지능기본법과 하위법령 논점

 

한국은 2024년 12월 인공지능기본법을 통과시켰고, 2025년 하반기부터 시행령 초안이 공표되어 의견수렴 중입니다. 정부는 산업 촉진과 안전·신뢰 기반의 균형을 강조하며 연내 정비를 예고했습니다. 다만 세부 의무의 강도, 특히 ‘배치자(이용자)’ 책임과 생성형 콘텐츠 표시 의무의 구체수준을 두고 논의가 뜨겁습니다. 법무·자문 자료에 따르면 생성형 콘텐츠에는 표시 의무가 부과되며, 시행령에서 표시 방식 등 세부가 도출됩니다. 일정 지연과 시장 불확실성에 대한 우려를 지적한 국내 보도도 있습니다. 

 

해외와 비교하면 차이가 선명합니다. EU AI Act는 ‘공급자(개발사)’뿐 아니라 ‘사용자(배치자·deployer)’에게도 고위험 시스템에 대한 위험관리·인간감독·기록·설명 제공 의무를 부여합니다. 미국 콜로라도주의 SB205 역시 2026년부터 고위험 AI를 ‘개발자’와 ‘배치자’ 모두 규율하며, 배치자에게 위험관리 프로그램, 영향평가, 사람 검토 기반의 이의제기 절차, 소비자 고지 등을 요구합니다. 이런 국제 흐름은 “현장에서 실제로 AI를 ‘쓰는’ 주체의 책임”을 강화하는 방향입니다.

 

권리 관점에서 본 핵심 쟁점 체크리스트

  1. 통지·설명받을 권리: 고객·지원자·환자 등 ‘영향받는 사람’에게 AI 사용 사실과 결정 논리를 어떻게 알릴 것인가. EU·콜로라도 사례는 배치자 차원의 고지·설명·이의제기를 명문화합니다.
  2. 인간 개입과 최종 책임: 자동 의사결정의 임계값을 어떻게 정하고, 최종 판단의 인간 검토 루프를 어떻게 설계할 것인가. 
  3. 데이터 출처·표시: 생성형 콘텐츠 표시 의무의 실제 가시성, 데이터 출처 고지 범위와 방식. 
  4. 감정·생체 분석의 한계: 콜센터·업무현장에서 감정인식·생체인식이 남용되지 않도록, 금지·제한·감사 기준을 둘 것인가. EU는 특정 맥락의 감정인식·실시간 식별을 강하게 제한합니다. 
  5. 노동 전환 지원: 자동화로 인한 직무 축소에 대비한 재교육·전환 프로그램, 인력 유지 전략(하이브리드 운영)의 제도화. 

‘AI가 잘한다’와 ‘사람이 안전하다’는 목표는 충돌이 아니라 동시에 달성해야 할 과제입니다. 권리 설계가 없으면 혁신은 오래가지 못합니다.

 

맺음말: 혁신과 권리의 동시 달성

 

한국의 인공지능기본법은 산업 도약과 신뢰 기반 구축을 함께 지향합니다. 하위법령은 그 목표를 ‘현장 언어’로 번역하는 마지막 관문입니다. 국제 기준은 배치자의 책임과 설명·이의제기 권리를 강화하는 추세입니다. 한국도 콜센터·채용·의료·금융 등 고영향 영역에서 ‘영향받는 사람’을 중심에 둔 설계를 서둘러야 합니다. 그렇게 할 때 AI가 ‘일터를 차지’해도 사람의 권리는 사라지지 않습니다.

 

2025.10.16 - [AI] - 물리적 AI, 휴머노이드 로봇 시대의 본격 개막

 

물리적 AI, 휴머노이드 로봇 시대의 본격 개막

소프트웨어 AI를 넘어 ‘물리적 AI’로 무게중심이 이동지난 몇 년간 인공지능의 발전은 주로 화면 속에서 일어났습니다. 텍스트를 쓰고 이미지를 만들고 음성을 합성하는 소프트웨어 AI가 업무

myitstory.co.kr

2025.10.05 - [AI] - 이제는 죽은 인터넷을 거부할 시간, AI 콘텐츠 차단 도구를 요구해야

2025.09.27 - [AI] - 챗GPT, 맞춤형 AI 비서로 진화, 기능 '펄스' 공개

2025.09.24 - [AI] - AI 와 나눈 대화도 비밀로 해줘야 한다, AI 면책 특권

2025.09.10 - [AI] - 생성형 AI 강풍, 신입 일자리 날려 버렸다

 

반응형