
직장 내 괴롭힘 신고가 들어왔습니다. 가해자가 만든 것은 특정 동료를 조롱하는 노래 한 곡이었습니다. 작사도, 녹음도, 기술 지식도 필요 없었습니다. AI 도구 하나면 충분했습니다. HR담당자가 이 상황을 마주했을 때, 기존 AI 정책 어디에도 이 사례를 처리하는 조항이 없었습니다.
HR Executive는 2026년 4월, 이 빠진 고리를 정면으로 다뤘습니다. 지금까지 많은 HR팀의 AI 정책은 기밀 데이터 보호, 지식재산권 리스크, 결과물 정확성에 집중해 왔습니다. 하지만 직원이 쉽게 구할 수 있는 AI 도구로 동료를 괴롭히고, 모욕하고, 위협하는 시나리오는 설계 단계에서 빠진 경우가 많습니다.
AI로 괴롭힘 콘텐츠를 만드는 진입 장벽은 이제 사실상 0입니다. 낭만 소설, 조롱 이미지, 조작된 대화, 괴롭힘 음원, 어느 것도 더 이상 기술 역량을 요구하지 않습니다. 미국 고용기회평등위원회(EEOC)는 이 문제를 명시적으로 다루기 시작했고, AI 생성 이미지와 딥페이크 영상 공유를 보호 특성에 근거한 불법 괴롭힘으로 규정했습니다.
한국도 다르지 않습니다. 2026년 4월, 국내 중견 패션기업이 직원 동의 없이 AI로 사내 메신저 대화를 분석해 인사고과에 반영한 사실이 단독 보도됐습니다. 법조계는 개인정보보호법 위반과 함께 '과도한 감시는 직장 내 괴롭힘'이라는 기존 판례 적용 가능성을 지적했습니다. 2024년 10월 성폭력처벌법 개정으로 딥페이크 제작·소지 처벌이 강화됐지만, 직장 내 AI 생성 괴롭힘 자료를 취업규칙과 징계 규정에 명시한 국내 기업은 아직 거의 없습니다.
HR이 지금 해야 할 일은 정책에 AI 괴롭힘의 구체적 사례(조롱 음원, 허위 대화, 합성 이미지)를 명시하고, AI가 개입된 신고가 들어왔을 때 디지털 증거를 어떻게 다루고 조사 결과를 어떻게 문서화할지 미리 설계하는 것입니다. AI를 업무 효율 도구로만 정의해 정책을 세워온 HR담당자라면, 지금 그 정책이 실제 신고 앞에서 작동할 수 있는 구조인지 점검해볼 시점입니다.
오늘의 질문: 지금 이 순간 AI 괴롭힘 신고가 들어온다면, 우리 조직은 어떻게 대응할 수 있을까요?
📎 원문: HR Executive — When AI becomes a weapon: The harassment risk HR leaders might miss (2026-04)
https://hrexecutive.com/when-ai-becomes-a-weapon-the-harassment-risk-hr-leaders-might-miss/
의견을 남겨주세요