-2026 공공기관 채용박람회 AI 부스 가동률 73.5%…북적이는 현장 이면의 불안
-구직자들 “책임 소재 불분명, 기계가 분위기 파악할 수 있나” 현장 대면 상담 선호
-감사원 “24%가 당락 직접 결정, 구직자 보호 미흡”… 전문가 “투명한 가이드라인 시급”

 지난 1월 27일부터 29일까지 서울 양재 aT센터에서 열린 ‘2026 공공기관 채용 정보박람회’에는 사흘간 8만여 명이 현장 방문했다.
지난 1월 27일부터 29일까지 서울 양재 aT센터에서 열린 ‘2026 공공기관 채용 정보박람회’에는 사흘간 8만여 명이 현장 방문했다.
AI 인재 채용이 공공기관에서도 불어오고 있다. 하지만 이와 함께 구직자들의 불안도 커지고 있다. 지난 1월 27일부터 29일까지 서울 양재 aT센터에서 열린 ‘2026 공공기관 채용 정보박람회’에는 사흘간 8만여 명이 현장 방문했다. 이번 행사의 메인 슬로건은 ‘AI 대전환 시대, 공공 혁신을 이끄는 인재의 무대’였다. 정부는 공공 채용의 미래로 ‘인공지능(AI)’을 전면에 내세우며, 박람회장 한편에 면접용 노트북 20여 대를 배치한 ‘AI 면접 체험관’을 대대적으로 운영했다.

박람회 사무국 자료에 따르면, 사흘간 AI 면접 체험 프로그램 참여 인원은 총 677명이다. 기기 20대를 1인당 30분 기준으로 운영할 경우, 최대 수용 인원은 약 920명으로 추산된다. 이를 기준으로 하면 실제 가동률은 약 73.5% 수준이다.
공공기관 채용 과정에서 AI 활용 확대, "구직자 불안도 커진다"
기계 앞의 청년들, “평가 결과 누가 책임지나” 묻다
높은 참여율과는 별개로, 일부 구직자들은 AI 평가 방식에 대해 우려를 나타냈다. 취업 준비 과정에서 AI 면접 연습이 필요하다고 말한 이들도 있었지만, 그 이면에는 기계가 사람을 평가한다는 것에 불신과 두려움이 나타났다.

평가받는 당사자들의 심리적 장벽은 여전히 높다. 박람회 현장에 있던 구직자들은 높은 AI 부스 가동률 이면에 숨겨진 ‘알고리즘 투명성 문제’에 대한 불안감을 여과 없이 드러냈다. 구직자들은 기술적 완성도보다 ‘정성적 평가의 한계’와 ‘책임 소재의 불분명함’을 지적했다.

금융 공기업 인턴을 준비 중인 최모 씨(24)는 붐비는 AI 체험관 대신 현직자와의 1:1 대면 상담을 택했다. 최 씨는 “면접 경험이 부족한 상태에서 무작정 체험하기보다는 관련 지식을 더 쌓은 뒤 활용하고 싶었다”고 말했다. 그는 “토론이나 PT 면접처럼 지원자의 유연한 소통 능력과 현장 분위기 파악은 AI가 온전히 평가하기 어렵다”고 꼬집었다.

채용의 본질인 ‘관계’와 ‘책임’에 대한 성찰도 이어졌다. 김모 씨(28)는 “면접은 결국 함께 일할 사람을 뽑는 과정”이라며 “사람과 사람이 직접 대화를 나누며 형성되는 첫인상과, 합격과 불합격에 대한 책임 소재를 AI가 대신하기는 어렵다”고 지적했다. 그는 “AI가 개입하는 흐름은 피할 수 없겠지만, 구직자가 이 변화에 어떻게 대응해야 하는지 제시해 주는 방식이 우선되어야 한다”고 덧붙였다.

AI의 종합적 지능 자체를 불신하는 목소리도 있었다. 조모 씨(36)는 “상담 대기 인원이 많아 AI 체험까지 할 여유가 없었다”면서도 “현재 AI의 종합적 판단 능력이 사람 수준에 이르지 못했다고 본다. 할루시네이션(환각) 등 오류 가능성을 고려할 때 최종 합격 여부를 AI가 판단하는 것은 부당하다”고 말했다.
공공기관 채용 과정에서 AI 활용 확대, "구직자 불안도 커진다"
‘블랙박스’에 맡겨진 운명… 24%는 당락 직접 가른다
이러한 우려와 관련해 감사원도 제도적 보완 필요성을 지적했다. 일부 공공기관 채용 절차에서 AI 판단 결과가 당락이나 배점에 직접 반영되고 있는 것으로 나타났으나, 정작 오류가 발생했을 때 구직자를 보호할 제도적 안전장치는 부족한 실정이다.

지난 1월 2일 감사원이 공개한 「인공지능 대비 실태Ⅰ(신뢰성 확보 분야)」 감사 결과에 따르면, 2024년 말 기준 공공부문 채용 절차에 활용 중인 인공지능 91개 가운데 22개(24%)는 AI 판단 결과가 서류 심사나 적성검사, 면접 심사 등의 당락 또는 배점 일부를 직접 결정하는 방식으로 사용되고 있었다.

문제는 권한에 비례하는 ‘책임’의 부재다. 감사원은 “채용과 대출 심사 등에 활용되는 고영향 인공지능은 사용자(기업)와 영향을 받는 자(구직자)가 구분되고, 인공지능 오작동 등에 따른 피해는 사용자가 아닌 영향을 받는 자에게 발생”한다고 지적했다. 또한 “현행 「인공지능 기본법」에는 고영향 인공지능에 영향을 받는 자에 대해 이의 제기권 등이 보장되어 있지 않고, 사업자의 보호 의무 대상도 영향받는 자가 아닌 사용자로 규정”하고 있다고 말했다.

공공기관 채용 과정에서 AI 활용 확대, "구직자 불안도 커진다"
“AI가 인간 평가해선 안 돼… 투명한 가이드라인 시급”

전창배 국제인공지능윤리협회(IAAE) 이사장은 구직자들이 AI 면접에 느끼는 거리감의 근본 원인을 두 가지로 진단했다. 전 이사장은 “현재의 AI 기술은 할루시네이션(환각)이나 편향성 등의 오류가 계속 발생하는 불완전한 상태이므로 구직자들이 무결성을 신뢰하기 힘들다”며 “더 나아가 기계가 인간을 가치판단하고 평가하는 것에 대한 근본적인 거부감이 존재한다”고 설명했다.

AI 알고리즘이 낳을 수 있는 획일화, 이른바 ‘평균의 함정’에 대한 우려도 제기됐다. 전 이사장은 “AI는 과거 기관에서 높은 성과를 낸 직원들의 데이터를 학습해 이와 유사한 지원자에게 높은 점수를 준다”며 “이에 따라 잠재력이 뛰어나고 비정형적인 창의적 인재가 낮은 점수를 받고 탈락하게 된다면, 결국 기업 입장에서도 다양한 인재 선발이라는 채용의 본래 목적을 달성하지 못하게 될 것”이라고 꼬집었다.

결국 신뢰 회복의 열쇠는 완벽한 기술이 아니라 ‘투명한 절차’와 ‘제도의 현장 안착’에 있다. 전 이사장은 법과 현실의 간극에 대해 “법과 제도가 현장에 구체적으로 적용되지 못하고, 각 기관별로 AI 면접을 어떻게 진행할지에 대한 가이드라인이 부재하기 때문”이라고 지적했다.

그는 공공기관을 향해 “구직자들에게 사전에 AI 면접이 어떤 절차로 활용되는지, 그리고 AI 오류로 피해를 보았을 때의 구제 방법 등을 담은 가이드라인을 명확히 설명해 주어야 한다”고 강조했다. 아울러 “채용 담당 임직원들이 지속적인 윤리 교육을 통해 AI를 올바르게 통제하고 실천하는 것이 무엇보다 중요하다”고 제언했다. AI 채용의 확산 속에서, 효율성과 함께 신뢰 확보 방안 마련이 과제로 제기되고 있다.

이진호 기자 /오윤상 대학생 기자
jinho2323@hankyung.com