컨텐츠 바로가기

04.19 (금)

의사도 위태롭다?…2023년 '생성 AI' 등장 후 사라질 직업들

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[머니투데이 배한님 기자, 윤지혜 기자] [편집자주] 사람처럼 자연스럽게 대화할 수 있는 AI 챗봇 '챗GPT'의 등장으로 전세계 IT업계가 긴장하고 있다. 챗GPT가 산업은 물론 교육·노동·예술 패러다임을 전환할 것이란 전망이 쏟아진다. 챗GPT의 위력과 사회적 여파, 우려점을 살펴보고 국내 초거대 AI 언어모델 연구현황을 짚어본다.

[MT리포트]챗GPT 열풍(下)


'잉여인간 양산' VS '통찰력에 집중'..챗GTP가 촉발한 일자리 논란

④생성 AI로 사라질 직업과 생겨날 직업

머니투데이

<이미지를 클릭하시면 크게 보실 수 있습니다>


챗GPT의 등장으로 AI가 인간 노동을 대체할 것이란 우려가 커진다. 7년 전 이세돌과 알파고 대결 당시 대두됐던 'AI 공포'가 실체가 됐다는 평가다.

전문가들은 반복적이고 정형화된 업무를 수행하는 직종은 대거 사라질 가능성이 높다고 진단한다. 이에 산업혁명 시절 '러다이트 운동'(기계파괴)과 같은 사회 혼란이 발생할 수 있다는 우려와 인간이 창의력과 통찰력을 발휘하는 업무에 집중해 효율성을 높일 수 있다는 기대가 교차한다.

◇콜센터·회계사·기자…일부 관리·기획 인력만 생존할 것

생성 AI가 대중화되면서 AI가 대체할 수 있는 직업이 늘고 있다. 콜센터 상담 직원·사무원·프로그래머·기자·회계사·통역사 등 단순 반복 업무를 수행하는 직업뿐 아니라 의사·약사·변호사·리서치 통계 연구원 등 전문직까지 위태롭다는 관측이 나온다. AI가 맥락을 이해하기 시작하면서 논리적으로 복잡한 내용까지 분석할 수 있게 됐기 때문이다.

김동환 포티투마루 대표는 "리서치보고서·소장·회계감사보고서·기사 등 일정 형태에 맞춰 결과물을 내는 직업은 대부분 대체가 될 수 있다"며 "기존에 10명이 작성하던 리서치 보고서도 인사이트를 찾을 1명이면 충분할 것"이라고 했다.

이로 인해 일자리 '부익부 빈익빈'이 심화될 것이란 전망도 있다. 신현우 서울과기대 박사는 "사람이 만드는 글·그림·영상까지 AI가 만들면서 하청업체들이 사라지고 콘텐츠를 관리·기획 인력만 전문가만 형태로 남을 것"이라며 "이렇게 되면 기계나 자동화 기술을 쓸 필요가 없는 자투리 감정노동 등 더 나쁜 일자리로 사람들이 몰릴 수 있다"고 말했다.

◇잉여인간 대량 생산? NO!…새로운 미학 탄생할 것

반면, 생성 AI로 인간이 단순노동에서 해방될 것이란 기대도 있다. 오히려 인간의 창작영역을 넓혀주기도 한다. 그림을 못 그려도 AI의 도움을 받아 웹툰을 그리고, 스토리라인과 문체를 제공하면 소설도 쓸 수 있는 게 대표적이다.

신 박사는 "과거엔 아주 전문적인 훈련을 받은 사람만 할 수 있었던 일을 보통 시민도 할 수 있게 된다"며 "이런 방식으로 AI를 활용하면 사회 전체가 미학적으로 변하게 된다"고 말했다.

전창배 국제인공지능&윤리협회 이사장 역시 신기술 도입 초기엔 혼란이 있지만, 궁극적으론 사회적 효용을 늘릴 것으로 봤다. 전 이사장은 "1800년대 말까진 카메라로 찍은 풍경·정물사진을 예술품으로 보지 않았으나, 지금은 사진작가란 직업까지 생길 정도로 예술적 가치를 인정받고 있다"라며 "AI로 누구나 창작물을 만들고 콘텐츠가 풍부해지면 그 혜택은 인간이 누릴 것"이라고 말했다.


리포트도 대신 쓰는 AI…가짜뉴스·편견에 빠져 삐뚤어진다

⑤ AI가 촉발한 윤리논란들

머니투데이

/사진=게티이미지뱅크

<이미지를 클릭하시면 크게 보실 수 있습니다>



챗GPT로 '생성 AI' 시대가 본격화됨에 따라 다양한 윤리적 문제가 제기된다. 당장 시끄러운 곳은 대학 등 학계다. AI를 활용한 과제나 논문 대필이 벌써부터 빈번하게 포착돼서다. 실제 챗GPT로 논문을 '대필'하는 사례가 이어지면서 미국 뉴욕시는 공립학교 내 챗GPT 접속을 차단했고 조지워싱턴대는 AI 영향력 밖인 구술시험과 그룹평가를 확대하기로 했다. 아예 시험과 과제물 제출에 컴퓨터대신 수기 시험을 확대하는 곳들도 늘고 있다. 영국의 130여 개 대학은 챗GPT가 에세이나 리포트 작성에 악용될 수 있다고 우려하는 성명을 냈다. 국제머신러닝학회(ICML)는 AI 도구를 활용해 과학논문을 작성하는 것을 금지했다.

국내에서도 이같은 우려가 나온다. 권석준 성균관대 화학공학과 교수는 페이스북에 "봄학기 실라부스(강의계획)를 고치다가 '연구에 챗GPT를 포함해 모든 생성 AI를 사용할 수 있으나, PSET 및 시험에 자동 생성 및 약간 수정된 답안을 복사 붙여넣어 제출하는 것은 불가능하다'는 문장을 추가했다"라고 말했다.

대필문제가 불거지자 오픈AI는 부랴부랴 챗GPT가 생성한 문장을 식별해내는 워터마킹 기술을 개발하고 나섰다. 반면 챗GPT를 막을 수 없는 만큼 오히려 적극적으로 가르치고 활용하도록 해 부작용까지도 체득시켜야한다는 의견도 있다. 시민단체 '변화를 꿈꾸는 과학기술인 네트워크'의 설문에 따르면 응답자의 53% 이상이 챗GPT 결과물 활용 시 '창작과 독창성의 문제'가 있다고 답했다.

◇사람 점점 닮아가지만…AI의 표절·편향·가짜뉴스 문제는 누가 책임지나

머니투데이

챗GPT 사용을 금지한 몬트리올 대학 공지. /사진=몬트리올 대학 홈페이지 갈무리

<이미지를 클릭하시면 크게 보실 수 있습니다>


리포트나 논문 대필은 빙산의 일각이다. 틀린 답변을 정답처럼 말하는 '할루시네이션'(환각) 현상은 더 큰 문제다. 챗GPT는 기본적으로 인터넷상 텍스트 데이터를 통해 훈련하는 만큼 데이터에 존재하는 편견과 가짜뉴스, 잘못된 정보를 영구화할 수 있다. 아울러 챗GPT는 자연어를 처리하는 도구인만큼 특정 집단에대한 동향감시 또는 악의적 목적으로 오용될 수 있다는 우려도 나온다.

챗GPT 결과물에 저작권을 어떻게 부여할지도 논란이다. 아직까지 '생성 AI'가 스스로 온전히 창작물을 만들어내지 못하는 '약(弱) 인공지능' 단계에 머물러 있기 때문에 창작에 개입한 인간이 저작권을 갖는 것으로 본다. ICML에서 챗GPT의 결과물을 참고해서 다시 재작성(Paraphrasing)하는 것은 크게 문제 삼지않겠다는 것도 같은 이유에서다. 그러나 향후 AI가 인간처럼 스스로 창작할 수 있는 '강(强) 인공지능' 수준까지 발전하면, AI가 생성한 작품에 대한 저작권은 누가 갖게될 것인지 아직 아무도 답을 내리지 못하고 있다.

◇ AI 법인격 부여할 수 있을까…규제 앞서'사회적 합의' 필요

이에 전문가들은 한시라도 빨리 우리 삶에 침투하는 AI와의 동거를 위한 사회적 논의와 합의에 나서야한다고 입을 모은다.

AI를 어떻게 바라볼 지 규정하지 못한 상태에서 상용화가 시작되자 세계 각국이 AI 규제카드를 만지작거리는 것도 이때문이다. 유럽에서는 AI 기술을 위험도에 따라 세 단계로 나누고 이에 맞춰 규제하는'인공지능법(AI Act)'를 준비 중이다. 국내에서도 과학기술정보통신부와 '인공지능 윤리 포럼'이 연내 발표를 목표로 인공지능 윤리원칙 체크리스트를 만들고 있다. 이와관련, 오혜연 카이스트 전산학부 교수는 "AI도 원자력처럼 누가·어떻게·어떤 맥락에서 사용하는지가 중요하다"며 "생성 AI가 악용이 됐을 때 누구에게 책임을 물어야 하는 가에 대한 사회적 합의가 규제에 앞서 필요하다"고 지적했다.

국제인공지능&윤리협회는 AI 기술 발전과 윤리의 공존을 위해서는 자율규제 영역을 최대한 확보해야 한다고 주장한다. 전창배 국제인공지능&윤리협회 이사장은 "의약품처럼 인간에게 많은 영향을 미치는 고위험 인공지능(자율주행차·AI 면접관·AI 판사 등)은 민관이 함께 만든 AI 영향평가를 적용하고, 그보다 위험도가 낮은 중저위험 인공지능(AI 챗봇·스피커) 등은 민간의 윤리 가이드라인을 따르도록 해야한다"고 말했다.

배한님 기자 bhn25@mt.co.kr, 윤지혜 기자 yoonjie@mt.co.kr

<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.