사전고지 없이 AI로 논문 쓰는 사례 급증
국제 학술계 "연구부정 수두룩, 신뢰에 치명타"
<이미지를 클릭하시면 크게 보실 수 있습니다> |
지난달 9일 복잡한 수학 방정식을 푸는 새로운 해법을 제시한 논문을 게재했다가 AI 이용 사실을 뒤늦게 파악하고 철회한 국제 학술지 '피지카 스크립타( Physica Scripta)'의 사례가 대표적이다. 해당 논문은 진짜처럼 보였지만 전문가가 논문의 3번째 페이지에서 '응답 생성(Regenerate response)'이라는 문구를 우연히 발견하면서 상황이 달라졌다. 이 문구는 챗GPT에 질문을 입력한 후 답을 구할 때 누르는 버튼에 붙는 것으로, 해당 논문 작성자가 챗GPT를 이용해 논문의 내용을 쓴 후 복사해 붙이는 과정에서 실수로 지우지 않은 것으로 추정된다. 이 전문가는 해당 문구를 발견한 즉시 스크린 샷으로 저장한 후 출판된 연구 결과를 토론하는 웹사이트 '펍피어(PubPeer)에 올려 문제를 제기했다.
이에 따라 피지카 스크립타의 편집진들이 조사에 나선 결과 해당 논문의 저자는 챗GPT를 이용해 논문을 부정 작성한 것으로 확인됐다. 특히 약 두 달간 진행된 논문 사전 심사 과정에서 전혀 걸러지지 않았다는 점에서 충격을 주고 있다. 편집진들은 저자들이 논문 제출시 챗GPT 이용 사실을 고지하지 않았다는 점을 이유로 게재 철회를 결심한 상태다.
더 심각한 것은 이같은 사례가 '빙산의 일각'에 불과하다는 것이다. 국제학술지 네이처(Nature)에 따르면 이번 피지카 스크립타 게재 논문의 문제점을 찾아낸 기욤 카바낙 프랑스 툴루즈대 컴퓨터과학 교수는 지난 4월부터 10여개 이상의 논문에서 비슷한 사례를 발견해 펍피어에 신고글을 올렸다. '응답 생성'이라는 문구 외에도 'Please note that as an AI language model'라는 AI의 문장이 그대로 실려 있는 논문들도 다수 발견됐다.
사실 이미 유명 국제학술지를 다수 펴내는 엘스비어(Elsevier)나 스프링거 네이처(Springer Nature) 같은 출판사의 편집자들은 '사전 고지'를 전제로 챗GPT나 거대언어모델(LLM)같은 AI를 이용한 논문 작성을 인정하고 있는 상태다. 그러나 문제는 사전 고지 없이 AI를 이용해 논문을 쓰고도 마치 자신이 작성한 것처럼 속이는 이들이 상당수 존재할 것으로 추정된다. 또 AI가 작성하다 보니 내용이 부정확하고 심지어 방정식 계산이나 실험 결과가 틀린 경우도 있다. 하지만 학술지들이나 동료 검증위원들의 숫자가 부족하다 보니 제대로 걸러내지 못하는 사례가 허다하다.
학계에서는 우려를 금치 못하고 있다. 미생물학자 겸 독립 연구 컨설턴트인 엘리자베스 빅은 네이처에 "챗GPT나 LLM 등 생성형 AI 도구의 급격한 증가가 출판 논문 수를 늘리고 싶어하는 사람들에게 가짜 논문을 제공하는 '제지 공장(Paper mills)'들에게 화력을 제공할 것"이라며 "앞으로 수백 배 더 심각한 문제가 될 수 있으며, 이미 우리가 알아채지 못할 (부정 행위로 작성된) 논문들이 쇄도하고 있다는 것이 매우 우려스럽다"고 지적했다.
'가짜 논문 전문가'이자 전직 대학 교수인 데이비드 빔러도 "사전 고지없이 AI에 의해 작성돼 학술지들에 실린 논문들로 인한 문제는 점점 더 심각해질 것"이라며 "(AI 작성 여부를 판독해낼 수 있는)게이트키퍼들의 숫자가 (늘어나는 가짜 논문 출판 양을) 따라잡지 못하고 있다"고 말했다.
김봉수 기자 bskim@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.