컨텐츠 바로가기

04.18 (목)

“인공지능, 논문 저자 못 된다” 네이처·사이언스의 교통정리

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
“연구물 책임 못 져…연구자 위한 도구일 뿐”

학술지 양대산맥 선언, 다른 학술지도 뒤따를 듯


한겨레

국제학술지의 양대산맥이라 할 ‘네이처’와 ‘사이언스’가 챗지피티(ChatGPT)와 같은 인공지능을 논문 저자로 인정하지 않기로 했다. 픽사베이

<이미지를 클릭하시면 크게 보실 수 있습니다>


종합과학을 다루는 국제학술지의 양대산맥이라 할 ‘네이처’와 ‘사이언스’가 챗지피티(ChatGPT)와 같은 인공지능을 논문 저자로 인정하지 않기로 했다고 선언했다.

이는 미국의 인공지능 개발업체 오픈에이아이(Open AI)가 지난해 11월 내놓은 챗지피티를 공동저자로 등재한 과학 논문이 잇따르면서 저자 자격 논란이 불거진 데 따른 대응 조처다. 챗지피티는 인터넷에서 수집한 방대한 문서 자료를 토대로 설득력 있는 문장을 생성하는 대규모 언어 모델(LLM)이다.

세계적으로 권위를 인정받는 두 과학학술지가 인공지능의 저자 자격을 인정하지 않음에 따라 다른 학술지들도 비슷한 입장을 취할 것으로 보인다.

‘네이처’는 지난 24일 게재한 ‘챗지피티 같은 도구가 과학의 투명성을 위협한다’는 제목의 사설을 통해 두 가지 원칙을 밝혔다.

하나는 챗지피티를 연구 논문 저자로 인정하지 않는다는 것이다. 네이처는 “저자에게는 연구물에 대한 책임이 따르는데, 인공지능 도구는 그런 책임을 질 수 없기 때문”이라고 그 이유를 밝혔다.

다른 하나는 인공지능 도구를 사용한 경우 논문 속의 ‘연구 방법’ 또는 ‘감사의 글’ 항목 등에 그 내용을 기록해야 한다는 것이다.

‘네이처’가 두 가지 원칙을 추가한 이유는 과학 논문의 투명성과 신뢰성을 유지하기 위해서다. 네이처는 “연구자는 자신과 동료가 불투명한 방식으로 작동한 소프트웨어를 사용하는 경우 지식 생산 과정의 투명성과 신뢰성이 어떻게 유지될 수 있는지 자문해야 한다”며 “우리가 이런 원칙을 제시하는 이유는 연구 방법의 투명성과 저자의 무결성 및 진실성이야말로 과학 발전의 기초이기 때문”이라고 밝혔다.

한겨레

챗지피티를 공동저자로 등재한 한 사전출판논문.

<이미지를 클릭하시면 크게 보실 수 있습니다>


지침 위반은 연구부정행위 규정

‘사이언스’도 26일 게재한 ‘챗지피티는 재밌지만 저자는 아니다’라는 제목의 사설을 통해, 편집 지침에 인공지능 도구는 저자가 될 수 없다는 내용을 추가한다고 밝혔다.

홀든 소프 편집장이 집필한 사설은 또 “챗지피티나 다른 인공지능 도구를 이용해 생성한 문서나 이 인공지능이 제작한 그림, 이미지, 그래픽은 논문에 사용할 수 없다”며 “이 지침을 위반하는 것은 이미지를 변경하거나 기존 연구를 표절하는 것과 다를 바 없는 연구부정행위(Scientific misconduct)에 해당한다”고 말했다. 소프 편집장은 그러나 인공지능이 생성한 데이터 세트는 이 지침의 대상은 아니라고 덧붙였다.

‘사이언스’는 인공지능을 저자에서 배제하는 이유로 “과학적 기록은 궁극적으로 중요한 질문과 씨름하는 인간의 분투 가운데 하나”라며 “기계는 중요한 역할을 하지만 가설을 세우고 실험을 설계하고 결과를 이해하는 사람들을 위한 도구일 뿐”이라는 점을 들었다.

‘사이언스’는 이어 “궁극적으로 결과물은 우리 머리 속에 있는 멋진 컴퓨터에서 나와야 하고, 또 그것에 의해 표현돼야 한다”고 말했다.

‘네이처’는 1869년, ‘사이언스’는 1880년 창간돼 각각 영국과 미국의 과학계를 대표하는 학술지로 자리잡았다.

곽노필 선임기자 nopil@hani.co.kr

▶▶북극한파, 당신의 마음을 녹일 그때 그뉴스
▶▶[그때 그뉴스] “커피 한잔” 부탁한 노숙인에게 점퍼 건넨 시민▶▶마음 따뜻한 소식을 받아보세요, 뉴스레터 모아보기

[ⓒ한겨레신문 : 무단전재 및 재배포 금지]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.