[챗GPT 출시 2개월] ④ 연구에 필수된 초거대 AI, 학계선 올바른 활용법 논의 나서

기자정보, 기사등록일
강일용 기자
입력 2023-02-07 18:41
    도구모음
  • 글자크기 설정
  • 네이처 "초거대 AI로 실험설계·논문작성 시대 온다...금지는 무의미"

  • 유사 과학 정보 섞이는 것 우려...빅테크 AI 기술 독점 막아야

[사진=로이터·연합뉴스]

챗GPT를 적극 활용해 보고서와 논문을 작성하는 사례가 급증함에 따라 영미권 학계와 기업을 중심으로 '초거대 AI의 올바른 활용을 위한 윤리 규정'을 만들어야 한다는 목소리가 커지고 있다.

이에 국제 학술지 네이처는 '챗GPT: 연구를 위한 다섯 가지 우선순위'라는 기고문을 통해 초거대 AI를 윤리적으로 활용할 수 있는 방안을 제언했다.

7일 네이처에 따르면 챗GPT를 포함한 대화형 AI는 과학계의 게임 체인저가 될 전망이다. 

이미 많은 연구원과 이용자가 챗GPT 등 초거대 AI를 사용해 △에세이와 강연 대본을 쓰고 △각종 문헌을 요약하고 △논문의 초안을 작성한 후 개선하고 △연구 격차를 식별하고 △통계 분석을 포함한 다양한 코딩을 하고 있다. 

네이처는 얼마 지나지 않아 초거대 AI가 △실험을 설계하고 △논문을 완성하고 △논문 통과 결정을 지원할 수 있을 정도로 발전할 것으로 예견했다.

이는 학계에 기회와 위기를 함께 가져올 것으로 예상된다. 혁신에 속도를 더하고 많은 이용자가 유창하게 글을 쓸 수 있도록 도와줌으로써 과학에 대한 접근을 한층 끌어올릴 것으로 기대된다. 반면 연구의 질과 투명성을 저하하고 인간 연구자의 자율성에 악영향을 미칠 우려도 함께 제기된다. 

특히 챗GPT는 종종 잘못된 정보를 사실인 것처럼 포장해서 알려주는 문제가 있는 만큼 과학적 사실을 왜곡하고 퍼뜨릴 우려가 크다.

네이처는 초거대 AI의 사용이 불가피한 만큼 이를 금지하는 것은 효과가 없을 것이라고 진단했다. 대신 많은 연구자가 이 파괴적인 기술을 윤리적으로 활용할 방안을 고민해야 한다며 챗GPT 활용에 앞서 다섯 가지 부분을 고려해야 한다고 설명했다.

네이처는 먼저 초거대 언어 모델(LLM)은 '인간에 의한 검증'이 꼭 필요하다고 밝혔다. LLM은 복잡한 이용자 질문에 상세하고 요약된 답변을 하는 차세대 검색 엔진으로 이어질 것이지만, 과학 연구에 남용하면 부정확성, 편향성, 표절 등이 발생할 우려가 크다

때문에 연구자들은 챗GPT 등을 활용하면서 정보가 정확하지 않을 가능성이 있는 만큼 경계를 늦춰서는 안 된다. 답변에 대한 전문가 중심의 팩트 체크 및 검증 절차를 반드시 도입해야 한다. 네이처는 특히 유사 과학자들의 엉터리 논문으로 인해 9개의 진실 속에 1개의 거짓이 섞이는 것을 우려했다. 챗GPT는 학습한 데이터를 요약해서 정리해주는 능력은 갖췄지만, 데이터의 옳고 그름을 판단하는 능력은 없기 때문이다. 

이어 '책임을 위한 규칙 개발 필요성'을 설명했다. 앞으로 논문을 발행할 때 초거대 AI가 해당 정보를 참고할 수 있는 점을 고려해서 투명성 있는 정책을 채택해야 한다. "초거대 AI는 사람이 아닌 만큼 책임을 질 수 없기 때문에 논문 저자가 되어서는 안 된다"는 게 네이처 측 입장이다. 초거대 AI가 검색 엔진과 프로그래밍 도구에 통합될 가능성이 높은 만큼 '저자'의 정의를 다시 할 필요성이 있다.

네이처는 마이크로소프트, 구글 등 일부 빅테크가 초거대 AI 기술을 독점하는 현실에 대해 우려하며 'AI 기술에 대한 개방(오픈소스)'을 강조했다. 빅테크가 초거대 AI 기술을 독점함으로써 나타날 수 있는 가장 큰 문제는 투명성 부족이다. 챗GPT 등 초거대 AI를 개발하며 빅테크가 내부에서 어떤 작업을 하는지 알 수 없기 때문이다. 때문에 과학계 차원에서 초거대 AI가 보편화될 수 있도록 관련 AI 오픈소스 기술 개발과 구현이 우선되어야 한다고 주장했다.

또, 네이처는 학계 연구 부담과 업무량이 커짐에 따라 초거대 AI를 사용해야 한다는 압박도 커지고 있다며 학계 차원에서 'AI의 이점을 수용할 수 있는 방안'을 연구해야 한다고 밝혔다. 초거대 AI가 제공하는 이점을 수용함으로써 학자들은 새로운 실험 설계 등 AI가 하지 못하는 창의적인 업무에 더 집중할 수 있고, 이를 통해 혁신을 가속화하고 더 많은 분야에서 과학적 성과가 생기도록 할 수 있다.

마지막으로 네이처는 관련 파급력을 고려해 학계가 '(초거대 AI 활용을 위한) 신속하고 광범위한 토론'을 진행해야 한다고 강조했다. 우선 모든 교수와 학생들이 챗GPT를 사용해보고 그 가능성과 윤리 문제에 대해 논의해야 한다. 초거대 AI 개발과 활용을 위해 과학자, 빅테크 기업, 투자자, NGO, 개인정보보호 전문가, 법률 전문가 등이 참여하는 국제 포럼도 개최할 필요성이 있다. IT 업계에선 오는 5월 개최 예정인 연례개발자행사 '마이크로소프트 빌드'와 '구글 I/O'에서 이러한 논의가 시작될 것으로 보고 있다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기