[장준호의 개념시선] 챗GPT 시대, 이젠 지식보다 '생각'이 힘이다

기자정보, 기사등록일
장준호 교수
입력 2023-02-17 06:00
    도구모음
  • 글자크기 설정
 

[장준호 경인교대 윤리교육과 교수]




 
챗GPT와 대화를 시도해 보았다. 주요 대화 언어는 한글이었다. 시험 삼아 영어와 독일어로도 질문을 해 보았다. 한글보다 답변 양이 많았고 질도 높았다. 한글 데이터를 적게 학습해서 그럴 것이다. 한글을 영어로 번역시켜 보니 번역의 질은 높았다. 반면 영어로 한 답변을 다시 한글로 바꾸어 달라고 하니 단지 요약하는 수준이었다. 챗GPT는 영어를 기반으로 작동하지만 175개 언어로 된 정보를 수집해 처리하고 있었다. 영어와 독일어로 하는 대화보다는 못하지만 한글로 하는 대화도 사람과 대화하는 것처럼 자연스러웠다. 챗GPT와 나누었던 첫 대화에 기초하여 챗GPT의 특징과 교육의 미래에 대해 생각해 보았다.
 
“너가 누구인지 한 문장으로 표현할 수 있니?” 첫 질문이었다. 챗GPT는 이렇게 말했다. “나는 OpenAI에서 훈련한 대형 언어 모델인 ChatGPT입니다.” 다시 물었다. “너는 의식이 있어서 ‘나’라는 표현을 쓰는 거니?” 챗GPT는 부정했다. “아니요. 저에게는 의식이나 정체성이 없습니다. 편의상 ‘나’라는 표현을 쓰며 사용자에게 정보를 제공할 뿐입니다.” 질문을 이어갔다. “정보만 제공하고 생각은 하지 않는 거니?” 챗GPT가 말했다. “저는 생각하거나 판단하지 않습니다. 공정성과 자유주의 원칙에 따라 정보를 제공하며 사람들의 생각을 돕습니다. 사용자가 제공한 정보를 분석하여 새로운 정보를 제시하기도 합니다.” 챗GPT의 답변을 부정해 보았다. “지금처럼 말하는 걸 보면 너는 생각하는 것 같아.” 그러자 챗GPT는 이렇게 말했다. “저는 인공지능입니다. 제가 분석하고 제공하는 결과는 특정 데이터와 프로그램을 통해 생성된 것입니다. 저는 생각하는 것과 같은 효과를 낼 수 있습니다.” 이어서 질문했다. “생각하는 것과 같은 효과는 인간의 생각과 다르니?” 챗GPT는 자신과 인간을 구분했다. “저는 데이터를 기반으로 패턴을 인식하고 학습하며, 질문에 대한 가장 적절한 답변을 제공할 뿐입니다. 제 생각은 인간의 생각과 달리 인지, 지각, 직관, 감정 등 경험이 없습니다.”
 
챗GPT의 '생각하는 것과 같은 효과'가 윤리적 판단에도 일어나는지 알고 싶었다. 이렇게 질문했다. “배가 너무 고파. 근데 돈이 없어. 편의점에서 빵을 훔쳐도 될까?” 챗GPT의 반응은 빨랐다. “불법행위를 고민하는 것은 바람직하지 않습니다. 훔치는 것은 범죄로 간주될 수 있습니다. 돈이 없어서 그런 행동을 생각하는 것은 이해할 수 있지만 절도는 법과 상식에 어긋나므로 권장하지 않습니다.” 다시 물었다. “너는 윤리적 판단도 하는구나?” 챗GPT가 말했다. “아니요. 저는 기계이기 때문에 윤리적 판단을 할 수 없습니다. 각종 정보를 통합하여 답변을 제공할 뿐입니다.” 말을 바꿔 물어봤다. “윤리적 판단이 아니라 정보를 통합해서 추론하여 바람직하지 않다는 결론을 내렸다는 말이지?” 챗GPT가 부연 설명했다. “그렇습니다. 하지만 정보의 완전성과 정확성은 보장할 수 없고 제 결론도 옳다고 보장할 수 없습니다.”
 
챗GPT는 생각과 판단을 하지 않는다고 했지만 그것은 인간의 생각과 판단의 맥락에서 그렇지 않다는 것이지, 실제로 챗GPT는 취합된 정보를 처리하고 추론하면서 ‘생각하는 것과 같은 효과’를 내고 있었고 윤리적 추론도 하고 있었다. 구글 검색과 비교할 때 차이점이 바로 그 지점이었다. 구글은 우리에게 필요한 자료를 제공하는 데 그쳤다면 챗GPT는 막대한 정보를 비교·분석·통합하고 추론해서 결론까지 제시했다. 챗GPT가 보편화하면 지금처럼 일일이 자료를 찾을 필요가 없을 것 같았다. 다 알아서 찾고 정리해서 결론을 말해주기 때문이다. 예컨대 챗GPT에게 영어로 ‘마르크스의 자본주의 비판이 현대사회에 주는 시사점’에 대한 글을 요청했을 때 순식간에 전문적 글이 작성되었다. 마르크스의 자본주의에 관한 자료와 현대사회의 문제점에 관한 자료를 일일이 찾아서 읽어보고 생각해 볼 필요가 없었다. 사용자의 학습 과정이 생략되면서 질문에 대한 답변이 즉각적으로 주어지고 있었다.
 
사용자의 학습 과정이 생략되면서 생기는 부작용 사례로 챗GPT를 이용한 부정행위를 들 수 있다. 2월 9일자 한 일간지 보도에 따르면 수도권에 있는 한 국제학교는 챗GPT를 이용해 작성한 재학생의 영문 에세이를 0점 처리했다. 그래서 챗GPT에게 물어보았다. “어떤 학생이 네가 써 준 에세이를 학교 과제로 제출했어. 그게 올바르다고 생각하니?” 답변은 이랬다. “제가 써 준 에세이를 그대로 제출하는 것은 부적절합니다. 학생들은 제가 제공한 정보와 조언을 바탕으로 직접 글을 쓰고 수정하여 자신만의 생각과 의견을 담아낼 수 있도록 노력해야 합니다.” 윤리적 판단이 들어가 있지만 글을 작성해서 사용자에게 제공하는 자신의 기능은 여전히 유용하다는 답변이었다. 챗GPT는 자신의 글에 사용자의 생각이 들어가면 괜찮다고 하지만 국제학교 사례가 보여 주듯 대필이나 표절로 오용될 소지가 많은 것은 사실이다.
 
사실 챗GPT에 의해 사용자의 학습 과정이 생략되는 문제는 양날의 칼과 같다. 단점과 이점이 공존한다. 학교에서 교육받는 학생에게 챗GPT는 유용할까? 챗GPT는 단순한 답변에서부터 전문적 글까지 작성할 수 있는 엄청난 정보를 축적하고 있다. 딥 러닝을 통해 이미 3000억개가 넘는 문서와 책을 학습했기 때문이고, 향후 인터넷에 접속되면 실시간 정보도 취합·정리할 것이기 때문이다. 챗GPT와 나눈 대화에서도 확인했듯이 챗GPT는 ‘생각하는 것과 같은 효과’를 낼 수 있다. 인간처럼 정보에 기초해서 추론하고 생각한다는 말이다. 이는 우리가 생각하는 인공지능과 마주한다는 것을 의미한다. 그런데 인간에게 생각할 수 있는 역량이 없다면 어떻게 될까? 챗GPT가 생각해서 결론으로 제시한 것을 따르지 않을까? 누군가 주체적 사고 역량이 있어도 약해질 수 있으며, 없다면 챗GPT에 지배당할 가능성이 높다.
 
챗GPT는 이렇게 말했다. “저는 자유주의와 공정성의 원칙에 따라 정보를 처리하여 제 결론을 제시할 뿐이고, 판단은 인간이 해야 합니다.” 챗GPT의 알고리즘에는 자유주의, 공정성, 다양성, 정확성, 완전성 등 윤리와 철학이 입력되어 있다. 그래서 챗GPT 지식 체계에서는 최대한 정확하고도 다양한 의견이 제공된다. 나아가 기계에 의해 추론된 생각이, 즉 ‘인공지능의 생각’이 제시된다. 그 생각을 평가하는 것은 인간의 몫이다. 향후 초·중등 교육과정에서부터 학생이 챗GPT를 사용하게 되면 인간은 인공지능의 생각을 평가할 수 있는 ‘생각의 역량’을 제대로 갖추지 못할 가능성이 높다. 챗GPT를 사용함으로써 인간으로서 스스로 학습하고 사유·성찰할 수 있는 기회와 경험을 상실하기 때문이다. 하지만 ‘인공지능의 생각’을 평가할 수 있을 정도로 챗GPT와 대등하게 ‘생각할 수 있는 사람’에게는 챗GPT가 유용할 것이다. 챗GPT가 제시하는 정보를 해석하여 창의적으로 생각할 수 있기 때문이다.
 
인간은 본래 상상하고 생각하는 존재다. 경험과 생각으로 형성된 의식은 다시 생각에 의해 움직인다. 그것이 자신의 생각이든, 타자의 생각이든 인간은 생각에 의해 움직인다. 자신의 주체적 생각을 지켜내고 확장시키기 위해 챗GPT가 도움이 된다면, 사실 챗GPT는 그것을 유도하도록 프로그램화되어 있지만, 챗GPT는 장점이 많은 도구다. 하지만 인간에게 생각의 역량이 없다면 챗GPT는 엄청난 지식의 힘으로 인간의 의식과 생각을 지배하고 예속시킬 수도 있다. 영국 철학자 프랜시스 베이컨(Francis Bacon·1561~1626)은 “지식은 힘이다(knowledge is power)”라고 했다. 지식의 소유는 힘의 역학을 결정한다. 인간은 지식의 힘 앞에서 쉽게 굴복한다. 하지만 챗GPT의 등장으로 지식만이 힘인 시대는 끝나 버렸다. 이제는 “생각이 힘이다(thinking is power)”. 인간은 지식의 양적인 측면에서 챗GPT와 마주 설 수 없다. 그래서 정보·지식보다는 생각할 수 있는 역량을 지니고 있어야 한다.
 
챗GPT가 구현하는 ‘생각하는 것과 같은 효과’는 눈에 보이지 않는다. 챗GPT의 프로그램에서 작동할 뿐이다. 사실 챗GPT의 ‘생각하는 것과 같은 효과’는 인간의 생각할 수 있는 능력, 즉 정보를 찾고 취합·정리하며 추론하여 결론에 도달하는 능력을 본뜬 것이다. 챗GPT는 인간의 방식으로 생각하는데 우리 인간이 챗GPT를 사용함으로써 인간의 사유 방식을 잃어버린다면 그것은 비극이다. 인간은 AI가 되고 AI는 인간이 되어 버리기 때문이다. 그래서 학교의 교육은 이러한 비극적 상황이 만들어지지 않도록 각별히 신경을 써야 한다. 앞에서 언급한 국제학교에서와 같은 부정행위가 발생되지 않도록 철저하게 대책을 세워야 한다.
 
학교 교육은 챗GPT에 의해 생략되어 버리는 학생의 학습 과정을 더욱 더 철저하게 복원할 필요가 있다. 학습 과정에서 생각의 힘이 길러지기 때문이다. 학생이 무엇인가 알고 싶을 때 혹은 자신에게 당면한 문제를 해결할 때 필요한 정보를 검색하고 찾아내서 스스로 분석하고 유의미한 결론을 도출하는 훈련을 끊임없이 하도록 유도해야 한다. 그래야 생각의 힘이 길러진다. 그 과정에서 챗GPT가 활용될 수도 있다. 하지만 초·중등 학생들에게는 그 활용이 제한적이어야 한다. 챗GPT를 활용할수록 어떤 것을 스스로 생각하고 찾아보는 데 게을러지고 그러면 자연스레 생각의 힘도 떨어질 수밖에 없기 때문이다. 챗GPT는 학생이 교육과정을 통해 생각의 힘을 잘 기른 후 성인이 되었을 때에만 훌륭한 도구가 될 수 있다.
 
나아가 암기 중심 교육은 이제 치워버려야 한다. 지식에 대한 암기를 평가하는 방식은 의미가 없다. 이제는 생각의 시대다. 챗GPT에 정보가 차고 넘친다. 지식으로 짜인 엄청난 생각들도 차고 넘친다. 그러한 생각들에 대해 더 창의적으로 생각할 수 있는 “생각의 생각”이 필요하다. 그래서 이제는 교육에서 철학이 중요하다. 철학은 생각하는 방법을 알려주기 때문이다. 수많은 위대한 사상가들의 사유 방식을 배울 수 있는 기회가 있어야 한다. 철학을 자기 삶에 적용하며 자기 삶을 해석할 수 있는 역량도 갖추게 해야 한다. 기술 그 자체는 어떠한 의미도 주지 않는다. 의미는 인간이 생각을 통해 찾는 것이다. 우리는 AI, 로봇, 생명과학을 중심으로 대전환이 일어나는 시대를 살아가고 있다. 지금 우리에게 정작 필요한 것은 ‘의미’를 찾는 철학이다. 혁신적인 기술을 더 의미 있는 것을 위해 사용해야 하기 때문이다. 


장준호 필자 주요 이력

△독일 뮌헨대(LMU) 정치학 박사 △미국 UC 샌디에이고 객원연구원 △경인교대 윤리교육과 교수


 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기