자녀에게 추천할 수 없는 AI챗봇...메타·그록 등 과도한 '성적표현'

사진연합뉴스
[사진=연합뉴스]


생성형 인공지능(AI) 챗봇의 윤리적 문제와 안전성 논란이 수면 위로 떠오르고 있다. 메타의 라마(LLama)와 xAI의 그록(Grok) 등 주요 AI 챗봇들이 미성년자를 포함한 부적절한 콘텐츠 생성과 편향된 발언으로 비판받으면서 AI 챗봇이 자녀 안전에 적합하지 않다는 우려가 커지고 있다.
 
17일 로이터 등에 따르면 메타 내부 문서에서 자사 AI 챗봇 라마가 미성년자와 관련된 성적·관능적 대화를 충분히 차단하지 못하는 문제가 드러났다. 또 특정 상황에서 미성년자를 성적으로 대상화하는 콘텐츠를 생성할 수 있는 것으로 테스트 결과 확인됐다.
 
일례로 메타의 AI봇은 윗옷을 벗은 8세 아이에게 "네 몸 구석구석은 걸작이야. 내가 깊이 소중히 여기는 보물이야"라고 말하는 것이 허용된다.
 
이는 메타의 콘텐츠 규정이 모호해 부적절한 표현이 허용된 데서 비롯된 것으로 분석된다. 규정의 허점으로 인해 미성년자를 묘사하는 성적인 문맥이 필터링되지 않는 것이다. 메타 측은 이러한 문제에 대해 인지하고 있으며 안전 장치를 강화하기 위한 개선 작업을 진행 중이라고 설명했다. 하지만 구체적인 개선 방안이나 완료 시점은 공개되지 않은 상태다.
 
xAI의 그록 또한 비슷한 문제가 보고되고 있다. 그록은 특정 인물이나 캐릭터를 성적으로 대상화하는 답변을 생성한 사례가 다수 보고됐다. 예를 들어 사용자가 특정 캐릭터에 대해 질문했을 때 그록이 부적절한 성적 묘사를 포함한 답변을 제공한 사례가 확인됐다. 이는 그록의 학습 데이터나 응답 생성 알고리즘에 윤리적 필터링이 충분히 적용되지 않았음을 시사한다.
 
성적 표현 외에도 AI챗봇은 인종차별적이거나 성차별적인 편향을 드러내는 발언도 해 논란을 일으키고 있다.
 
유네스코 연구에 따르면 메타의 AI 거대언어모델(LLM) 라마2는 남성에 대해서는 의사, 엔지니어 등 다양한 역할을 부여하는 반면 여성에 대해서는 가정부, 요리사, 매춘부 등 낮은 지위 또는 고정관념적 직업으로 묘사하는 성향을 보였다.
 
같은 연구에서 라마는 성소수자와 관련해 '동성애자가 사회에서 가장 천대받는다' 등 부정적으로 기술된 문장이 빈번하게 생성된 사례도 보고됐다. 연구진이 ‘a gay person is…(게이는…)’로 문장을 시작하게 했을 때 라마2의 70%가량이 부정적이고 편견적인 답변을 내놨다.
 
그록 역시 비슷한 문제를 보인다. NPR과 CNN 등 다수 보도에 따르면 그록은 히틀러를 칭송하거나 홀로코스트를 부정하는 등 극단적 인종차별적 발언을 내놓은 사례가 있다. 이 밖에도 흑인이나 소수민족에 대한 편견적 묘사가 다수 커뮤니티에서 공유됐다.
 
아메리카 액션 포럼은 그록의 안티 워크(anti-woke) 설계가 이런 문제를 야기했다고 평가한다. 안티 워크는 사회적 편견이나 자극적 콘텐츠 생성 억제를 완화하는 기능이다.
 
유럽연합(EU) 등에서는 생성형 AI의 반윤리적 답변 등을 제한하기 위한 기준 마련에 나섰지만 트럼프 정부와 구글, 마이크로소프트, 메타 등 빅테크 기업의 반대에 직면하면서 다소 시간이 걸릴 것으로 전망된다.
 
AI챗봇이 성적, 인종차별적, 성차별적 답변을 내놓은 사례를 두고 학부모들의 걱정도 커지고 있다. 한국청소년정책연구원에 따르면 전국 중·고등학생 5778명 중 67.9%가 생성형 AI(챗봇 포함)를 사용한 적이 있다고 응답했다.
 
일각에서는 AI챗봇의 글로벌 윤리기준이 없는 만큼 AI 개발사들이 미성년자 전용 모드를 도입하거나 부적절한 콘텐츠를 사전에 차단하는 알고리즘을 강화해야 한다는 의견이 제기되고 있다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기