배경훈 "굿 AI로 신뢰 쌓아야"…AI기본법 시행 앞두고 해킹 예방 강조

  • 과기정통부, 23일 AI 안전연구소 현장방문 및 간담회 진행

 
배경훈 부총리 겸 과학기술정보통신부 장관이 23일 경기 성남시 분당구 인공지능안전연구소에서 딥페이크 탐지 AI에이전트 안전성 평가 시연 설명을 듣고 있다 사진연합뉴스
배경훈 부총리 겸 과학기술정보통신부 장관이 23일 경기 성남시 분당구 인공지능안전연구소에서 '딥페이크 탐지, AI에이전트 안전성 평가 시연' 설명을 듣고 있다. [사진=연합뉴스]


배경훈 장관은 23일 열린 AI 안전 관련 간담회에서 “AI를 통해 산업을 진흥하는 것도 중요하지만, 성능과 속도에만 집중하다 보면 부정확한 데이터나 검증되지 않은 모델이 확산될 수 있다”며 “굿(Good) AI를 제대로 만들어야 산업도 함께 성장할 수 있다”고 말했다.

배 부총리는 23일 분당 인공지능(AI) 안전연구소를 방문해 연구 현장을 점검하고 산·학·연 전문가들과 간담회를 열었다.

그는 토론에서 “AI는 결국 신뢰가 생명”이라며 “성능 중심의 경쟁이 아니라, 안전하고 투명한 개발 과정을 거친 AI를 만드는 게 중요하다”고 강조했다. 이어 “AI를 통해 산업 경쟁력을 높이려면 정부·산업계·연구기관이 함께 신뢰 가능한 기준을 세워야 한다”고 강조했다.

배 장관은 또 “의무화보다 인증 중심 접근이 바람직하다”며 “AI 안전연구소가 기업이 활용할 수 있는 인증·가이드라인 체계를 마련하고, 산업 현장에서 유효하게 쓰이도록 할 것”이라고 밝혔다. 또한 내년 발의를 앞둔 AI기본법을 통해 제도적 기반을 마련하고, 안전과 활용의 균형을 확보하겠다고 말했다. 그는 “AI 에이전트 시대를 대비해 정부와 연구기관이 선제적으로 기준을 제시하고, 기업이 속도감 있게 혁신할 수 있도록 돕겠다”고 강조했다.

이날 간담회에서 업계 관계자는 정부와 안전연구소가 명확하고 현실적인 안전 가이드라인을 마련해주도록 촉구했다. 황민영 셀렉트스타 부대표는 “AI 모델마다 세이프티(안전) 기준이 달라 좋은 성능을 내더라도 서비스마다 다시 평가를 받아야 하는 상황”이라며 “파운데이션 모델이나 에이전트 모델을 도입할 때마다 안전 기준과 품질을 함께 검증해야 한다”고 설명했다.

손지은 네이버  상무는 “기술 기업으로서 AI 안전 문제를 꾸준히 고민하고 있다"면서 "완벽할 수는 없지만 좋은 기술이 나오면 바로 적용하고 싶지만, 속도와 리소스 측면에서 한계가 있다. 실제 서비스에 붙여보면서 부족한 점도 확인해야 한다. 안전은 항상 동전의 양면과 같다”며 가이드라인에 대한 필요성을 말했다.  

엔씨AI 관계자도 “딥페이크가 악용되는 사례가 늘고 있지만, 좋은 활용 가능성도 많다”며 “멀티모달 모델의 안전기준은 아직 초기 단계라 업계별 기준이 필요하다”고 제언했다.

전문가들은 AI 안전을 규제가 아닌 경쟁력의 요소로 봐야 한다고 입을 모았다. 이재호 서울시립대 전자전기컴퓨터공학부 교수는  “국내 인증체계가 국제 표준과 통용돼야 기업 경쟁력도 높아진다”며 “AI 안전을 시장 진입의 필수요건으로 인식해야 한다”고 말했다.

배경훈 장관은 “AI 성능보다 신뢰가 우선이며, 신뢰를 확보한 나라가 결국 경쟁력을 갖게 될 것”이라며 “대한민국이 ‘가장 신뢰할 수 있는 AI’를 만드는 나라가 되도록 정부가 책임 있게 지원하겠다”고 밝혔다.

과학기술정보통신부는 AI 안전연구소를 중심으로 기업·학계와 함께 ‘AI 안전 종합계획’을 마련하고, 인증체계와 국제 표준화를 병행해 내년 중 발표할 계획이다. 아울러 내년 AI기본법 발의를 통해 안전·활용 균형과 법적 근거를 확보할 방침이다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

2025 서울한강 어텀워크 - 기사뷰
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기