▶ 한번 개발로 다양한 분야서 활용, 전세계 빅테크 기업들이 개발 경쟁…매개변수 많을수록 AI 결과물 정교, 구글 1조6000억 트랜스포머 공개
▶ 네이버·카카오 등 국내 기업도 구축, 한국어 주도권 확보 땐 수출 가능…AI를 학습시킬 대규모 데이터 부족, 인력난·규제 등 넘어야 할 난제 많아
AI 인간에 이르다‘인공지능(AI)의 미래’라고 불리는 초거대 AI 기술 경쟁이 뜨겁다. 인간에 한걸음 더 가까워진 능력을 가진 초거대 AI는 미래 산업 전 분야에 쓰일 수 있는 무궁무진한 가능성을 가졌다. 그래서 미래 먹거리를 준비하는 기업이라면, 조만간 펼쳐질 초거대 AI 경쟁에서 빠져서도 뒤쳐져서도 안되는 상황이다.
30일 AI 업계에 따르면 구글과 마이크로소프트(MS) 등 글로벌 빅테크 기업들이 일찌감치 초거대 AI 개발에 뛰어든 가운데, 국내 대기업과 정보통신(IT) 업체들의 행보도 빨라지고 있다. 초거대 AI는 방대한 규모 데이터를 스스로 학습해 인간처럼 생각하고 판단하는 AI다.
초거대 AI가 주목받는 가장 큰 이유는 광범위한 활용 분야 때문이다. 전문가들은 과거 인터넷이 세상을 바꿨듯, 초거대 AI가 인간의 일상을 상상하지 못한 모습으로 변화시킬 것으로 전망한다. 실제 초거대 AI는 고객센터 등 기업-소비자 간 거래(B2C)뿐 아니라 제품 개발과 상품 설계·디자인, 유통 등 산업 전 과정에서 인간을 대체할 가능성이 높다. 계열사를 통해 다양한 서비스를 제공하는 대기업 입장에선, 한 번만 개발하면 어느 분야에서나 쓸 수 있는 범용 AI가 탐나지 않을 수 없다.
AI 스피커의 음성 비서로만 여겨졌던 AI의 수준은 최근에는 의료 연구에까지 이용될 정도로 고도화됐다. 국제학술지 네이처에 따르면 구글의 AI 개발사 딥마인드는 AI를 활용해 단백질 아미노산을 연구해 신약을 개발하는 단계에 이르렀다. MS와 엔비디아는 아스트라제네카와 함께 신약 개발용 AI를 구축했다. AI가 미리 학습한 대화 데이터로 문장을 만들듯, 분자 구조와 임상 데이터 등을 익힌 AI가 신약 개발의 여러 방안을 제시하는 방식이다. 이 치열한 기술 경쟁에서 가장 앞선 곳은 바둑 AI ‘알파고’를 개발해 인간 최고수를 차례로 쓰러뜨렸던 구글(딥마인드)이다. 구글은 지난 2월 최대 1조6,000억 파라미터(매개변수) 규모의 초거대 AI 스위치 트랜스포머를 공개했다.
파라미터가 많을수록 AI가 추론한 결과물이 정교해지는 만큼, 누가 더 큰 파라미터를 확보하느냐를 두고 각사가 접전을 펼치고 있다. MS도 지난해 10월 5,300억 파라미터 규모의 언어모델 ‘MT-NLG’를, 딥마인드는 지난해 12월 2,800억 파라미터의 고퍼(Gopher)를 선보였다.
국내 기업 중 초거대 AI 개발 속도를 높이는 대표적 기업은 네이버다. 네이버가 지난해 5월 공개한 하이퍼클로바(Hyper CLOVA)는 한국어 기반 최초의 초거대 AI다. 네이버는 블로그와 뉴스 등 자사가 보유한 방대한 데이터를 활용해 AI를 구축했는데, 그 성능은 세계적인 수준이다. 2,040억 파라미터 규모로, 초거대 AI의 기준이 되는 GPT-3(1,750억 파라미터)보다 나은 능력을 갖췄다.
카카오도 지난해 11월 한국어 특화 AI 언어모델 코지피티(KoGPT)를 공개했다. GPT-3의 한국어 버전이다. LG도 지난해 12월 3,000억 파라미터의 초거대 AI 엑사원(EXAONE)을 내놓았다. AI를 미래 먹거리로 점찍고 전사적역량을 투입해 본격적인 투자에 나선 지 1년 만에 거둔 성과다.
학계, 연구기관과 대기업의 연합전선도 구축됐다. SK는 지난해 5월 SK텔레콤 산하에 태스크포스를 설치하고 국립국어원과 함께 GPT-3를 기반으로 초거대 AI 개발에 한창이다. 최근에는 AI 비서 A.(에이닷)을 발표하기도 했다. KT는 한국전자통신연구원(ETRI)·한국과학기술원(KAIST)·카이스트 등과 함께 2,000억 파라미터 규모의 초거대 AI를 개발 중이다.
하지만 넘어서야 할 난제도 많다. 우선 AI를 학습시킬 대규모 데이터가 부족하다. 기본 코드는 오픈소스로 공유된다지만, AI의 지능을 결정하는 건 데이터의 질과 양이다. 국내 AI 연구나 인프라가 해외에 비해 한 발 늦은 만큼, 초거대 AI 구축을 위해서는 정부 차원 지원이 시급하다는 지적도 있다. 지난해 개인정보 침해 논란을 빚었던 이루다 사태가 재발하지 않기 위해서도 데이터 관련규제도 손봐야 한다.
장병탁 서울대 AI연구원장은 “구글이 전 세계 데이터를 다 가져가 서비스를 개발하듯, 초거대 AI 분야도 종국에는 몇몇 플랫폼으로 쏠릴 가능성이 높다”며 “한국어에 대해서만큼은 주도권을 확보한다면 거꾸로 글로벌 수출 가능성은 열려 있다”고 강조했다.
인력난 역시 숙원 과제다. 차상균 서울대 데이터사이언스 대학원장은 “초거대 AI를 만들기 위해서는 데이터사이언스가 중요한데, 가르칠 교수가 없다”며“초중고부터 데이터에 대한 기본을 가르치는 등 인프라를 구축해야 미래에 필요로 하는 인재를 양성할 수 있다”고 지적했다.
<
이승엽 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x