요즘 ‘초대규모 인공지능(Hyperscale AI)’ 개발 소식이 화제입니다. 네이버는 국내 기업 최초로 한국어 기반의 초대규모 AI 언어모델 ‘하이퍼클로바’를 공개했죠. 뿐만 아니라 서울대학교와 초대규모 AI 공동연구 계획도 발표했습니다. 이어 LG 역시 초대규모 AI 개발에 3년간 1억달러(약 1120억원)를 투자한다고 밝혔고, KT와 한국과학기술원(KAIST)은 차세대 AI 모델을 만들 공동연구소를 만들겠다고 나섰습니다.

 

초대규모 AI가 대체 무엇이길래 그러는 걸까요? 초대규모 AI는 쉽게 말해 인간처럼 생각하고 판단하는, 종합적 추론이 가능한 AI라고 이해하면 됩니다. 좀 더 전문적으로 설명하자면, ‘고품질 데이터셋으로 학습된 대용량의 파라미터(parameter·매개변수) 수를 갖는 AI 모델’이라고 말할 수 있는데요. 파라미터란 AI 모델의 크기를 나타내는 건데, 인간 뇌의 신경세포(뉴런)를 연결하는 ‘시냅스’와 유사한 인공 신경망이라고 보면 됩니다. 이 숫자가 높을수록 AI는 더 많은 문제를 해결할 수 있죠.

 

사실 초대규모 AI 기술과 관련한 경쟁은 국내뿐만 아니라 해외에서 이미 가속화되고 있습니다. 그동안 대표적인 초대규모 AI로 꼽혔던 게 바로 ‘GPT-3’인데요. 이 GPT-3를 만든 샌프란시스코의 AI 연구소 ‘오픈 AI(Open AI)’는 테슬라 최고경영자(CEO)인 일론 머스크가 실리콘밸리 엑셀러레이터와 2015년 공동 설립한 곳이기도 합니다. 일론 머스크는 이미 “2025년쯤이면 AI가 인간을 추월할 것”이라고 내다보았는데요. 실제 이 GPT-3는 인간처럼 자연스럽게 대화할 수 있을 뿐만 아니라, 기사 칼럼이나 단편영화 시나리오 등 창작, 심지어 코딩까지 할 수 있습니다.

 

구글은 지난 18일(현지시각) 열린 연례 개발자 회의 ‘구글 I/O 2021’에서 AI 기반 람다(LaMDA) 기술을 선보여 눈길을 끌기도 했습니다. 예컨대 명왕성을 화자로 설정하면 명왕성이 사용자 질문에 직접 답을 해주는 방식으로, 언어와 문맥을 이해하고 거기에 맞춘 대화를 할 수 있는 AI 데모를 시연해 기대감을 모았습니다. 이 밖에도 화웨이는 지난달 26일 매개변수가 최대 2000억개 수준인 중국어 자연어 처리 모델 ‘판구 알파’를 공개했고, 페이스북과 마이크로소프트(MS) 등도 초대규모 매개변수를 학습해 사람처럼 대화하는 AI를 만드는 연구를 진행하고 있습니다.

 

네이버는 이번에 공개한 하이퍼클로바가 GPT-3(175B)를 뛰어넘는 204B(2040억개) 파라미터(매개변수) 규모로 개발됐다고 밝혔는데요. 파라미터 수도 그렇지만, 하이퍼클로바가 특히 의미 있는 이유는 한국어 기반 모델이라는 데 있습니다. 하이퍼클로바는 GPT-3보다 한국어 데이터를 6500배 이상 학습한, 현재 전세계에서 가장 큰 한국어 초대규모 언어모델입니다. 이를 위해 네이버는 지난 10월 국내 기업 최초로 700 페타플롭(PF) 성능의 슈퍼컴퓨터를 도입하기도 했죠.

 

네이버가 전세계적으로 벌어지는 초대규모 AI 기술 경쟁에, 그것도 한국어 모델을 가지고 뛰어든 데는 글로벌 기업에 기술적으로 종속되지 않으려는 의지가 컸습니다. 실제 정석근 네이버 클로바 CIC 대표는 지난 26일 열린 ‘네이버 AI 나우(NAVER AI Now)’ 컨퍼런스에서 “대형 AI 모델 연구는 글로벌 무한 경쟁 시대에 돌입했다”면서 “한국 AI 기술이 글로벌 플랫폼 기업에 종속되지 않으려면 이미 공개된 수준 기술 따라잡는 데 그쳐선 안 된다”는 생각을 밝히기도 했고요.

 

한마디로 초대규모 AI 경쟁은 현재진행형이며, 앞으로 더욱 가속화될 것으로 보입니다. 초대규모 AI 기술 주도권을 선점하려는 글로벌 기술 경쟁이 한창인 지금, 네이버를 비롯해 국내 산업계와 학술계가 손을 잡고 연구개발에 나서는 것이 상당히 반갑습니다. 전문가들은 향후 정보통신기술(ICT) 산업 자체가 초대규모 AI 위주로 재편될 가능성을 배제할 수 없다고들 말합니다. 치열한 기술 경쟁 속 한국이 주도권을 선점하는 때가 서둘러 오길 바랍니다.

 

[권하영 기자 블로그=잇(IT)스토리]

저작권자 © 딜라이트닷넷 무단전재 및 재배포 금지