News

IT News

 

‘생성형 AI’ 국내외 업체별 서비스와 전략-2

Date 2024.08.13 Hits 75

2부: 모델 고도화 경쟁, 그 다음을 준비하는 해외 업계
소형 모델, 챗봇 등으로 사업화 확대도
AGI 등 다음 세대 기술 개발도 준비

[아이티데일리] 챗GPT가 생성형 AI 시장의 포문을 연 지 약 2년이 지났다. 그 2년 동안 오픈AI는 챗GPT에 활용된 GPT-3.5의 업그레이드 버전인 GPT-4를 출시하며 시장에서 입지를 강화했다. 이에 질세라 구글, 메타 등 다른 빅테크 기업도 생성형 AI 열풍에 가세했으며 엔스로픽, 미스트랄AI와 같은 스타트업도 자체 개발 모델을 내놓으며 경쟁에 뛰어들었다.

고성능 모델 개발에 막대한 비용을 투자해 온 글로벌 기업은 이제 수익 창출로 고개를 돌리고 있다. 오픈AI는 ‘GPT-4o(포오)’를 출시하며 AI 에이전트의 가능성을 제시했다. 구글은 검색엔진에 AI를 접목했으며, 메타는 AI 챗봇을 페이스북, 인스타그램 등 자사 SNS 탑재하는 등 서비스 다각화를 모색하고 있다.

생성형 AI를 넘어선 ‘AGI(인공 일반 지능)’를 주목하는 전문가들의 목소리도 커지고 있다. 해외에서는 인간 수준의 사고 능력을 갖춘 AGI가 빠르면 5년 안에 등장할 것으로 전망하고 있으나, 정확히 AGI를 어떻게 볼 것인가 하는 문제는 여전히 진행 중이다. 지난 7월호 국내 생성형 AI 업계에 이어 이번 호에서는 글로벌 주요 기업의 서비스와 전략에 대해 살펴봤다.

공공·금융 사례 확보 나선 국내 업계 (2024년 7월호)

모델 고도화 경쟁, 그 다음을 준비하는 해외 업계(2024년 8월호)

모델 성능 가늠하는 ‘파라미터’ 경쟁

생성형 AI가 알려지기 시작했던 초기에는 글로벌 빅테크를 중심으로 파라미터(Parameter, 매개변수) 경쟁이 일었다. 파라미터는 사용자가 원하는 방식으로 자료를 처리하기 위해 명령어를 입력할 때 추가하거나 변경하는 수치 정보를 의미한다. 구체적으로 말하면, 모델 훈련 과정에서 원하는 결괏값이 나올 수 있도록 특정 부분에 가중치를 부여하는 역할이다. 파라미터가 많아질수록 AI는 더욱 정교한 결과물을 생성할 수 있어 통상 모델 성능을 가늠하는 척도로 쓰였다.

그림 1. 파라미터는 입력값(Input), 출력값(Output) 사이에 숨겨진 층(Hidden)과 연결부(노드, Node)에서 가중치(Weight)를 부여해 원하는 결괏값을 생성하도록 만드는 역할을 한다. (출처: https://orbograph.com/understanding-ai-what-is-a-deep-learning-node)파라미터는 입력값(Input), 출력값(Output) 사이에 숨겨진 층(Hidden)과 연결부(노드, Node)에서 가중치(Weight)를 부여해 원하는 결괏값을 생성하도록 만드는 역할을 한다. (출처: https://orbograph.com/understanding-ai-what-is-a-deep-learning-node)

각 기업들은 자사 모델의 성능이 뛰어나다는 것을 알리기 위해 파라미터 개수를 내세웠다. 모델을 파라미터별로 세분화하기도 하고 1,750억 개(175B)의 파라미터로 구성된 오픈AI의 GPT-3보다 뛰어나다는 점을 드러내기 위해 파라미터 개수를 강조하기도 했다.

파라미터 경쟁은 그리 오래 가지 않았다. 오픈AI는 지난해 3월 GPT-4를 발표하면서 파라미터 개수를 공개하지 않았다. 이후 구글, 네이버 등도 자체 개발한 거대언어모델(Large Language Model, LLM)을 공개하며 구체적인 파라미터 규모는 밝히지 않았다. 여러 언론과 전문가들이 그 규모를 추측할 뿐이었다. 메타의 라마(Llama)처럼 오픈소스로 나온 모델 정도만 파라미터 규모를 알 수 있는 상황이다.


비용 낮추고 성능 최적화한 소형 모델에 주목

파라미터 경쟁이 시들해진 이유는 단순히 업체들이 그 수치를 공개하지 않았기 때문만은 아니었다. 파라미터가 많아지면 AI 성능이 나아지긴 하지만 그만큼 막대한 컴퓨팅 파워가 요구된다. 기업들은 생성형 AI의 혁신성에 주목하다가도 거기에 들어가는 비용을 알고 나면 한 발짝 물러서 도입을 고민하기 일쑤였다. AI 업체들은 모델 개발에 큰 자본을 투자한 만큼 수익 확보를 위한 사업화 방안을 마련해야 했다.

이런 상황에서 업체들이 택한 방향은 소형화였다. 기업이 더 적은 비용으로 AI를 도입해 사용할 수 있도록 모델 크기를 줄인 것이다. 휴대폰, 노트북에 탑재하는 ‘온디바이스(On-device) AI’ 개발을 위해서도 소형 모델이 필요했다. 글로벌 빅테크들은 파라미터 규모를 줄이되 파인튜닝(Fine-tuning, 미세조정)으로 성능을 최적화하는 방안을 고심했다.

메타는 라마 2를 7B, 13B, 70B 등 총 세 가지 파라미터 크기로 제공했다. 이는 175B의 GPT-3.5보다 훨씬 적은 수치였다. 마이크로소프트(MS)도 모바일 디바이스에서 구동할 수 있는 소형 언어모델 ‘파이-2(Phi-2)’를 지난해 말 출시했으며, 올 4월에는 이를 업그레이드한 ‘파이-3’을 공개했다.

구글 역시 온디바이스 형태로 구현할 수 있는 ‘제미나이 나노(Gemini Nano)’를 지난해 12월 발표했다. 올해 2월에는 소형 언어모델 ‘젬마(Gemma)’를 2B, 7B 등 두 가지 버전으로 개발, 오픈소스로 공개했다.


챗봇 접목, 응답속도 개선 등 사업 모색

모델 소형화에 이은 다음 단계는 AI 성능을 체감할 수 있는 서비스 개발이었다. 빅테크 기업들은 자신들이 기존에 영위해 온 서비스에 생성형 AI를 접목하는 방식으로 사업화에 속도를 냈다.

가장 적극적인 기업은 MS였다. 워드, 파워포인트, 엑셀 등 MS 솔루션 제품군에 GPT-4 기반 사무 보조용 AI를 탑재한 ‘MS 365 코파일럿(Microsoft 365 Copilot)’을 2023년 3월 공개했다. 문서 작성, 프레젠테이션 제작, 함수 자동 실행, 데이터 시각화 등 각종 사무 작업을 자연어 프롬프트로 AI와 상호작용함으로써 해결할 수 있도록 지원했다. MS는 계속해서 기능 고도화와 언어 지원 확대에 나서고 있다. 한국어 버전은 지난 4월 출시됐으나 아직 기업용으로만 사용할 수 있다.

구글은 자사 제품 전반에 제미나이를 적용하겠다고 지난 5월 발표했다. 가장 큰 변화는 검색이다. 단어 중심으로 웹사이트 결과를 제공하는 기존 방식에서 벗어나, 사용자가 원하는 내용을 구체적 문장으로 입력하면, AI는 적합한 답을 찾아 결과로 보여주는 구조다. 또 지메일(Gmail), 캘린더 등 구글 앱과 결합, 개인정보를 가져와 일정을 알려주고 계획을 제안하는 비서 역할도 수행할 예정이다.

메타가 주목한 분야는 챗봇이다. 메타는 챗봇 ‘메타 AI’를 출시하고 페이스북, 인스타그램, 왓츠앱 등 자사 플랫폼에 접목했다. 이용자와의 질의응답뿐 아니라 애니메이션 제작, 이미지 생성 등 다양한 기능을 지원한다. 메타 AI는 지난 4월부터 미국, 캐나다 등 10여 개국에서 영어판으로 우선 출시됐다. 다만 한국 등 다른 나라 출시 일정은 미정이다.

한편, 오픈AI가 대중에게 공개한 서비스는 챗GPT와 이미지 생성 AI ‘달리(DALL·E)’뿐이다. 이외의 프로그램 개발 계획은 알려진 바가 없으며, 현재 유료 API로 서드파티에 GPT 모델을 제공함으로써 수익을 창출하고 있다. 대신 모델 고도화를 통한 저변 확대를 모색하고 있다.

GPT-4o는 개선된 음성 인식으로 인간의 응답 시간에 버금가는 속도를 보였고, 영어 이외의 언어 처리 능력도 향상됐다. 특히 사람과 영상 통화를 하듯이 대화하는 데모 영상은 전 세계적으로 큰 화제를 불러일으켰다. 오픈AI는 최근 자체 검색엔진 ‘서치GPT(SearchGPT)’를 일부 이용자 대상으로 프로토타입 테스트를 진행한다고 발표하는 등 새로운 서비스도 모색하고 있다.


떠오르는 AGI, 실현 가능성에 대한 의견은 엇갈려

생성형 AI의 미래에 대한 전망도 나오고 있다. 특히 글로벌 빅테크에서 주목하는 것은 ‘AGI(Artificial General Intelligence, 인공 일반 지능)’이다. AGI란 인간과 동등한 수준의 지능을 갖춘 AI를 의미한다. 특정 작업에만 강점을 보이는 게 아니라 인간이 할 수 있는 모든 종류의 지적 작업을 수행하는 수준의 AI가 여기에 해당한다.

AGI에 특히 힘을 싣는 곳은 오픈AI다. 오픈AI 샘 올트먼(Sam Altman) 최고경영자(CEO)는 지난 5월 스탠퍼드 대학교에서 열린 강연에서 “AGI는 인류에게 엄청난 혜택을 가져올 것”이라며 “AGI 개발에 큰 비용이 들지만 그만한 가치가 있다. 오픈AI는 이를 개발하기 위해 최선을 다하고 있다”고 설명했다.

오픈AI의 원년 멤버였던, 테슬라 일론 머스크(Elon Musk) CEO는 보다 더 급진적인 의견을 내놨다. 일론 머스크 CEO는 지난 4월 노르웨이 국부펀드 니콜라이(Nicolai Tangen)와의 인터뷰에서 AGI 개발 일정에 대해 “AGI를 가장 똑똑한 인간보다 더 똑똑한 AI로 정의한다면, 아마도 내년, 예를 들어 2년 이내가 될 것”이라고 말했다.

물론 이와 상반된 의견도 존재한다. AGI는 아직 현실성이 없다는 지적이다. 메타 얀 르쿤(Yann LeCun) 수석 AI 과학자는 지난해 미국 샌프란시스코에서 열린 메타 AI 연구팀 10주년 기념 행사에서 “현재 AI 시스템이 단순히 대량 텍스트를 창의적 방식으로 요약하는 것 이상의 능력을 발휘할 수 있는 상식을 갖춘 지성에 도달하는 데 수십 년이 걸릴 것”이라고 밝혔다.

 

주요 글로벌 AI 업체별 현황

 오픈AI | 전 세계 AI 유행을 이끄는 선두 주자

오픈AI는 2015년 일론 머스크, 샘 올트먼, 그렉 브록만(Greg Brockman)이 설립한 비영리단체다. 공동 설립자 3명 외에 아마존웹서비스(AWS), 인포시스(Infosys) 등이 출자해 마련한 기부금 10억 달러(약 1조 3,800억 원)를 바탕으로 시작됐다. 초기에는 주로 강화학습(Reinforcement Learning)에 중점을 두고 연구개발을 이어갔다.

2018년 오픈AI는 첫 번째 언어모델 ‘GPT-1’을 공개했다. GPT-1은 구글이 발표했던 자연어처리 모델 ‘트랜스포머(Transformer)’에서 디코더(Decoder)만 활용한 모델이었다. 오픈AI는 라벨이 없는 데이터를 이용해 GPT-1을 사전 학습 후, 비교적 적은 양의 라벨이 있는 데이터로 성능을 높였다. 현재 LLM 개발에 널리 쓰이는 방법의 초기 형태였다. 오픈AI는 GPT-1을 1억 1,700개의 파라미터로 개발했으며, 1.5B 파라미터의 GPT-2를 거쳐 175B 규모의 거대한 GPT-3를 개발하는 데 이르렀다.

향상된 모델을 개발하면서 오픈AI는 많은 컴퓨팅 파워를 소모했고, 그만큼 큰 비용을 치러야 했다. 결국 2019년 클라우드 컴퓨팅 사용료를 충당하고 재능 있는 인재를 영입하기 위해 산하 영리 법인을 설립했다. 또한 같은 해 MS로부터 10억 달러를 투자받았다. 오픈AI는 막대한 투자금을 바탕으로 기술을 고도화하며 AI 시장 대표주자로 자리매김했지만, 초기에 강조한 비영리단체로서의 성격은 옅어졌다.

그림 2. 오픈AI 미라 무라티(Mira Murati) CTO가 지난 5월 13일(현지 시각) 새로운 AI 모델 ‘GPT-4o’를 소개하고 있다. (출처: 오픈AI 유튜브 캡처)오픈AI 미라 무라티(Mira Murati) CTO가 지난 5월 13일(현지 시각) 새로운 AI 모델 ‘GPT-4o’를 소개하고 있다. (출처: 오픈AI 유튜브 캡처)

오픈AI가 가장 최근 발표한 모델은 GPT-4o다. 음성 입력에 대한 응답 시간을 최소 232밀리초(ms), 평균 320밀리초 수준으로 개선했으며, 이는 사람의 응답 시간과 유사하다고 오픈AI는 설명했다. 또 바로 이전 모델인 GPT-4 터보(Turbo)와 비교할 때, 영어 및 코드 텍스트에서 동일한 성능을 내면서도 50% 저렴하게 API로 이용할 수 있다. 영어뿐 아니라 20여 개 언어에 대한 처리 능력을 향상하고자 토큰 감소 기술도 적용했다. 출시 당시 외신에서는 강력한 음성 기능을 바탕으로 GPT-4o가 AI 에이전트의 새 지평을 열 것으로 전망했다.

비용 부담을 낮추기 위해 지난달에는 GPT-4o 미니(Mini)를 출시했다. 입출력 토큰을 100만 개당 1달러 미만 수준으로 낮추면서도, 최적화한 성능으로 ‘대규모 다중작업 언어 이해(MMLU)’에서 정답률 82%를 기록했다. 이는 GPT-4o(88.7%)보다는 낮지만, GPT-3.5 터보(69.8%)보다 높았으며 구글의 소형 언어모델 ‘제미나이 플래시’(77.9%)보다도 향상된 결과였다.


구글 | ‘제미나이’로 잃어버린 명성 되찾는다

구글은 현재 AI의 근간이 되는 기술을 오랜 기간 개발해 왔다. 구글 산하 AI 연구기업 ‘딥마인드’는 머신러닝 기반 바둑 프로그램 ‘알파고(AlphaGO)’를 개발, 전 세계에 딥러닝이라는 단어를 널리 알렸다.

2017년 생성형 AI의 뼈대를 이루는 자연어처리 모델 ‘트랜스포머’를 발표했으며, 2019년에는 트랜스포머에서 인코더(Encoder)를 분리해 자연어 모델로 만든 ‘버트(BERT)’를 공개한 바 있다.

AI 기술 발전을 이끌어 온 구글이지만 시장에서 입지는 예전 같지 않다. 챗GPT로 오픈AI가 선두 주자의 자리를 꿰차면서 구글의 위상이 약화된 것이다.

구글도 오픈AI에 밀리지 않기 위해 지난해 5월 다국어 지원, 추론 능력, 코딩 등을 강화한 LLM ‘팜 2(PaLM 2)’를 공개했다. 또 팜 2를 접목한 대화형 AI ‘바드(Bard)’를 출시하며 영향력 확대에 나섰다. 하지만 챗GPT의 시장 선점으로 아직 기대만큼의 반향을 불러일으키진 못했다.

구글 선다 피차이(Sundar Pichai) CEO가 지난 5월 14일(현지 시각) ‘구글 연례 개발자 회의(IO) 2024’에서 기조연설을 하고 있다. (출처 구글 유튜브 캡처)구글 선다 피차이(Sundar Pichai) CEO가 지난 5월 14일(현지 시각) ‘구글 연례 개발자 회의(IO) 2024’에서 기조연설을 하고 있다. (출처 구글 유튜브 캡처)

절치부심한 구글의 다음 결과물은 ‘제미나이(Gemini)’였다. 구글은 지난해 12월 텍스트뿐 아니라 음성, 이미지, 영상 등 다양한 입출력을 지원하는 멀티모달 모델 ‘제미나이 1.0’ 공개했다. 파라미터 규모에 따라 울트라, 프로, 나노로 구분했으며 프로는 제미나이 앱(구 바드)에 적용됐다. 나노는 구글 픽셀 같은 스마트폰에 탑재하는 온디바이스 AI를 목적으로 만들어졌다.

특히 구글은 제미나이를 자사 서비스 전반에 통합, 사용자 경험을 확대해 나갈 것이라고 밝혔다. 키워드 중심의 기존 검색엔진은 제미나이를 만나 웹페이지 링크가 아닌 대화 형태로 결과를 제공한다. 구글 포토에서 음성으로 사진을 검색하는 기능을 업데이트할 예정이며, 이 밖에 지메일, 워크스페이스 등에 제미나이를 적용할 방침이다. 또 웹브라우저 ‘크롬(Chrome)’에는 제미나이 나노를 탑재할 계획이다.

제미나이 출시 당시에는 시연 영상 조작이라는 논란을 빚으며 대중으로부터 신뢰를 다소 잃기도 했다. CNBC를 비롯한 외신에서는 빠른 실시간 응답을 선보인 데모 영상이 실제로는 빨리감기, 스틸샷 등으로 성능을 과장했다고 지적했다. 구글은 공식 성명을 통해 제미나이에 대한 이해를 돕기 위해 영상 편집이 이뤄졌다고 해명했다. 국내외 업계에서는 AI 시장에서 오픈AI와 마이크로소프트에게 밀리자 다급한 마음에 무리수를 둔 것이 아니냐는 추측이 있었다.

“휴머노이드 로봇이 AI의 미래 지향점 될 것”
서울대학교 컴퓨터공학과 장병탁 교수서울대학교 컴퓨터공학과 장병탁 교수

Q. 생성형 AI의 원리를 설명한다면.

A. “AI는 크게 ‘판단형’과 ‘생성형’으로 구분할 수 있다. 판단형은 대상을 인지하고 설명하는 기술이다. 강아지 이미지를 대규모로 학습 후, 제시된 사진 속 대상이 강아지인지 판단하는 경우가 이에 해당한다. 대표 사례로는 구글 딥마인드의 ‘알파고’를 들 수 있다.”

“생성형은 상상력과 같은 능력이라고 이해할 수 있다. 가령 누군가에게 강아지를 머릿속에 떠올리라고 말하면, 아마 강아지의 형상을 생각할 것이다. 생성형 AI는 이러한 사람의 능력을 흉내 내듯이 특정한 대상을 만들어내는 기술이다. 판단형이 객관식이라면 생성형은 주관식이다. 글자를 배우면 글을 쓰고, 이미지를 학습하면 그림을 그린다. 그만큼 이전보다 더 복잡해진 기술이다.”

“생성형 AI의 밑바탕에는 ‘토큰’이 있다. 토큰은 쉽게 말해 컴퓨터가 학습할 수 있는 형태로 데이터를 제공하는 것을 뜻한다. AI는 수많은 토큰을 학습해 글이라면 문맥을 보고 문장을 만들고, 그림이라면 중심을 두고 그 주변부를 그려낸다. 처음부터 정확한 결과물을 생성할 수는 없다. 잘못된 ‘노이즈’가 발생하는데, 생성 과정을 끊임없이 반복하며 가장 그럴듯한 결과물이 만들어진다.”
 

Q. 생성형 AI의 한계점은.

A. “생성형 AI는 실제 세상을 경험하지 못한다는 것이 문제다. 근본적으로 ‘할루시네이션(환각)’ 현상도 생성형 AI가 세상을 알지 못하기 때문에 발생한다. 가령 사람은 의자를 책이나 그림으로 배우기도 하지만, 앉거나 만지는 등 감각 경험으로도 알게 된다. 하지만 AI는 ‘의자’라는 글자 그 자체나 관련 이미지만을 학습해 결과물을 생성한다. 실제로 의자가 어떤 물체인지 안다고 할 수 없다.”

“물론 그러한 학습만으로도 문맥에 맞는 글을 만들고, 사실적인 이미지를 생성할 수 있다는 점은 놀라운 발전이다. 하지만 엄밀한 의미에서 보자면 AI가 세상을 이해했다고 말할 수는 없다. 대상을 이해한 것 같은 착각을 불러일으킬 만큼 정교한 결과물을 만들어낼 뿐이다. 이 지점이 앞으로 더 발전한 AI를 개발하기 위해 넘어서야 할 장벽이다.”
 

Q. 최근 해외에서 주목받은 ‘AGI’는 무엇인지.

A. “AI는 목적, 발전 정도에 따라 ANI(Artificial Narrow Intelligence), AGI(Artificial General Intelligence) 그리고 ASI(Artificial Super Intelligence) 등 세 가지로 분류한다. 여기서 AGI, 한국어로 ‘인공 일반 지능’은 다양한 분야에서 인간과 유사한 학습, 이해, 추론 등 능력을 지닌 AI를 뜻한다. 단순히 말해 사람이 일상생활에서 할 수 있는 모든 활동을 사람과 같은 수준으로 해결하는 정도로 발전한 것이다. ANI는 우리가 현재 경험하는 특정 목적을 위한 AI가 해당하며, ASI는 인간 지능을 넘어선 단계다.”

“지금 생성형 AI는 다양한 일을 수행할 수 있지만, 이를 ‘인간 수준’에 이르렀다고 볼 수 없다. 사람처럼 자연스러운 글을 쓰고, 그림을 그리는 일은 가능하다. 하지만 스마트폰을 사용한다거나 사람들과 교류한다거나 하는 일상생활 전반을 모두 흉내 낼 수는 없다. 궁극적으로 AGI 단계에 이르려면 AI가 세상을 경험할 수 있는 일종의 ‘신체’ 같은 것이 필요하다.”

“최근 글로벌 빅테크에서 언급하는 ‘AGI’는 다양한 분야에 범용으로 AI를 사용한다는 뜻으로 쓰이지 않았을까 추측한다. 현재 AI는 여러 가지 일을 할 수 있는 데다가 기본 모델을 미세조정하면 은행, 가게, 사무실 등 다양한 환경에서 활용할 수 있는 형태로 개발이 가능하다. 가까운 미래에 분야를 막론하고 여러 곳에서 AI를 쓸 수 있을 거란 의미로 ‘AGI’라는 용어를 언급했을 듯싶다. 그러나 엄격히 따지자면 이를 AGI라고 부르기는 어렵다.”
 

Q. 앞으로 AI 기술의 지향점을 전망한다면.

A. “핵심은 어떻게 하면 AI가 실제 세계를 경험할 수 있도록 하는가이다. 이를 해결하는 방안으로 ‘휴머노이드(인간형) 로봇’을 주목하고 있다. AI를 로봇으로 구현해 물리적 작업을 수행할 수 있도록 만드는 것이다. AI가 행동할 수 있게 된다면 사람과 유사한 방식으로 지식을 습득하는 일도 가능하다. 시간이 오래 걸리겠지만 이 같은 방향으로 발전해 나가면 인간 수준의 AGI 구현도 불가능한 일은 아니다.”

“글로벌 기업에서는 이미 휴머노이드 로봇을 만들기 위해 여러 노력을 기울이고 있다. 마이크로소프트와 오픈AI는 올 초 로봇 스타트업 ‘피겨(Figure)’에 큰 금액을 투자한 바 있다. 테슬라는 내년에 휴머노이드 로봇을 자사 공장에 도입하고, 이를 대량 생산하기 위한 계획을 세우고 있다. 이는 특정 분야에 국한된 사례지만 향후 다른 분야로 확산할 것으로 예상한다.”

 

마이크로소프트 | 오픈AI와 긴밀한 협력…GPT 탑재 ‘코파일럿’ 출시

마이크로소프트(MS)는 오픈AI를 전폭적으로 지원해 왔다. 투자 규모는 공식적으로 밝혀지지 않았으나 외신 보도를 종합하면 2019년 10억 달러, 2021년 20억 달러, 2023년 100억 달러 등 총 130억 달러(약 18조 63억 원)로 추정된다. MS는 이 같은 투자로 GPT-4를 비롯한 오픈AI의 지적재산권(IP) 라이선스를 확보했다.

MS는 오픈AI의 역량을 자사 솔루션에 결합하는 데 집중했다. 지난해 2월 검색엔진 ‘빙(Bing)’에 GPT-4를 접목한 서비스를 선보였다. 빙은 검색과 채팅으로 구성된 새로운 서비스를 제공했으며, 창의성·균형·정확성 등 상황에 따른 3개의 모드를 지원했다. GPT-4를 무료로 사용할 수 있다는 점에서 주목받았다. ‘빙 챗(Bing Chat)’으로 불리던 채팅 서비스는 지난해 말 ‘마이크로소프트 코파일럿(Microsoft Copilot)’으로 리브랜딩됐다.

워드, 파워포인트, 엑셀 등 업무 도구에 GPT-4를 더한 MS 365 코파일럿도 출시했다. 프롬프트창에서 자연어 질의응답을 통해 문서 초안 작성, PPT 디자인 수정, 데이터 시각화 등의 기능이 가능하도록 구현했다. 지난해 11월 출시 후 기능 고도화, 지원 언어 확대를 지속하고 있으며, 개인용 서비스는 올 1월 공개했다. 한국어 지원은 4월 말부터 기업용에 한정해 제공 중이다.

소형 언어모델 분야에서는 자체 모델 개발에도 힘을 기울이고 있다. 2023년 6월 13B 파라미터의 ‘파이-1(Phi-1)’을 공개했으며, 지난해 말에는 27B 파라미터의 ‘파이-2’를 출시했다. 올해 발표한 최신 모델인 ‘파이-3’는 파라미터 규모에 따라 미니(38B), 스몰(70B), 미디엄(140B) 등 3가지 버전으로 구성됐다. MS 측은 파이-3가 오픈AI의 GPT-3.5에 맞먹는 성능을 갖췄으며, 비슷한 성능 수준의 타 모델과 비교해 비용이 10분의 1에 불과하다고 강조했다.


메타 | 오픈소스 전략으로 경쟁력 강화, 또 다른 전략의 핵심 ‘챗봇’

메타의 첫 번째 모델은 지난해 2월 공개한 ‘라마-1(Llama-1)’이었다. 70억부터 650억 개까지 파라미터별 다양한 버전으로 구성됐다. 그해 7월 공개한 라마-2는 파라미터를 700억 개로 확대하는 등 이전 버전에 비해 성능이 크게 향상됐다. 그리고 올해 4월 8B, 70B 두 가지 버전의 라마-3를, 7월에는 파라미터 4,050억 개의 ‘라마 3.1 405B’를 공개했다.

라마의 가장 큰 차별점은 오픈소스라는 것이다. 대부분 LLM은 비공개로 제공된다. 오픈AI는 GPT-2까지는 오픈소스로 공개했으나 이후 폐쇄형으로 방향을 변경했다. MS와 구글은 각각 파이, 젬마(Gemma)라는 소형 언어모델만을 공개했다. 반면 메타는 다양한 버전의 라마 제품군을 모두 오픈소스로 공개했다.

메타 마크 저커버그 CEO는 라마-2를 발표하며 “생태계가 개방될수록 더 많은 진전이 가능할 것이라 믿는다”고 오픈소스로 공개한 이유를 밝혔다. 다만 외신에서는 빅테크 기업 간 AI 경쟁에서 영향력을 확대하기 위한 전략으로 평가했다. 메타의 선택은 유효한 것으로 보인다. 라마는 최신 모델인 라마 3.1을 제외하면 구글, 오픈AI의 주요 모델보다 파라미터 규모는 작지만, 오픈소스인 만큼 파생형 모델로 폭넓은 생태계를 구성했다.

페이스북, 인스타그램에 적용된 ‘메타 AI’ (출처: 메타 홈페이지)페이스북, 인스타그램에 적용된 ‘메타 AI’ (출처: 메타 홈페이지)

메타의 또 다른 전략은 ‘챗봇’이다. 올해 4월 자체 개발한 챗봇 ‘메타 AI(Meta AI)’를 페이스북, 인스타그램, 왓츠앱 등 자사 SNS 서비스에 탑재했다. 이용자들은 SNS 내 돋보기 아이콘을 눌러 챗봇을 사용할 수 있다. 애니메이션 제작, 이미지 생성 등이 가능하며, 레스토랑을 추천받거나 휴가 계획을 세우는 데 도움을 받을 수 있다.


엔스로픽 | 뛰어난 언어 이해도로 떠오르는 신흥 강자

엔스로픽(Anthropic)은 다리오 아모데이(Dario Amodei), 다니엘라 아모데이(Daniela Amodei) 남매를 비롯한 오픈AI 출신 4인이 설립한 AI 스타트업이다. 이들은 오픈AI가 MS 등의 투자를 받으며 영리단체로 변화하는 과정에서 의견 충돌로 퇴사한 인물들이다. 오픈AI의 영리화에 의견을 달리한 만큼 공익기업을 표방하며 안전한 AI 개발에 집중하고 있다. 엔스로픽은 홈페이지를 통해 “사람들이 신뢰할 수 있는 시스템을 구축하고, AI의 기회와 위험을 연구하는 데 전념하고 있다”고 설립 목적을 설명한다.

엔스로픽의 핵심은 대화형 AI ‘클로드(Claude)’다. 컴퓨터 과학자 ‘클로드 섀넌(Claude Shannon)’의 이름을 딴 클로드는 지난해 3월 첫선을 보였다. 엔스로픽이 세간의 주목을 받기 시작한 건 ‘클로드 2’를 공개한 이후였다. 챗GPT보다 더 많은 양의 토큰을 처리할 수 있어 긴 문장을 생성하거나 많은 페이지의 문서를 분석하는 데 강점이 있다.

아마존웹서비스(AWS) 아담 셀립스키(Adam Selipsky) CEO(왼쪽)와 엔스로픽 다리오 아모데이 CEO가 지난해 11월 열린 AWS 리인벤트에서 발표하는 모습 (출처 AWS 유튜브 캡처)아마존웹서비스(AWS) 아담 셀립스키(Adam Selipsky) CEO(왼쪽)와 엔스로픽 다리오 아모데이 CEO가 지난해 11월 열린 AWS 리인벤트에서 발표하는 모습 (출처 AWS 유튜브 캡처)

오픈AI의 지원군이 MS라면, 엔스로픽의 뒤에는 구글과 아마존이 있다. 엔스로픽은 아마존(40억 달러)과 구글(20억 달러)을 포함해 창업 후 총 70억 달러(약 9조 2,225억 원)의 투자를 유치했다. 또 최근에는 7억 5천만 달러(약 1조 388억 원) 규모의 신규 투자를 추진 중이다. 투자가 성사될 경우, 기업 가치가 184억 달러(약 25조 4,800억 원)에 이를 전망이다.

엔스로픽의 클로드는 작문 능력, 특히 다국어 이해도 측면에서 뛰어난 성능을 갖췄다. 영어뿐 아니라 한국어, 중국어 등 비영어권 언어에서도 높은 정확도를 기록한다. 한 국내 업계 관계자는 “내부 테스트 결과, 클로드가 오픈AI의 GPT-4보다 더 높은 한국어 정확도를 기록했다”고 설명했다. 최신 모델인 클로드 3.5는 뛰어난 다국어 이해도를 바탕으로 GPT-4o를 앞서는 번역 성능을 갖췄다는 평가를 받고 있다. 다만 텍스트 이외에 이미지, 음성 등에 있어서는 오픈AI 모델보다 부족한 것으로 알려져 있다.


미스트랄 AI | 빠르게 성장 중인 프랑스 대표 스타트업

프랑스에서는 미스트랄 AI(Mistral AI)가 유럽을 중심으로 영향력을 확대하고 있다. 구글 딥마인드와 메타의 파리 연구소에서 근무하던 직원들이 지난해 4월 설립한 이 회사는 설립 반년 만에 기업 가치 10억 달러 이상인 ‘유니콘 기업’ 반열에 오르는 등 빠른 성장세를 이어왔다. 지난 6월에는 6억 달러(약 8,300억 원)의 자금 조달을 받으며 기업 가치를 60억 달러(약 8조 3천억 원)까지 끌어 올렸다.

미스트랄 AI는 지난해 9월 ‘미스트랄 7B(Mistral 7B)’를 시작으로 ‘미스트랄 8x7B’ 등의 소형 언어모델을 오픈소스(아파치 라이선스 2.0)로 공개해 왔다. 올 2월에는 보다 큰 규모의 ‘미스트랄 라지(Mistral Large)’를 출시했으며 비슷한 시기에 챗봇 ‘르 챗(Le Chat)’도 선보였다. 특히 MS, 데이터브릭스 등과 협업을 통해 다양한 플랫폼에 자사 모델을 제공함으로써 업계에서 입지를 다지고 있다. IBM의 경우, 기업용 AI 스튜디오인 ‘왓슨x.ai(watsonx.ai)’에서 미스트랄 8x7B를 최적화해 제공 중이며, 최근에는 미스트랄 라지 모델 지원도 발표한 바 있다.

프랑스에서는 미스트랄 AI에 큰 기대를 보내고 있다. 미국과 달리 프랑스를 비롯한 유럽에서 AI에 두각을 나타내는 기업이 별로 없기 때문이다. 에마뉘엘 마크롱(Emmanuel Macron) 프랑스 대통령은 미스트랄 AI를 두고 “프랑스의 천재 기업”이라고 추켜세우기도 했다. 또 마크롱 대통령은 자국 AI 역량 강화를 위해 지난 5월 AI 클러스터 9곳에 4억 유로(약 6천억 원)를 지원하고 데이터 센터를 유치하겠다고 발표했다. 프랑스가 AI에 투자를 확대하는 상황은 미스트랄 AI에게 긍정적 신호라 볼 수 있다.

미스트랄 AI의 앞날이 장밋빛 미래일지는 아직 예견하기 어렵다. 유럽연합(EU)은 지난 5월 ‘AI법(AI Act)’를 최종 승인했는데, 이 법은 AI에 대한 포괄적 규제를 담고 있다. 생성형 AI 개발 업체에 대한 투명성 의무를 강화하고, 얼굴인식 기술은 국가 안보 목적 등 이외에는 엄격히 제한하는 내용 등이 포함됐다.

안전한 AI 사용을 위해 필요하다는 의견이 있는 한편, 지나치게 포괄적인 내용으로 산업 발전을 저해할 수 있다는 비판도 있었다. 실제로 메타는 유럽의 불확실한 규제 환경을 이유로 메타AI 출시를 무기한 연기하기도 했다. 미스트랄 AI는 유럽 시장에 거점을 둔 프랑스 기업인 만큼 EU AI법으로부터 자유롭지 못하다. 미스트랄 AI가 AI법에 해법을 찾을지, 아니면 미국 등 다른 해외 시장으로 눈을 돌릴지 그 귀추가 주목되는 상황이다.


알리바바 클라우드 | 오픈소스 모델 ‘큐원’으로 AI 역량 과시

중국은 미국에 버금가는 AI 강국으로 꼽힌다. 중국 과학기술정보연구소가 최근 발표한 ‘2023년 글로벌 AI 혁신 지수 보고서’에 따르면, 중국은 52.69점을 기록하며 74.71점의 미국에 뒤를 이어 2위를 차지했다. 특히 중국은 영국(37.93점), 일본(34.42점), 한국(33.11점) 등과 현저한 차이를 보였다. 다만 연구 역량과 달리 자체 개발 모델에 대해서는 국내에 알려진 바가 많지 않다. 알리바바 클라우드가 오픈소스로 공개한 LLM ‘큐원(Qwen)’으로 중국 기업의 역량을 가늠해 볼 수 있을 뿐이다. 퉁이 첸원(Tongyi Qianwen)으로도 불리는 이 모델은 지난해 4월 첫선을 보였으며, 그해 11월 복잡한 지시 사항, 추론 암기 등을 향상한 업그레이드 버전이 출시됐다.

지난 7월 허깅페이스에 올라온 ‘큐원2 기술 보고서(Qwen2 Technical Report)에 따르면, 큐원2-72B 모델은 MMLU 정답률 84.2%를 기록했다. 이는 오픈소스로 공개된 미스트랄 8x22B(77.8%)와 라마-3 70B(79.5%)보다 높은 수치였다. 코딩, 수학, 중국어 등에서도 미스트랄과 메타의 모델 대비 우수한 성적을 보였다.


 김호준 기자