싸다파일

마음AI, 'AI EXPO KOREA 2024'서 한국어 한계 극복한 대형언어모델 '라마 말-허밍버드' 오픈 소스로 공개 – 인공지능신문

국내 인공지능 대표 플랫폼 '마음AI (대표 유태준)'는 1일부터 3일까지 서울 강남구 삼성동 코엑스에서 단일 인공지능 행사로 아시아 최대 규모의 ‘제7회 국제인공지능대전(AI EXPO KOREA 2024)’에 골드 파트너십으로 참가해 일반인공지능(AGI) 시대의 접점에서 AGI 산업 비전과 애플리케이션에 대한 다양한 역량을 선보였다.
마음AI는 "AGI로 가는 가장 빠른 길, 마음AI의 파운데이션 모델"을 전시 주제로 내걸고 언어 파운데이션 모델인 '다국어 적응형 증강 언어 모델(Multilingual Adaptive Augmentation Language-model)'과 비디오 파운데이션 모델인 '로봇 및 차량 제어를 위한 세계 모델(World model for Robotics and Vehicle control. 이하, WoRV)'의 기술과 그 응용 제품을 선보여 참관객의 눈길을 사로잡았다.
특히, 대형언어모델(LLM) '라마 말-허밍버드(Llama3 MAAL-hummingbird)'의 체크포인트를 허깅 페이스(Hugging Face-다운)에 오픈소스로 공개하고, 마음AI 사이트를 통해 API를 오픈(보기)했다.
이 플랫폼 'Llama3 MAAL-hummingbird'는 메타가 지난달 18일 공개한 차세대 모델 '라마 3'의 80억개(8B)를 '교차 언어 학습(Cross-Lingual training)'시킨 LLM이다. 마음AI의 파인튜닝 기술력으로 한국어 성능이 부족한 Llama3 8B의 한계를 극복시킨 것이다.
마음AI 최홍섭 AI연구총괄리더는 "이 모델은 한국어 사고력 벤치마크 로직코어(LogicKor)에서 5.23점을 기록하며, 비슷한 파라미터를 가진 모델들에 비해 뛰어난 사고 능력으로 검색증강생성(RAG, Retrieval-Augmented Generation), 수학, 추론과 같은 Instruction 과제를 잘 수행한다고 평가하고 있다"고 밝혔다.
마음AI는 이에 대한 자세한 정량평가 결과도 허깅페이스에 곧 공개할 테크리포트에 담을 예정이다. 기존의 언어 모델이 다른 언어를 습득하기 위해서는 수많은 말뭉치를 처음부터 다시 학습해야 했기에 많은 시간과 비용이 소모되었으며, 한국어 말뭉치가 영어에 비해 양적∙질적으로 부족하여 제대로 된 학습이 불가능했다.
메타의 라마 3 '8B' 모델은 '경량화 대형언어모델(smaller Large Language Model. 이하, sLLM)'로 MMLU((Massive Multitask Language Understanding), ARC-Challenge, CommonSenseQA, DROP, GPQA 등 9가지 벤치마크)에서 프랑스 미스트랄 AI의 미스트랄 7B(Mistral 7B)나 구글의 초경량화(sLLM) 모델 젬마 7B(Gemma 7B)보다 성능이 우수했으며, 70B 모델은 구글 제미나이 1.5 프로와 앤트로픽의 '클루드 3'보다 일부 벤치마크에서 높은 성능을 기록했다.
특히, 기존 대형언어모델에 비해 매개변수(Parameter)가 50억(6B) 내지 100억(10B) 개로 줄여 학습을 위한 소요 비용이나 시간을 절감할 수 있으며, 미세조정(Fine-Tuning)으로 정확도를 높이고 다른 애플리케이션과 통합하기도 쉬운 모델을 'sLLM'이라고 한다. 이처럼 특정 분야에서는 미세조정과 고품질의 데이터 학습을 통해 기존 LLM과 맞먹는 성능을 보여주는 것도 장점이다. 
특히, sLLM 모델들은 온디바이스 AI 디바이스 생태계를 가속시킬 것으로 예상된다. 예를 들어, 삼성전자가 지난 1월 제미나이 프로(Gemini Pro)를 탑재, 출시한 '삼성 갤럭시 S24'로 전 세계적으로 온디바이스 AI 열풍을 이어가고 있는 가운데 퀄컴(Qualcomm Technologies) 역시 차세대 AI PC 등 최고의 온디바이스 AI 기능을 제공하는 것을 목표로 라마 3 8B를 '스냅드래곤 X 플러스(Snapdragon® X Plus)'에 탑재시키면서 세계 주요 OEM들은 올해 중반부터 온디바이스 AI PC를 출시할 예정이다. 
그럼에도 불구하고 '라마 3 8B'은 성능이 뛰어남에도 한국어 능력이 부족하여 국내 사용자들에게는 뛰어난 성능이 체감되지 못했다. 이에, 마음AI는 '라마 3 8B'의 뛰어난 성능과 언어 능력을 유지한 상태에서 ‘외국어로서 한국어를 가르치는’ 새로운 방식을 도입하여 한국어 성능까지 우수한 언어 모델을 제작했다.
이는 기존 모델이 ‘영어’라는 언어에 특화되어 있을 뿐, 언어라는 도메인을 잘 이해하고 있는 모델이라는 점에서 착안한 것으로, LLM에 대한 마음 AI 의 오랜 전문성이 기반되었기에 가능한 기술로 평가된다.
마음 AI는 이번에 공개하는 가장 빠르고 컴팩트한 모델인 Llama3 MAAL-hummingbird에 이어서, 속도와 성능의 밸런스를 맞춘 시장적인 모델인 MAAL-owl, 언어모델의 성능을 극대화한 모델인 MAAL-albatross 등 다양한 모델을 보유하여, 기업의 다양한 요구에 따른 맞춤형 서비스를 제공한다. 특히 마음 AI 는 ChatGPT를 사용하지 못하는 기업을 대상으로 50B이상의 MAAL-albatross 기반 LLM을 구축할 것이라고 밝혔다.
챗GPT와 같이 채팅 형식으로 문답을 진행하는 것을 넘어서, 37 개의 LLM Task UI도 함께 제공하여 고객 기업들의 사무 생산성을 극대화할 것으로 기대된다. MAAL-hummingbird는 전시현장에서 테스트해볼 수 있다.
마음AI는 이번 AI EXPO KOREA 2024에서 다양한 분야에서 인간의 일을 대신할 수 있는 AI 휴먼(가상인간)을 비롯한 인공지능 컨택센터(AICC) 플랫폼, 보이는 음성봇, 정보유출 걱정없는 기업용 마음GPT 챗봇 등의 'maumai 플랫폼'과 '마음 오케스트라' 통해서 STT, LLM, TTS, STF 등의 다양한 AI 모델과 창립 이후 쌓아온 인공지능 기술력과 대한민국 대표 AI 플랫폼으로 자리매김 한 혁신적인 솔루션들을 한자리에서 확인하고 시연을 통해 관련 인사이트를 공유했다.
아울러, 마음AI의 AI 디바이스 중 하나인 배리어프리(Barrier-free) 키오스크 ‘Maum-TOUCH’도 함께 전시될 예정이다. 배리어프리 키오스크는 사회적 약자를 배려한 키오스크로, 점자 키패드, 자동 높낮이 조절, 고 대비 모드 등 총 13가지의 기능을 갖고 있으며, 전시장에서 직접 테스트하고 시연했다. 

source

Keep Reading

이전다음

댓글

답글 남기기