구글은 트랜스포머(Transformer) 아키텍처의 약점을 보완하기 위한 새로운 기술을 공개했습니다.
이 기술은 '인피니-어텐션(Infini-attention)'으로, 대형 언어 모델(LLM)의 컨텍스트 창을 무한히 확장할 수 있게 합니다.
기존의 트랜스포머 아키텍처는 입력 데이터가 커질수록 추론이 느려지고 많은 메모리 공간이 필요한 문제가 있었습니다.
이 문제를 해결하기 위해 인피니-어텐션은 '압축 메모리'를 활용하여 메모리 및 계산 요구 사항을 일정하게 유지하면서도 무한한 길이의 텍스트를 처리할 수 있습니다. 이 기술은 이전 어텐션 상태를 압축 메모리에 저장하여 처리 효율성을 높입니다. 이를 통해 인피니-어텐션을 적용한 LLM은 메모리 추가 없이도 100만 개 이상의 토큰 품질을 유지할 수 있습니다.
인피니-어텐션은 매우 긴 컨텍스트에 대한 모델의 일관성을 측정하는 퍼플렉시티(Perplexity) 벤치마크에서도 다른 모델을 능가하는 결과를 보여줍니다. 또한 패스키 검색 및 요약 테스트에서도 우수한 성능을 보입니다.
이러한 기술은 이론적으로 모든 문서를 고려하여 가장 관련성 높은 답변을 선택하는 것과 같이 다양한 활용 가능성을 제시합니다. 또한 세부적인 조정 없이도 특정 작업에 대한 성능을 향상시킬 수 있습니다.
트랜스포머 모델에서 사용하는 어텐션 기법도 등장 당시 엄청난 이슈가 됐었는데, 이번에 제시된 인피니-어텐션도 새로운 패러다임을 만들 수 있을지 기대가 됩니다:)
[관련 논문]
'AI 동향' 카테고리의 다른 글
생성형 AI, 이제 영상까지 만드나? (1) | 2024.10.07 |
---|---|
오픈AI 새 모델 'GPT-4o', 영화 Her의 실현? (0) | 2024.05.16 |
Llama3 출시 : 오픈소스 AI의 발전 (1) | 2024.04.29 |
AI와 음악의 만남, 유디오의 세계로 여행하다 (0) | 2024.04.15 |
데이터브릭스, 범용 LLM 'DBRX' 출시 (0) | 2024.03.28 |