구글 터보퀀트: LLM KV 캐시 최대 6배 압축, AI 비용 50% 절감으로 대형언어모델 효율성 혁신 2026-03-27 작성자: 4TENLAB 구글 터보퀀트: LLM KV 캐시 최대 6배 압축, AI 비용 50% 절감으로 대형언어모델 효율성 혁신