솔직히 말해, 실리콘밸리의 부침을 셀 수 없이 많이 봐왔습니다. 유행은 왔다가 사라지고, 회사는 하늘 높은 줄 모르고 치솟았다가 ‘비즈니스 모델이 없었네?’라는 놀라운 사실 때문에 흔적도 없이 사라지기도 했죠. 그래서 ‘터보퀀트(TurboQuant): 제1원칙 기반 워크스루(A first-principles walkthrough)’라는 제목의 논문을 보면 제 BS 탐지기가 과부하가 걸립니다. ‘벡터’나 ‘양자화’ 같은 용어를 마구잡이로 늘어놓는다고 제가 감탄할 거라고 기대하면 오산입니다. 왜 이게 중요한지, 그리고 더 중요하게는 누가 실제로 돈을 벌고 있는지 알아야 합니다.
이게 어떤 스타트업이 또 한 번의 VC 자금 조달 라운드를 성공시키는 데 도움이 될까요, 아니면 개발자와 사용자에게 실질적인 변화를 가져올 무언가일까요?
누가 무엇을 낚아채고 있나?
본론으로 바로 들어가죠. 핵심은 거대하고 다루기 힘든 데이터 덩어리—좋아하는 AI 모델이 뱉어내는 그 엄청난 임베딩을 생각해보세요—를 쥐어짜서 저장하고 처리하기 쉽게 만드는 겁니다. 원본 논문에서는 벡터를 ‘원점에서의 화살표’로, ‘오류는 추측과 진실 사이의 거리’라고 설명합니다. 좋습니다. 2D 및 3D 격자에 점을 맞추는 예쁜 다이어그램, 물론이죠. 디지털 레고 같죠. 하지만 핵심은 이겁니다. AI 맥락에서 이걸 이야기할 때, 우리는 종종 모델을 압축해서 여러분의 휴대폰에서 실행되게 하거나, 네트워크를 통해 더 적은 데이터를 전송하거나, 그 고통스럽게 느린 최근접 이웃 검색을 조금 더 빠르게 만드는 것을 말합니다. 보통 돈이 되는 부분은 바로 여기에 있습니다. 클라우드 비용을 절감하거나 새로운 제품 범주를 가능하게 하는 효율성 향상이죠.
논문 자체에는 몇 가지 기초 개념이 나와 있습니다. 평균 제곱 오차(MSE)를 사용해 추측이 얼마나 빗나갔는지 측정하고, 수량의 모멘트(기본적으로 통계적 지문)를 파악하고, 불편향 추정량(unbiased estimator)의 아이디어, 즉 여러분의 추측 방법이 평균적으로 목표를 맞춘다는 것입니다. 이는 압축된 데이터가 원본을 합리적으로 충실하게 표현하도록 만드는 것으로 요약되는 많은 수학입니다.
오류는 추측과 진실 사이의 거리입니다. 부호 있는 오류로 추측 점수를 매기면 양수 및 음수 오류가 상쇄될 수 있으므로, 점수는 빗나감을 처벌하지 않습니다. 제곱하면 모든 오류를 양수로 계산하게 되며, 작은 오류보다 큰 오류에 더 큰 처벌을 부여합니다.
그 제곱하는 부분 말입니다? 그게 바로 큰 실수에 대해 더 격분하게 만드는 부분입니다. AI에서 큰 실수는 챗봇이 헛소리를 내뱉는 것부터 추천 엔진이 개 사료만 검색한 당신에게 고양이 스웨터를 보여주는 것까지 무엇이든 될 수 있습니다. 따라서 제곱 오차를 최소화하는 것은, 아시다시피, 좋은 일입니다. AI가 해야 할 일을 기억하는 것과 그냥… 중요한 모든 것을 잊어버리는 것의 차이입니다.
편향-분산 트레이드오프, 아니면 그냥 더 많은 유행어?
그러면 이제 추정량(estimator)에 대한 내용이 나옵니다. 편향(Bias)과 분산(Variance). 양궁이라고 생각해보세요. 편향은 화살이 과녁 중앙에서 일관되게 10피트 왼쪽으로 떨어진다는 것입니다. 비록 그 화살들이 모두 뭉쳐있더라도 말이죠. 분산은 화살이 과녁 전체에 흩어져 있지만, 그 평균 위치가 과녁 중앙에 있다는 것입니다. 대부분의 경우, 이 회사들은 둘 다 줄이려고 합니다. 논문에서는 이러한 실패 모드를 설명하는 ‘과녁’을 언급합니다. 좋습니다. 하지만 다시 한번, 누가 이득을 볼까요? 만약 터보퀀트(TurboQuant)가 이러한 벡터 표현의 편향과 분산을 진정으로 줄인다면, 그것은 AI 모델이 더 정확하고 일관성 있게 된다는 것을 의미합니다. 그것은 분명 모델 개발자들에게는 승리입니다. 하지만 진정한 수익은? 그 향상된 정확성과 일관성이 사람들이 기꺼이 지불할 의향이 있는 더 나은 사용자 경험으로 이어지거나, 효율성 향상으로 인해 기업이 더 크고 복잡한 모델을 더 낮은 비용으로 실행할 수 있게 될 때입니다.
제 직감으로는 이것이 AI 모델을 더 작고, 더 빠르고, 더 저렴하게 실행하는 것에 관한 것이라고 말합니다. 온디바이스 AI, 혹은 지하실에 슈퍼컴퓨터를 둘 필요가 없는 AI를 생각해보세요. 그것이 많은 기업에게 실질적인 부분입니다.
그냥 고차원적인 전문 용어인가?
제 냉소적인 눈길을 사로잡는 것은 ‘고차원 집중(high-dimensional concentration)’에 대한 언급입니다. 쉬운 말로 하면, 매우 높은 차원(예: OpenAI 임베딩에 언급된 1536차원)에서는 상황이 이상해진다는 것입니다. 가까워야 할 점들이 멀리 떨어져 보이는 경우가 있고, 그 반대도 마찬가지입니다. 이것이 표준적인 직관이 무너지는 지점입니다. 이러한 고차원 벡터를 제한된 ‘수준’ 또는 점 집합으로 맞추는 과정인 양자화(Quantization)는 실제적인 도전이 될 수 있습니다. 만약 여러분의 양자화 방법이 이러한 고차원적인 기묘함을 고려하지 않으면, 실제로는 쓸모없는 압축 표현으로 끝날 수 있습니다.
논문은 터보퀀트(TurboQuant)가 이를 처리할 방법을 가지고 있다고 제안합니다. 하지만 질문은 남아 있습니다. 기존 방법보다 의미 있는 개선을 제공하는가? 새로운 기술을 통합할 노력을 정당화할 만큼 이득이 충분히 큰가, 아니면 이것은 더 많은 것으로 포장된 또 다른 점진적인 단계에 불과한가? 우리는 달을 약속했지만 약간 덜 울퉁불퉁한 길을 제공한 새로운 압축 알고리즘으로 이 모든 것이 펼쳐지는 것을 전에 보았습니다. 진정한 시험은 논문의 우아함이 아니라 실제 성능과 이를 채택할 경제적 인센티브입니다.
기술 산업이 현기증 나는 속도로 혁신(및 투자자 발표)을 쏟아내는 것을 지켜보는 제 자리에서, 터보퀀트(TurboQuant)는 기술적으로 흥미로운 작업으로 보입니다. AI 데이터를 더 관리하기 쉽게 만드는 실질적인 문제를 해결하고 있습니다. 하지만 ‘제1원칙’과 ‘워크스루’는 ‘매우 학술적이며 아직 생산 준비가 되지 않았다’의 또 다른 코드일 수도 있습니다. 이것이 실제 배포된 시스템에 등장하여 비용을 절감하거나 이전에 불가능했던 완전히 새로운 AI 애플리케이션을 가능하게 하는 것을 보기 전까지는, 저는 조심스럽게 회의적인 태도를 유지할 것입니다. 궁극적인 질문은 ‘수학이 얼마나 똑똑한가?’가 아니라, ‘이것이 누군가에게, 어디에선가 얼마나 많은 돈을 벌게 하는가?’입니다. 그리고 그것이야말로, 친구들이여, 실리콘밸리에서 가장 오래된 질문입니다.