수학적 모델은 흔히 중립적인 도구처럼 취급됩니다. 규율 있고, 객관적이며, 정확하고, 인간의 주관성과 무관한 것으로 제시되곤 합니다. 경영, 금융, 공공 정책, 그리고 최근에는 인공지능 분야에서 수학은 모호함을 없애고 의견을 사실로 대체하는 언어로 자주 활용됩니다. 하지만 이는 오해의 소지가 있습니다. 수학은 놀라운 정확성으로 세계관을 형식화할 수 있습니다. 또한 일관성 있고 확장 가능하며 논리적으로 타당한 결정을 내릴 수 있도록 도와줍니다. 하지만 수학이 스스로 결정할 수 없는 것은 세상의 목적, 가장 중요한 것, 용납 가능한 절충안, 그리고 바람직한 결과의 기준입니다. 이러한 질문들에 대한 답은 공식이 만들어지기 전에 이미 정해져 있습니다. 이것이 바로 세계 모델링이 더 높은 지능으로 가는 길이 아니라, 세상을 보고, 선택하고, 평가하는 특정한 방식을 체계화하는 길, 즉 인간의 판단이든 알고리즘에 의해 매개되는 판단이든 알고리즘 자체의 판단을 형식화하는 길인 이유입니다. 이는 수학의 출발점을 상기시켜 줍니다. 세계 모델은 결코 단순히 발견되거나 근사화되는 것이 아닙니다. 그것은 설계되는 것입니다. 목적, 관련성, 가치, 그리고 감수할 수 있는 희생에 대한 사전 판단에서 비롯됩니다. 이를 명확히 이해하려면 추상적인 개념을 버리고 구체적인 사례 하나를 살펴보는 것이 도움이 됩니다. 자본 충분하여 소기업 대출 신청 건수 5건 중 3건을 승인할 수 있는 은행을 상상해 보세요. 신청자는 다음과 같습니다. 언뜻 보면, 이는 간단한 분석 문제처럼 보입니다. 지원자들에게 점수를 매길 수 있습니다. 가장 우수한 지원자를 선발할 수 있습니다. 은행은 데이터를 바탕으로 자신들의 선택을 정당화할 수 있습니다. 하지만 이러한 상황을 완벽하게 설명하는 수학적 모델이란 존재하지 않습니다. 수학적으로 일관성이 있고, 내적으로 합리적이며, 동일한 데이터를 기반으로 하지만 각각 다른 세계를 모델링하는 수많은 모델이 있을 뿐입니다. 변하는 것은 산술적인 계산이 아니라, 그 안에 담긴 가치 체계입니다. 은행의 주된 목표가 예상 이익 극대화라고 가정해 봅시다. 은행은 신용도, 소득 안정성, 사업 잠재력을 다음과 같이 가중치를 부여하여 점수를 산출합니다. 수익성 점수 = 0.45(신용도) + 0.35(소득 안정성) + 0.20(사업 잠재력) 계산을 단순화하기 위해 신용 점수를 0~10점 척도로 정규화해 보겠습니다. A = 7.8, B = 7.2, C = 6.8, D = 6.4, E = 6.1입니다. 그 결정은 객관적으로 보입니다. 하지만 그 객관성은 겉보기보다 훨씬 좁습니다. 계산식 자체가 무엇이 중요한지에 대한 이야기를 담고 있습니다. 왜 신용도가 점수의 45%를 차지할까요? 왜 사업 잠재력은 20%밖에 되지 않을까요? 왜 지역 사회의 부유함은 제외되고 과거의 재정 실적은 우대받을까요? 답은 간단합니다. 금융 기관이 재정적 수익을 최고의 가치로 판단했기 때문입니다. 중립적으로 보이는 수학적 계산은 이미 세상에 대한 도덕적 질서를 드러내고 있습니다. 이제 기관이 보다 기업가적인 철학을 채택한다고 가정해 보겠습니다. 현재의 안정성을 보상하는 대신 미래의 가능성을 보상하기로 결정합니다. 점수 산정 공식을 다음과 같이 변경합니다. 성장 점수 = 0.20(신용) + 0.20(소득 안정성) + 0.60(사업 잠재력). 새로운 점수는 다음과 같습니다. A = 0.20(7.8) + 0.20(9) + 0.60(6) = 6.96; B = 0.20(7.2) + 0.20(7) + 0.60(8) = 7.64; C = 0.20(6.8) + 0.20(6) + 0.60(9) = 7.96; D = 0.20(6.4) + 0.20(5) + 0.60(8) = 7.08; E = 0.20(6.1) + 0.20(4) + 0.60(7) = 6.22. 이제 은행은 C, B, D를 승인합니다. 이전 모델에서 가장 유력해 보였던 지원자 A는 탈락했습니다. 데이터는 아무것도 변하지 않았습니다. 수학적 계산의 정확성도 변함없습니다. 유일한 차이점은 모델이 이제 다른 질문에 대해 다른 답을 도출한다는 것입니다. 더 이상 "누가 가장 안전해 보이는가?"라고 묻는 것이 아니라, "누가 미래를 건설할 능력이 가장 뛰어난가?"라고 묻는 것입니다. 그러한 변화는 잠재력이 기존의 이점보다 더 중요하다는 믿음을 반영합니다. 이는 완전히 다른 세계관입니다. 마지막으로, 은행이 전통적인 지표(신용 이력, 소득 안정성, 위치)가 개인의 능력만큼이나 축적된 사회적 특권을 반영하는 경우가 많다는 것을 인식했다고 가정해 보겠습니다. 은행은 공정한 의사 결정 과정이 단순히 안전성을 예측하는 데 그쳐서는 안 된다고 판단합니다. 구조적 배제를 보정해야 합니다. 은행은 다음과 같은 점수를 구성합니다. Equity Score = 0.30(사업 잠재력) + 0.20(소득 안정성) + 0.15(신용) + 0.35(사회적 취약성). 결과는 다음과 같습니다. A = 0.30(6) + 0.20(9) + 0.15(7.8) + 0.35(1) = 5.12; B = 0.30(8) + 0.20(7) + 0.15(7.2) + 0.35(3) = 5.93; C = 0.30(9) + 0.20(6) + 0.15(6.8) + 0.35(6) = 7.02; D = 0.30(8) + 0.20(5) + 0.15(6.4) + 0.35(8) = 7.16; E = 0.30(7) + 0.20(4) + 0.15(6.1) + 0.35(9) = 6.97. 이번에는 은행에서 D, C, E를 승인했습니다. 고전적인 금융 논리에 따르면 E는 가장 매력적이지 않은 투자 대상이었다. 하지만 지분 중심 모델에서는 E가 투자 가능한 기업이 된다. 다시 말해, 수학은 제 기능을 멈춘 것이 아니다. 오히려 수학은 설계된 대로 정확하게 작동하고 있다. 수학은 기관의 약속을 의사결정 규칙으로 변환하고 있는 것이다. 여기서의 약속은 공정성이 모델 외부에 있는 것이 아니라, 모델이 달성하고자 하는 목표의 일부라는 것이다. 이것이 모델의 수학적 본질을 약화시키는 것은 아닙니다. 오히려 모든 모델이 조용히 담고 있는 것, 즉 무엇이 중요한지에 대한 이론, 어떤 종류의 세계가 중요한지에 대한 이론을 명시적으로 드러내는 것입니다. 동일한 사람, 동일한 변수, 동일한 형식적 규율을 사용하여 다음과 같은 다섯 가지 서로 다른 합리적 결과를 얻었습니다. 은행 1은 A, B, C를 승인합니다. 은행 2는 C, B, D를 승인합니다. 은행 3은 D, C, E를 승인합니다. 이것은 수학의 실패가 아닙니다. 오히려 서로 다른 규범적 틀 안에서 수학이 제대로 기능하는 것입니다. 수학은 세상이 무엇인지를 알려주는 것이 아니라, 우리가 세상에서 무엇이 중요한지 결정한 후에 세상이 어떻게 보이는지를 알려주는 것입니다. 그러한 결정은 모든 단계에 영향을 미칩니다. 해결하려는 문제가 무엇인지, 최적화할 가치가 있는 결과는 무엇인지, 어떤 변수가 관련성이 있는지, 각 변수에 얼마나 가중치를 부여하는지, 어떤 절충안이 허용 가능한지, 불평등이 단순한 잡음인지 도덕적 신호인지, 미래를 과거의 패턴으로 판단해야 하는지 아니면 다르게 상상해야 하는지 이더리움 클래식(ETC). 이것들은 수학적인 결정이 아닙니다. 인간적인 결정입니다. 수학은 단지 이러한 결정을 구체화하는 도구일 뿐입니다. 사실, 저는 이 글을 쓰면서 그러한 결정 중 하나를 내렸습니다. 데이터를 '정규화'하는 행위, 즉 640점의 신용점을 6.4점으로 바꾸는 것은 은밀한 조작 행위입니다. 곡선 척도 대신 선형 척도를 선택함으로써 우리는 모든 신용점이 동등하다고 결정하게 됩니다. 우리는 '최저점'을 정하는 것입니다. 그렇게 함으로써 우리는 사회의 변두리에 있는 사람들의 고통을 수학적으로 지워버리거나 최상위에 있는 사람들의 탁월함을 과장할 수 있습니다. 편향은 단순히 숫자에 부여하는 가중치에만 있는 것이 아니라, 가중치를 적용하기 전의 숫자의 형태에도 존재합니다. 인공지능 모델이 중립적이라는 믿음은 결코 무해하지 않습니다. 이는 기업과 기관들이 판단을 불가피한 결과로 위장할 수 있도록 허용하고, 우선순위를 사실로, 절충안을 기술적 필요성으로 포장하게 만듭니다. 마치 방정식 자체가 말하는 것처럼 의사결정자의 책임을 시스템으로 전가합니다. 알고리즘 시스템이 신용 배분, 구직자 순위 결정, 위험 예측, 자원 할당, 정보 필터링 등에 사용되면서 수학적 형식화를 도덕적 정확성으로 간주하려는 유혹에 빠지기 쉽습니다. 그러나 실제로는 정반대인 경우가 많습니다. 모델이 수학적으로 정교해질수록, 특히 무엇이 중요하고 무엇이 무시되며 무엇이 최적화되는지를 결정하는 근본적인 모델링 선택이 더 이상 드러나지 않을 때, 모델 설계에 내재된 세계관은 기술적 복잡성이라는 명분 뒤에 쉽게 가려집니다. 이러한 불투명성은 구조적, 인식론적, 제도적 차원을 포함하여 최소 세 가지 수준에서 작용합니다. 모델이 더욱 정교해짐에 따라, 모델을 형성하는 규범적 선택은 하나의 명확한 공식으로 나타나는 대신 여러 기술적 구성 요소에 분산됩니다. 단순한 모델에서는 변수, 가중치, 임계값 및 목표를 직접적으로 파악할 수 있는 경우가 많습니다. 그러나 더 복잡한 시스템에서는 이러한 선택들이 데이터 수집, 특징 선택, 대리 변수 구성, 아키텍처 설계, 목표 함수, 하이퍼파라미터, 필터링 규칙 및 사후 처리 메커니즘에 걸쳐 분산되어 있습니다. 이로 인해 구조적 불투명성이 발생합니다. 결과적으로 모델의 세계관은 사라지지 않습니다. 다만 찾아내기가 더 어려워질 뿐입니다. 무엇이 중요한지는 여전히 결정되고 있지만, 그러한 결정들은 이제 전체적으로 검토하기 어려운 설계의 여러 층위에 내재되어 있습니다. 두 번째 불투명성은 관찰자가 모델의 내부 논리에 대해 실제로 알 수 있는 것의 한계에서 비롯됩니다. AI 시스템이 뛰어난 성능을 보이더라도 특정 결과를 도출하는 이유, 실제로 영향을 미치는 변수, 상관관계가 어떻게 활용되는지, 또는 AI 시스템이 어떤 절충안을 우선시하도록 학습했는지 등은 불분명할 수 있습니다. 이는 불투명성이 단순히 비밀 유지의 문제만이 아니라 이해 가능성의 문제이기도 하므로 중요합니다. 모델이 기술적인 측면에서는 완벽하게 공개되어 있더라도 개념적인 측면에서는 여전히 접근하기 어려울 수 있습니다. 이것이 바로 인식론적 불투명성입니다. 코드는 볼 수 있지만, 그 안에 담긴 판단을 이해하거나 반박할 수 있도록 추론 과정을 재구성할 수는 없을 수도 있습니다. 세 번째 계층은 모델이 배포되는 사회적 환경에서 비롯됩니다. 모델의 영향을 받는 대부분의 사람들은 모델을 설계하지도 않고, 검증할 수도 없으며, 심지어 어떤 가정이 모델을 지배하는지조차 모르는 경우가 많습니다. 실제로 관련 모델링 선택 사항에 대한 접근성은 기관, 공급업체, 규제 기관, 기술 팀 및 최종 사용자 간에 불균등하게 분배되는 경우가 많습니다. 이는 모델의 권위가 모델을 형성하는 데 영향을 미친 가치 선택에 대한 의미 있는 가시성 없이 받아들여지는 경우가 많다는 것을 의미합니다. 중립적으로 보이는 기술적 결과물도 실제로는 조직의 우선순위, 규제 제약, 상업적 유인 또는 과거의 편견을 반영할 수 있으며, 이러한 요소들은 의사 결정의 영향을 받는 사람들에게는 숨겨져 있습니다. 바로 여기서 제도적 불투명성이 발생합니다. 일반적으로 수학은 주관성을 제거함으로써 현실을 드러낸다고 여겨집니다. 그러나 실제로는 수학이 훨씬 더 중요한 역할을 합니다. 바로 우리가 바라는 세상에 대한 해석을 안정시키고 실행 가능하게 만드는 것입니다. 그렇기 때문에 인공지능 모델에 대해 던져야 할 가장 중요한 질문은 단순히 "정확한가?"가 아니라 "무엇에 대한 정확한가?"입니다. "예측을 잘하는가?"뿐만 아니라 "어떤 목표를 달성하기 위한 것인가?" 또한 "최적화된가?"뿐만 아니라 "누구의 가치에 따라 최적화되었는가?"입니다. 이 질문들은 기술적인 작업이 완료된 후에 덧붙이는 부차적인 문제가 아닙니다. 오히려 진정성을 바탕으로 한 기술 작업을 위한 필수 전제 조건입니다. 수학은 인간의 판단에 형태, 일관성, 그리고 힘을 부여할 수 있기 때문에 강력한 학문입니다. 하지만 바로 그 때문에 겸손함 또한 요구되는 것입니다. 모델이 선택의 집합체라는 사실을 잊을 때, 우리는 설계를 중립적인 것으로 착각하기 시작합니다. 그리고 이것이 바로 핵심입니다. 수학이 세상을 정의하는 것이 아닙니다. 우리가 수학으로 세상을 정의하는 것입니다. 바로 그런 이유 때문에 인공지능보다 인공적 진실성이 더 중요한 것입니다. 인공적 진실성은 중요한 의미를 지니는데, 이는 우리가 만들어내는 것과 현실 사이의 불일치를 당연시하면서 접근하기 어려워진, 잊혀진 분별력의 한 층을 되살리려는 시도이기 때문이다. 인공적 진실성이 없다면, AI는 부분적인 목표를 완전한 알고리즘 시스템으로, 우연적인 가정을 보이지 않는 규범으로 바꾸는 길을 강화하게 될 것입니다. 이는 우리에게 주어진 과제가 단순히 더 강력한 AI 시스템을 구축하는 것이 아니라, 그러한 시스템이 확장되는 논리가 우리의 분별력을 심화시켜, 우리가 중립성으로 착각하며 당연하게 여겨왔던 중립성의 격차를 인지하고 인정하며, 우리가 살고 있는 세상의 온전함을 지켜나갈 수 있도록 하는 것임을 일깨워줍니다.
수학이 세상을 정의하는 것은 아니다
이 기사는 기계로 번역되었습니다
원문 표시
출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유



