알고리즘의 힘: 소프트웨어는 어떻게 문화를 설정하는가?

게시자: kinpah

이 글은 원문인 “lvaro, S. (2014). THE POWER OF ALGORITHMS: HOW SOFTWARE FORMATS THE CULTURE.  [Online] Available: http://blogs.cccb.org/lab/en/article_el-poder-dels-algoritmes-com-el-software-formata-la-cultura/” 번역한 것이다.

알고리즘에 대한 대략적 소개 정도의 글로 전문적이지는 않다. 이 분야 전공자들에게는 너무 당연한 얘기들로만 구성되어 있다고도 할 수 있다. ‘알고리즘적 미디어’를 ‘간접적 협력 체계(stigmergy)’로 규정한 부분은 참고할 만하다.

======================================================================

인터넷이 광범위하게 확산되면서 이제는 컴퓨터와 특정 학제들의 경계를 넘어 이용되고 있다. 인터넷 이용은 우리의 현실과 우리 삶의 모든 측면에 촘촘하게 파고들어가 있다. 우리가 서로 관계를 맺는 방식과 정보를 얻는 방식, 그리고 우리를 둘러싼 모든 것들에 대해 경험하는 방식은 점점 더 인터넷을 형성하고 있는 정보 시스템이 매개하고 있다. 광범위한 양의 정보들이 인터넷을 통한 지속적인 상호작용을 통해 생산되고 있으며, 이렇듯 광범위한 데이터를 다룰 수 있는 유일한 방법은 알고리즘을 이용한 자동화된 처리 밖에 없다. 우리 문화를 형성함에 있어서 시민들과 단체들이 역동적인 역할을 할 수 있는 기반을 마련하기 위해서는 이런 알고리즘적 미디엄이 어떻게 진화하고 우리와 상호작용하고 있는지를 이해하고 있는 인문학자(humanist)가 반드시 필요하다.

돈 델리오(Don DeLillo)의 소설을 영화로 만든 데이빗 크로넨버그의 최근 작품 ‘코즈모폴리스(cosmopolis)’의 첫 장면은 정보와 금융 산업의 젊은 거물(tycoon)이 리무진을 타고 맨하탄을 향하는 것이다. 리무진 씬에서 에픽 패커(Eric Packer)는 시점을 달리 할 때마다 스크린 상으로 튀어오르는 일련의 정보 흐름들을 감시한다. 그는 스크린 창을 통해 들어오는 도시의 다양한 문자, 시각 기호, 소리들을 만난다. 이것들은 도시 안의 노동, 결과, 이 영화가 ‘사이버-자본주의’라고 부르는 것들의 갈라진 틈(gap), 결과, 도시 안에서 이루어는 작업들을 어렴풋이 짐작할 수 있게 한다. 이 여정은 알고리즘이 예측할 수 없는 시장의 실수 행위로 인해 완전히 실패하는 운명을 갖고 있는 주인공이 그와는 반대로 그 시스템 안에서 자신의 위치를 찾을 수 없었던 인물을 만나게 되면서 끝난다.

시장의 변동을 예측하고 통제하기 위해 대규모의 데이터를 컴퓨터화해 처리하는 테크놀로지와 자본 사이의 결착(interplay)은 자본자주의자들이 항상 추구하는 것 중 하나다. 사실, 월 스트리트에서 이루어지는 거래 중 65%는 ‘알고 트레이딩(algo trading, 알고리즘에 의한 거래)’ 소프트웨어를 통해 발생한다. 거대한 양의 데이터이 기록되고 이를 빠르게 평가하고 알려줘 당신이 경쟁에서 우위를 보일 수 있도록 해주는 전 세계 시장에서 알고리즘은 의사결정과 분석에 있어서 핵심적 역할을 수행하고 있다.

이와 비슷하게, 알고리즘은 우리의 문화와 일상생활을 구성하는 모든 과정에 개입해 오고 있다. 알고리즘은 클라우드 속에서 대부분 무료로 자유롭게 이용이 가능한 프로그램을 통해 우리가 일상적으로 문화 객체(object)들을 만들어내는데 사용하는 소프트웨어의 핵심이다. 알고리즘은 또한 이러한 객체들이 네트워크를 통해서 전파되는데 개입하며, 네트워크를 통해 이들 객체들을 탐색하고 검색하는 도구들에도 개입하고 있다. 그리고, 알고리즘은 현재 소셜 미디어를 통해 발생하는 대규모 데이터를 처리하고 분석함에 있어서도 필수적이다. 이 데이터는 이용자들이 게시하는 끝없이 늘어나고 있는 정보들만에 의해 생성되는 것이 아니라 그들의 이용을 통해 참여 플랫폼으로 성장한 네트워크 속 그들의 행위를 추적함으로서 생겨나는 정보들에 의해서도 생성된다.

알고리즘은 자동화된 계산과 데이터 처리를 위한 정해진 지시 집합을 정해진 단계에 따라 적용해 결과를 얻어 내기 위한 수단이라고 할 수 있다. 알고리즘이라는 용어는 9세기 페르시아의 수학자였던 알-크와리즈미(al-Khwarizmi)의 이름에서 유래했으며, 원래는 아라비아 수의 산술 연산을 위한 규칙 집합을 의미했다. 이 용어는 점차 진화해 과업을 수행하거나 문제를 해결하기 위한 일련의 절차를 의미하게 됐다. 찰스 배비지(Charles Babbage)는 기계가 수행할 수 있는 분석에 모든 연산을 개입시킬 수 있다는 그의 가설을 통해 알고리즘과 자동화를 연관시켰다. 이러한 생각은 연구되는 문제가 무엇인지에 상관없이 모든 절차들을 단순한 연산으로 쪼개 나눌 수 있다는 것이었다. 배비지는 그의 차분기관(Differential Engine)을 고안했고, 아다 러브레이스(Ada Lovelace)는 배비지의 해석기관(Analytical Engine)을 위한 최초의 알고리즘을 만들었지만, 명확하게 공식화된 알고리즘을 적용한 사람은 1937년 범용 기계(Universal Machine)에 이를 적용한 앨런 튜링(Alan Turing)이다. 튜링의 이론적 구조는 규칙 표에 따라 테이프 줄에 새겨진 상징들을 조작하는 가설적 장치로 모든 컴퓨터의 알고리즘 논리를 구현하는데 적용될 수 있었다. 인터넷의 등장은 이러한 논리적 구조가 컴퓨터를 넘어설 수 있도록 했다. 1969년 등장한 인터넷 프로토콜, 1995년 등장한 웹은 모든 컴퓨터에서 데이터가 저장되고 접속되고 처리될 수 있도록 하는 일종의 범용 저장소(container)가 됐다. 1980년대 개인용 컴퓨터의 급격한 확산에 따라 이러한 발전들은 숫자 계산이라는 컴퓨터 연산(computation)이 디지털화된 모든 과정으로 확산될 수 있도록 했다. 한편, URL은 알고리즘이 수많은 사람들이 상호연결되고 상호작용할 수 있도록 했으며, 이를 통해 결국 피에르 레비(Pierre Lévy)가 말하는 ‘알고리즘적 미디엄(algorithmic medium, http://pierrelevyblog.com/)’를 만들어냈다. 알고리즘적 미디엄은 협력적인 인간의 네트워크가 공동의 메모리를 만들어내고 개선해가는 미디엄이다.

알고리즘은 우리 일상생활의 모든 상호작용에 소셜 웹을 통해 개입하고 있다. 약 6억 9900만 명의 이용자들이 서로 연결되고 있음에 따라, 대중적인 소셜 네트워크 사이트인 페이스북은 수많은 친구들, 그룹들과 그들의 이용자들이 팔로우할 수 있는 관심사들의 업데이트를 어떻게 보여줄 수 있을까와 관련한 문제를 겪고 있다. 이러한 문제에 대한 해결책이 엣지랭크(EdgeRank)라고 알려진 알고리즘이다. 엣지랭크는 우리의 관심사(즉, ‘좋아요’), 게시된 뉴스 아이템을 공유한 친구의 수, 그것에 달린 댓글의 수 등과 관련한 데이터를 처리해 뉴스 피드에서 우선시할 것을 결정하고 ‘지루한(boring)’ 이야기들은 감추기 위해 만든 알고리즘이다. 이 알고리즘은 또한 새로운 친구들을 추천하기 위해 우리의 친구 목록을 추적한다.

이와 비슷하게, 트위터는 팔로우할 계정할 추천하고 ‘디스커버(Discover)’ 탭의 콘텐츠를 만들고, 트렌딩 토픽을 업데이트 하기 위해 알고리즘을 이용한다. 이 경우 단지 어떤 단어가 가장 많이 트윗되고 있는가를 이끌어내기 위해 복잡한 알고리즘이 작동하는 것은 아니다. 알고리즘은 또한 특정 용어의 사용이 부각되고 있는지, 그것이 이전 트렌딩 토픽에 있었는지, 그리고 그것이 다른 이용자들의 네트워크에서도 사용되고 있는지 혹은 하나로 결속된 클러스터 내에서 심도 있게 사용되고 있는지 등도 계산한다. 이 알고리즘은 ‘해쉬태그’를 통해 상호연결돼 있는 모든 트윗들을 수집함으로써 작동한다. 해쉬태그는 2007년 트위터가 처음 도입했고, 지금은 대부분의 소셜 미디어 사이트로 확산돼 있다. 이 알고리즘은 또한 우리가 URL을 공유하기 위해 소셜 버튼을 사용할 때마다 만들어지고 있는 URL 축약 서비스 혹은 ‘t.co’를 이용한다. URL 축약서비스는 단지 포스트의 문자 수를 줄여주는 것만이 아니라, 링크들이 어떻게 공유되고 있는지를 추적할 수 있도록 링크들을 풍부한 데이터를 담고 있는 구조로 변형시킨다.

소셜 네트워크뿐만 아니라, 블로그와 같은 온라인 퍼블리싱 서비스, 딕(Digg)과 레딧(Reddit), 검색 엔진과 같은 추천 시스템을 포함하여 소셜 웹은 또한 정보를 만들고 공유할 수 있도록 하는 모든 종류의 플랫폼을 포괄한다. 이러한 모든 플랫폼들은 알고리즘에 따라 자신들만의 특정한 규범을 실행한다. 매 분마다 2백만 번 이상의 검색이 이루어지는 약 60조 개 이상의 웹 페이지로 이루어진 미디엄 안에서 작동해야만 하는 구글과 같은 검색 엔진은 “당신이 대답을 원한다면, 수조 개의 웹 페이지는 아닐 것이다”라는 전제를 기반으로 하고 있다. 키워드 인덱싱만으로는 충분하지 않은 이러한 시나리오에서 구글의 페이지랭크 알고리즘은 모든 페이지로부터 링크들을 수집해 이용자 행위를 모방한 뒤, 페이지들의 순위를 매겨 가장 관련성 있는 결과를 첫 번째로 제시한다. 이 알고리즘은 또한 검색 결과를 맞춤화하기 위해 수집한 우리의 검색 기록, 우리의 언어, 우리의 물리적 위치 결과와 함께 작동한다.

알고리즘은 또한 아마존에서 어떤 책을 사야하는가, 유투브에서 어떤 비디오를 봐야하는가 등을 추천하고 이러한 모든 플랫폼에서 가장 잘 보일 수 있을 광고를 결정하기 위해 우리의 온라인 행위로부터 발생하는 데이터를 처리한다. 우리가 정기적으로 상호작용하고 있는 이러한 알고리즘들을 외에도, 실시간 추천 연산을 위해 버클리 대학교에서 개발한 협력적 필터링 알고리즘인 ‘아이젠테이스트'(Eigentaste, http://eigentaste.berkeley.edu), 코넬과 카네기 멜론 대학에서 개발한 것(http://www.technologyreview.com/view/519961/algorithm-writes-peoples-life-histories-using-twitter/)으로 그동안 올린 트위터 타임라인을 분석해 우리 삶의 역사를 재구조화한 알고리즘, 임페리얼 칼리지 런던(Imperial College London)에서 개발한 것으로 사람 대신 로봇이 운영하는 계정을 탐지해 트위터 스팸을 줄여주는 알고리즘(http://www.wired.com/wiredenterprise/2013/10/tweet-bots/) 등과 같은 다양한 알고리즘들이 존재하고 있다. 이렇듯 우리 문화 속에서 꾸준히 새롭게 등장하는 알고리즘들은 대중 문화와 일상 생활의 알고리즘을 연구하는 텀블러의 ‘알고팝'(algopop, http://algopop.tumblr.com/)을 보면 잘 알 수 있다.

여기서 언급된 사례들은 인터넷 상의 정보들이 우리의 온라인 행위로부터 추출된 데이터에 기반해서 어떻게 자동적으로 접속되고 인덱스되는지를 보여주고 있다. 우리의 행위는 상호 연결되어 서로 나누어질 수 없는 대중들의 데이터를 개선하는 메시지들의 흐름을 발생시키며, 미묘하게 우리가 공유하는 메모리들을 변화시킨다.

이는 ‘알고리즘적 미디엄’을 통한 커뮤니케이션이 ‘간접적인 협력 체계'(stigmergic)임을 의미한다. 즉, 개인들은 그들이 커뮤니케이션할 때 사용하는 미디어 자체를 변경시키고 있다. 우리가 만들어내거나 공유하는 모든 링크와 우리가 무언가를 태그하는 모든 시간, 우리가 좋아요를 누르거나 검색하거나 무언가를 사거나 리트윗하는 모든 시간 등 이 모든 정보는 데이터 구조 속에 기록되고 처리되어 다른 사람들에게 추천하거나 알리는 용도로 사용된다. 개별적으로 발생시킨 정보를 처리해서 공동으로 소비할 수 있게 함으로서 알고리즘은 인터넷 상에 축적되어 있는 거대한 정보를 탐색할 수 있도록 돕는다. 그러나 알고리즘이 정보를 다룰 때, 그들은 또한 관계와 연결을 재구조화하며, 무언가를 선호하도록 독려하며, 우연한 만남을 만들어내면서 우리의 맥락과 정체성을 (다시) 형성하는 것으로 마무리짓는다. 따라서, 온라인 플랫폼은 자동화된 사회-기술적 환경이 됐다.

우리 문화 속에서 자동화된 무언가를 이용하는 것은 충분히 고찰해야 할 인식론적, 정치적, 사회적 중요성을 갖고 있다. 예를 들어, 우리 행위를 지속적으로 수집하는 것은 사생활에 대한 기존 개념을 변형한다. 알고리즘은 우리가 인지하지 못하고 있는 과정에 우리가 참여하게 만든다. 그리고 알고리즘은 우리가 정보에 좀 더 접속할 수 있게 하지만, 거대한 정보 양은 인간으로서는 더 이상 인식할 수 있는 수준이 아니다. 또한 알고리즘은 우리의 선택 능력과 행위 능력을 증강시키지만, 그들은 결코 중립적이지 않으며, 또한 통제의 목적으로 사용될 수 있다.

대부분의 이용자들은 인터넷을 전통적 미디어와 같은 방송 미디어로 간주한다. 그들은 인터넷 미디어가 정보를 어떻게 필터링하고 처리하는지에 대해서는 잘 모른다. 알고리즘의 효과는 감지하기 어려울 뿐만 아니라, 알고리즘들은 상업적 회사의 통제에 놓여 있고 저작권 법에 의해 보호받고 있어 종종 전혀 알려지지 않는다. 또한, 복잡한 소프트웨어 시스템이 지속적으로 업데이트 되고 있기 때문에 알고리즘은 분석이 너무나 어렵다.

게다가, 알고리즘은 데이터 분석을 위해서만 사용되는 것이 아니라, 의사 결정 과정에서도 중요한 역할을 하고 있다. 이는 투명하지 않게 작동하고 있으며, 공개된 공공 영역에서 논의되지 못하고 있는 알고리즘에 따른 자동화된 결정을 받아들이는 것이 정당한가라는 의문을 제기한다. 알고리즘에 의한 데이터 처리 과정이 독립적으로 이루어지고 있으며 그 과정이 중립적이라고 우리는 주장할 수 있을까? 또한, 알고리즘은 우리의 이전 행위들을 수집한 데이터를 분석하면서 과거 의존적 경향을 강하게 보인다. 그리고 이는 기존 구조를 유지하려는 경향을 보일 수 있으며, 외부 집단의 관심사와 관계들과 연결되는 것을 막아 사회 이동성을 제한할 수 있다.

공공 영역을 통한 정보의 흐름에 영향을 미치고 있는 이들 알고리즘들은 감안하면, 컴퓨터 전문가의 영역을 넘어 이러한 과정들을 우리가 이해할 수 있게 만들 수 있는 메타포를 고안해낼 필요가 있다. 우리는 알고리즘을 일반적으로 누구나 이해할 수 있게 할 필요가 있다. 모든 사람이 알고리즘적으로 해결될 수 있는 문제가 무엇인지에 대한 토론에 참여할 수 있어야 하며, 이들 문제에 어떻게 접근할 것인가에 대한 토론에 참여할 수 있어야 한다. 참여의 확대는 미디어의 생태적 다양성과 미디어적 확장(pragmatics)을 담보하기 위한 방법이다.

소프트웨어 연구의 개척작인 매튜 풀러는 알고리즘이 현재 대부분의 지적 작업이 발생하고 있는 미디어의 내부 프레임워크이지만, 알고리즘에 대해서는 인문학적 혹은 비판이론적 관점에서 거의 연구가 이루어지지 않고 있다고 지적한다. 일반적으로 알고리즘은 기술자들만이 연구하는 대상이다. “블립 뒤에서: 소프트웨어의 문화에 대한 에세이들”(Behind the Blip: Essays on the Culture of Software)라는 책에서 풀러는 몇몇 가능한 비판적 접근 방법을 제시한다. 예를 들어, 그들의 기능, 구조, 상태를 실제로 밝혀주는 정보 시스템 연구, 소셜 소프트웨어에 내재적인 시학적(poetic) 연결의 보존, 시스템의 기술적 용량을 항상 초과할 수 있는 이용의 촉진, 발명의 여지를 부여하는 새로운 잠재성과 더 넓은 시야를 갖고 있는 미디어로 확장할 수 있게 하는 탐지 가능한 연결들이다.

이러한 맥락에서 비전문가들의 컴퓨팅 이용에 적극적으로 기여하고 그 과정에 이용자 커뮤니티가 영향을 미칠 수 있도록 하는 몇몇 새로운 계획들(initiatives)들은 이미 ‘알고리즘적 미디엄’ 안에서 발생하고 있다. 여기에는 데이터 마이닝에 기반해 내러티브를 만들어내는 데이터 저널리즘, 이용자들과 협력해 발전한 자유 소프트웨어, 이용자들의 의식적인 협력을 통해 수집한 데이터에 기반한 크라우드소싱, 대규모 공개 온라인 강좌(MOOCs, massive open online courses)의 등장 등이 포함된다.

다른 측면에서, 문화 기관들 또한 가상적 미디어 안에서 존재감을 향상시킬 필요가 있다. 그들의 아카이브, 데이터, 노하우, 방법론, 프로젝트, 협력자들 등에 온라인으로 접속할 수 있도록 함으로서, 문화 기관들은 ‘간접적인 협력 체계(stigmergy)’의 이점을 취하면서 미디의 다양성을 고양시켜 새로운 관심사, 연결을 촉진할 수 있다.

자연어 처리에 기반한 구글의 허밍버드(Hummingbird) 알고리즘과 페이스북에 게시된 포스트들의 언어를 분석해 ‘세상을 이해한다’는 주커버그의 목표가 보여주듯이 인공지능 기술의 이용을 통해 알고리즘적 환경의 크기와 범위는 현재 계속 증강되고 있다. 만약 우리가 인터넷의 다양성과 접속 가능성을 지속적으로 유지하고 싶다면, 우리 문화를 형성함에 있어서 알고리즘이 개입하고 있는 과정들의 역할에 대한 비판적, 공공적 논쟁을 독려하는 것이 중요하다.