SPECIAL FEATURE Artificial Intelligence & Art

2016년 1월 다보스 포럼(Davos Forum)에서 세계경제포럼 회장 클라우스 슈밥(Klaus Schwab)이 내뱉은 한 단어는 인간의 삶이 얼마나 큰 변혁을 앞두고 있는지를 가늠케 했다. 그것은 다름 아닌 “4차 산업혁명”. 인류는 이미 빠르고 편리한 자동화 기기로 무장된 삶을 살고 있지만 더 나아가 가까운 미래엔 인공지능(Artificial Intelligence), 빅데이터(Big Data), 클라우드(Cloud) 등 우리가 미처 예상치 못한 지능정보기술을 통해 전례 없이 빠른 속도로 사회 전 분야에서 융합이 시도될 것으로 예상된다. 이는 분명 삶의 근본적인 체제와 사회적 패러다임을 바꿀 것이다. 여기서 중요한 사실 하나, 이 모든 변화와 그에 따른 수많은 논의의 화살은 모두 ‘인간(人)’을 향한다는 것. 사람들은 그 어느 때보다 윤리, 철학, 법학과 같은 인간을 다루는 학문에 관심을 두며 인간이기에 할 수 있는 것이 무엇인지를 모색하게 될 것이다. 이러한 흐름은 미술에도 영향을 미쳐 과학과 미술의 융합을 시도하는 전시, 교육, 포럼 등이 활발히 열리고 있다.
이런 상황 인식을 전제로 《월간미술》은 인간의 영역으로 간주해온, 이른바 ‘창의성, 감정적 교감, 직관적 판단’ 등에 주목해 “인공지능과 인간 그리고 창의성의 정수 ‘미술’의 관계”를 살펴보고 앞으로의 행보를 전망하고자 한다. 예측하기 어려운 인공지능의 결과값을 창의성의 범주에 넣어야 할까? 창조행위의 정수는 미술인 것인가? 미술과 창의성의 개념적 재정의가 필요한 건 아닐까? 자칫 무모하고 답이 없는 논쟁처럼 비칠 수 있는 주제에 의견을 들어보고자 이 분야 전문가를 지면에 초대해 미술과 과학의 융합이 활발히 이뤄지고 있는 현장을 소개한다. 나름의 방향성으로 미래형 인재를 양성하는 교육 기관 및 인공지능 기술을 비롯해 첨단 과학기술을 접목한 작가들의 현주소를 살펴본다. 이를 통해 지금껏 우리가 예술이라 여겨온 영역의 확장 가능성에 대해 생각해보는 계기가 되길 바란다.
진행=곽세원 기자

하싯 아그라왈 〈탄뎀(Tandem)〉 구글 딥드림 라이브러리, pc(Ubuntu Linux OS), 터치모니터 2016 ⓒ Art Center Nabi

하싯 아그라왈 〈탄뎀(Tandem)〉 구글 딥드림 라이브러리, pc(Ubuntu Linux OS), 터치모니터 2016 ⓒ Art Center Nabi

머신러닝과 예술의 새로운 가능성

최두은 | 아트센터 나비 겸임 큐레이터, 다빈치 크리에이티브 2017 예술 감독

이제는 인공지능(AI, Artificial Intelligence)이 그림을 그리고, 작곡을 하고, 소설을 쓰고, 영화를 만들었다는 기사가 새롭지 않다. 이러한 인공지능 창작물의 배경에는 빅데이터와 프로세싱 능력(processing power)에 힘입은 머신러닝(machine learning) 및 딥러닝이라 하는 인공지능 분야의 혁신적인 도약이 있다. 현재의 인공지능은 다양한 인공신경망(artificial neural network) 알고리즘을 통해 분석, 분류, 추론, 예측, 회귀의 과정을 반복하며 스스로 학습하고 결과를 도출해낼 수 있게 되었다. 딥러닝의 최고 권위자 앤드류 응(Andrew Ng) 박사는 “인공지능은 마치 전기, 인터넷이 처음 등장했던 때처럼 지금 모든 분야에 영향을 미치고 있다”고 말한다. 예술 분야도 예외는 아니어서 기존의 인간과 기계의 상호작용을 넘어 서서 ‘예측 불가능한’ 공동의 창작자로서 인공지능의 가능성을 실험 중이다. 이제 막 시작된 인공지능 창작물에 대해 성급한 예술적 가치 평가를 하기보다는, 다양한 예를 공유하는 것으로 이해를 돕고자 한다.

하싯 아그라왈(Harshit Agrawal)의 〈탄뎀(Tandem)〉은 인간이 인공지능과 함께 그림을 그려볼 수 있는 그림판이다. 구글의 머신러닝 기반 이미지 소프트웨어인 딥드림(DeepDream) 알고리즘의 일부를 활용하여 제작되었다. 인간이 터치스크린 위에 밑그림을 그리고, 기쁨, 슬픔 같은 개인화된 감정 키워드를 선택한 후 구상화인지 추상화인지를 정해 ‘상상’ 버튼을 누르면 이 입력된 데이터를 바탕으로 인공 신경망(artificial neural network)이 그림을 완성한다. 제목에서 시사하듯 인간과 기계가 짝이 되어 서로 다른 언어를 가르쳐주며 하나의 예측 불가능한 그림을 만들어간다.

만약 인간이 그린 그림에 인공지능이 음악으로 답을 한다면? 안드레아스 레프스가르트(Andreas Refsgaard)와 진 코건(Gene Kogan)의 〈두들 튠즈(Doodle Tunes)〉에서는 낙서가 악보가 된다. 참여자들이 종이 위에 악기를 그리면 이미지 데이터 베이스인 이미지넷(ImageNet)을 기반으로 훈련된 합성곱 신경망(Convolutional Neural Network)이 어떤 악기인지 분류해내고 라이브 퍼포먼스를 위한 음악 소프트웨어인 에이블톤 라이브(Ableton Live)와 연결하여 키보드, 베이스 기타, 색소폰, 키보드, 드럼 등 각 악기에 해당하는 음악 시퀀스를 가져와 실시간으로 라이브 음악을 연주한다.

또한 딥 합성곱 신경망(DCNN: Deep Convolutional Neural Network)이 도시의 패턴을 읽어내는 작업도 있다. 골란 레빈(Golan Levin), 카일 맥도날드(Kyle McDonald), 데이비드 뉴버리(David Newbury)가 제작한 〈테라패턴(Terrapattern)〉은 오픈스트리트맵(OpenStreetMap)이라는 지도 데이터를 기반으로 학습한 후 구글의 위성 지도에서 구조적으로 유사한 도시 내 다른 지역의 지형들을 찾아주는 일종의 위성 이미지 검색엔진이다. 현재까지 뉴욕, 샌프란시스코, 피츠버그, 디트로이트, 마이애미, 오스틴 그리고 베를린까지 총 7개의 도시를 대상으로 하고 있다. 이는 일반인에게 인간이 만들어 놓은 도시의 흔적들을 인공지능의 시각을 통해 새롭게 보여주고 잘 드러나지 않던 특정 패턴에 관심을 갖게 한다. 뿐만 아니라 예술의 사회적 역할을 더해 현재 급속히 상업화 및 군사화하는 인공지능 기술에 대한 대안으로, 인도주의 단체, 사회운동가, 시민 연구자, 저널리스트 등이 지도상에서 인간적 · 사회적 · 과학적 · 문화적 의미를 갖는 유사 패턴을 빠르게 찾을 수 있도록 오픈 소스로 제공한다.

〈테라패턴〉이 지도가 예술이 되는 작품이었다면, 예술작품을 재료로 새로운 가상 지도를 만들어내는 작업들도 있다. 시릴 디안(Cyril Diagne)의 〈티-스니 맵(T-SNE MAP)〉은 수천 점이 넘는 예술작품을 티-스니 알고리듬(t-SNE algorithm)을 활용해 다른 메타 정보와 상관없이 시각적 유사성에 따라서만 분류하고 비슷한 이미지들이 가까이 있도록 배치한다. 관객들은 이 새롭게 생성된 무리 안에서 다른 시각으로 예술작품들을 감상하며 기존에 발견하지 못했던 새로운 의미를 찾기도 한다. 마리오 클링에만(Mario Klingemann)의 〈엑스 디그리오브 세퍼레이션(X Degree of Separation)〉은 관객이 두 점의 작품을 선택하면 두 작품 사이를 징검다리처럼 단계별로 다른 작품과 이어가며 한 작품에서 다른 작품에 이르는 관계도를 보여주는 작품이다. 이렇게 이어진 관계들 속에서 예상치 못한 ‘뜻밖의 재미(serendipity)’를 발견하기도 한다.

한편, 머신러닝 기술을 이용해 현재의 인공지능의 한계에 대해 질문하는 작품들도 있다. 신승백, 김용훈의 〈동물 분류기(Animal Classifier)〉는 호르헤 루이스 보르헤스(Jorge Luis Borges)의 ‘존 윌킨스의 분석적 언어(The Analytical Language of John Wilkins)’에 기술된 독특한 동물 분류법을 이용하여 머신러닝에서의 분류의 모호함에 대해 말한다. 어떠한 기준점도 찾을 수 없는 총 14가지로 동물을 구분한다. 각각의 모호한 분류 항목에 맞추어 작가들이 다시 한 번 임의로 선택해서 분류한 초기 이미지 데이터를 바탕으로 기계가 학습하고 찾아낸 이미지들이 14개의 모니터에 나타난다. 인공지능 분야 중 비교적 정확도가 높다는 이미지 영역을 다루고 있지만 최초의 자의적 분류법에 작가적 임의성이 더해져 모호한 결론에 이른다. 분류의 문제와 더불어 인간의 개입에 의한 데이터의 왜곡성과 편향성에 대한 환기이기도 하다.

양민하의 〈해체된 사유(思惟)와 나열된 언어(The Listed Words and the Fragmented Meanings)〉는 인공지능 분야 중 가장 불완전하다고 하는 언어 학습(language learning)의 문제를 다룬다. 장단기억 순환신경망(LSTM RNN: Long Short-Term Memory Recurrent Neural Network)을 사용하여 기계가 자아를 지니면 어떤 행동을 할지 탐구하는 철학자와 과학자들의 텍스트를 학습시킨 후 ‘사유의 언어’를 생성해내는 작업이다. 브루스 매즐리시(Bruce Mazlish), 레이 커즈와일(Ray Kurzweil), 레브 마노비치(Lev Manovich) 등이 저술한 총 9권의 책에서 약 35만 문장을 학습한 인공지능이 생성해낸 언어는, 문장으로서의 형식은 갖추었으나 의미적으로는 해체되어 있다. 저자들의 각기 다른 글쓰기 방식과 아직 충분하지 않은 데이터 때문일 것이라 짐작해본다. 하지만 역설적으로 인공지능 중에서도 최신 상급 신경망 중 하나인 장단기억 순환신경망을 쓰는 이 작업을 위해 작가는 기계가 이해할 수 있도록 문서를 정렬하는 매우 단순한 노동에 가장 많은 시간을 들여야 했다고 한다.

이처럼 머신러닝을 기반으로 예술의 새로운 가능성을 탐색하려는 시도는 활발하다. 하지만, 이 과정에 아직까지는 인간의 초기 데이터 입력, 분류, 감독, 평가 등의 도움 또는 개입이 필요한 것 또한 현실이다. 어쩌면 인공지능 예술의 존속 가능성은 인간의 도움 또는 개입이 얼마나 진정하고 창의적이냐에 달려있지 않을까? 여기에 예시된 작품 대부분을 소개한 아트센터 나비의 전시 제목이 〈아직도 인간이 필요한 이유: AI와 휴머니티〉인 이유이기도 하다. 그리고 만약 현재 인공지능 예술의 한계 원인이 인공지능이 학습할 양질의 관련 데이터 부족 혹은 이제 막 빛을 보기 시작한 인공지능이 예술이라는 새로운 분야에 숙련되기 위한 절대 시간 부족에 있다면 근미래에 예술이 더 이상 인간의 전유물이 아닐지도 모른다. 실제로 〈티-스니 맵〉과 〈엑스 디그리오브 세퍼레이션〉 모두 구글의 아티스트 레지던시 프로그램을 통해 제작된 작품으로, 구글은 현재 전 세계 문화 기관과 협력 관계를 맺으며 방대한 양질의 예술 관련 데이터를 축적 중이며, 이를 바탕으로 예술가들과 구글 엔지니어들이 함께 인공지능 예술의 가능성에 대한 실험을 진행 중이다. 물론 그 배경에는 알파고처럼 한 가지 특별한 분야가 아닌 인간처럼 종합적이고 자유로운 사고가 가능한 강인공지능(Artificial General Intelligence)의 완성을 위해 지금의 기술적 한계를 극복할 새로운 돌파구를 예술가의 특별한 상상력에서 찾을 수 있을까 하는 기대 때문이라는 이야기도 있다. 어떤 이유에서건 인공지능 시대를 맞아 예술가의 창의력은 도전을 받고 있으며 동시에 시대적 필요에 의해 그 어느 때보다 주목 받고 있다는 사실만은 분명하다. 만약 인공지능 예술에 도전해보고 싶다면 ‘예술가들을 위한 머신러닝(Machine Learning for Artists)’이라는 사이트를 추천한다. ●