[달하나 천강에] 새로운 지능 앞에서: 기술의 시대와 인간의 과제
2016년 알파고에 충격을 받고, 2022년 ChatGPT에 놀란 후, 이제는 AI의 발전이 피부로 느껴지고 있다. 새로운 지능의 출현에 혹자는 열광하고 혹자는 두려움을 느낀다. AI의 신화가 시작되면서, 인류의 신화는 완성과 동시에 종말할 것이라는 두려움이다. 미지의 존재가 지니는 월등한 능력은 자극적이다. 수백 페이지의 텍스트를 몇 초 만에 요약하고, 단숨에 외국어 능력자로 만들어 주며, 소설을 쓰고 음악을 만들며 그림과 그리는 모습은, 가히 경이적이다. 개인의 능력 밖 세상에서도 AI를 입고 활보할 수 있게 되면서, 이제는 나의 일을 기계가 대신하는 듯한 착시를 느끼며 인간의 시대는 끝났다는 막막함에 다다른다.
하지만 그것이 세계를 이해하거나 스스로 판단하는 것은 아니다. 생성형 AI는 거대한 언어 자료를 기반으로, 통계적으로 가장 가능성 높은 출현 패턴을 출력하는 확률적 언어 생성기다. 쉽게 말해, 자신이 무슨 말을 하는지 모르고 떠드는 앵무새 같은 존재라는 것이다. 표면적으로 정합성 있는 문장을 산출하지만, 그 문장이 논리적·개념적으로 타당한지는 점검하지 못한다. ChatGPT에게 ‘세종대왕 맥북프로 던짐 사건’에 대해 설명해 달라는 요청에 “조선왕조실록에 기록된 일화”이며 “세종대왕이 민족문화를 발전시키기 위해 얼마나 노력했는지를 보여주는 일화”라고 답변한 일은 이미 유명하다. 생성형 AI는 언어를 형식적으로 처리할 뿐, 그 의미를 통합적으로 사유하거나 인간 사회의 규범과 맥락 속에서 해석하지 못한다.
이 지점에서 인간의 역할은 여전히 남아 있다. 기술은 결과를 낼 수 있지만, 그 결과의 의미를 이해하지는 못한다. 이를 해석하고 결정하여 책임을 질 수 있는 주체는, 적어도 아직은 인간뿐이다. 무의미한 것들의 정당화(justification)은 오직 인간의 영역이다. 기술은 기존의 정당성을 모사할 뿐, 그것을 판단하고 제단할 능력이 없다. 정당화의 과정은 전인적 사고를 요구한다. 이는 단순한 오류 수정 능력이 아니라, 의미 해석, 가치 판단, 윤리성 고찰과 같은 고차원적 인지 능력하에 이루어진다. 이러한 능력은 단일한 기술 훈련으로는 기를 수 없다. 철학적 개념을 사회현상과 연결하고, 과학적 사실을 역사적 흐름 속에 위치시키며, 하나의 현상을 문학·예술·윤리의 관점에서 교차적으로 사고하는 과정에서 조금씩 자라난다. 이러한 통합적 사고는 인문학, 사회과학, 자연과학 전반에 걸친 지식과 그에 대한 성찰적 태도에서 비롯된다. 즉, 인간 고유의 사유 능력은 liberal arts, 곧 교양의 토대 위에서 구축된다. 여기서 교양은 인간 정신이 축적해 온 핵심 개념, 사유 방식, 논증 구조를 학습하고, 이를 다양한 현실 문제에 적용하는 역량을 말한다. 흔히 말하는 ‘고전적 지식’이다.
고전적 지식의 유용성은 오늘날에도 여전히 유효하다. 가령 아리스토텔레스의 ‘목적론적 사고’는 기술과 인간의 방향성과 의미를 되묻는 데 중요한 통찰을 제공하며, 막스 베버의 ‘가치 중립성’ 개념은 데이터 기반의 의사결정이 과연 가치 중립적인지에 대한 비판적 성찰을 가능하게 한다. 기술의 발전이 인간의 자율성을 침식할 때, 우리는 카뮈의 ‘반항하는 인간’을 다시 읽을 수 있어야 하며, 기술의 도구성이 목적화되는 사회에서 하이데거의 ‘기술에 대한 물음’을 소환할 수 있어야 한다.
생성형 AI의 시대는 인간에게 더 높은 수준의 통찰, 즉 의미의 맥락을 읽고 판단하는 능력, 새로운 질문을 구성하는 능력을 요구한다. 고전적 사유는 단지 과거의 유물이 아니라, AI 시대를 살아가는 데 꼭 필요한 인지 도구들이다. 정보의 생산보다 정보의 해석과 평가가 중심이 되는 시대에서, 최신의 ‘자극적’ 기술을 잘 사용하기 위해서 우리는 오히려 ‘고리타분한’ 고전, 논리, 개념의 훈련을 거쳐야 한다. 생성형 AI는 결과물을 산출할 수 있지만, 그에 대한 이용과 해석과 책임은 여전히 인간의 몫이다. 우리가 해야 할 일은 AI를 도구로서 또렷이 인식하는 일, AI가 놓치는 세계의 층위—역사성, 맥락성, 윤리성—을 인간의 언어로 다시 번역해 내는 일이다.